KR101691380B1 - Dct based subpixel accuracy motion estimation utilizing shifting matrix - Google Patents

Dct based subpixel accuracy motion estimation utilizing shifting matrix Download PDF

Info

Publication number
KR101691380B1
KR101691380B1 KR1020150028409A KR20150028409A KR101691380B1 KR 101691380 B1 KR101691380 B1 KR 101691380B1 KR 1020150028409 A KR1020150028409 A KR 1020150028409A KR 20150028409 A KR20150028409 A KR 20150028409A KR 101691380 B1 KR101691380 B1 KR 101691380B1
Authority
KR
South Korea
Prior art keywords
matrix
equation
quot
block
dct
Prior art date
Application number
KR1020150028409A
Other languages
Korean (ko)
Other versions
KR20160105127A (en
Inventor
류철
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020150028409A priority Critical patent/KR101691380B1/en
Publication of KR20160105127A publication Critical patent/KR20160105127A/en
Application granted granted Critical
Publication of KR101691380B1 publication Critical patent/KR101691380B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

동영상 부호화를 위한 1/4 부화소 단위의 움직임 예측 방법으로서, 입력된 영상 프레임에 관한 DCT(Discrete Cosine Transform) 변환을 수행하는 단계; DCT 변환된 현재 영상 프레임 및 이전 영상 프레임 간의 블록 정합을 통해 현재 블록과 최소 정합 오차를 갖는 예측 블록을 획득하는 주파수 영역에서의 움직임 예측을 수행하는 단계를 포함하되, 상기 주파수 영역에서의 움직임 예측을 수행하는 단계에서, 상기 예측 블록은, 3차원 보간 함수를 이용한 1/4 부화소 단위의 영상 보간이 적용된 수평/수직의 시프팅 매트릭스(Shifting matrix)와 상기 이전 영상 프레임의 탐색 영역(Search range) 내의 상기 예측 블록 주변의 4개의 블록의 DCT 계수 행렬을 이용한 행렬 연산을 통해서 획득되는, 움직임 예측 방법이 제공된다. A motion prediction method for a 1/4 sub-pixel for video encoding, the method comprising: performing DCT (Discrete Cosine Transform) transformation on an input image frame; Performing motion prediction in a frequency domain to obtain a prediction block having a minimum matching error with a current block through block matching between a DCT transformed current image frame and a previous image frame, The prediction block may include a horizontal / vertical shifting matrix applied with a 1/4 sub-pixel interpolation using a three-dimensional interpolation function, a search range of the previous image frame, Is obtained through a matrix operation using a DCT coefficient matrix of four blocks in the vicinity of the prediction block.

Description

시프팅 매트릭스를 이용한 DCT 기반의 부화소 단위 움직임 예측 방법{DCT BASED SUBPIXEL ACCURACY MOTION ESTIMATION UTILIZING SHIFTING MATRIX} [0001] The present invention relates to a DCT-based subpixel motion prediction method using a shifting matrix,

본 발명은 동영상 압축 기술에 관한 것으로서, 보다 구체적으로는 시프팅 매트릭스(Shifting Matrix)를 이용한 DCT(Discrete Cosine Transform) 기반의 부화소 단위의 움직임 예측(Motion Estimation) 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image compression technique, and more particularly, to a motion estimation method based on a DCT (Discrete Cosine Transform) based sub-pixel using a shifting matrix.

최근 이동통신단말기의 발전으로 인해 사용자들은 무선 환경에서도 고화질의 동영상 서비스를 즐길 수 있기를 기대한다. 고화질의 동영상을 한정된 대역폭의 통신환경에서 송수신하기에는 용량이 매우 방대하므로, 사용자의 요구조건을 만족시키기 위해서 동영상 압축이 필수적으로 사용되고 있다. ITU-T와 ISO에서 공동으로 제안한 동영상 압축 표준인 H.264/AVC는 현재 가장 널리 쓰이고 있는 코덱으로, 이전의 동영상 압축 표준에 비해 절반 이하의 비트율로 더 좋은 화질을 얻을 수 있도록 개발되었다. 이에 따라 데스크톱이나 노트북 뿐 만 아니라 디지털카메라, 휴대폰, CCTV등에도 H.264 기술이 널리 활용되고 있다.With the recent development of mobile communication terminals, users are expected to enjoy high quality video service even in a wireless environment. Since the capacity for transmitting and receiving a high-quality moving picture in a limited bandwidth communication environment is very large, moving picture compression is indispensably used in order to satisfy a user's requirement. H.264 / AVC, a video compression standard jointly proposed by ITU-T and ISO, is currently the most widely used codec and has been developed to obtain better image quality at a bit rate of less than half the previous video compression standard. As a result, H.264 technology is widely used not only in desktops and laptops but also in digital cameras, mobile phones, and CCTV.

동영상 압축은 기본적으로 공간적인 중복성과 시간적인 중복성을 제거하는 기술이 활용되며, 그 중 영상 내 연속된 프레임 사이의 시간적인 중복성을 제거하는 방법으로 움직임 예측 기술을 사용한다. 움직임 예측은 동영상 부호화기에서 전체 계산량의 60~80%를 차지하는 부분이므로, 뛰어난 압축 효율과 낮은 계산량을 갖는 움직임 예측 알고리즘을 개발하기 위해 끊임없이 연구되고 있다. 움직임 예측에서 기본이 되는 블록 정합 알고리즘은 현재 영상(Current frame)의 각 블록들의 탐색 영역(Search range)에서 최소 정합 오차를 갖는 블록을 이전 프레임(Previous frame)에서 찾아내어 움직임 정보를 예측하는 방법이다. 동영상 압축 시스템은 움직임 정보와 예측 블록(Prediction block)의 오차만을 엔트로피 부호화하여 비트스트림으로 전송하게 되는데, 움직임 정보가 정확할수록 예측 블록의 오차가 줄어들어 시간적 중복성을 효과적으로 제거할 수 있다. In video compression, techniques for eliminating spatial redundancy and temporal redundancy are used. Among them, motion prediction technology is used as a method for eliminating temporal redundancy between successive frames in an image. Since the motion estimation occupies 60 ~ 80% of the total calculation amount in the video encoder, it is continuously studied to develop a motion prediction algorithm having excellent compression efficiency and low calculation amount. The block matching algorithm, which is the basis of motion prediction, is a method of finding a block having a minimum matching error in a search range of each block of a current frame in a previous frame to predict motion information . The moving picture compression system entropy-codes only the motion information and the error of the prediction block, and transmits the motion vector information as a bitstream. As the motion information is accurate, the error of the prediction block is reduced, thereby effectively eliminating temporal redundancy.

움직임 정보는 프레임 간의 밝기 변화, 비선형성 움직임, 물체간의 경계 등으로 인하여 정수 화소 단위로만 발생되지 않으므로 정수 화소 단위의 움직임 예측만으로는 정확한 움직임 정보를 기대할 수 없다. 부화소(Subpixel) 단위 움직임 예측은 정수 화소 단위 움직임 예측에 비해 부화소 단위 움직임 정보까지 예측할 수 있으므로 보다 정확한 움직임 예측이 가능하다. 이러한 이유로 MPEG-1, MPEG-2와 H.263은 1/2 화소 단위의 움직임 예측을 사용하였고, H.264에서는 1/4 화소 단위까지 확장하여 기존 동영상 부호화 표준보다 움직임 예측 성능을 높였다.Since the motion information is not generated only in the unit of an integer pixel due to the brightness change between frames, nonlinear motion, boundary between objects, accurate motion information can not be expected by motion prediction of an integer pixel unit only. Since subpixel unit motion prediction can predict subpixel motion information compared to integer pixel unit motion prediction, more accurate motion prediction is possible. For this reason, MPEG-1, MPEG-2 and H.263 use half-pixel motion prediction, and H.264 extends the resolution to 1/4 pixel units to improve motion prediction performance over existing video coding standards.

일반적인 동영상 부호화기의 움직임 예측 알고리즘은 공간 영역에서 수행된다. 그러나 공간 영역(Spatial domain)에서의 부화소 단위 움직임 예측의 경우 보간 기술(Interpolation technique)의 적용으로 인해 동영상 부호화기의 전체 계산량이 증가되는 문제점이 있다.
본 발명과 관련하여 3차 보간법 중 cubic 보간법과 관련된 선행문헌으로는 "이웃 픽셀 값을 고려한 적응적 3차 보간법" (방송공학회논문지 2010년 제15권 제3호, 일반논문-10-15-05, 이아영, 김회창, 정제창)이 있다.
A motion prediction algorithm of a general video encoder is performed in a spatial domain. However, in the case of subpixel motion prediction in the spatial domain, the application of the interpolation technique increases the total amount of computation of the video encoder.
The prior art related to cubic interpolation in the context of the present invention is "adaptive cubic interpolation considering neighboring pixel values" (The Journal of Broadcasting Engineering, Vol. 15, No. 3, , Lee, Young, Kim, and Jeong, Chang).

본 발명은 주파수 영역(Frequency domain)에서 시프팅 매트릭스(Shifting Matrix)를 이용하여 DCT(Discrete Cosine Transform) 기반의 부화소 정밀도의 움직임 예측(Motion Estimation)을 수행하는 방법을 제공하고자 한다.
The present invention provides a method of performing Motion Estimation of sub-pixel precision based on DCT (Discrete Cosine Transform) using a shifting matrix in a frequency domain.

본 발명의 일 측면에 따르면, 동영상 부호화를 위한 1/4 부화소 단위의 움직임 예측 방법으로서, 입력된 영상 프레임에 관한 DCT(Discrete Cosine Transform) 변환을 수행하는 단계; DCT 변환된 현재 영상 프레임 및 이전 영상 프레임 간의 블록 정합을 통해 현재 블록과 최소 정합 오차를 갖는 예측 블록을 획득하는 주파수 영역에서의 움직임 예측을 수행하는 단계를 포함하되,According to an aspect of the present invention, there is provided a motion prediction method for a 1/4 sub-pixel for video encoding, the method comprising: performing DCT (Discrete Cosine Transform) conversion on an input video frame; Performing motion prediction in a frequency domain to acquire a prediction block having a minimum matching error with a current block through block matching between a DCT transformed current image frame and a previous image frame,

상기 주파수 영역에서의 움직임 예측을 수행하는 단계에서, 상기 예측 블록은, 3차원 보간 함수를 이용한 1/4 부화소 단위의 영상 보간이 적용된 수평/수직의 시프팅 매트릭스(Shifting matrix)와 상기 이전 영상 프레임의 탐색 영역(Search range) 내의 상기 예측 블록 주변의 4개의 블록의 DCT 계수 행렬을 이용한 행렬 연산을 통해서 획득되는, 움직임 예측 방법이 제공된다.
In the step of performing motion prediction in the frequency domain, the prediction block may include a horizontal / vertical shifting matrix to which image interpolation is applied in units of quarter pixels using a three-dimensional interpolation function, And a DCT coefficient matrix of four blocks around the prediction block in a search range of a frame.

일 실시예에서, 상기 예측 블록은 하기 수학식 1 및 수학식 2에 의해 정의되며, 상기 수평 시프팅 매트릭스는 하기 수학식 3 및 수학식 4에 정의된 행렬을 이용하고, 상기 수직 시프팅 매트릭스는 하기 수학식 5에 의해 정의된 행렬을 이용할 수 있다.
In one embodiment, the prediction block is defined by the following equations (1) and (2), and the horizontal shifting matrix uses a matrix defined by Equation (3) and Equation (4), and the vertical shifting matrix A matrix defined by the following equation (5) can be used.

[수학식 1] [Equation 1]

Figure 112015019958316-pat00001
Figure 112015019958316-pat00001

여기서,

Figure 112015019958316-pat00002
는 예측 블록
Figure 112015019958316-pat00003
의 DCT 계수 행렬로 표현됨.
here,
Figure 112015019958316-pat00002
Gt;
Figure 112015019958316-pat00003
Gt; DCT < / RTI >

[수학식 2]&Quot; (2) "

Figure 112015019958316-pat00004
Figure 112015019958316-pat00004

여기서, fi는 예측 블록

Figure 112015019958316-pat00005
의 주변의 4개의 참조 블록 중 어느 하나로서 4×4 블록 사이즈를 가지며, 상기
Figure 112015019958316-pat00006
Figure 112015019958316-pat00007
는 각각 상기 수평 시프팅 매트릭스와 상기 수직 시프팅 매트릭스를 나타냄.
Here, f i is a prediction block
Figure 112015019958316-pat00005
And has a 4x4 block size as any one of the four reference blocks around the reference block,
Figure 112015019958316-pat00006
Wow
Figure 112015019958316-pat00007
Respectively represent the horizontal shifting matrix and the vertical shifting matrix.

[수학식 3]&Quot; (3) "

Figure 112015019958316-pat00008
Figure 112015019958316-pat00008

[수학식 4]&Quot; (4) "

Figure 112015019958316-pat00009

Figure 112015019958316-pat00009

여기서, f()는 상기 3차원 보간 함수를 나타내고, d는

Figure 112016078605951-pat00010
중 어느 하나의 1/4 부화소 위치를 나타내며,
Figure 112016078605951-pat00011
는 버림 함수를 나타내고,
Figure 112016078605951-pat00012
는 올림 함수를 나타내고, D는
Figure 112016078605951-pat00013
인 4×4의 변위 행렬을 나타냄.
Where f () denotes the three-dimensional interpolation function, d
Figure 112016078605951-pat00010
Pixel sub-pixel position,
Figure 112016078605951-pat00011
Represents a discarding function,
Figure 112016078605951-pat00012
Represents a rounding function, and D represents
Figure 112016078605951-pat00013
4 x 4 displacement matrix.

[수학식 5]&Quot; (5) "

Figure 112015019958316-pat00014
Figure 112015019958316-pat00014

여기서, 위첨자 t는 전치 행렬을 나타내고, 상기 수학식 5에서의 버림 함수 및 올림 함수에는 상기 수학식 3 및 4에서의 수평 변위량인

Figure 112016078605951-pat00015
대신 수직 변위량인
Figure 112016078605951-pat00016
가 적용됨.
Here, the superscript t represents the transpose matrix, and the discarding function and the rounding function in Equation (5) are the horizontal displacements in Equations (3) and
Figure 112016078605951-pat00015
Instead,
Figure 112016078605951-pat00016
Is applied.

일 실시예에서, 상기 예측 블록의 획득을 위한 행렬 연산에서,In one embodiment, in the matrix operation for obtaining the prediction block,

상기 수학식 3, 상기 수학식 4, 상기 수학식 5의 상기 변이 행렬인

Figure 112016078605951-pat00017
의 n 값이 상기 수평 변위량 및 상기 수직 변위량에 따라,
Figure 112016078605951-pat00018
의 값을 갖는 경우
Figure 112016078605951-pat00019
Figure 112016078605951-pat00020
은 4×4의 영행렬을 이용하고,
Figure 112016078605951-pat00021
의 값을 갖는 경우
Figure 112016078605951-pat00022
Figure 112016078605951-pat00023
의 행렬을 이용할 수 있다.
The variation matrix of Equation (3), Equation (4) and Equation (5)
Figure 112016078605951-pat00017
The n values of the horizontal displacement amount and the vertical displacement amount,
Figure 112016078605951-pat00018
≪ / RTI >
Figure 112016078605951-pat00019
and
Figure 112016078605951-pat00020
A 4 × 4 zero matrix is used,
Figure 112016078605951-pat00021
≪ / RTI >
Figure 112016078605951-pat00022
And
Figure 112016078605951-pat00023
Can be used.

일 실시예에서, 상기 3차원 보간 함수는, 하기 수학식 6의 b-spline 보간 함수 또는 하기 수학식 7의 cubic 보간 함수가 이용될 수 있다.
In one embodiment, the three-dimensional interpolation function may be a b-spline interpolation function of Equation (6) or a cubic interpolation function of Equation (7).

[수학식 6]&Quot; (6) "

Figure 112015019958316-pat00024

Figure 112015019958316-pat00024

[수학식 7] &Quot; (7) "

Figure 112016078605951-pat00025

여기서, 상기 수학식 7의 a는 cubic 보간 함수에 적용될 선택된 상수값임.
Figure 112016078605951-pat00025

In Equation (7), a is a selected constant value to be applied to the cubic interpolation function.

일 실시예에서, 상기 수평 변위량 또는 상기 수직 변위량에 따라 상기 탐색 영역의 경계 밖의 DCT 계수 정보가 필요한 경우, 상기 탐색 영역 내의 DCT 계수 정보를 복사하여 상기 움직임 예측에 활용할 수 있다.
In one embodiment, when DCT coefficient information outside the boundary of the search area is required according to the horizontal displacement amount or the vertical displacement amount, the DCT coefficient information in the search area may be copied and used for the motion prediction.

본 발명의 실시예에 의하면, 주파수 영역(Frequency domain)에서 시프팅 매트릭스를 이용하여 부화소 단위의 정밀도를 갖는 DCT 기반의 움직임 예측 방법을 적용함으로써, 공간 영역(Spatial domain)에서의 움직임 예측 방식에 비해 낮은 계산량과 높은 PSNR(Peak Signal-to-Noise Ratio)를 구현할 수 있는 효과가 있다.
According to an embodiment of the present invention, a DCT-based motion prediction method having sub-pixel precision using a shifting matrix in a frequency domain is applied to a motion prediction method in a spatial domain It is possible to realize a low calculation amount and a high PSNR (Peak Signal-to-Noise Ratio).

도 1은 공간 영역에서의 동영상 부호화기의 구조를 도시한 도면.
도 2는 주파수 영역에서의 동영상 부호화기의 구조를 도시한 도면.
도 3 및 도 4는 시프팅 매트릭스를 이용한 움직임 예측 방법을 예시적으로 설명하기 위한 참조 도면.
도 5는 본 발명의 실시예에 따른 시프팅 매트릭스를 이용한 DCT 기반 부화소 정밀도 움직임 예측 방법에서, 인트라 예측 모드에서의 움직임 예측 방식 중 일부를 채용한 예시 도면.
도 6 및 도 7은 본 발명의 실시예에 따른 움직임 예측 방법과 종래 기술 간의 성능 비교 그래프들.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a diagram showing a structure of a moving picture encoder in a spatial domain; Fig.
2 is a diagram illustrating a structure of a moving image encoder in a frequency domain;
FIGS. 3 and 4 are illustrative drawings for explaining a motion prediction method using a shifting matrix; FIG.
5 is a view illustrating an example of adopting a part of a motion prediction method in an intra prediction mode in a DCT-based subpixel precision motion prediction method using a shifting matrix according to an embodiment of the present invention.
FIGS. 6 and 7 are graphs illustrating performance comparisons between the motion estimation method and the prior art according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known related arts will be omitted when it is determined that the gist of the present invention may be unnecessarily obscured. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

주파수 영역에서 In the frequency domain DCTDCT 기반의 움직임 예측 Based motion prediction

도 1은 공간 영역에서의 동영상 부호화기의 구조를 도시한 도면이고, 도 2는 주파수 영역에서의 동영상 부호화기의 구조를 도시한 도면이다. 이하, 도 1 및 도 2를 참조하여, 공간 영역에서의 움직임 예측 방식과 주파수 영역에서의 움직임 예측 방식 간을 비교 설명함으로써, 본 발명의 실시예에 따른 움직임 예측 방식이 갖는 장점에 대하여 설명한다.FIG. 1 is a diagram illustrating a structure of a moving picture encoder in a spatial domain, and FIG. 2 is a diagram illustrating a structure of a moving picture encoder in a frequency domain. Hereinafter, advantages of the motion prediction method according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2 by comparing and comparing the motion prediction method in the spatial domain and the motion prediction method in the frequency domain.

동영상의 부호화와 복호화는 모두 블록 단위로 이루어지므로 움직임 예측 또한 블록 기반의 알고리즘을 사용하고 있다. 블록 기반의 움직임 예측 알고리즘은 크게 공간 영역에서의 알고리즘과 주파수 영역에서의 알고리즘으로 나뉠 수 있다. 공간 영역에서의 움직임 예측 알고리즘은 블록 정합 알고리즘과 그래디언트 기반 알고리즘 등으로 구성되며, 주파수 영역에서의 움직임 예측 알고리즘은 DCT 또는 웨이블릿 기반 움직임 예측 알고리즘 등으로 구성될 수 있다. 주파수 영역에서의 알고리즘 중 웨이블릿 기반 알고리즘은 탐색과 정합시간이 적게 소모되지만, 모든 부대역에서 움직임을 예측하므로 높은 계산량을 가지며, 모든 부대역에 대한 움직임 정보를 전송해야 하므로 전송해야하는 비트량이 증가한다는 단점을 가진다. 반면 DCT 기반 알고리즘은 기존 동영상 압축 표준이 DCT를 기반으로 한다는 점에서 호환성이 좋고, DCT 계수를 사용하여 움직임 예측을 수행하기 때문에 IDCT 과정을 생략할 수 있다는 장점을 가진다. 이에 따라 본 발명의 실시예에서는 주파수 영역에서 DCT 계수를 사용하여 움직임 예측을 수행하는 DCT 기반의 움직임 예측 방식을 채용하고 있다.Since motion picture coding and decoding are all performed on a block basis, motion estimation is also based on a block-based algorithm. Block - based motion estimation algorithms can be divided into spatial domain algorithms and frequency domain algorithms. The motion estimation algorithm in the spatial domain is composed of a block matching algorithm and a gradient-based algorithm. The motion estimation algorithm in the frequency domain can be composed of a DCT or a wavelet-based motion estimation algorithm. Among the algorithms in the frequency domain, the wavelet-based algorithm consumes less search and matching time. However, since it predicts motion in all subbands, it has a high computational complexity and has to transmit the motion information for all subbands, . On the other hand, the DCT-based algorithm is advantageous in that the existing video compression standard is based on the DCT, and the IDCT process can be omitted because the motion prediction is performed using the DCT coefficients. Accordingly, the embodiment of the present invention employs a DCT-based motion prediction method for performing motion prediction using a DCT coefficient in a frequency domain.

DCT 변환(도 1의 도면번호 110 및 도 2의 도면번호 210 참조)은 공간 영역의 정보를 주파수 영역으로 변환시키는 기술로서, DCT 변환 후에는 에너지가 저주파수 대역에 집중된다는 특성이 있어 영상 압축에 효율적인 바 영상 압축 분야에서 널리 사용되고 있는 방법이다. 일반적으로 동영상 부호화기는 공간 영역에서의 움직임 예측을 사용하는데, 도 1에는 공간 영역에서의 움직임 예측을 수행하는 동영상 부호화기가 도시되고 있다. DCT conversion (refer to reference numeral 110 in FIG. 1 and reference numeral 210 in FIG. 2) is a technique for converting information in a spatial domain into a frequency domain. After DCT, energy is concentrated in a low frequency band, It is widely used in bar image compression field. In general, a motion picture coder uses motion prediction in a spatial domain, and FIG. 1 shows a motion picture coder that performs motion prediction in a spatial domain.

도 1을 참조하면, 공간 영역에서의 움직임 예측을 수행하는 동영상 부호화기는, DCT 변환기(110), 양자화기(120), 부호화기(130)(본 예에서는 엔트로피 부호화기를 예시함), 역양자화기(125), IDCT 변환기(즉, 역DCT 변환기)(115), 움직임 예측기(140)를 포함하고 있다. 이와 같이, 공간 영역에서의 움직임 예측을 수행하는 동영상 부호화기는 참조 프레임으로 사용되는 복원 프레임의 정보를 공간 영역으로 저장해야 하므로(즉, DCT 변환에 따라 주파수 영역으로 변환된 정보를 다시 공간 영역으로 변환시켜줘야 하므로) IDCT 과정이 필요하다. Referring to FIG. 1, a moving picture encoder for performing motion prediction in a spatial domain includes a DCT transformer 110, a quantizer 120, an encoder 130 (in this example, an example of an entropy encoder), an inverse quantizer 125), an IDCT transformer (i.e., an inverse DCT transformer) 115, and a motion predictor 140. [ As described above, the moving picture encoding apparatus for performing motion prediction in the spatial domain must store the information of the reconstruction frame used as the reference frame as a spatial region (i.e., convert the frequency-domain-converted information into a spatial region The IDCT process is required.

반면에, 주파수 영역에서의 움직임 예측은 DCT 변환된 DCT 계수를 움직임 예측에 이용하므로, IDCT 변환 과정이 생략될 수 있다. 도 2를 참조하면, 주파수 영역에서 움직임 예측을 수행하는 동영상 부호화기는, DCT 변환기(210), 양자화기(220), 부호화기(230), 역양자화기(225), 움직임 예측기(240)를 포함하며, IDCT 변환기가 생략되고 있음을 확인할 수 있다. 따라서, 주파수 영역에서의 움직임 예측은 공간 영역에서의 움직임 예측 방법에 비해 간소화된 부호화기의 구조로 인해 계산량이 낮아진다는 장점을 가진다.
On the other hand, the motion prediction in the frequency domain uses the DCT transformed DCT coefficients for motion prediction, so that the IDCT transformation process can be omitted. Referring to FIG. 2, the moving picture encoding apparatus for performing motion prediction in the frequency domain includes a DCT transformer 210, a quantizer 220, an encoder 230, an inverse quantizer 225, and a motion estimator 240 , It can be confirmed that the IDCT converter is omitted. Therefore, the motion estimation in the frequency domain is advantageous in that the amount of calculation is reduced due to the structure of the simplified encoder compared with the motion estimation method in the spatial domain.

시프팅Shifting 매트릭스 알고리즘을 이용한 움직임 예측 Motion Estimation Using Matrix Algorithm

또한 본 발명의 실시예예서는 주파수 영역에서 DCT 기반의 움직임 예측을 수행하는 과정에서 시프팅 매트릭스(Shifting matrix)를 이용한다. 이하, 도 3 및 도 4를 참조하여 시프팅 매트릭스를 이용한 움직임 예측 방법을 설명하기로 한다. 도 3 및 도 4는 시프팅 매트릭스 알고리즘을 예시적으로 설명하기 위한 참조 도면이다.In the embodiment of the present invention, a shifting matrix is used in the process of performing DCT-based motion prediction in the frequency domain. Hereinafter, a motion prediction method using a shifting matrix will be described with reference to FIGS. 3 and 4. FIG. FIGS. 3 and 4 are reference diagrams for illustrative purposes of the shifting matrix algorithm.

일반적으로 움직임 예측은, 현재 영상 프레임(Current frame)의 특정 블록과 최소 정합 오차를 갖는 예측 블록(Prediction frame)을 이전 영상 프레임(Previous frame)에서 찾아내는 과정을 필수적으로 포함한다. 도 3은 현재 블록(도 3의

Figure 112015019958316-pat00026
참조)과 가장 유사한 예측 블록(도 3의
Figure 112015019958316-pat00027
참조)을 찾기 위해 그 주변의 4개의 참조 블록(도 3의
Figure 112015019958316-pat00028
참조)이 사용되는 과정을 보여준다. 이와 같이, 시프팅 매트릭스 알고리즘은 특정 예측 블록이 그 주변의 4개의 참조 블록의 수평, 수직 변환된 형태의 합으로 표현할 수 있다는 점을 이용한다. 도 3에서,
Figure 112015019958316-pat00029
Figure 112015019958316-pat00030
는 각각 수평 및 수직 방향에서의 변위(픽셀 이동)를 나타내고,
Figure 112015019958316-pat00031
는 움직임 벡터(Motion vector)를 나타낸다. Generally, motion prediction includes a process of finding a prediction frame having a minimum matching error with a specific block of a current frame in a previous frame. FIG. 3 is a block diagram of the current block
Figure 112015019958316-pat00026
(See Fig. 3
Figure 112015019958316-pat00027
(See FIG. 3) in order to find the reference block
Figure 112015019958316-pat00028
) Is used. As such, the shifting matrix algorithm takes advantage of the fact that a particular prediction block can be represented as the sum of the horizontally and vertically transformed forms of the four reference blocks around it. 3,
Figure 112015019958316-pat00029
And
Figure 112015019958316-pat00030
(Pixel shift) in the horizontal and vertical directions, respectively,
Figure 112015019958316-pat00031
Represents a motion vector.

이러한 시프팅 매트릭스 알고리즘에 의할 때, 예측 블록

Figure 112015019958316-pat00032
는 수평 시프팅 매트릭스인
Figure 112015019958316-pat00033
와 수직 시프팅 매트릭스인
Figure 112015019958316-pat00034
를 이용하여 하기 수학식 1과 같이 나타낼 수 있다. 여기서, fi는 예측 블록 주변의 임의 위치의 참조 블록을 나타낸다.
In accordance with this shifting matrix algorithm,
Figure 112015019958316-pat00032
Is a horizontal shifting matrix
Figure 112015019958316-pat00033
And the vertical shifting matrix
Figure 112015019958316-pat00034
Can be expressed by the following equation (1). Here, f i represents a reference block at an arbitrary position around the prediction block.

Figure 112015019958316-pat00035
Figure 112015019958316-pat00035

이때,

Figure 112015019958316-pat00036
Figure 112015019958316-pat00037
는 각각 하기 수학식 2 및 수학식 3과 같이 정의될 수 있다. 하기 수학식 2 및 수학식 3에서, 특정 행렬의 위첨자 t는 해당 행렬의 전치행렬(Transposed matrix)을 나타낸다.
At this time,
Figure 112015019958316-pat00036
Wow
Figure 112015019958316-pat00037
Can be defined by the following equations (2) and (3), respectively. In the following equations (2) and (3), a superscript t of a specific matrix represents a transposed matrix of the corresponding matrix.

Figure 112015019958316-pat00038
Figure 112015019958316-pat00038

Figure 112015019958316-pat00039
Figure 112015019958316-pat00039

또한 여기서, 변위행렬

Figure 112015019958316-pat00040
은 하기 수학식 4와 같이 정의되는 4×4 행렬이다. 이때,
Figure 112015019958316-pat00041
Figure 112015019958316-pat00042
의 단위행렬을 나타낸다.
Also here, the displacement matrix
Figure 112015019958316-pat00040
Is a 4x4 matrix defined as: < EMI ID = 3.0 > At this time,
Figure 112015019958316-pat00041
silver
Figure 112015019958316-pat00042
≪ / RTI >

Figure 112015019958316-pat00043
Figure 112015019958316-pat00043

일 예로,

Figure 112015019958316-pat00044
일 경우, 예측 블록
Figure 112015019958316-pat00045
가 예측되는 과정이 도 4를 통해 도시되고 있다. 이때의
Figure 112015019958316-pat00046
Figure 112015019958316-pat00047
는 하기 수학식 5 및 수학식 6과 같이 정의될 수 있다.
For example,
Figure 112015019958316-pat00044
, The prediction block
Figure 112015019958316-pat00045
Is predicted as shown in FIG. At this time
Figure 112015019958316-pat00046
Wow
Figure 112015019958316-pat00047
Can be defined by the following equations (5) and (6).

Figure 112015019958316-pat00048
Figure 112015019958316-pat00048

Figure 112015019958316-pat00049
Figure 112015019958316-pat00049

이때, DCT 변환의 직교성과 분리성을 이용하면, 앞서 기재한 수학식 1은 하기 수학식 7과 같이 나타낼 수 있다. 여기서,

Figure 112015019958316-pat00050
는 DCT 변환행렬을 나타낸다.
At this time, using the orthogonality and separability of the DCT transform, Equation (1) described above can be expressed as Equation (7). here,
Figure 112015019958316-pat00050
Represents a DCT transformation matrix.

Figure 112015019958316-pat00051
Figure 112015019958316-pat00051

위 수학식 7에 의할 때, 예측 블록

Figure 112015019958316-pat00052
의 DCT 계수인
Figure 112015019958316-pat00053
를 구하기 위해서는 8개의 행렬 곱셈과 3개의 행렬 덧셈이 요구된다. 하지만 저주파수 대역에 에너지가 집중되는 DCT 변환 특성을 이용하면 많은 연산량을 감소시킬 수 있다. 따라서 DCT 변환 후 양자화된 참조 블록
Figure 112015019958316-pat00054
의 특성에 기반하여, 계산상의 복잡도를 줄이기 위해 상기 수학식 7은 하기 수학식 8과 같이 유도할 수 있다. 하기 수학식 8은 4×4 블록 크기인 경우를 가정하여, m 및 n이 0 ~ 3까지의 변위값을 갖는 경우로 한정한 것이다. 따라서, 하기 수학식 8에서 m 및 n은 블록 크기에 따라 그 최대 변위값이 변경될 수 있음은 물론이다. 예를 들어, 8×8 블록 크기를 기준으로 움직임 예측이 수행된다면, m 및 n은 모두 0 ~ 7까지의 변위값을 갖게 될 것이다.
According to Equation (7) above,
Figure 112015019958316-pat00052
DCT coefficients of
Figure 112015019958316-pat00053
Requires 8 matrix multiplications and 3 matrix additions. However, using the DCT conversion characteristic in which energy is concentrated in the low frequency band can reduce a large amount of computation. Therefore, the DCT transformed quantized reference block
Figure 112015019958316-pat00054
The above Equation (7) can be derived as Equation (8) below in order to reduce computational complexity. The following equation (8) is limited to a case where m and n have displacement values ranging from 0 to 3, assuming a case of 4 × 4 block size. Therefore, it is a matter of course that m and n in Equation (8) can be changed according to the block size. For example, if motion prediction is performed based on an 8x8 block size, both m and n will have displacement values of 0 to 7.

Figure 112015019958316-pat00055
Figure 112015019958316-pat00055

상기 수학식 8에서,

Figure 112015019958316-pat00056
이 0의 값을 가질 경우 계산에서 제외될 수 있기 때문에, 0이 아닌
Figure 112015019958316-pat00057
계수들의 희소성을 이용하면 예측 블록을 효율적으로 계산할 수 있다. 즉, 일반적인 동영상 압축 알고리즘에서와 마찬가지로 DCT 변환 후 저주파수 대역에 에너지가 집중되므로, 고주파 대역에 있는 계수들은 양자화 이후에는 대부분 0의 값을 갖게 되어 0이 아닌 계수들의 개수는 대폭 줄어들게 된다. 이러한 특징을 이용하기 위해,
Figure 112015019958316-pat00058
계수들(하기 수학식 8의 경우에는, 4×4 블록 크기의 총 4개의 참조 블록을 이용하므로,총 64개의 DCT 계수들이 존재함)을 하기 수학식 9와 같이 지그재그 스캔 순서로 정리할 필요가 있다.
In Equation (8)
Figure 112015019958316-pat00056
Since a value of 0 can be excluded from the calculation,
Figure 112015019958316-pat00057
Using the scarcity of the coefficients, the prediction block can be calculated efficiently. That is, since the energy is concentrated in the low frequency band after the DCT conversion, the coefficients in the high frequency band are mostly 0 after the quantization, so that the number of non-zero coefficients is greatly reduced. To take advantage of this feature,
Figure 112015019958316-pat00058
Coefficients (in the case of Equation (8), a total of 64 DCT coefficients exist because a total of 4 reference blocks having a size of 4x4 blocks are used), it is necessary to sort the DCT coefficients in a zigzag scan order as shown in Equation (9) .

Figure 112015019958316-pat00059
Figure 112015019958316-pat00059

상기 수학식 9에서 유도된 재귀방정식은 다른 주파수 대역을 갖는 영상에서

Figure 112015019958316-pat00060
의 개수를 조절하여 효율적인 연산을 할 수 있다. 또한 블록의 크기와
Figure 112015019958316-pat00061
에서 0이 아닌 성분의 개수에 따라 연산량을 효과적으로 줄일 수 있다는 장점을 가진다.
The recursive equation derived from Equation (9)
Figure 112015019958316-pat00060
So that efficient calculation can be performed. Also,
Figure 112015019958316-pat00061
The amount of computation can be effectively reduced according to the number of nonzero components.

3차 보간 함수를 이용한 1/4 화소 정밀도의 움직임 예측Motion prediction with 1/4 pixel accuracy using cubic interpolation function

일반적으로 공간 영역에서의 부화소 단위의 움직임 예측은, 보간 기술을 사용하여 영상을 2배 또는 그 이상으로 확대시키는 과정을 거친 후 움직임 예측이 수행된다. 이때, bilinear 보간법을 사용한 반화소(즉, 1/2 화소) 단위 움직임 예측의 경우, 보간 성능이 비교적 낮기 때문에 움직임 예측 성능이 낮다. 반면 b-spline 보간법 또는 cubic 보간법의 경우, 특정 가중치를 부여한 3차 함수로 부화소를 예측해내는 방법으로, bilinear 보간법에 비해 보간된 값이 정확하여 움직임 예측 성능이 비교적 높지만 계산량이 증가한다는 단점이 있다. 이에 따라, H.264 표준에서는 1/4 화소 단위 움직임 예측을 통해 영상의 화질을 향상시킬 수 있지만, 보간 기술의 적용으로 인해 움직임 예측 과정의 계산량이 증대되어 동영상 부호화 시간에 영향을 주게 된다. 하기 수학식 10은 b-spline 보간법에 이용되는 3차 함수를 나타내고, 하기 수학식 11은 cubic 보간법에 이용되는 3차 함수를 나타낸다.
Generally, in the sub-pixel motion prediction in the spatial domain, motion prediction is performed after the process of enlarging the image to twice or more by using an interpolation technique. In this case, in the case of a half-pixel (i.e., 1/2 pixel) unitary motion prediction using the bilinear interpolation method, the motion prediction performance is low because the interpolation performance is relatively low. On the other hand, in the case of b-spline interpolation or cubic interpolation, a method of predicting a sub-pixel with a cubic function given a specific weight is disadvantageous in that the interpolated value is more accurate than the bilinear interpolation method, . Accordingly, although the H.264 standard can improve the image quality through quarter-pixel motion prediction, the amount of calculation of the motion prediction process is increased due to the application of the interpolation technique, thereby affecting the video coding time. Equation (10) represents a cubic function used in b-spline interpolation, and Equation (11) represents a cubic function used in cubic interpolation.

Figure 112015019958316-pat00062
Figure 112015019958316-pat00062

Figure 112015019958316-pat00063
Figure 112015019958316-pat00063

위와 대비할 때, 본 발명의 실시예에서는, 기존에 공간 영역에서의 영상 보간에 주로 이용되던 보간 방법들 중 보간 성능이 뛰어난 3차원 보간 방식인 b-spline 보간법 또는 cubic 보간법을 주파수 영역에서의 영상 보간 과정에 채용하되, 앞서 설명한 시프팅 매트릭스 알고리즘을 1/4 화소 단위로 확장하는 주파수 영역에서의 움직임 예측 방법을 제안한다. 위 수학식 11에서 a는 0.25, 0.5, 0.75와 같이 0~1 사이의 값 중 선택될 수 있다.In contrast to this, in the embodiment of the present invention, b-spline interpolation or cubic interpolation, which is a three-dimensional interpolation method having excellent interpolation performance among the interpolation methods mainly used for image interpolation in the spatial domain, , We propose a motion prediction method in the frequency domain that extends the above-described shifting matrix algorithm by a quarter pixel unit. In Equation (11), a may be selected from values between 0 and 1, such as 0.25, 0.5, and 0.75.

이에 따라, B-spline 또는 cubic과 같은 3차 함수 보간법을 시프팅 매트릭스에 적용하는 경우, 주변 4개의 픽셀을 이용하여 가중치를 다르게 적용한 후 이를 합산한 값으로 예측 블록을 만들어 내게 되므로, 기존의 수평, 수직 시프팅 매트릭스(앞서 설명한 수학식 2 및 수학식 2)는 하기 수학식 12, 수학식 13, 수학식 14와 같이 전개된다.
Accordingly, when a cubic interpolation method such as B-spline or cubic is applied to a shifting matrix, a weighted value is applied using four neighboring pixels, and a predicted block is generated by summing the weighted values. , The vertical shifting matrix (Equations (2) and (2) described above) is developed as Equation (12), Equation (13), and Equation (14).

Figure 112015019958316-pat00064
Figure 112015019958316-pat00064

Figure 112015019958316-pat00065
Figure 112015019958316-pat00065

Figure 112015019958316-pat00066
Figure 112015019958316-pat00066

여기서, 본 발명의 실시예에 따른 움직임 예측은 1/4 부화소 단위 움직임 예측이므로,

Figure 112015019958316-pat00067
이 된다. 그리고
Figure 112015019958316-pat00068
일 경우
Figure 112015019958316-pat00069
Figure 112015019958316-pat00070
은 4×4의 영행렬을 사용하고,
Figure 112015019958316-pat00071
일 경우
Figure 112015019958316-pat00072
,
Figure 112015019958316-pat00073
가 된다. 그리고 상기 수학식 12 및 수학식 13에서
Figure 112015019958316-pat00074
는 버림 함수를,
Figure 112015019958316-pat00075
는 올림 함수를 나타낸다. 그리고 상기 수학식 14에서, 상기 버림 함수 및 상기 올림 함수에 사용되는 움직임 정보(즉, 실제 움직임에 따른 변위량)로는
Figure 112015019958316-pat00076
대신
Figure 112015019958316-pat00077
가 적용된다.Here, since the motion prediction according to the embodiment of the present invention is 1/4 sub-pixel unit motion prediction,
Figure 112015019958316-pat00067
. And
Figure 112015019958316-pat00068
If
Figure 112015019958316-pat00069
and
Figure 112015019958316-pat00070
Using a 4 × 4 zero matrix,
Figure 112015019958316-pat00071
If
Figure 112015019958316-pat00072
,
Figure 112015019958316-pat00073
. In the equations (12) and (13)
Figure 112015019958316-pat00074
Lt; RTI ID = 0.0 >
Figure 112015019958316-pat00075
Represents a rounding function. In Equation (14), the discontinuance function and the motion information (i.e., the amount of displacement in accordance with the actual motion) used in the up function
Figure 112015019958316-pat00076
instead
Figure 112015019958316-pat00077
Is applied.

따라서, 예를 들어

Figure 112015019958316-pat00078
인 경우, 1/4 부화소 단위로 볼 때 d는 1/2(즉, 0.5)이 되고,
Figure 112015019958316-pat00079
는 버림 함수 값을 적용할 때 2가 되고,
Figure 112015019958316-pat00080
는 올림 함수 값을 적용할 때 3이 되므로, 수평 시프팅 매트릭스는 아래 수학식 15와 같이 표현될 수 있다.
Thus, for example
Figure 112015019958316-pat00078
, D is 1/2 (that is, 0.5) in the unit of a quarter sub-pixel,
Figure 112015019958316-pat00079
Is 2 when applying the discard function value,
Figure 112015019958316-pat00080
Is 3 when applying the rounding function value, the horizontal shifting matrix can be expressed by Equation (15) below.

Figure 112015019958316-pat00081
Figure 112015019958316-pat00081

그리고 기존의 bilinear 보간법의 경우 부화소 예측을 위해 양쪽 2곳의 주파수 정보가 활용되는 반면, b-spline 보간법과 cubic 보간법을 사용할 경우 4곳(즉, 주변 4개의 픽셀)의 주파수 정보가 필요하다. 따라서, 실제 움직임 변위량의 절대값이 1보다 작거나 혹은 3보다 큰 경우(일 예로, 수직 움직임 변위량의 경우는,

Figure 112015019958316-pat00082
또는
Figure 112015019958316-pat00083
인 경우) 참조 블록의 경계 밖에 위치의 주파수 정보를 활용하게 된다. 이때, 주파수 영역으로 변환된 블록에서 특정 위치의 주파수 정보를 가져오기 위해선 특정 위치가 포함되어 있는 블록 전체의 정보가 필요하므로, 불필요한 메모리가 요구된다. 이러한 문제를 해소하기 위하여 본 발명의 실시예에서는 인트라 예측(Intra prediction) 모드 중 vertical 또는 horizontal 모드를 적용하여 필요한 위치를 예측하는 방법을 사용하였다. 이에 관한 예시가 도 5에 도시되어 있다. 여기서, 도 5는 본 발명의 실시예에 따른 시프팅 매트릭스를 이용한 DCT 기반 부화소 정밀도 움직임 예측 방법에서, 인트라 예측 모드에서의 움직임 예측 방식 중 일부를 채용한 예시 도면이다.In the case of the existing bilinear interpolation method, frequency information of two locations is used for subpixel prediction, while frequency information of four locations (ie, four neighboring pixels) is required when b-spline interpolation and cubic interpolation are used. Therefore, when the absolute value of the actual motion displacement amount is smaller than 1 or larger than 3 (for example, in the case of the vertical motion displacement amount,
Figure 112015019958316-pat00082
or
Figure 112015019958316-pat00083
The frequency information of the position outside the boundary of the reference block is utilized. At this time, in order to fetch the frequency information of the specific position in the block transformed into the frequency domain, information of the entire block including the specific position is required, so that unnecessary memory is required. In order to solve this problem, in the embodiment of the present invention, a method of predicting a necessary position by applying a vertical or horizontal mode in Intra prediction mode is used. An example of this is shown in Fig. Here, FIG. 5 is a diagram illustrating a part of a motion prediction method in an intra prediction mode in a DCT-based subpixel precision motion prediction method using a shifting matrix according to an embodiment of the present invention.

예를 들어,

Figure 112015019958316-pat00084
가 y축 방향으로
Figure 112015019958316-pat00085
의 움직임이 발생할 경우 탐색 영역의 위쪽 경계 밖의 정보가 필요하게 되며, 이 경우 도 5에서와 같이 탐색 영역의 정보를 위쪽 방향으로 복사함으로써 메모리 소모 문제를 해소할 수 있게 된다. 하기 수학식 16 및 수학식 17은 1/4 화소 단위 움직임 예측에서 도 5에서와 같이 수직 방향으로 예측되는 경우 수직 시프팅 매트릭스의 예를 보여준다.
E.g,
Figure 112015019958316-pat00084
In the y-axis direction
Figure 112015019958316-pat00085
The information outside the upper boundary of the search area is required. In this case, as shown in FIG. 5, the memory consumption problem can be solved by copying the information of the search area in the upward direction. Equation (16) and Equation (17) show an example of a vertical shifting matrix when it is predicted in the vertical direction as shown in FIG. 5 in quarter-pixel motion prediction.

Figure 112015019958316-pat00086
Figure 112015019958316-pat00086

Figure 112015019958316-pat00087
Figure 112015019958316-pat00087

도 6 및 도 7은 본 발명의 실시예에 따른 움직임 예측 방법과 종래 기술 간의 성능 비교 그래프들이다. 이하, 아래에 기재된 표 1 ~ 표 3과, 도 6 및 도 7을 참조하여, 본 발명의 실시예에 따른 움직임 예측 방법과 종래 기술 간의 성능을 비교한 실험례를 설명하기로 한다.FIGS. 6 and 7 are performance comparison graphs between the motion estimation method and the prior art according to an embodiment of the present invention. Hereinafter, an experiment in which the performance between the motion estimation method according to the embodiment of the present invention and the prior art is compared will be described with reference to Tables 1 to 3 and FIGS. 6 and 7 below.

본 명세서에서는, 본 발명의 실시예에서 제안한 알고리즘(움직임 예측 방법)의 성능을 평가하기 위해 H.264/AVC 비디오 부호화기를 사용하였다. 움직임 예측 방법으로는 1/4 화소 단위의 전역 탐색(Full range search) 기법을 사용하여 성능을 비교하였으며, 움직임 정보를 결정하기 위한 기준(즉, 최소 오차를 갖는 블록을 찾기 위한 기준)으로는 SAD(Sum of Absolute Difference)를 사용하였다.
In this specification, the H.264 / AVC video encoder is used to evaluate the performance of the algorithm (motion estimation method) proposed in the embodiment of the present invention. As a motion prediction method, performance was compared using a full range search method of a quarter pixel unit, and a criterion for determining motion information (i.e., a reference for finding a block having a minimum error) (Sum of Absolute Difference).

본 발명의 실시예에서 제안한 방식은 공간 영역에서의 움직임 예측에 비해 IDCT 과정이 필요하지 않으며, 재귀방정식을 유도하여 연산량이 감소된다는 장점을 가진다. 아래의 표 1은

Figure 112015019958316-pat00088
크기의 블록으로 공간 영역(Spatial domain)과 주파수 영역(Frequency domain)에서의 움직임 예측에 사용되는 계산량을 나타낸다. 하기 표 1에서 p는 탐색구간, N은 블록 크기를 나타내며, 주파수 영역에서
Figure 112015019958316-pat00089
로 고정된다.
The proposed method of the present invention has an advantage that the IDCT process is not required as compared with the motion prediction in the spatial domain, and the calculation amount is reduced by inducing the recursive equation. Table 1 below
Figure 112015019958316-pat00088
Block represents a calculation amount used for motion prediction in a spatial domain and a frequency domain. In Table 1, p denotes a search interval, N denotes a block size, and in the frequency domain
Figure 112015019958316-pat00089
.

Figure 112015019958316-pat00090
Figure 112015019958316-pat00090

아래의 표 2와 표 3은 각각 CIF 해상도의 Foreman과 Paris 영상의 1번째, 2번째 프레임을 사용하여 양자화 파라미터(QP)를 변화시켜 가면서 공간 영역과 주파수 영역에서의 움직임 예측을 수행한 결과를 보여준다. 즉, 표 2는 Foreman 시퀀스를 이용한 QP 조정에 따른 공간 영역과 주파수 영역에서의 1/4 화소 단위 움직임 예측 성능 비교를 한 것이고, 표 3은 Paris 시퀀스를 이용한 QP 조정에 따른 공간 영역과 주파수 영역에서의 1/4 화소 단위 움직임 예측 성능 비교를 한 것이다.
Table 2 and Table 3 below show the results of performing motion estimation in the spatial domain and the frequency domain while varying the quantization parameter (QP) using the first and second frames of the Foreman and Paris images at CIF resolution . Table 2 compares the prediction performance of quarter-pixel motion prediction in the spatial domain and frequency domain according to the QP adjustment using the Foreman sequence. Table 3 shows the performance comparison between the spatial domain and the frequency domain according to the QP adjustment using the Paris sequence. Of the motion prediction performance.

Figure 112015019958316-pat00091
Figure 112015019958316-pat00091

Foreman 영상의 경우, 주파수 영역에서의 움직임 예측 방식이 공간 영역에서의 움직임 예측 방식보다 높은 PSNR을 제공하였으나, QP≥21의 경우 프레임 별 총 비트수가 공간 영역에서의 움직임 예측보다 높아짐을 확인하였다.
In the case of the Foreman image, the motion prediction method in the frequency domain provides a higher PSNR than the motion prediction method in the spatial domain, but in the case of QP≥21, the total number of bits per frame is higher than the motion prediction in the spatial domain.

Figure 112015019958316-pat00092
Figure 112015019958316-pat00092

Paris 영상의 경우, b-spline 보간법을 사용한 주파수 영역에서의 움직임 예측은 QP의 변화와 관계없이 모두 높은 PSNR을 제공하였으나, cubic 보간법을 사용한 주파수 영역에서의 움직임 예측은 QP≥27일 경우에 공간 영역에서의 움직임 예측보다 PSNR이 낮게 나타난다. 비트수는 b-spline 보간법의 경우 QP=3과 QP≥21에서, cubic 보간법은 QP=15와 QP≥21에서 공간 영역보다 높게 나타남을 확인할 수 있다. 이와 같이 특정 값을 제외한 QP에서 이러한 결과가 나타나는 것은 주파수 영역의 움직임 예측이 공간 영역의 움직임 예측보다 정확한 움직임 정보를 찾아내어 부호화시 사용된 비트양이 적어짐에도 영상의 화질은 공간 영역과 유사하게 유지됨을 의미한다. 하지만 높은 QP에서 많은 비트율이 발생되는 이유는 QP가 높아질수록 양자화 오류가 커지기 때문으로 판단된다.
In the case of the Paris video, motion prediction in the frequency domain using b-spline interpolation provided a high PSNR regardless of the change in QP, but motion prediction in the frequency domain using cubic interpolation provided spatial domain The PSNR is lower than that of the motion prediction. In the case of b-spline interpolation, the number of bits is QP = 3 and QP≥21, and the cubic interpolation method is higher than QP = 15 and QP≥21. The results of QP except for the specific values show that the frequency domain motion estimation finds more accurate motion information than the motion estimation of the spatial domain, so that the image quality of the image is maintained similar to that of the spatial domain . However, the reason why a large bit rate is generated at a high QP is because the quantization error increases as the QP increases.

또한 도 6 및 도 7은 QP=18에서 공간 영역과 주파수 영역의 움직임 예측 성능을 나타내고 있다. 여기서, 도 6은, QP=18에서, Foreman CIF 비디오 시퀀스를 사용한 공간 영역과 주파수 영역에서의 움직임 예측 기법 간의 성능을 비교한 그래프이다. 그리고 도 7은, QP=18에서, Paris CIF 비디오 시퀀스를 사용한 공간 영역과 주파수 영역에서의 움직임 예측 기법 간의 성능을 비교한 그래프이다.6 and 7 show the motion prediction performance in the spatial domain and the frequency domain at QP = 18. Here, FIG. 6 is a graph comparing the performance between the spatial domain using the Foreman CIF video sequence and the motion prediction technique in the frequency domain at QP = 18. And FIG. 7 is a graph comparing the performance between the spatial region using the Paris CIF video sequence and the motion prediction technique in the frequency domain at QP = 18.

실험 결과, 공간 영역에서의 움직임 예측과 비교하여 주파수 영역에서의 움직임 예측의 PSNR이 더 높게 나타남을 확인할 수 있다. 또한, 전체적인 성능을 보면, 공간 영역에서의 움직임 예측에서 PSNR은 cubic(CSD), b-spline(BSD) 순으로 높게 나타나는 것을 확인할 수 있는 반면, 주파수 영역에서는 b-spline(BTD), cubic(CTD) 순으로 공간 영역과 다른 결과를 보이고 있다. 영상의 보간을 공간 영역에서 수행하는 경우 화소를 생성하기 위해 그 주변 화소의 화소값을 이용하는 반면, 본 발명의 실시예에서 제안하는 알고리즘의 경우 DCT 계수를 이용하게 된다. 따라서, 공간 영역에서 특정 보간법을 사용한 움직임 예측 성능이 높은 PSNR을 제공하더라도 주파수 영역에서 그 성능이 동일하게 유지되지 않는 것으로 볼 수 있다.Experimental results show that the PSNR of the motion estimation in the frequency domain is higher than that in the spatial domain. In the frequency domain, b-spline (BTD), cubic (CTD), and b-spline (BSD) ), Which are different from the spatial domain. When interpolation of an image is performed in a spatial domain, pixel values of the surrounding pixels are used to generate a pixel, whereas the algorithm proposed in the embodiment of the present invention uses a DCT coefficient. Therefore, it can be seen that even if the PSNR with high motion prediction performance using the specific interpolation method is provided in the spatial domain, the performance is not maintained in the frequency domain.

본 발명의 실시예에서는 3차 함수 보간 방법을 적용한 주파수 영역에서의 1/4 화소 단위 움직임 예측 알고리즘을 제안하였다. 그 결과로서 상술한 바와 같이, 다양한 특성을 갖는 비디오 시퀀스를 이용한 모의실험을 통하여 본 발명의 실시예에서 제안한 알고리즘이 대부분의 QP 값에서 공간 영역의 1/4 화소 단위의 움직임 예측 알고리즘 보다 높은 PSNR을 제공함을 확인하였다. 물론 특정 QP 값에서 공간 영역에서의 움직임 예측보다 PSNR이 감소하는 부분이 있었지만 그 차이가 무시할 수 있을 정도로 작다. 또한, IDCT의 생략과 재귀 방정식의 사용으로 공간 영역보다 낮은 계산량을 유지할 수 있었으며, DCT를 기반으로 하는 동영상 부호화기의 구성이 간단해지므로 실시간 동영상 서비스를 제공하기에 적합하다. 최근 확정된 H.265는 블록 크기가 4×4 부터 32×32 까지 가변 블록을 사용하게 되는데, 이 또한 앞서 설명한 바와 같이 시프팅 매트릭스를 이용하는 주파수 영역에서의 움직임 예측 방법이 적용 가능할 것이다.
In the embodiment of the present invention, a quarter-pel motion prediction algorithm in the frequency domain using a cubic function interpolation method is proposed. As a result, as described above, through the simulation using video sequences having various characteristics, the algorithm proposed by the embodiment of the present invention has a higher PSNR than the motion prediction algorithm of the spatial region in the 1/4 pixel unit at most QP values Respectively. Of course, there is a part where the PSNR is lower than the motion prediction in the spatial domain in a specific QP value, but the difference is small enough to be ignored. Also, since the IDCT is omitted and the recursive equation is used, it is possible to maintain a lower computational complexity than the spatial domain, and the structure of the video encoder based on the DCT is simplified. The recently confirmed H.265 uses a variable block with a block size ranging from 4 × 4 to 32 × 32. The motion prediction method in the frequency domain using the shifting matrix will be applicable as described above.

이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the following claims And changes may be made without departing from the spirit and scope of the invention.

Claims (5)

동영상 부호화를 위한 1/4 부화소 단위의 움직임 예측 방법으로서,
입력된 영상 프레임에 관한 DCT(Discrete Cosine Transform) 변환을 수행하는 단계; DCT 변환된 현재 영상 프레임 및 이전 영상 프레임 간의 블록 정합을 통해 현재 블록과 최소 정합 오차를 갖는 예측 블록을 획득하는 주파수 영역에서의 움직임 예측을 수행하는 단계를 포함하되,
상기 주파수 영역에서의 움직임 예측을 수행하는 단계에서, 상기 예측 블록은, 3차원 보간 함수를 이용한 1/4 부화소 단위의 영상 보간이 적용된 수평/수직의 시프팅 매트릭스(Shifting matrix)와 상기 이전 영상 프레임의 탐색 영역(Search range) 내의 상기 예측 블록 주변의 4개의 블록의 DCT 계수 행렬을 이용한 행렬 연산을 통해서 획득되고,
상기 예측 블록은 하기 수학식 1 및 수학식 2에 의해 정의되며, 상기 수평 시프팅 매트릭스는 하기 수학식 3 및 수학식 4에 정의된 행렬을 이용하고, 상기 수직 시프팅 매트릭스는 하기 수학식 5에 의해 정의된 행렬을 이용하는, 움직임 예측 방법.

[수학식 1]
Figure 112016078605951-pat00125

여기서,
Figure 112016078605951-pat00126
는 예측 블록
Figure 112016078605951-pat00127
의 DCT 계수 행렬로 표현됨.

[수학식 2]
Figure 112016078605951-pat00128

여기서, fi는 예측 블록
Figure 112016078605951-pat00129
의 주변의 4개의 참조 블록 중 어느 하나로서 4×4 블록 사이즈를 가지며, 상기
Figure 112016078605951-pat00130
Figure 112016078605951-pat00131
는 각각 상기 수평 시프팅 매트릭스와 상기 수직 시프팅 매트릭스를 나타냄.

[수학식 3]
Figure 112016078605951-pat00132

[수학식 4]
Figure 112016078605951-pat00133


여기서, f()는 상기 3차원 보간 함수를 나타내고, d는
Figure 112016078605951-pat00134
중 어느 하나의 1/4 부화소 위치를 나타내며,
Figure 112016078605951-pat00135
는 버림 함수를 나타내고,
Figure 112016078605951-pat00136
는 올림 함수를 나타내고, D는
Figure 112016078605951-pat00137
인 4×4의 변위 행렬을 나타냄.

[수학식 5]
Figure 112016078605951-pat00138

여기서, 위첨자 t는 전치 행렬을 나타내고, 상기 수학식 5에서의 버림 함수 및 올림 함수에는 상기 수학식 3 및 4에서의 수평 변위량인
Figure 112016078605951-pat00139
대신 수직 변위량인
Figure 112016078605951-pat00140
가 적용됨.
A motion prediction method for a 1/4 sub-pixel unit for video coding,
Performing DCT (Discrete Cosine Transform) transformation on the input image frame; Performing motion prediction in a frequency domain to acquire a prediction block having a minimum matching error with a current block through block matching between a DCT transformed current image frame and a previous image frame,
In the step of performing motion prediction in the frequency domain, the prediction block may include a horizontal / vertical shifting matrix to which image interpolation is applied in units of quarter pixels using a three-dimensional interpolation function, A matrix operation using a DCT coefficient matrix of four blocks around the prediction block in a search range of a frame,
Wherein the prediction block is defined by the following equations (1) and (2), and the horizontal shifting matrix uses a matrix defined by Equation (3) and Equation (4), and the vertical shifting matrix is expressed by Equation ≪ / RTI >

[Equation 1]
Figure 112016078605951-pat00125

here,
Figure 112016078605951-pat00126
Gt;
Figure 112016078605951-pat00127
Gt; DCT < / RTI >

&Quot; (2) "
Figure 112016078605951-pat00128

Here, f i is a prediction block
Figure 112016078605951-pat00129
And has a 4x4 block size as any one of the four reference blocks around the reference block,
Figure 112016078605951-pat00130
Wow
Figure 112016078605951-pat00131
Respectively represent the horizontal shifting matrix and the vertical shifting matrix.

&Quot; (3) "
Figure 112016078605951-pat00132

&Quot; (4) "
Figure 112016078605951-pat00133


Where f () denotes the three-dimensional interpolation function, d
Figure 112016078605951-pat00134
Pixel sub-pixel position,
Figure 112016078605951-pat00135
Represents a discarding function,
Figure 112016078605951-pat00136
Represents a rounding function, and D represents
Figure 112016078605951-pat00137
4 x 4 displacement matrix.

&Quot; (5) "
Figure 112016078605951-pat00138

Here, the superscript t represents the transpose matrix, and the discarding function and the rounding function in Equation (5) are the horizontal displacements in Equations (3) and
Figure 112016078605951-pat00139
Instead,
Figure 112016078605951-pat00140
Is applied.
삭제delete 제1항에 있어서,
상기 예측 블록의 획득을 위한 행렬 연산에서,
상기 수학식 3, 상기 수학식 4, 상기 수학식 5의 상기 변위 행렬인
Figure 112016078605951-pat00109
의 n 값이 상기 수평 변위량 및 상기 수직 변위량에 따라,
Figure 112016078605951-pat00110
의 값을 갖는 경우
Figure 112016078605951-pat00111
Figure 112016078605951-pat00112
은 4×4의 영행렬을 이용하고,
Figure 112016078605951-pat00113
의 값을 갖는 경우
Figure 112016078605951-pat00114
Figure 112016078605951-pat00115
의 행렬을 이용하는, 움직임 예측 방법.
The method according to claim 1,
In the matrix operation for obtaining the prediction block,
The displacement matrix of Equation (3), Equation (4) and Equation (5)
Figure 112016078605951-pat00109
The n values of the horizontal displacement amount and the vertical displacement amount,
Figure 112016078605951-pat00110
≪ / RTI >
Figure 112016078605951-pat00111
and
Figure 112016078605951-pat00112
A 4 × 4 zero matrix is used,
Figure 112016078605951-pat00113
≪ / RTI >
Figure 112016078605951-pat00114
And
Figure 112016078605951-pat00115
Using the matrix of the motion vector.
제1항에 있어서,
상기 3차원 보간 함수는, 하기 수학식 6의 b-spline 보간 함수 또는 하기 수학식 7의 cubic 보간 함수가 이용되는, 움직임 예측 방법.

[수학식 6]
Figure 112016078605951-pat00116


[수학식 7]
Figure 112016078605951-pat00117

여기서, 상기 수학식 7의 a는 cubic 보간 함수에 적용될 선택된 상수값임.
The method according to claim 1,
Wherein the three-dimensional interpolation function is a b-spline interpolation function of Equation (6) or a cubic interpolation function of Equation (7).

&Quot; (6) "
Figure 112016078605951-pat00116


&Quot; (7) "
Figure 112016078605951-pat00117

In Equation (7), a is a selected constant value to be applied to the cubic interpolation function.
제1항에 있어서,
상기 수평 변위량 또는 상기 수직 변위량에 따라 상기 탐색 영역의 경계 밖의 DCT 계수 정보가 필요한 경우, 상기 탐색 영역 내의 DCT 계수 정보를 복사하여 상기 움직임 예측에 활용하는, 움직임 예측 방법.
The method according to claim 1,
And DCT coefficient information outside the boundary of the search area is required according to the horizontal displacement amount or the vertical displacement amount, the DCT coefficient information in the search area is copied and used for the motion prediction.
KR1020150028409A 2015-02-27 2015-02-27 Dct based subpixel accuracy motion estimation utilizing shifting matrix KR101691380B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150028409A KR101691380B1 (en) 2015-02-27 2015-02-27 Dct based subpixel accuracy motion estimation utilizing shifting matrix

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150028409A KR101691380B1 (en) 2015-02-27 2015-02-27 Dct based subpixel accuracy motion estimation utilizing shifting matrix

Publications (2)

Publication Number Publication Date
KR20160105127A KR20160105127A (en) 2016-09-06
KR101691380B1 true KR101691380B1 (en) 2016-12-30

Family

ID=56946017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150028409A KR101691380B1 (en) 2015-02-27 2015-02-27 Dct based subpixel accuracy motion estimation utilizing shifting matrix

Country Status (1)

Country Link
KR (1) KR101691380B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102209835B1 (en) * 2019-01-03 2021-02-02 동국대학교 산학협력단 Apparatus and method for encoding using motion prediction of frequency domain
CN110703144B (en) * 2019-09-08 2021-07-09 广东石油化工学院 Transformer operation state detection method and system based on discrete cosine transform

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
J. Lee, et al. An architecture for motion estimation in the transform domain. Proc. of the 17th Int'l Conf. on VLSI Design, 2004, pp.1077-1082
U-V. Koc, et al. Motion compensation on DCT domain. EURASIP Journal on applied signal processing, Jan. 2001, pp.147-162*
강민정 외 2인. H.264를 위한 주파수 영역에서의 반화소 정밀도 움직임 예측 알고리듬. 한국통신학회논문지, 2008년 11월, 제33권 제11호, pp.917-924*
신재영 외 1인, Shifting Matrix를 이용한 DCT 기반 부화소 단위 움직임 예측 알고리즘. 한국통신학회논문지, 2015년 2월 28일, 제40권 제2호, pp.372-379

Also Published As

Publication number Publication date
KR20160105127A (en) 2016-09-06

Similar Documents

Publication Publication Date Title
KR101228651B1 (en) Method and apparatus for performing motion estimation
JP5840285B2 (en) Image encoding apparatus and image decoding apparatus
KR100593350B1 (en) Image encoding device, image encoding method, image decoding device, image decoding method, and communication device
JP5711370B2 (en) Image encoding apparatus, image decoding apparatus, image encoding method, and image decoding method
KR100242406B1 (en) Method for motion estimation using trajectory in a digital video encoder
US7840096B2 (en) Directional interpolation method and video encoding/decoding apparatus and method using the directional interpolation method
JPWO2010137323A1 (en) Video encoding apparatus, video decoding apparatus, video encoding method, and video decoding method
EP1797722A1 (en) Adaptive overlapped block matching for accurate motion compensation
KR20140007074A (en) Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method
KR100597397B1 (en) Method For Encording Moving Picture Using Fast Motion Estimation Algorithm, And Apparatus For The Same
JPWO2014163200A1 (en) Color image encoding device, color image decoding device, color image encoding method, and color image decoding method
JP4360093B2 (en) Image processing apparatus and encoding apparatus and methods thereof
KR101691380B1 (en) Dct based subpixel accuracy motion estimation utilizing shifting matrix
Cai et al. Fast motion estimation for H. 264
KR100926752B1 (en) Fine Motion Estimation Method and Apparatus for Video Coding
JP2014090327A (en) Moving image encoder, moving image decoder, moving image encoding method and moving image decoding method
JP2014090326A (en) Moving image encoder, moving image decoder, moving image encoding method and moving image decoding method
Jamil et al. Preliminary study of block matching algorithm (bma) for video coding
US20130170565A1 (en) Motion Estimation Complexity Reduction
KR20070092481A (en) Adaptive fast motion estimation method for h.264 video encoder
Murmu Fast motion estimation algorithm in H. 264 standard
Yoon et al. Hierarchical integer pixel and adaptive fractional pixel motion estimation
KR101037070B1 (en) Fast Motion Estimation Method Using Full Search
KR100928272B1 (en) Motion estimation method and apparatus for video coding
Waingankar et al. Efficient low bit rate video compression technique for mobile applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191128

Year of fee payment: 4