KR20150000073A - Method and apparatus for video encoding and decoding - Google Patents

Method and apparatus for video encoding and decoding Download PDF

Info

Publication number
KR20150000073A
KR20150000073A KR1020130071827A KR20130071827A KR20150000073A KR 20150000073 A KR20150000073 A KR 20150000073A KR 1020130071827 A KR1020130071827 A KR 1020130071827A KR 20130071827 A KR20130071827 A KR 20130071827A KR 20150000073 A KR20150000073 A KR 20150000073A
Authority
KR
South Korea
Prior art keywords
reference frame
prediction block
similarity
calculating
frame group
Prior art date
Application number
KR1020130071827A
Other languages
Korean (ko)
Other versions
KR101502145B1 (en
Inventor
한기훈
Original Assignee
주식회사 에스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원 filed Critical 주식회사 에스원
Priority to KR1020130071827A priority Critical patent/KR101502145B1/en
Publication of KR20150000073A publication Critical patent/KR20150000073A/en
Application granted granted Critical
Publication of KR101502145B1 publication Critical patent/KR101502145B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

According to an embodiment of the present invention, provided is a device for encoding a video. The device comprises: a motion estimating unit to calculate a first prediction block of a first reference frame which corresponds to a current block being encoded and a second prediction block of at least one second reference frame through motion estimation; a first calculating unit to calculate first similarity between the first prediction block and the second prediction block based on a pixel difference value between the first prediction block and the second prediction block; a determining unit to determine whether to include each of the second reference frames in a reference frame group including the first reference frame based on the first similarity; a second calculating unit to calculate second similarity between a prediction block of a reference frame included in the reference frame group and the current block based on a pixel difference value between the prediction block of the reference frame included in the reference frame group and the current block; a selecting unit to select one of the reference frames included in the reference frame group based on the second similarity; and an encoding unit to encode the pixel difference value between the prediction block of the selected reference frame and the current block.

Description

영상 부호화/복호화 방법 및 장치{METHOD AND APPARATUS FOR VIDEO ENCODING AND DECODING}METHOD AND APPARATUS FOR VIDEO ENCODING AND DECODING [0002]

본 발명은 영상 부호화/복호화 방법 및 장치에 관한 것이다.
The present invention relates to an image encoding / decoding method and apparatus.

동영상 압축 코덱의 발전은 비디오 데이터를 획기적으로 압축할 수 있게 함으로써, 멀티미디어 서비스 발전에 크게 기여하였다. 동영상 압축 코덱은, H.261 코덱, MPEG-1 코덱과 같은 초기 압축 코덱부터 H.264와 같은 최신 코덱까지 지속적으로 압축율을 개선하는 기술을 채택함으로써, 발전해 왔다. 특히, H.264 코덱은 기존의 압축 코덱 보다 월등한 압축율을 가지고 있어, 시장에서 널리 사용되고 있다.
The development of the video compression codec greatly contributed to the development of the multimedia service by allowing the video data to be compressed remarkably. Video compression codecs have been developed by adopting a technique that continuously improves the compression ratio from the initial compression codec such as H.261 codec and MPEG-1 codec to the latest codec such as H.264. In particular, the H.264 codec has a compression ratio that is superior to that of the conventional compression codec and is widely used in the market.

본 발명이 해결하고자 하는 과제는, 동영상 압축 코덱의 압축율을 더욱 향상시킬 수 있는 영상 부호화/복호화 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a video encoding / decoding method and apparatus capable of further improving a compression ratio of a moving picture compression codec.


본 발명의 일실시예에 따르면 영상 부호화 방법이 제공된다. 상기 영상 부호화 방법은, 부호화되는 현재 블록에 대응하는 제1 참조 프레임의 제1 예측 블록과 적어도 하나의 제2 참조 프레임의 제2 예측 블록을 움직임 추정을 통해 계산하는 단계; 상기 제1 참조 프레임을 참조 프레임 그룹에 포함시키는 단계; 상기 제1 예측 블록과 상기 제2 예측 블록 간의 제1 유사도를 계산하는 단계; 상기 제1 유사도에 기초해 상기 제2 참조 프레임 각각을 상기 참조 프레임 그룹에 포함시킬 지 여부를 결정하는 단계; 상기 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 상기 현재 블록간의 제2 유사도를 계산하는 단계; 상기 계산된 제2 유사도에 기초해 상기 참조 프레임 그룹에 포함된 참조 프레임 중 어느 하나를 선택하는 단계; 및 상기 선택된 참조 프레임의 예측 블록과 상기 현재 블록 간의 화소 차이값을부호화하는 단계를 포함한다.According to an embodiment of the present invention, an image encoding method is provided. Calculating a first prediction block of a first reference frame corresponding to a current block to be coded and a second prediction block of at least one second reference frame through motion estimation; Including the first reference frame in a reference frame group; Calculating a first similarity degree between the first prediction block and the second prediction block; Determining whether to include each of the second reference frames in the reference frame group based on the first similarity; Calculating a second degree of similarity between a current block and a prediction block of a reference frame included in the reference frame group; Selecting one of the reference frames included in the reference frame group based on the calculated second similarity; And encoding a pixel difference value between a prediction block of the selected reference frame and the current block.

상기 제1 예측 블록과 제2 예측 블록을 계산하는 단계는, 움직임 추정을 통해 상기 제2 참조 프레임인 제3 참조 프레임의 제2 예측 블록을 계산하는 단계; 및 움직임 추정을 통해 상기 제2 참조 프레임인 제4 참조 프레임의 제2 예측 블록을 계산하는 단계를 포함한다.The calculating of the first and second prediction blocks may include calculating a second prediction block of a third reference frame that is the second reference frame through motion estimation; And calculating a second prediction block of the fourth reference frame, which is the second reference frame, through motion estimation.

상기 제1 유사도는 상기 제1 예측 블록과 상기 제3 참조 프레임의 제2 예측 블록 간의 제3 유사도, 그리고 상기 제1 예측 블록과 상기 제4 참조 프레임의 제2 예측 블록 간의 제4 유사도를 포함한다. 상기 제1 유사도를 계산하는 단계는, 상기 제1 예측 블록과 상기 제3 참조 프레임의 제2 예측 블록 간의 화소 차이값의 합인 제1 차이값 합을 계산하는 단계; 상기 제1 차이값 합이 제1 임계값 보다 작은 경우에 상기 제3 유사도를 제1 레벨로 설정하고, 상기 제1 차이값 합이 상기 제1 임계값 보다 큰 경우에 상기 제3 유사도를 상기 제1 레벨 보다 낮은 제2 레벨로 설정하는 단계; 상기 제1 예측 블록과 상기 제4 참조 프레임의 제2 예측 블록 간의 화소 차이값의 합인 제2 차이값 합을 계산하는 단계; 및 상기 제2 차이값 합이 상기 제1 임계값 보다 작은 경우에 상기 제4 유사도를 상기 제1 레벨로 설정하고, 상기 제2 차이값 합이 상기 제1 임계값 보다 큰 경우에 상기 제4 유사도를 상기 제2 레벨로 설정하는 단계를 포함한다.The first similarity includes a third similarity between the first prediction block and a second prediction block of the third reference frame and a fourth similarity between the first prediction block and a second prediction block of the fourth reference frame . The calculating of the first similarity may include: calculating a first difference value sum which is a sum of pixel difference values between the first prediction block and a second prediction block of the third reference frame; And sets the third degree of similarity to a first level when the first difference value sum is smaller than the first threshold value and sets the third degree of similarity to the first level when the first difference value sum is larger than the first threshold value, Setting a second level lower than the first level; Calculating a second difference sum which is a sum of pixel difference values between the first prediction block and a second prediction block of the fourth reference frame; And sets the fourth similarity degree to the first level when the second difference value sum is smaller than the first threshold value and sets the fourth similarity degree to the first level when the second difference value sum is larger than the first threshold value, To the second level.

상기 영상 부호화 방법은, 상기 제2 유사도를 계산하는 단계 이전에, 상기 참조 프레임 그룹에 포함된 참조 프레임을 나타내는 참조 프레임 인덱스를 설정하는 단계를 더 포함할 수 있다.The image encoding method may further include setting a reference frame index indicating a reference frame included in the reference frame group before calculating the second similarity.

상기 영상 부호화 방법은, 상기 제2 유사도를 계산하는 단계 이전에, 상기 제1 예측 블록의 영상 복잡도와 상기 참조 프레임 그룹에 포함된 제2 참조 프레임 각각의 제2 예측 블록의 영상 복잡도를 비교하는 단계를 더 포함할 수 있다.Comparing the image complexity of the first predictive block with the image complexity of a second predictive block of each of the second reference frames included in the reference frame group before the step of calculating the second similarity, As shown in FIG.

상기 영상 부호화 방법은, 상기 영상 복잡도를 비교하는 단계와 상기 제2 유사도를 계산하는 단계 사이에, 상기 영상 복잡도를 비교하는 단계에서의 비교 결과에 따라 상기 참조 프레임 그룹에 포함된 제2 참조 프레임 각각을 상기 참조 프레임 그룹에서 제외시킬 지 여부를 결정하는 단계를 더 포함할 수 있다.The image encoding method may further include a step of, between the step of comparing the image complexity and the step of calculating the second degree of similarity, calculating a degree of similarity of each of the second reference frames included in the reference frame group May be included in the reference frame group.

또한, 본 발명의 다른 실시예에 따르면 영상 복호화 방법이 제공된다. 상기영상 복호화 방법은, 수신된 비트스트림의 제1 영역으로부터 움직임 벡터를 추출하는 단계; 복호화되는 현재 블록에 대응하는 제1 참조 프레임의 제1 예측 블록과 적어도 하나의 제2 참조 프레임의 제2 예측 블록을 상기 추출된 움직임 벡터를 이용해 계산하는 단계; 상기 제1 참조 프레임을 참조 프레임 그룹에 포함시키는 단계; 상기 제1 예측 블록과 상기 제2 예측 블록 간의 화소 차이값에 기초해, 상기 제1 예측 블록과 상기 제2 예측 블록 간의 제1 유사도를 계산하는 단계; 상기 제1 유사도에 기초해, 상기 제2 참조 프레임 각각을 상기 참조 프레임 그룹에 포함시킬 지 여부를 결정하는 단계; 및 상기 참조 프레임 그룹에 상기 제1 참조 프레임 만이 포함된 경우인 제1 경우에, 상기 제1 영역 이후에 위치하는 상기 비트스트림의 제2 영역으로부터 제1 레지듀얼 데이터를 추출하고, 상기 제1 예측 블록과 상기 추출된 제1 레지듀얼 데이터를 더하여 상기 현재 블록을 복원하는 단계를 포함한다.According to another embodiment of the present invention, a video decoding method is provided. The video decoding method includes: extracting a motion vector from a first region of a received bitstream; Calculating a first prediction block of a first reference frame and a second prediction block of at least one second reference frame corresponding to a current block to be decoded using the extracted motion vector; Including the first reference frame in a reference frame group; Calculating a first similarity degree between the first prediction block and the second prediction block based on a pixel difference value between the first prediction block and the second prediction block; Determining whether to include each of the second reference frames in the reference frame group based on the first similarity; And extracting first residual data from a second region of the bitstream located after the first region in a first case where only the first reference frame is included in the reference frame group, And restoring the current block by adding the block and the extracted first residual data.

또한, 본 발명의 또 다른 실시예에 따르면 영상 부호화 장치가 제공된다. 상기 영상 부호화 장치는, 부호화되는 현재 블록에 대응하는 제1 참조 프레임의 제1 예측 블록과 적어도 하나의 제2 참조 프레임의 제2 예측 블록을, 움직임 추정을 통해 계산하는 움직임 추정부; 상기 제1 예측 블록과 상기 제2 예측 블록 간의 화소 차이값에 기초해, 상기 제1 예측 블록과 상기 제2 예측 블록 간의 제1 유사도를 계산하는 제1 계산부; 상기 제1 유사도에 기초해, 상기 제1 참조 프레임이 포함된 참조 프레임 그룹에 상기 제2 참조 프레임 각각을 포함시킬 지 여부를 결정하는 판단부; 상기 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 상기 현재 블록간의 화소 차이값에 기초해, 상기 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 상기 현재 블록 간의 제2 유사도를 계산하는 제2 계산부; 상기 제2 유사도에 기초해, 상기 참조 프레임 그룹에 포함된 참조 프레임 중에서 어느 하나를 선택하는 선택부; 및 상기 선택된 참조 프레임의 예측 블록과 상기 현재 블록 간의 화소 차이값을 부호화하는 부호화부를 포함한다.
According to another embodiment of the present invention, an image encoding apparatus is provided. A motion estimator for calculating a first prediction block of a first reference frame corresponding to a current block to be coded and a second prediction block of at least one second reference frame through motion estimation; A first calculation unit for calculating a first similarity degree between the first prediction block and the second prediction block based on a pixel difference value between the first prediction block and the second prediction block; A determination unit for determining whether to include each of the second reference frames in a reference frame group including the first reference frame based on the first similarity; A second calculation for calculating a second similarity degree between a current block and a prediction block of a reference frame included in the reference frame group based on a pixel difference value between a current block and a prediction block of a reference frame included in the reference frame group; part; A selection unit for selecting any one of reference frames included in the reference frame group based on the second similarity; And an encoding unit encoding a pixel difference value between a predictive block of the selected reference frame and the current block.

본 발명의 실시예에 따르면, 다중 참조 프레임의 사용 효과가 있는 경우에만 참조 프레임 인덱스 비트를 사용한다. 이를 통해, 영상 부호화 시에 부호화되는 참조 프레임 인덱스 비트를 줄일 수 있어, 동영상 코덱의 압축율을 더욱 향상시킬 수 있다.
According to an embodiment of the present invention, the reference frame index bits are used only when there is an effect of using multiple reference frames. Accordingly, the reference frame index bit to be encoded at the time of image encoding can be reduced, and the compression rate of the video codec can be further improved.

도 1은 다중 참조 프레임을 이용한 움직임 추정/보상 동작을 나타내는 도면.
도 2는 부호화되는 현재 블록과 다중 참조 프레임 각각의 예측 블록의 일예를 나타낸 도면.
도 3은 부호화되는 현재 블록과 다중 참조 프레임 각각의 예측 블록의 다른예를 나타낸 도면.
도 4는 본 발명의 실시예에 따른 다중 참조 프레임의 사용 여부를 결정하기위한 조건문을 나타내는 도면.
도 5는 본 발명의 실시예에 따른 비트스트림 구조를 나타낸 도면.
도 6은 본 발명의 실시예에 따른 영상 부호화 장치의 영상 부호화 과정을 나타낸 순서도.
도 7은 본 발명의 실시예에 따른 영상 복호화 장치의 영상 복호화 과정을 나타낸 순서도.
도 8은 본 발명의 실시예에 따른 영상 부호화 장치를 나타낸 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 shows a motion estimation / compensation operation using multiple reference frames.
2 is a diagram showing an example of a prediction block of each of a current block and a multiple reference frame to be coded;
3 is a diagram showing another example of a prediction block of each of a current block and a multiple reference frame to be coded;
FIG. 4 illustrates a conditional statement for determining whether to use multiple reference frames according to an embodiment of the present invention; FIG.
5 illustrates a bitstream structure according to an embodiment of the present invention.
6 is a flowchart illustrating an image encoding process of the image encoding apparatus according to the embodiment of the present invention.
FIG. 7 is a flowchart illustrating a video decoding process of a video decoding apparatus according to an embodiment of the present invention; FIG.
8 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

도 1은 다중 참조 프레임을 이용한 움직임 추정/보상 동작을 나타내는 도면이다.1 is a diagram illustrating a motion estimation / compensation operation using multiple reference frames.

동영상 압축 코덱에서 움직임 추정/보상(motion estimation/compensation)은 압축율을 높이기 위한 핵심 기술이다. 움직임 추정/보상을 통해, 연속된 화면간의 시간적 중복 데이터를 제거할 수 있다. 특히, H.264 코덱에서는 움직임 추정/보상의 효율성을 높이기 위해, 도 1과 같이 다수의 참조 프레임이 이용된다. 도 1에서는 설명의 편의를 위해, 움직임 추정/보상 시에 세 개의 참조 프레임(F110, F120, F130)이 이용되는 경우를 예시하였다. 현재 프레임(F210)은 N 개의 프레임 중 N번째 프레임이다. 참조 프레임(F110)은 현재 프레임(F210)의 직전 프레임인 N-1번째 프레임이다. 참조 프레임(F120)은 N-2번째 프레임이고, 참조 프레임(F130)은 N-3 번째 프레임이다. 한편, 도 1에서와 같이, 각 프레임(F210, F110, F120, F130)은 객체(F212, F112, F122, F132)를 포함할 수 있다. 세 개의 참조 프레임(F110, F120, F130) 중 현재 프레임(F210)과 가장 유사도가 높은 참조 프레임이 선택된다. 구체적으로, H.264 등의 코덱에서 움직임 추정/보상은 블록 단위로 수행된다. 현재 프레임(F210)의 현재 블록(F213)을 부호화할 때, 비디오 데이터의 시간적 중복성을 제거하기 위해서 참조 프레임(F110, F120, F130)에서 현재 블록(F213)과 유사한 블록(예측 블록)을 찾는다. 이를 움직임 추정 과정이라 한다. 즉, 움직임 추정 과정은 현재 블록(F213)이 참조 프레임(F110, F120, F130)의 어느 위치로부터 이동하였느냐를 검색하는 과정이다. 현재 블록(F213)이 참조 프레임(F110, F120, F130)의 어느 위치로부터 이동하였느냐는 움직임 벡터(Motion Vector)로 표기된다. 예를 들어, 현재 블록(F213)이 이전 프레임(F110)의 동일 위치(즉, 현재 블록(F213)과 동일한 위치)로부터 수평 방향으로 3 화소 위치, 그리고 수직 방향으로 2화소 위치 떨어진 곳에서 이동하였을 경우에 움직임 벡터는 (3, 2)가 된다. 보통의 경우에, 움직임 추정시 참조 프레임(F110, F120, F130)의 전체 영역을 검색하기 보다는 계산 속도를 빠르게 하기 위해서, 움직임 벡터의 발생 확률이 높은 일부 영역(참조 프레임(F110, F120, F130)에서 현재 블록(F213)과 가장 유사한 영역)을 움직임 검색 영역(F111, F121, F131)으로 설정하고, 움직임 검색 영역(F111, F121, F131) 내에서 예측 블록을 검색한다. 또한, 갑작스런 시간적 잡음 등이 발생하는 상황에서도 좋은 성능을 얻기 위해서, 한 장의 참조 프레임이 아닌 다중 참조 프레임(F110, F120, F130)에서 움직임 추정 과정이 수행된다. 한편, 복호화 장치가 현재 블록(F213)을 복호화할 때에는 압축 비트 스트림에서 참조 프레임 인덱스와 움직임 벡터 정보를 읽어들여 현재 블록(F213)의 예측 블록을 구하고, 그 후 움직임 보상을 수행한다. Motion estimation / compensation in a moving image compression codec is a key technique for increasing the compression ratio. Through motion estimation / compensation, temporal redundancy data between consecutive pictures can be removed. In particular, in the H.264 codec, a plurality of reference frames are used as shown in FIG. 1 in order to increase the efficiency of motion estimation / compensation. In FIG. 1, for convenience of explanation, three reference frames F110, F120, and F130 are used in motion estimation / compensation. The current frame F210 is the Nth frame among the N frames. The reference frame F110 is the (N-1) th frame immediately before the current frame F210. The reference frame F120 is the (N-2) th frame, and the reference frame F130 is the (N-3) th frame. 1, each frame F210, F110, F120, and F130 may include objects F212, F112, F122, and F132. Of the three reference frames F110, F120, and F130, the reference frame having the highest degree of similarity to the current frame F210 is selected. Specifically, motion estimation / compensation in a codec such as H.264 is performed on a block-by-block basis. When coding the current block F213 of the current frame F210, a block (prediction block) similar to the current block F213 is searched in the reference frames F110, F120, and F130 to eliminate the temporal redundancy of the video data. This is called a motion estimation process. That is, the motion estimation process is a process of searching from which position of the current frame F213 the reference frames F110, F120, and F130 have moved. Whether the current block F213 has moved from the reference frames F110, F120 or F130 is indicated by a motion vector. For example, it is assumed that the current block F213 has shifted three pixels in the horizontal direction and two pixels in the vertical direction from the same position of the previous frame F110 (i.e., the same position as the current block F213) In this case, the motion vector is (3, 2). In the normal case, in order to speed up the calculation speed rather than searching the entire area of the reference frames F110, F120 and F130 in the motion estimation, the partial areas (the reference frames F110, F120 and F130) F121 and F131 in the motion search areas F111, F121 and F131 and searches for the predicted block in the motion search areas F111, F121 and F131. Also, in order to obtain good performance even in the case where sudden temporal noise or the like occurs, a motion estimation process is performed in multiple reference frames (F110, F120, F130) rather than a single reference frame. On the other hand, when the decoding apparatus decodes the current block F213, the reference frame index and the motion vector information are read from the compressed bitstream to obtain a prediction block of the current block F213, and then motion compensation is performed.

결국, 움직임 추정/보상 시에 다중 참조 프레임을 이용하는 경우가 단일 참조 프레임을 이용하는 경우에 비해, 현재 프레임(F210)과 가장 유사한 참조 프레임(예, F120)을 찾을 확률이 더 높다. 이를 통해, 현재 프레임(F210)과 가장 유사한 참조 프레임(F120)으로부터 움직임 추정/보상이 수행됨으로써, 현재 프레임(F210)의 시간적 중복 데이터가 더욱 효율적으로 제거될 수 있다. 이는, 동영상 코덱의 압축율을 향상시킨다.
As a result, the probability of finding a reference frame (e.g., F120) that is most similar to the current frame F210 is higher when using multiple reference frames at the time of motion estimation / compensation than when using a single reference frame. Accordingly, the motion estimation / compensation is performed from the reference frame F120 most similar to the current frame F210, whereby the temporal redundant data of the current frame F210 can be removed more efficiently. This improves the compression ratio of the video codec.

도 2는 부호화되는 현재 블록과 다중 참조 프레임 각각의 예측 블록(prediction block)의 일예를 나타낸 도면이다.2 is a diagram showing an example of a prediction block of each of a current block and a multiple reference frame to be encoded.

참조 프레임(F110)의 예측 블록(F113), 참조 프레임(F120)의 예측 블록(F123) 및 참조 프레임(F130)의 예측 블록(F133)은 현재 프레임(F210)의 현재 블록(F213)에 대응하는 블록들이다. The prediction block F113 of the reference frame F110, the prediction block F123 of the reference frame F120 and the prediction block F133 of the reference frame F 130 correspond to the current block F213 of the current frame F210 Blocks.

다중 참조 프레임을 이용한 움직임 추정 과정은, 현재 프레임(F210)의 현재 블록(F213)의 화소값과 가장 유사한 화소값을 가지는 영역을 여러 참조 프레임(F110, F120, F130)내에서 찾는 과정이다. 도 2는 움직임 추정 과정에 의해 찾아진 참조 프레임(F110, F120, F130) 각각의 예측 블록(F113, F123, F133)을 예시하였다.The motion estimation process using the multiple reference frame is a process of finding an area having the pixel value most similar to the pixel value of the current block F213 of the current frame F210 in the reference frames F110, F120 and F130. FIG. 2 illustrates the prediction blocks F113, F123, and F133 of the reference frames F110, F120, and F130 found by the motion estimation process.

한편, 움직임 추정 과정에서 주로 사용되는 유사도 측정 방법은, SAD(Sum of Absolute Differences)를 이용한 방법, SSE(Sum of Squared Differences)를 이용한 방법, SATD(Sum of Absolute Transformed Differences)를 이용한 방법 등이 있다. 여기서 SAD는 아래의 수학식1에 의해 계산된다. On the other hand, similarity measurement methods mainly used in the motion estimation process include a method using Sum of Absolute Differences (SAD), a method using Sum of Squared Differences (SSE), and a method using Sum of Absolute Transformed Differences . Here, SAD is calculated by the following equation (1).

Figure pat00001
Figure pat00001

수학식1에서 y, x은 화소의 블록 내 위치 좌표이고, N, M 각각은 블록의 세로, 가로 크기이다. cur(y, x)는 현재 블록(F213) 내 y, x 좌표의 화소값을 나타내고, ref(y +i, x + j)는 예측 블록(F113, F123, F133)의 화소값을 나타낸다. 수학식에서 i, j는 움직임 벡터(Motion Vector)를 의미한다. 각 참조 프레임(F110, F120, F130)의 예측 블록(F113, F123, F133)의 화소값과 현재 프레임(F210)의 현재 블록(F213)의 화소값이 도 2에 예시된 바와 같다면, 예측 블록(F113)의 SAD 값은 10 * 16 = 160 이고, 예측 블록(F123)의 SAD 값은 0*16 = 0이고, 예측 블록(F133)의 SAD 값은 20*16 =320 이다. 참조 프레임(F120)의 예측 블록(F123)과 현재 프레임(F210)의 현재 블록(F213) 간의 SAD 값이 0으로써 세 예측 블록(F113, F123, F133) 중에서 최소값을 가지므로, 참조 프레임(F120)으로부터 움직임 추정/보상이 수행된다. 도 2에 예시된 예에서는 세 개의 예측 블록(F113, F123, F133)의 SAD 값이 서로 상이하여 세 개 중에 가장 최소의 SAD값을 가지는 참조 프레임(F120)을 선택할 수 있다. 즉, 현재 블록(F213)과 가장 유사한 예측 블록(F123)을 가지는 참조 프레임(F120)으로부터 움직임 추정/보상을 실시할 수 있어, 압축율이 향상된다. 결국, 도 2에 예시된 예는 다중 참조 프레임을 사용하는 효과가 있는 경우이다. 이 경우, 참조 프레임 인덱스(REF_IDX)는 참조 프레임(F120)을 나타낸다. 여기서 참조 프레임 인덱스(REF_IDX)는 움직임 추정/보상 시 이용되는 참조 프레임을 나타낸다.
In Equation (1), y and x are position coordinates in the block of the pixel, and N and M are the vertical and horizontal sizes of the block, respectively. cur (y, x) represents pixel values of y and x coordinates in the current block F213 and ref (y + i, x + j) represents pixel values of the prediction blocks F113, F123 and F133. In the mathematical expression, i, j denotes a motion vector. If the pixel values of the prediction blocks F113, F123 and F133 of the reference frames F110, F120 and F130 and the pixel values of the current block F213 of the current frame F210 are the same as illustrated in FIG. 2, The SAD value of the prediction block F113 is 10 * 16 = 160, the SAD value of the prediction block F123 is 0 * 16 = 0, and the SAD value of the prediction block F133 is 20 * 16 = 320. Since the SAD value between the predicted block F123 of the reference frame F120 and the current block F213 of the current frame F210 is zero and has the minimum value among the three prediction blocks F113, F123, and F133, Motion estimation / compensation is performed. In the example illustrated in FIG. 2, the SAD values of the three prediction blocks F113, F123, and F133 are different from each other, so that the reference frame F120 having the smallest SAD value among the three can be selected. That is, the motion estimation / compensation can be performed from the reference frame F120 having the prediction block F123 most similar to the current block F213, and the compression ratio is improved. As a result, the example illustrated in FIG. 2 is the case where there is an effect of using multiple reference frames. In this case, the reference frame index REF_IDX indicates the reference frame F120. Here, the reference frame index REF_IDX represents a reference frame used in motion estimation / compensation.

도 3은 부호화되는 현재 블록과 다중 참조 프레임 각각의 예측 블록의 다른예를 나타낸 도면이다.3 is a diagram showing another example of a prediction block of each of a current block and a multiple reference frame to be coded.

도 3에 예시된 예측 블록 각각(F113, F123, F133)은 현재 블록(F213)과 화소값 차이가 없다. 이 경우에는 세 개의 참조 프레임(F110, F120, F130) 중 어느 참조 프레임을 선택하여 움직임 추정/보상을 수행하더라도, 압축율은 동일하다. 결국, 도 3에 예시된 예는 다중 참조 프레임을 사용하는 효과가 없는 경우이다. Each of the prediction blocks F113, F123, and F133 illustrated in FIG. 3 has no pixel value difference from the current block F213. In this case, even if any of the three reference frames F110, F120, and F130 is selected to perform motion estimation / compensation, the compression rate is the same. As a result, the example illustrated in FIG. 3 is the case where there is no effect using multiple reference frames.

한편, H.264 코덱에서는 도 3과 같은 경우(즉, 다중 참조 프레임의 사용 효과가 없는 경우)에도, 움직임 추정/보상 시 어떤 참조 프레임을 사용하여야 하는지를 알려 주기 위해 참조 프레임 인덱스(REF_IDX)를 부호화 한다. In the H.264 codec, a reference frame index (REF_IDX) is encoded to indicate which reference frame should be used for motion estimation / compensation even in the case of FIG. 3 do.

본 발명은, 다중 참조 프레임 각각의 예측 블록(F113, F123, F133)의 화소값이 동일/유사한 경우에 다중 참조 프레임을 사용함에 의한 효과가 없다고 판단하고, 이 경우에 다중 참조 프레임(F110, F120, F130)을 사용하지 않고 미리 약속된 프레임(예, 현재 프레임(F210)의 직전 프레임(즉, N-1 번째 프레임))만을 사용한다. 이하에서는 설명의 편의를 위해, 미리 약속된 프레임은 현재 프레임(F210)의 직전 프레임(F110)이라고 가정한다. 이를 통해, 참조 프레임 인덱스(REF_IDX)의 부호화에 필요한 비트 수 또는 참조 프레임 인덱스 비트 수가 절감되어, 압축율이 향상된다.In the present invention, when the pixel values of the prediction blocks F113, F123, and F133 of the multiple reference frames are the same / similar, it is determined that there is no effect of using multiple reference frames. In this case, the multiple reference frames F110, , I.e., the immediately preceding frame (i.e., the (N-1) th frame) of the current frame F210 without using the frame F130. Hereinafter, for convenience of explanation, it is assumed that the frame that has been previously promised is the immediately preceding frame F110 of the current frame F210. This reduces the number of bits necessary for coding the reference frame index (REF_IDX) or the number of reference frame index bits, thereby improving the compression ratio.

상술한 바와 같이, 다중 참조 프레임을 사용함에 의한 움직임 추정/보상의 효과(이하 다중 참조 프레임 효과라 함)가 있으려면 도 2에 예시된 예와 같이 참조 프레임 각각(F113, F123, F133)의 예측 블록 간에 화소값 차이가 있어야 한다. 현재 프레임(F210)의 현재 블록(F213) 내 y, x 좌표의 화소값을 cur(y,x), 참조 프레임(F110)의 예측 블록(F113) 내 y, x 좌표의 화소값을 ref(N-1)(y, x), 참조 프레임(F110)에 의한 레지듀얼 신호(residual signal, 잔차 신호)를 residual(N-1)이라 하면, 직전 프레임(즉, N-1 번째 프레임, F110)과 현재 프레임(F210)의 레지듀얼 신호 residual(N-1)는 아래의 수학식2와 같이 정의된다.As described above, in order to have a motion estimation / compensation effect (hereinafter referred to as a multiple reference frame effect) by using multiple reference frames, prediction of each of the reference frames F113, F123, and F133 There must be a pixel value difference between blocks. The pixel value of a y, x coordinate current block (F213) of the current frame (F210) cur (y, x ), refer to the prediction block of a frame (F110) (F113) in y, the pixel value of the x coordinate ref (N 1) th frame (i.e., the (N-1) th frame, F110) and the residual signal (residual signal) The residual signal residual (N-1) of the current frame F210 is defined by the following equation (2).

Figure pat00002
Figure pat00002

참조 프레임(F110)과 동일하게, 참조 프레임(F120)의 레지듀얼 신호 residual(N-2) 참조 프레임(F130)의 residual(N-3)는 아래의 수학식3, 4와 같이 정의된다.Similar to the reference frame F110, the residual signal residual (N-2) of the reference frame F120 and the residual signal The residual (N-3) of the reference frame F130 is defined by the following equations (3) and (4).

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

수학식 2~4에서 알 수 있듯이, 비디오 압축에서 실제로 부호화되는 레지듀얼신호는 참조 프레임(F110, F120, F130)의 ref(N-1)(y, x), ref(N-2)(y, x), ref(N-3)(y, x)에 따라 달라진다는 것을 알 수 있다. 만약, 참조 프레임(F110, F120), F130)의 ref(N-1)(y,x), ref(N-2)(y,x), ref(N-3)(y,x)가 동일한 값을 가진다면 레지듀얼 신호 residual(N-1), residual(N-2), residual(N-3) 도 역시 동일한 값을 가진다. 또한, 참조 프레임(F110, F120, F130)의 ref(N-1)(y,x), ref(N-2)(y,x), ref(N-3)(y,x) 가 유사한 값을 가진다면 레지듀얼 신호 residual(N-1), residual(N-2), residual(N-3) 역시 유사한 값을 가진다. 그러므로 다중 참조 프레임들(F110, F120, F130)의 예측 블록(F113, F123, F133)의 화소값을 확인함으로써, 다중 참조 프레임의 사용함에 의한 움직임 추정/보상의 효과가 있는지 판단할 수 있다. 본 발명은, 다중 참조 프레임 효과가 있는 경우에만 다중 참조 프레임을 사용하고(이 경우, 부호화시 참조 프레임 인덱스(REF_IDX)가 사용됨), 그렇지 않은 경우에는 미리 약속된 단일 프레임(예, 현재 프레임(F210)의 직전 프레임)만을 사용한다(이 경우, 부호화시 참조 프레임 인덱스(REF_IDX)가 사용되지 않음). 이를 통해, 참조 프레임 인덱스(REF_IDX)를 부호화하는데 필요한 비트 수를 줄일 수 있다.As can be seen from Equations (2) to (4), the residual signals actually encoded in the video compression are ref (N-1) (y, x), ref (N-2) , x) and ref (N-3) (y, x). If a reference frame (F110, F120), ref ( N-1) (y, x), ref (N-2) (y, x), ref (N-3) (y, x) of the F130), the same (N-1) , residual (N-2) , and residual (N-3) also have the same value. Incidentally, the reference frame (F110, F120, F130) in ref (N-1) (y , x), ref (N-2) (y, x), ref (N-3) (y, x) is similar to (N-1) , residual (N-2) , and residual (N-3) have similar values. Therefore, by checking the pixel values of the prediction blocks F113, F123, and F133 of the multiple reference frames F110, F120, and F130, it is possible to determine whether there is an effect of motion estimation / compensation by using multiple reference frames. The present invention uses multiple reference frames only if there is a multiple reference frame effect (in this case, a reference frame index (REF_IDX) is used in encoding), otherwise a single promised single frame (e.g., current frame F210 ) (In this case, the reference frame index REF_IDX is not used in coding). This reduces the number of bits required to encode the reference frame index (REF_IDX).

본 발명은, 다중 참조 프레임 효과가 있는지를 판단하기 위해, 미리 약속된 프레임(예, N-1 번째 프레임인 F110)의 예측 블록(F113)의 ref(N-1)(y,x)와 그 외 참조 프레임(F120, F130)의 예측 블록(F123, 133)의 ref(N-2)(y,x), ref(N-3)(y,x) 간의 차이값의 합(SAD)과 분산값(variance)을 임계값(TH1), 임계값(TH2) 각각과 비교한다. 즉, 예측 블록(F113)과 예측 블록(F123) 간의 화소 차이값의 합(SAD(N-2))을 임계값(TH1)과 비교하고, 예측 블록(F113)의 화소 분산값(Var(ref(N-1)(y,x)))과 예측 블록(F123)의 화소 분산값(Var(ref(N-2)(y,x))) 간의 차이가 임계값(TH2) 보다 작은 지를 판단한다. 그리고, 예측 블록(F113)과 예측 블록(F133) 간의 화소 차이값의 합(SAD(N-3))을 임계값(TH1)과 비교하고, 예측 블록(F113)의 화소 분산값(Var(ref(N-1)(y,x)))과 예측 블록(F133)의 화소 분산값(Var(ref(N-3)(y,x))) 간의 차이가 임계값(TH2) 보다 작은 지를 판단한다. 여기서 임계값(TH1)은 동영상의 압축율과 화질에 따라 적응적으로 결정하기 위해, H.264 코덱의 양자화 계수(Quantization Parameter) 값에 따라 결정될 수 있다. H.264 코덱에서는 0~51 범위의 52단계의 양자화 계수를 지원하고, 각 양자화 계수에 따른 양자화 스텝사이즈(Qstep)를 정의하고 있다. 구체적으로, 임계값(TH1)은 아래의 수학식5에 의해 결정될 수 있다. In the present invention, ref (N-1) (y, x) of a predicted block F113 of an already-promised frame (for example, the N-1th frame F110) (SAD) and difference (SAD) of difference values between ref (N-2) (y, x) and ref (N-3) (y, x) of the prediction blocks F123 and 133 of the outer reference frames F120 and F130 The variance is compared with the threshold value TH1 and the threshold value TH2, respectively. That is, the sum of the pixel difference values SAD (N-2 ) between the prediction block F113 and the prediction block F123 is compared with the threshold value TH1, and the pixel variance value Var (ref (N-1) (y, x)) and the pixel variance value Var (ref (N-2) (y, x)) of the prediction block F123 is smaller than the threshold value TH2 do. Then, the sum of the pixel difference values SAD (N-3 ) between the prediction block F113 and the prediction block F133 is compared with the threshold value TH1, and the pixel variance value Var (ref (N-1) (y, x)) and the pixel variance value Var (ref (N-3) (y, x)) of the prediction block F133 is smaller than the threshold value TH2 do. Here, the threshold value TH1 may be determined according to the quantization parameter value of the H.264 codec in order to adaptively determine the compression rate and the picture quality of the moving picture. The H.264 codec supports 52 levels of quantization coefficients ranging from 0 to 51, and defines a quantization step size (Q step ) according to each quantization coefficient. Specifically, the threshold value TH1 can be determined by the following equation (5).

Figure pat00005
Figure pat00005

수학식5에서 α 는 조정값으로써, 영상의 복잡도와 화질 등을 고려하여 부호화 시에 적응적으로 지정될 수 있다. 예를 들어, α는 2일 수 있다. In Equation (5),? Is an adjustment value, which can be adaptively specified at the time of coding considering the complexity of the image and the image quality. For example, alpha may be 2.

임계값(TH2)은 미리 약속된 프레임(예, N-1 번째 프레임인 F110)의 예측 블록(F113)의 화소 분산값(Var(ref(N-1)(y,x)))에 의해 결정된다. 구체적으로 임계값(TH2)는 아래의 수학식6에 의해 결정될 수 있다.The threshold value TH2 is determined by the pixel variance value Var (ref (N-1) (y, x)) of the predicted block F113 of the previously promised frame (for example, do. Specifically, the threshold value TH2 can be determined by the following equation (6).

Figure pat00006
Figure pat00006

수학식6에서 β는 조정값으로써, 영상의 복잡도와 화질 등을 고려해 적응적으로 결정될 수 있다. 예를 들어, β는 0.1일 수 있다.In Equation (6),? Is an adjustment value and can be adaptively determined in consideration of image complexity and image quality. For example, beta may be 0.1.

한편, 영상 부호화 시, 화면 변화에 따라 각 화면 간의 화소 차이값과 분산값은 많이 달라질 수 있다. 영상에서 각 화면 간의 변화에 따라 적응적으로 TH1과 TH2 값을 계산하기 위해서, 본 발명은 부호화시 조정값인 α와 β를 슬라이스 헤더 정보에 포함시키고, 복호화시 슬라이스 헤더 정보의 α와 β를 이용해 TH1과 TH2 값을 계산한다. On the other hand, in the image encoding, the pixel difference value and the variance value between the respective screens may vary greatly according to the screen change. In order to adaptively calculate the TH1 and TH2 values according to the change between the screens in the image, the present invention includes the adjustment values α and β in the encoding, and includes the slice header information in the decoding, Calculate TH1 and TH2 values.

본 발명은, SAD(N-2), SAD(N-3), Var(ref(N-1)(y,x)), Var(ref(N-2)(y,x)), Var(ref(N-3)(y,x)), 그리고 임계값(TH1, TH2)을 계산한다. 예를 들어, 도 2의 예에서 SAD(N-2)는 10*16 = 160이고, SAD(N-3)는 10*16 = 160이고, Var(ref(N-1)(y,x)), Var(ref(N-2)(y,x)), Var(ref(N-3)(y,x))은 0이다. 그 후, 도 4에 도시된 조건문에 따라 다중 참조 프레임의 사용 여부를 결정한다.
The present invention relates to a method for producing SAD (N-2) , SAD SAD (N-3) , Var (ref (N-1) (y, x)), Var (ref (N-2) (y, x)), Var (ref (N-3) (y, x)), and the threshold value (TH1 , TH2) are calculated. For example, if the SAD (N-2) in the example of Figure 2 is 10 * 16 = 160, SAD ( N-3) is 10 *, and 16 = 160, Var (ref ( N-1) (y, x) ), Var (ref (N-2) (y, x)) and Var (ref (N-3) Thereafter, it is determined whether to use multiple reference frames according to the conditional statements shown in Fig.

도 4는 본 발명의 실시예에 따른 다중 참조 프레임의 사용 여부를 결정하기위한 조건문을 나타내는 도면이다.4 is a diagram illustrating conditional statements for determining whether to use multiple reference frames according to an embodiment of the present invention.

참조 프레임(F110)은 참조 프레임 그룹에 포함된다. 도 4에 도시된 조건문을 통해서, 참조 프레임 각각(F120, F130)이 참조 프레임 그룹에 포함되는 지를 판단한다.The reference frame F110 is included in the reference frame group. It is determined whether each of the reference frames F120 and F130 is included in the reference frame group through the conditional statement shown in FIG.

먼저, 참조 프레임(F120)과 참조 프레임(F110)을 비교한다. 구체적으로, SAD(N-2)가 임계값(TH1) 보다 작은 지를 판단한다. 만약 SAD(N-2)가 임계값(TH1) 보다 크다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시킨다. 만약 SAD(N-2)가 임계값(TH1) 보다 작다면, Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작은 지를 판단한다. 만약 Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 크다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시킨다. 만약 Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시키지 않는다.First, the reference frame F120 is compared with the reference frame F110. Specifically, it is determined whether SAD (N-2) is smaller than the threshold value TH1. If SAD (N-2) is larger than the threshold value TH1, the reference frame F120 is included in the reference frame group. If the SAD (N-2) is less than the threshold value (TH1), the difference between the Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) threshold Is smaller than the value TH2. If the difference between Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) is greater than the threshold value TH2, Group. If the difference between Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) is less than the threshold value TH2, Do not include in the group.

다음으로, 참조 프레임(F130)과 참조 프레임(F110)을 비교한다. 구체적으로, SAD(N-3)가 임계값(TH1) 보다 작은 지를 판단한다. 만약 SAD(N-3)가 임계값(TH1) 보다 크다면, 참조 프레임(F130)을 참조 프레임 그룹에 포함시킨다. 만약 SAD(N-3)가 임계값(TH1) 보다 작다면, Var(ref(N-3)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작은 지를 판단한다. 만약 Var(ref(N-3)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 크다면, 참조 프레임(F130)을 참조 프레임 그룹에 포함시킨다. 만약 Var(ref(N-3)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작다면, 참조 프레임(F130)을 참조 프레임 그룹에 포함시키지 않는다.Next, the reference frame F130 is compared with the reference frame F110. Specifically, it is determined whether SAD (N-3) is smaller than the threshold value TH1. If SAD (N-3) is larger than the threshold value TH1, the reference frame F130 is included in the reference frame group. If the SAD (N-3) is less than the threshold value (TH1), the difference between the Var (ref (N-3) (y, x)) and Var (ref (N-1) (y, x)) threshold Is smaller than the value TH2. If the difference between Var (ref (N-3) (y, x)) and Var (ref (N-1) (y, x)) is greater than the threshold value TH2, Group. If the difference between Var (ref (N-3) (y, x)) and Var (ref (N-1) (y, x)) is less than the threshold value TH2, Do not include in the group.

참조 프레임 그룹에 포함된 참조 프레임의 개수가 1개인 경우(즉, 참조 프레임(F110)만이 참조 프레임 그룹에 포함된 경우)에 다중 참조 프레임을 사용하지 않고 단일 참조 프레임을 사용한다. 참조 프레임 그룹에 포함된 참조 프레임의 개수가 2개 이상인 경우에 다중 참조 프레임을 사용한다. 구체적으로, 참조 프레임 그룹에 포함된 참조 프레임의 개수가 2개인 경우(예, 참조 프레임(F110)과 참조 프레임(F130)이 참조 프레임 그룹에 포함된 경우)에는 참조 프레임 인덱스를 재정렬(reordering)한다. 이를 통해, 참조 프레임 인덱스 비트 수를 줄일 수 있다. 이 경우에 재정렬된 참조 프레임 인덱스는 아래의 표 1과 같다.
A single reference frame is used without using multiple reference frames when the number of reference frames included in the reference frame group is one (i.e., only the reference frame F110 is included in the reference frame group). A multi-reference frame is used when the number of reference frames included in the reference frame group is two or more. Specifically, when the number of reference frames included in the reference frame group is two (e.g., when the reference frame F110 and the reference frame F130 are included in the reference frame group), the reference frame indexes are reordered . This reduces the number of reference frame index bits. In this case, the rearranged reference frame indices are shown in Table 1 below.

재정렬된 참조 프레임 인덱스를 나타내는 표A table showing the reordered reference frame indexes 기존 인덱스Existing index 참조 프레임 그룹에 속하는 지 여부Whether it belongs to the reference frame group 재정렬된 인덱스Reordered index 참조 프레임(F110)In the reference frame F110, 00 속함Belong 00 참조 프레임(F120)In the reference frame F120, 1One 속하지 않음Does not belong -- 참조 프레임(F130)In the reference frame F130, 22 속함Belong 1One

표 1에 따르면, 참조 프레임 그룹에 포함된 참조 프레임의 개수가 1개인 경우뿐만 아니라, 참조 프레임 그룹에 포함된 참조 프레임의 개수가 2개인 경우에도 참조 프레임 인덱스 비트 수를 줄일 수 있다. 예를 들어, 다수의 참조 프레임(F110, F120, F130) 중 참조 프레임(F130)이 선택되어 움직임 추정/보상 시에 이용되는 경우에, 기존에는 세 개의 값(0, 1, 2) 중 2를 참조 프레임 인덱스에 표기해 주어야 하므로 2 비트가 소요되었다. 하지만, 본 발명에 따르면, 두 개의 값(0, 1) 중 1을 참조 프레임 인덱스에 표기해주면 되므로 1비트가 소요된다.
According to Table 1, not only in the case where the number of reference frames included in the reference frame group is 1 but also in the case where the number of reference frames included in the reference frame group is 2, the number of reference frame index bits can be reduced. For example, if a reference frame F130 of a plurality of reference frames F110, F120, and F130 is selected and used in motion estimation / compensation, two of the three values (0, 1, 2) 2 bits are required because it must be indicated in the reference frame index. However, according to the present invention, 1 bit is required since 1 of the two values (0, 1) can be indicated in the reference frame index.

본 발명에서는, 다중 참조 프레임의 사용 여부에 따라 참조 프레임 인덱스 비트를 생략하기 위해, 도 5와 같이 참조 프레임 인덱스 비트스트림은 움직임 벡터 비트스트림 이후에 위치한다.In the present invention, the reference frame index bitstream is located after the motion vector bitstream as shown in FIG. 5 in order to omit the reference frame index bit according to whether the multiple reference frame is used or not.

도 5는 본 발명의 실시예에 따른 비트스트림 구조를 나타낸 도면이다.5 is a diagram illustrating a bitstream structure according to an embodiment of the present invention.

기존의 비트스트림(BS1) 구조에서는, 참조 프레임 인덱스 비트스트림 이후에 움직임 벡터 비트스트림이 위치한다. 본 발명에 따른 비트스트림(BS2) 구조에서는, 참조 프레임 인덱스 비트스트림은 움직임 벡터 비트스트림 이후에 위치한다. 압축된 동영상을 복호화할 때, 움직임 보상을 위한 예측 블록을 구하려면 움직임 벡터와 참조 프레임 인덱스를 알아야 한다. 기존 H.264 코덱의 구조에서는 움직임 벡터를 알기 전에 참조 프레임 인덱스를 먼저 복호화 하므로, 움직임 보상을 위한 예측 블록을 구하기 위해서는 반드시 참조 프레임 인덱스가 필요하다. 따라서 참조 프레임 인덱스를 생략하는 것이 불가능하다. 그러나 본 발명에 따른 비트스트림(BS2) 구조에서는 움직임 벡터를 먼저 복호화하기 때문에, 참조 프레임 인덱스를 복호화하기 전에 다중 참조 프레임의 예측 블록(F113, F123, F133)를 구할 수 있다. 그리고 도 4와 함께 상술한 바와 같이, 다중 참조 프레임의 사용 여부를 판단하여 다중 참조 프레임을 사용하는 경우에만 참조 프레임 인덱스를 복호화한다. 즉, 다중 참조 프레임을 사용하지 않는 경우(단일 참조 프레임을 사용하는 경우)에는 미리 약속된 프레임(예, N-1 번째 프레임인 F110)을 사용하므로 참조 프레임 인덱스가 필요하지 않다. 따라서, 다중 참조 프레임을 사용하지 않는 경우에는 참조 프레임 인덱스를 생략할 수 있다. 즉, 다중 참조 프레임을 사용하는 경우에 움직임 벡터 비트스트림 이후에 참조 프레임 인덱스 비트스트림이 위치하고, 참조 프레임 인덱스 비트스트림 이후에 레지듀얼 비트스트림이 위치한다. 한편, 다중 참조 프레임을 사용하지 않는 경우에는 참조 프레임 인덱스가 생략되어 움직임 벡터 비트스트림 이후에 레지듀얼 비트스트림이 위치한다.
In the existing bitstream (BS1) structure, a motion vector bitstream is located after the reference frame index bitstream. In the bit stream (BS2) structure according to the present invention, the reference frame index bit stream is located after the motion vector bit stream. When decoding a compressed moving picture, it is necessary to know a motion vector and a reference frame index in order to obtain a prediction block for motion compensation. In the existing H.264 codec structure, since the reference frame index is decoded before the motion vector is known, a reference frame index is necessarily required to obtain a prediction block for motion compensation. Therefore, it is impossible to omit the reference frame index. However, since the motion vector is decoded first in the bit stream (BS2) structure according to the present invention, the prediction blocks F113, F123 and F133 of the multiple reference frames can be obtained before decoding the reference frame indexes. As described above with reference to FIG. 4, the reference frame index is decoded only when multiple reference frames are used by determining whether to use multiple reference frames. That is, if a multiple reference frame is not used (when a single reference frame is used), a reference frame index is not needed because it uses a predetermined frame (for example, F110 being the (N-1) th frame). Therefore, when multiple reference frames are not used, the reference frame index can be omitted. That is, when using multiple reference frames, the reference frame index bitstream is located after the motion vector bitstream, and the residual bitstream is located after the reference frame index bitstream. On the other hand, when the multiple reference frame is not used, the reference frame index is omitted and the residual bitstream is located after the motion vector bitstream.

도 6은 본 발명의 실시예에 따른 영상 부호화 장치의 영상 부호화 과정을 나타낸 순서도이다. 6 is a flowchart illustrating an image encoding process of the image encoding apparatus according to the embodiment of the present invention.

먼저 움직임 벡터를 부호화한다(S110).First, a motion vector is encoded (S110).

참조 프레임(F110, F120, F130)의 예측 블록(F113, F123, F133)을 계산한다(S120).The prediction blocks F113, F123, and F133 of the reference frames F110, F120, and F130 are calculated (S120).

임계값(TH1, TH2)를 계산한다(S130).Threshold values TH1 and TH2 are calculated (S130).

참조 프레임(F110)을 참조 프레임 그룹에 포함시킨다. 현재 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)는 1이다(S140).The reference frame F110 is included in the reference frame group. The number (USED_REFERENCE_NUMBER) of reference frames included in the current reference frame group is 1 (S140).

참조 프레임(F120)과 참조 프레임(F110)을 비교한다. 구체적으로, SAD(N-2), Var(ref(N-2)(y,x)), 및 Var(ref(N-1)(y,x))를 계산한다(S150). SAD(N-2)가 임계값(TH1) 보다 작은 지를 판단한다(S160). 만약 SAD(N-2)가 임계값(TH1) 보다 크다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시키고, 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)는 2가 된다(S190). 만약 SAD(N-2)가 임계값(TH1) 보다 작다면, Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작은 지를 판단한다(S170). 만약 Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 크다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시키고, 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)는 2가 된다(S190). 만약 Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시키지 않는다(S180).The reference frame F120 is compared with the reference frame F110. Specifically, SAD (N-2) , Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) are calculated (S150). It is determined whether SAD (N-2) is smaller than the threshold value TH1 (S160). If the SAD (N-2) is larger than the threshold TH1, the reference frame F120 is included in the reference frame group, and the number of reference frames (USED_REFERENCE_NUMBER) included in the reference frame group is 2 (S190) . If the SAD (N-2) is less than the threshold value (TH1), the difference between the Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) threshold TH2 (S170). If the difference between Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) is greater than the threshold value TH2, Group, and the number of reference frames (USED_REFERENCE_NUMBER) included in the reference frame group is 2 (S190). If the difference between Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) is less than the threshold value TH2, Group (S180).

참조 프레임(F130)과 참조 프레임(F110)을 비교한다. 즉, 참조 프레임(F130)에 대해서 상술한 S150~S190 과정이 수행된다.The reference frame F130 is compared with the reference frame F110. That is, the above-described steps S150 to S190 are performed on the reference frame F130.

참조 프레임 모두(F120, F130)에 대하여 상술한 비교 과정이 수행된다. 즉, 상술한 비교 과정이 두 번(참조 프레임의 개수(NUMBER_OF_REFERENCE_FRAMES) - 1) 수행된다(S200).The above-described comparison process is performed on all of the reference frames F120 and F130. That is, the above-described comparison process is performed twice (number of reference frames (NUMBER_OF_REFERENCE_FRAMES) - 1) (S200).

참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)가 1개인 경우에 다음 신택스(synax)를 부호화한다(S210, S240). 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)가 1개인 경우(즉, 다중 참조 프레임을 사용하지 않는 경우)에, 참조 프레임(F110)이 움직임 추정/보상 시 사용되는 것으로 미리 약속되어 있으므로, 참조 프레임 인덱스는 생략한다.When the number of reference frames included in the reference frame group (USED_REFERENCE_NUMBER) is 1, the next syntax (synax) is encoded (S210, S240). Since the reference frame F110 is previously predicted to be used for motion estimation / compensation when the number of reference frames included in the reference frame group (USED_REFERENCE_NUMBER) is one (i.e., when multiple reference frames are not used) The reference frame index is omitted.

참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)가 1개가 아닌 경우(즉, 다중 참조 프레임을 사용하는 경우)에, 참조 프레임 그룹에 포함된 참조 프레임에 대한 참조 프레임 인덱스를 재정렬한다(S210, S220). 그리고 참조 프레임 그룹에 포함된 참조 프레임 각각의 예측 블록과 현재 프레임(F210)의 현재 블록(F213) 간의 SAD 값을 구한다. 그리고 참조 프레임 그룹에 포함된 참조 프레임 중에서 최소의 SAD 값을 가진 참조 프레임을 선택한다. 상기 선택된 참조 프레임을 나타내는 참조 프레임 인덱스를 부호화한다(S230). 그리고 다음 신택스(synax)를 부호화한다(S240).
If the number of reference frames included in the reference frame group (USED_REFERENCE_NUMBER) is not one (i.e., when multiple reference frames are used), the reference frame indexes for the reference frames included in the reference frame group are rearranged (S210, S220). The SAD value between the prediction block of each of the reference frames included in the reference frame group and the current block F213 of the current frame F210 is obtained. Then, the reference frame having the smallest SAD value is selected from the reference frames included in the reference frame group. The reference frame index indicating the selected reference frame is encoded (S230). Then, the following syntax (synax) is encoded (S240).

도 7은 본 발명의 실시예에 따른 영상 복호화 장치의 영상 복호화 과정을 나타낸 순서도이다. 영상 복호화 과정은 도 6과 함께 상술한 영상 부호화 과정과 유사하다. FIG. 7 is a flowchart illustrating an image decoding process of an image decoding apparatus according to an embodiment of the present invention. The image decoding process is similar to the image encoding process described above with reference to FIG.

먼저 움직임 벡터를 복호화한다(S310).First, the motion vector is decoded (S310).

참조 프레임(F110, F120, F130)의 예측 블록(F113, F123, F133)을 계산한다(S320).The prediction blocks F113, F123, and F133 of the reference frames F110, F120, and F130 are calculated (S320).

임계값(TH1, TH2)를 계산한다(S330).Threshold values TH1 and TH2 are calculated (S330).

참조 프레임(F110)을 참조 프레임 그룹에 포함시킨다. 현재 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)는 1이다(S340).The reference frame F110 is included in the reference frame group. The number (USED_REFERENCE_NUMBER) of reference frames included in the current reference frame group is 1 (S340).

참조 프레임(F120)과 참조 프레임(F110)을 비교한다. 구체적으로, SAD(N-2), Var(ref(N-2)(y,x)), 및 Var(ref(N-1)(y,x))를 계산한다(S350). SAD(N-2)가 임계값(TH1) 보다 작은 지를 판단한다(S360). 만약 SAD(N-2)가 임계값(TH1) 보다 크다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시키고, 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)는 2가 된다(S390). 만약 SAD(N-2)가 임계값(TH1) 보다 작다면, Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작은 지를 판단한다(S370). 만약 Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 크다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시키고, 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)는 2가 된다(S390). 만약 Var(ref(N-2)(y,x))와 Var(ref(N-1)(y,x)) 간의 차이가 임계값(TH2) 보다 작다면, 참조 프레임(F120)을 참조 프레임 그룹에 포함시키지 않는다(S380).The reference frame F120 is compared with the reference frame F110. Specifically, SAD (N-2) , Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) are calculated (S350). It is determined whether SAD (N-2) is smaller than the threshold value TH1 (S360). If the SAD (N-2) is larger than the threshold value TH1, the reference frame F120 is included in the reference frame group, and the number of reference frames (USED_REFERENCE_NUMBER) included in the reference frame group is 2 (S390) . If the SAD (N-2) is less than the threshold value (TH1), the difference between the Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) threshold (TH2) (S370). If the difference between Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) is greater than the threshold value TH2, Group, and the number of reference frames (USED_REFERENCE_NUMBER) included in the reference frame group is 2 (S390). If the difference between Var (ref (N-2) (y, x)) and Var (ref (N-1) (y, x)) is less than the threshold value TH2, Group (S380).

참조 프레임(F130)과 참조 프레임(F110)을 비교한다. 즉, 참조 프레임(F130)에 대해서 상술한 S350~S390 과정이 수행된다.The reference frame F130 is compared with the reference frame F110. That is, the above-described steps S350 to S390 are performed on the reference frame F130.

참조 프레임 모두(F120, F130)에 대하여 상술한 비교 과정이 수행된다. 즉, 상술한 비교 과정이 두 번(참조 프레임의 개수(NUMBER_OF_REFERENCE_FRAMES) - 1) 수행된다(S400).The above-described comparison process is performed on all of the reference frames F120 and F130. That is, the above-described comparison process is performed twice (number of reference frames (NUMBER_OF_REFERENCE_FRAMES) - 1) (S400).

참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)가 1개인 경우에 다음 신택스(synax)를 부호화한다(S410, S440). 참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)가 1개인 경우(즉, 다중 참조 프레임을 사용하지 않는 경우)에, 참조 프레임(F110)이 움직임 추정/보상 시 사용되는 것으로 미리 약속되어 있으므로, 참조 프레임(F110)을 이용해 움직임 추정/보상을 수행한다. 즉, 참조 프레임(F110)의 예측 블록(F113)과, 수신된 레지듀얼 비트스트림으로부터 추출된 레지듀얼 신호를 더하여 현재 프레임(F210)의 현재 블록(F213)을 복원한다.When the number of reference frames included in the reference frame group (USED_REFERENCE_NUMBER) is 1, the next syntax (synax) is encoded (S410, S440). Since the reference frame F110 is previously predicted to be used for motion estimation / compensation when the number of reference frames included in the reference frame group (USED_REFERENCE_NUMBER) is one (i.e., when multiple reference frames are not used) And performs motion estimation / compensation using the reference frame F110. That is, the prediction block F113 of the reference frame F110 and the residual signal extracted from the received residual bitstream are added to reconstruct the current block F213 of the current frame F210.

참조 프레임 그룹에 포함된 참조 프레임의 개수(USED_REFERENCE_NUMBER)가 1개가 아닌 경우(즉, 다중 참조 프레임을 사용하는 경우)에, 참조 프레임 그룹에 포함된 참조 프레임에 대한 참조 프레임 인덱스를 재정렬한다(S410, S420). 그리고 수신된 참조 프레임 인덱스 비트스트림으로부터 참조 프레임 인덱스를 추출하고, 추출된 참조 프레임 인덱스를 복호화한다(S430). 그리고 복호화된 참조 프레임 인덱스에 대응하는 참조 프레임의 예측 블록과, 수신된 레지듀얼 비트스트림으로부터 추출된 레지듀얼 신호를 더하여 현재 프레임(F210)의 현재 블록(F213)을 복원한다. 그리고 다음 신택스(synax)를 복호화한다(S440).
If the number of reference frames included in the reference frame group (USED_REFERENCE_NUMBER) is not one (i.e., when multiple reference frames are used), the reference frame indexes for the reference frames included in the reference frame group are rearranged (S410, S420). The reference frame index is extracted from the received reference frame index bit stream, and the extracted reference frame index is decoded (S430). The prediction block of the reference frame corresponding to the decoded reference frame index and the residual signal extracted from the received residual bitstream are added to reconstruct the current block F213 of the current frame F210. Then, the next syntax (synax) is decoded (S440).

도 8은 본 발명의 실시예에 따른 영상 부호화 장치를 나타낸 도면이다.8 is a diagram illustrating an image encoding apparatus according to an embodiment of the present invention.

도 8에 도시된 영상 부호화 장치는 상술한 영상 부호화 동작을 수행한다. 구체적으로 영상 부호화 장치는, 움직임 추정부(100), 제1 계산부(200), 판단부(300), 제2 계산부(400), 선택부(500), 및 부호화부(600)를 포함한다.The image encoding apparatus shown in FIG. 8 performs the image encoding operation described above. More specifically, the image encoding apparatus includes a motion estimation unit 100, a first calculation unit 200, a determination unit 300, a second calculation unit 400, a selection unit 500, and a coding unit 600 do.

움직임 추정부(100)는, 부호화되는 현재 프레임(F210)의 현재 블록(F213)에 대응하는 참조 프레임(F110, F120, F130)의 예측 블록(F113, F123, F133)을, 움직임 추정을 통해 계산한다.The motion estimation unit 100 calculates the motion vectors of the reference frames F113, F123 and F133 of the reference frames F110, F120 and F130 corresponding to the current block F213 of the current frame F210 to be encoded do.

제1 계산부(200)는, 예측 블록(F113)과 예측 블록(F123, F133) 간의 화소 차이값에 기초해, 예측 블록(F113)과 예측 블록(F123, F133) 간의 유사도를 계산한다. 구체적으로, 제1 계산부(200)는, SAD(N-2)와 SAD(N-3)을 계산한다. The first calculation unit 200 calculates the degree of similarity between the prediction block F113 and the prediction blocks F123 and F133 based on the pixel difference value between the prediction block F113 and the prediction blocks F123 and F133. Specifically, the first calculation unit 200 calculates SAD (N-2) and SAD (N-3) .

판단부(300)는, 제1 계산부(200)에 의해 계산된 유사도에 기초해, 참조 프레임(F110)이 포함된 참조 프레임 그룹에 참조 프레임(F120, F130) 각각을 포함시킬 지 여부를 결정한다. The determination unit 300 determines whether or not to include the reference frames F120 and F130 in the reference frame group including the reference frame F110 based on the similarity calculated by the first calculation unit 200 do.

제2 계산부(400)는, 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 현재 블록(F213)간의 화소 차이값에 기초해, 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 상기 현재 블록(F213) 간의 유사도를 계산한다. 구체적으로, 제2 계산부(400)는, 참조 프레임 그룹에 포함된 참조 프레임 각각의 예측 블록과 현재 프레임(F210)의 현재 블록(F213) 간의 SAD 값을 구한다. The second calculation unit 400 calculates the difference between the prediction block of the reference frame included in the reference frame group and the current block F213 based on the pixel difference value between the prediction block of the reference frame included in the reference frame group and the current block F213, F213). Specifically, the second calculation unit 400 obtains the SAD value between the prediction block of each reference frame included in the reference frame group and the current block F213 of the current frame F210.

선택부(500)는, 제2 계산부(400)에 의해 계산된 유사도에 기초해, 참조 프레임 그룹에 포함된 참조 프레임 중에서 어느 하나를 선택한다. 구체적으로, 선택부(500)는, 참조 프레임 그룹에 포함된 참조 프레임 중에서, 제2 계산부(400)에 의해 계산된 SAD 값 중 최소의 SAD 값을 가진 참조 프레임을 선택한다.The selection unit 500 selects any one of the reference frames included in the reference frame group based on the similarity calculated by the second calculation unit 400. [ Specifically, the selector 500 selects a reference frame having the smallest SAD value among the SAD values calculated by the second calculator 400 among the reference frames included in the reference frame group.

부호화부(600)는, 선택부(500)에 의해 선택된 참조 프레임의 예측 블록과 현재 블록(F213) 간의 화소 차이값을 부호화한다.
The encoding unit 600 encodes the pixel difference value between the prediction block of the reference frame selected by the selection unit 500 and the current block F213.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

100: 움직임 추정부 200: 제1 계산부
300: 판단부 400: 제2 계산부
500: 선택부 600: 부호화부
100: motion estimation unit 200: first calculation unit
300: determination unit 400: second calculation unit
500: selection unit 600: encoding unit

Claims (25)

부호화되는 현재 블록에 대응하는 제1 참조 프레임의 제1 예측 블록과 적어도 하나의 제2 참조 프레임의 제2 예측 블록을 움직임 추정을 통해 계산하는 단계;
상기 제1 참조 프레임을 참조 프레임 그룹에 포함시키는 단계;
상기 제1 예측 블록과 상기 제2 예측 블록 간의 제1 유사도를 계산하는 단계;
상기 제1 유사도에 기초해 상기 제2 참조 프레임 각각을 상기 참조 프레임 그룹에 포함시킬 지 여부를 결정하는 단계;
상기 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 상기 현재 블록간의 제2 유사도를 계산하는 단계;
상기 계산된 제2 유사도에 기초해 상기 참조 프레임 그룹에 포함된 참조 프레임 중 어느 하나를 선택하는 단계; 및
상기 선택된 참조 프레임의 예측 블록과 상기 현재 블록 간의 화소 차이값을부호화하는 단계
를 포함하는 영상 부호화 방법.
Calculating a first prediction block of a first reference frame corresponding to a current block to be coded and a second prediction block of at least one second reference frame through motion estimation;
Including the first reference frame in a reference frame group;
Calculating a first similarity degree between the first prediction block and the second prediction block;
Determining whether to include each of the second reference frames in the reference frame group based on the first similarity;
Calculating a second degree of similarity between a current block and a prediction block of a reference frame included in the reference frame group;
Selecting one of the reference frames included in the reference frame group based on the calculated second similarity; And
Encoding a pixel difference value between a prediction block of the selected reference frame and the current block
/ RTI >
제1항에 있어서,
상기 제1 예측 블록과 제2 예측 블록을 계산하는 단계는,
움직임 추정을 통해 상기 제2 참조 프레임인 제3 참조 프레임의 제2 예측 블록을 계산하는 단계; 및
움직임 추정을 통해 상기 제2 참조 프레임인 제4 참조 프레임의 제2 예측 블록을 계산하는 단계를 포함하는
영상 부호화 방법.
The method according to claim 1,
Wherein the step of calculating the first prediction block and the second prediction block comprises:
Calculating a second prediction block of a third reference frame that is the second reference frame through motion estimation; And
And calculating a second prediction block of a fourth reference frame that is the second reference frame through motion estimation
Image encoding method.
제2항에 있어서,
상기 제1 유사도는 상기 제1 예측 블록과 상기 제3 참조 프레임의 제2 예측 블록 간의 제3 유사도, 그리고 상기 제1 예측 블록과 상기 제4 참조 프레임의 제2 예측 블록 간의 제4 유사도를 포함하고,
상기 제1 유사도를 계산하는 단계는,
상기 제1 예측 블록과 상기 제3 참조 프레임의 제2 예측 블록 간의 화소 차이값의 합인 제1 차이값 합을 계산하는 단계;
상기 제1 차이값 합이 제1 임계값 보다 작은 경우에 상기 제3 유사도를 제1 레벨로 설정하고, 상기 제1 차이값 합이 상기 제1 임계값 보다 큰 경우에 상기 제3 유사도를 상기 제1 레벨 보다 낮은 제2 레벨로 설정하는 단계;
상기 제1 예측 블록과 상기 제4 참조 프레임의 제2 예측 블록 간의 화소 차이값의 합인 제2 차이값 합을 계산하는 단계; 및
상기 제2 차이값 합이 상기 제1 임계값 보다 작은 경우에 상기 제4 유사도를 상기 제1 레벨로 설정하고, 상기 제2 차이값 합이 상기 제1 임계값 보다 큰 경우에 상기 제4 유사도를 상기 제2 레벨로 설정하는 단계를 포함하는
영상 부호화 방법.
3. The method of claim 2,
Wherein the first similarity comprises a third similarity between the first prediction block and a second prediction block of the third reference frame and a fourth similarity between the first prediction block and a second prediction block of the fourth reference frame ,
Wherein the step of calculating the first degree of similarity comprises:
Calculating a first difference value sum which is a sum of pixel difference values between the first prediction block and a second prediction block of the third reference frame;
And sets the third degree of similarity to a first level when the first difference value sum is smaller than the first threshold value and sets the third degree of similarity to the first level when the first difference value sum is larger than the first threshold value, Setting a second level lower than the first level;
Calculating a second difference sum which is a sum of pixel difference values between the first prediction block and a second prediction block of the fourth reference frame; And
And sets the fourth degree of similarity to the first level when the second difference value sum is smaller than the first threshold value and sets the fourth degree of similarity to the first level when the second difference value sum is larger than the first threshold value And setting the second level to the second level
Image encoding method.
제3항에 있어서,
상기 제1 임계값은,
양자화 계수(Quantization Parameter)에 대응하는 양자화 스텝 사이즈에 따라 결정되는
영상 부호화 방법.
The method of claim 3,
Wherein the first threshold value is a first threshold value,
Is determined according to the quantization step size corresponding to the quantization parameter
Image encoding method.
제4항에 있어서,
상기 제1 임계값은 아래의 수학식1에 따라 결정되는
영상 부호화 방법.
[수학식1]
Th1= Qstep*N*M*α
(Th1: 상기 제1 임계값, Qstep: 상기 양자화 스텝 사이즈, N: 상기 제1 예측 블록의 세로 길이, M: 상기 제1 예측 블록의 가로 길이, α: 영상의 복잡도와 화질에 따라 값이 달라지는 변수)
5. The method of claim 4,
The first threshold value is determined according to the following equation (1)
Image encoding method.
[Equation 1]
Th1 = Q step * N * M *?
(Th1: the first threshold value, Q step : the quantization step size, N: the length of the first prediction block, M: the width of the first prediction block, Variable)
제5항에 있어서,
상기 수학식1에서의 α를 슬라이스 헤더 정보에 포함시키는 단계를 더 포함하는
영상 부호화 방법.
6. The method of claim 5,
Further comprising the step of including alpha in the slice header information in Equation (1)
Image encoding method.
제3항에 있어서,
상기 참조 프레임 그룹에 포함시킬 지 여부를 결정하는 단계는,
상기 제3 유사도가 상기 제1 레벨인 경우에 상기 제3 참조 프레임을 상기 참조 프레임 그룹에 포함시키는 단계; 및
상기 제4 유사도가 상기 제1 레벨인 경우에 상기 제4 참조 프레임을 상기 참조 프레임 그룹에 포함시키는 단계를 포함하는
영상 부호화 방법.
The method of claim 3,
Wherein the step of determining whether to include in the reference frame group comprises:
Including the third reference frame in the reference frame group when the third degree of similarity is the first level; And
And including the fourth reference frame in the reference frame group when the fourth degree of similarity is the first level
Image encoding method.
제1항에 있어서,
상기 제2 유사도를 계산하는 단계 이전에,
상기 참조 프레임 그룹에 포함된 참조 프레임을 나타내는 참조 프레임 인덱스를 설정하는 단계를 더 포함하는
영상 부호화 방법.
The method according to claim 1,
Before the step of calculating the second degree of similarity,
And setting a reference frame index indicating a reference frame included in the reference frame group
Image encoding method.
제8항에 있어서,
상기 참조 프레임 인덱스를 설정하는 단계는,
상기 참조 프레임 그룹에 포함된 참조 프레임의 개수에 대응하여 상기 참조 프레임 인덱스를 위한 비트 수를 조절하는 단계를 포함하는
영상 부호화 방법.
9. The method of claim 8,
Wherein the step of setting the reference frame index comprises:
And adjusting the number of bits for the reference frame index corresponding to the number of reference frames included in the reference frame group
Image encoding method.
제1항에 있어서,
상기 제2 유사도를 계산하는 단계 이전에,
상기 제1 예측 블록의 영상 복잡도와 상기 참조 프레임 그룹에 포함된 제2 참조 프레임 각각의 제2 예측 블록의 영상 복잡도를 비교하는 단계를 더 포함하는
영상 부호화 방법.
The method according to claim 1,
Before the step of calculating the second degree of similarity,
And comparing the image complexity of the first predictive block with the image complexity of a second predictive block of each second reference frame included in the reference frame group
Image encoding method.
제10항에 있어서,
상기 영상 복잡도를 비교하는 단계와 상기 제2 유사도를 계산하는 단계 사이에,
상기 영상 복잡도를 비교하는 단계에서의 비교 결과에 따라 상기 참조 프레임 그룹에 포함된 제2 참조 프레임 각각을 상기 참조 프레임 그룹에서 제외시킬 지 여부를 결정하는 단계를 더 포함하는
영상 부호화 방법.
11. The method of claim 10,
Between the step of comparing the image complexity and the step of calculating the second degree of similarity,
Determining whether to exclude each of the second reference frames included in the reference frame group from the reference frame group according to the comparison result in the step of comparing the image complexity
Image encoding method.
제11항에 있어서,
상기 영상 복잡도를 비교하는 단계는,
상기 제1 예측 블록의 영상 복잡도를 나타내는 제1 화소 분산값을 계산하는 단계;
상기 참조 프레임 그룹에 포함된 제2 참조 프레임 각각의 제2 예측 블록의 영상 복잡도를 나타내는 제2 화소 분산값을 계산하는 단계; 및
상기 제1 화소 분산값과 상기 제2 화소 분산값 간의 차이가 제2 임계값 보다 작은 지를 판단하는 단계를 포함하는
영상 부호화 방법.
12. The method of claim 11,
Wherein the step of comparing the image complexity comprises:
Calculating a first pixel variance value representing an image complexity of the first prediction block;
Calculating a second pixel variance value representing an image complexity of a second prediction block of each second reference frame included in the reference frame group; And
And determining whether a difference between the first pixel variance value and the second pixel variance value is less than a second threshold value
Image encoding method.
제12항에 있어서,
상기 제2 임계값은 상기 제1 화소 분산값에 따라 결정되는
영상 부호화 방법.
13. The method of claim 12,
Wherein the second threshold value is determined according to the first pixel variance value
Image encoding method.
제13항에 있어서,
상기 제2 임계값은 아래의 수학식2에 따라 결정되는
영상 부호화 방법.
[수학식2]
Th2 = Var1 * β
(Th2: 상기 제2 임계값, Var1: 상기 제1 화소 분산값, β: 영상의 복잡도와 화질에 따라 값이 달라지는 변수)
14. The method of claim 13,
The second threshold value is determined according to the following equation (2)
Image encoding method.
&Quot; (2) "
Th2 = Var1 *?
(Th2: the second threshold value, Var1: the first pixel variance value, and?: A variable whose value varies depending on the image complexity and image quality)
제14항에 있어서,
상기 수학식2에서의 β를 슬라이스 헤더 정보에 포함시키는 단계를 더 포함하는
영상 부호화 방법.
15. The method of claim 14,
Further comprising the step of including beta in the slice header information in Equation (2)
Image encoding method.
제13항에 있어서,
상기 참조 프레임 그룹에서 제외시킬 지 여부를 결정하는 단계는,
상기 제1 화소 분산값과 상기 제2 화소 분산값 간의 차이가 상기 제2 임계값 보다 작다고 판단된 경우에, 상기 제2 화소 분산값을 가지는 제2 참조 프레임을 상기 참조 프레임 그룹에서 제외시키는 단계를 포함하는
영상 부호화 방법.
14. The method of claim 13,
Wherein determining whether to exclude from the reference frame group comprises:
The step of excluding a second reference frame having the second pixel variance value from the reference frame group when it is determined that the difference between the first pixel variance value and the second pixel variance value is smaller than the second threshold value, Included
Image encoding method.
제9항에 있어서,
상기 참조 프레임 인덱스를 위한 비트 수를 조절하는 단계는,
상기 참조 프레임 그룹에 포함된 참조 프레임의 개수가 1개인 경우에 상기 참조 프레임 인덱스를 위한 비트 수를 0개로 조절하는 단계를 포함하는
영상 부호화 방법.
10. The method of claim 9,
Wherein adjusting the number of bits for the reference frame index comprises:
And adjusting the number of bits for the reference frame index to 0 when the number of reference frames included in the reference frame group is 1
Image encoding method.
제17항에 있어서,
상기 선택된 참조 프레임의 예측 블록을 가리키는 상기 현재 블록의 움직임 벡터를 부호화하는 단계;
상기 선택된 참조 프레임을 나타내는 참조 프레임 인덱스를 부호화하는 단계;
상기 부호화된 움직임 벡터를 비트스트림의 제1 영역에 삽입하는 단계; 및
상기 비트스트림의 제1 영역 이후에 위치하는 상기 비트스트림의 제2 영역에 상기 부호화된 참조 프레임 인덱스를 삽입하는 단계를 더 포함하고,
상기 비트스트림의 제2 영역은 상기 참조 프레임 인덱스를 위한 비트 수에 대응하는 크기를 가지는
영상 부호화 방법.
18. The method of claim 17,
Encoding a motion vector of the current block indicating a prediction block of the selected reference frame;
Encoding a reference frame index indicating the selected reference frame;
Inserting the encoded motion vector into a first region of a bitstream; And
Further comprising inserting the encoded reference frame index into a second region of the bitstream located after a first region of the bitstream,
Wherein the second region of the bitstream has a size corresponding to the number of bits for the reference frame index
Image encoding method.
수신된 비트스트림의 제1 영역으로부터 움직임 벡터를 추출하는 단계;
복호화되는 현재 블록에 대응하는 제1 참조 프레임의 제1 예측 블록과 적어도 하나의 제2 참조 프레임의 제2 예측 블록을 상기 추출된 움직임 벡터를 이용해 계산하는 단계;
상기 제1 참조 프레임을 참조 프레임 그룹에 포함시키는 단계;
상기 제1 예측 블록과 상기 제2 예측 블록 간의 화소 차이값에 기초해, 상기 제1 예측 블록과 상기 제2 예측 블록 간의 제1 유사도를 계산하는 단계;
상기 제1 유사도에 기초해, 상기 제2 참조 프레임 각각을 상기 참조 프레임 그룹에 포함시킬 지 여부를 결정하는 단계; 및
상기 참조 프레임 그룹에 상기 제1 참조 프레임 만이 포함된 경우인 제1 경우에, 상기 제1 영역 이후에 위치하는 상기 비트스트림의 제2 영역으로부터 제1 레지듀얼 데이터를 추출하고, 상기 제1 예측 블록과 상기 추출된 제1 레지듀얼 데이터를 더하여 상기 현재 블록을 복원하는 단계
를 포함하는 영상 복호화 방법.
Extracting a motion vector from a first region of the received bitstream;
Calculating a first prediction block of a first reference frame and a second prediction block of at least one second reference frame corresponding to a current block to be decoded using the extracted motion vector;
Including the first reference frame in a reference frame group;
Calculating a first similarity degree between the first prediction block and the second prediction block based on a pixel difference value between the first prediction block and the second prediction block;
Determining whether to include each of the second reference frames in the reference frame group based on the first similarity; And
Extracting first residual data from a second region of the bitstream located after the first region in a first case where only the first reference frame is included in the reference frame group, And restoring the current block by adding the extracted first residual data
And decodes the decoded image.
제19항에 있어서,
상기 제1 유사도를 계산하는 단계는,
수신한 슬라이스 헤더 정보에 포함된 제1 조정값을 이용해 제1 임계값을 계산하는 단계; 및
상기 제1 임계값과 상기 화소 차이값의 합을 비교하여 상기 제1 유사도를 계산하는 단계를 포함하는
영상 복호화 방법.
20. The method of claim 19,
Wherein the step of calculating the first degree of similarity comprises:
Calculating a first threshold value using a first adjustment value included in the received slice header information; And
And calculating the first similarity by comparing the sum of the first threshold value and the pixel difference value
Video decoding method.
제19항에 있어서,
상기 참조 프레임 그룹에 포함된 참조 프레임의 개수가 2개 이상인 경우인 제2 경우에, 상기 참조 프레임 그룹에 포함된 참조 프레임에 대한 인덱스 설정을 수행하는 단계
를 더 포함하는 영상 복호화 방법.
20. The method of claim 19,
Performing index setting on a reference frame included in the reference frame group in a second case where the number of reference frames included in the reference frame group is two or more;
Further comprising:
제21항에 있어서,
상기 제2 경우에, 상기 제2 영역으로부터 참조 프레임 인덱스를 추출하고, 상기 제2 영역 이후에 위치하는 상기 비트스트림의 제3 영역으로부터 제2 레지듀얼 데이터를 추출하는 단계;
상기 제2 경우에, 상기 참조 프레임 그룹에 포함된 참조 프레임 중에서 상기 추출된 참조 프레임 인덱스에 대응하는 참조 프레임을 선택하는 단계; 및
상기 제2 경우에, 상기 선택된 참조 프레임의 예측 블록과 상기 추출된 제2 레지듀얼 데이터를 더하여 상기 현재 블록을 복원하는 단계
를 더 포함하는 영상 복호화 방법.
22. The method of claim 21,
Extracting a reference frame index from the second region in the second case and extracting second residual data from a third region of the bitstream located after the second region;
Selecting a reference frame corresponding to the extracted reference frame index from the reference frames included in the reference frame group in the second case; And
And restoring the current block by adding the predicted block of the selected reference frame and the extracted second residual data in the second case
Further comprising:
제19항에 있어서,
상기 현재 블록을 복원하는 단계 이전에,
상기 제1 예측 블록의 제1 화소 분산값과, 상기 참조 프레임 그룹에 포함된 제2 참조 프레임 각각의 제2 예측 블록의 제2 화소 분산값을 계산하는 단계; 및
상기 제1 화소 분산값과 상기 제2 화소 분산값 간의 차이가 제1 임계값 보다 작은 경우에, 상기 제2 화소 분산값을 가지는 제2 참조 프레임을 상기 참조 프레임 그룹에서 제외시키는 단계
를 더 포함하는 영상 복호화 방법.
20. The method of claim 19,
Before the step of restoring the current block,
Calculating a first pixel variance value of the first prediction block and a second pixel variance value of a second prediction block of each second reference frame included in the reference frame group; And
If the difference between the first pixel variance value and the second pixel variance value is smaller than a first threshold value, excluding a second reference frame having the second pixel variance value from the reference frame group
Further comprising:
제23항에 있어서,
상기 참조 프레임 그룹에서 제외시키는 단계는,
수신한 슬라이스 헤더 정보에 포함된 제1 조정값을 이용해 상기 제1 임계값을 계산하는 단계를 포함하는
영상 복호화 방법.
24. The method of claim 23,
Wherein the step of excluding from the reference frame group comprises:
And calculating the first threshold value using a first adjustment value included in the received slice header information
Video decoding method.
부호화되는 현재 블록에 대응하는 제1 참조 프레임의 제1 예측 블록과 적어도 하나의 제2 참조 프레임의 제2 예측 블록을, 움직임 추정을 통해 계산하는 움직임 추정부;
상기 제1 예측 블록과 상기 제2 예측 블록 간의 화소 차이값에 기초해, 상기 제1 예측 블록과 상기 제2 예측 블록 간의 제1 유사도를 계산하는 제1 계산부;
상기 제1 유사도에 기초해, 상기 제1 참조 프레임이 포함된 참조 프레임 그룹에 상기 제2 참조 프레임 각각을 포함시킬 지 여부를 결정하는 판단부;
상기 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 상기 현재 블록간의 화소 차이값에 기초해, 상기 참조 프레임 그룹에 포함된 참조 프레임의 예측 블록과 상기 현재 블록 간의 제2 유사도를 계산하는 제2 계산부;
상기 제2 유사도에 기초해, 상기 참조 프레임 그룹에 포함된 참조 프레임 중에서 어느 하나를 선택하는 선택부; 및
상기 선택된 참조 프레임의 예측 블록과 상기 현재 블록 간의 화소 차이값을부호화하는 부호화부
를 포함하는 영상 부호화 장치.
A motion estimator for calculating a first prediction block of a first reference frame corresponding to a current block to be coded and a second prediction block of at least one second reference frame through motion estimation;
A first calculation unit for calculating a first similarity degree between the first prediction block and the second prediction block based on a pixel difference value between the first prediction block and the second prediction block;
A determination unit for determining whether to include each of the second reference frames in a reference frame group including the first reference frame based on the first similarity;
A second calculation for calculating a second similarity degree between a current block and a prediction block of a reference frame included in the reference frame group based on a pixel difference value between a current block and a prediction block of a reference frame included in the reference frame group; part;
A selection unit for selecting any one of reference frames included in the reference frame group based on the second similarity; And
An encoding unit for encoding a pixel difference value between a prediction block of the selected reference frame and the current block;
And an image encoding device.
KR1020130071827A 2013-06-21 2013-06-21 Method and apparatus for video encoding and decoding KR101502145B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130071827A KR101502145B1 (en) 2013-06-21 2013-06-21 Method and apparatus for video encoding and decoding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130071827A KR101502145B1 (en) 2013-06-21 2013-06-21 Method and apparatus for video encoding and decoding

Publications (2)

Publication Number Publication Date
KR20150000073A true KR20150000073A (en) 2015-01-02
KR101502145B1 KR101502145B1 (en) 2015-03-12

Family

ID=52474276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130071827A KR101502145B1 (en) 2013-06-21 2013-06-21 Method and apparatus for video encoding and decoding

Country Status (1)

Country Link
KR (1) KR101502145B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017082636A1 (en) * 2015-11-11 2017-05-18 삼성전자 주식회사 Method for encoding/decoding image, and device therefor
WO2017159901A1 (en) * 2016-03-18 2017-09-21 엘지전자 주식회사 Method and device for deriving block structure in video coding system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2362532B (en) * 2000-05-15 2004-05-05 Nokia Mobile Phones Ltd Video coding

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017082636A1 (en) * 2015-11-11 2017-05-18 삼성전자 주식회사 Method for encoding/decoding image, and device therefor
US10645414B2 (en) 2015-11-11 2020-05-05 Samsung Electronics Co., Ltd. Method for encoding/decoding image, and device therefor
WO2017159901A1 (en) * 2016-03-18 2017-09-21 엘지전자 주식회사 Method and device for deriving block structure in video coding system
KR20180121908A (en) * 2016-03-18 2018-11-09 엘지전자 주식회사 Method and apparatus for deriving a block structure in a video coding system
US10694187B2 (en) 2016-03-18 2020-06-23 Lg Electronics Inc. Method and device for deriving block structure in video coding system

Also Published As

Publication number Publication date
KR101502145B1 (en) 2015-03-12

Similar Documents

Publication Publication Date Title
KR102344430B1 (en) Motion vector improvement for multi-reference prediction
US8630351B2 (en) Method and apparatus for encoding and decoding motion vector
US9538197B2 (en) Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US20180338155A1 (en) Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates
JP5580453B2 (en) Direct mode encoding and decoding apparatus
KR100846512B1 (en) Method and apparatus for video encoding and decoding
US8548058B2 (en) Image coding apparatus and method for re-recording decoded video data
US9313496B2 (en) Video encoder and video encoding method as well as video decoder and video decoding method
CN113727118B (en) Decoding method, encoding method, device, equipment and machine readable storage medium
KR101502145B1 (en) Method and apparatus for video encoding and decoding
US11082688B2 (en) Restricted overlapped block motion compensation
US20220103826A1 (en) Encoding/decoding method and apparatus for motion vector information
US10075691B2 (en) Multiview video coding method using non-referenced view video group
JP2005516501A (en) Video image encoding in PB frame mode
JP2012120108A (en) Interpolation image generating apparatus and program, and moving image decoding device and program
CN110868612A (en) Video encoding method and device and decoding method and device
JP2018117239A (en) Compression apparatus of video data, and compression method of video data

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180302

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200302

Year of fee payment: 6