KR101857801B1 - Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates - Google Patents

Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates Download PDF

Info

Publication number
KR101857801B1
KR101857801B1 KR1020170100448A KR20170100448A KR101857801B1 KR 101857801 B1 KR101857801 B1 KR 101857801B1 KR 1020170100448 A KR1020170100448 A KR 1020170100448A KR 20170100448 A KR20170100448 A KR 20170100448A KR 101857801 B1 KR101857801 B1 KR 101857801B1
Authority
KR
South Korea
Prior art keywords
motion vector
current block
predicted motion
block
predicted
Prior art date
Application number
KR1020170100448A
Other languages
Korean (ko)
Other versions
KR20170094535A (en
Inventor
이태미
한우진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20170094535A publication Critical patent/KR20170094535A/en
Application granted granted Critical
Publication of KR101857801B1 publication Critical patent/KR101857801B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터 후보를 제외하여 생성된 예측 움직임 벡터의 후보들에 기초해 현재 블록의 움직임 벡터를 부호화/복호화하는 방법 및 장치가 개시된다.A method and apparatus for encoding / decoding a motion vector of a current block based on candidates of a predicted motion vector generated by excluding at least one predicted motion vector candidate among all candidates of the predicted motion vector.

Description

축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치{Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates}[0001] The present invention relates to a method and an apparatus for encoding and decoding a motion vector based on candidates of a reduced predicted motion vector,

본 발명은 움직임 벡터를 부호화, 복호화하는 방법 및 장치에 관한 것으로 보다 상세히는 현재 블록의 움직임 벡터를 예측 부호화, 예측 복호화하는 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for coding and decoding a motion vector, and more particularly, to a method and apparatus for predicting and decoding a motion vector of a current block.

MPEG-4 H.264/MPEG-4 AVC(Advanced Video Coding)와 같은 코덱에서는 현재 블록의 움직임 벡터를 예측하기 위해 현재 블록에 인접한 이전에 부호화된 블록들의 움직임 벡터를 이용한다. 현재 블록에 좌측, 상부 및 우측 상부에 인접한 이전에 부호화된 블록들의 움직임 벡터들의 중앙값(median)을 현재 블록의 예측 움직임 벡터(Motion vector Predictor)로 이용한다. 현재 블록의 움직임 벡터를 그대로 부호화하는 것이 아니라, 현재 블록의 움직임 벡터와 예측 움직임 벡터 사이의 움직임 벡터 차이만 부호화한다.In a codec such as MPEG-4 H.264 / MPEG-4 Advanced Video Coding (AVC), a motion vector of a previously coded block adjacent to a current block is used to predict a motion vector of the current block. The median of the motion vectors of the previously coded blocks adjacent to the upper left, upper and right upper portions of the current block is used as a motion vector predictor of the current block. The motion vector of the current block is not encoded as it is, but only the motion vector difference between the motion vector of the current block and the predicted motion vector is encoded.

본 발명이 해결하고자 하는 기술적 과제는 움직임 벡터를 예측 부호화, 예측 복호화하는 방법 및 장치를 제공하는데 있고, 상기 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.According to an aspect of the present invention, there is provided a method and apparatus for predicting and decoding a motion vector, and a computer-readable recording medium having recorded thereon a program for executing the method.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 방법은 현재 블록의 움직임 벡터를 추정하고, 상기 추정 결과에 기초해 예측 움직임 벡터의 전체 후보들 중 제1 예측 움직임 벡터 후보를 상기 현재 블록의 예측 움직임 벡터로 결정하여, 상기 현재 블록의 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초해 움직임 벡터에 대한 정보를 생성하는 단계; 상기 전체 후보들 중 제2 예측 움직임 벡터 후보 및 상기 차이 벡터를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 차이 벡터들과 상기 움직임 벡터에 대한 정보를 비교하여, 상기 제2 예측 움직임 벡터 후보를 상기 전체 후보들에서 선택적으로 제외하는 단계; 및 상기 움직임 벡터에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터에 대한 정보를 부호화하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of coding a motion vector of a current block, the method comprising: estimating a motion vector of a current block; Determining a motion vector of the current block as a predicted motion vector of the current block and generating information on the motion vector based on the motion vector of the current block and the predicted motion vector of the current block; Generating a virtual motion vector using the second predicted motion vector candidate and the difference vector of all the candidates, generating difference vectors between the virtual motion vector and each of all the candidates, And selectively excluding the second predicted motion vector candidate from all of the candidates; And encoding information on the motion vector and information on a predicted motion vector of the current block.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 방법은 현재 블록의 움직임 벡터에 대한 정보를 복호화하는 단계; 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보 및 상기 복호화된 움직임 벡터에 대한 정보를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 생성된 차이벡터들을 상기 복호화된 움직임 벡터에 대한 정보와 비교하여, 상기 소정의 예측 움직임 벡터를 상기 전체 후보들에서 선택적으로 제외하는 단계; 및 제외되지 않은 예측 움직임 벡터의 후보들 중 하나를 상기 현재 블록의 예측 움직임 벡터로 결정하고, 상기 결정된 예측 움직임 벡터 및 상기 복호화된 움직임 벡터에 대한 정보에 기초해 상기 현재 블록의 움직임 벡터를 복원하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of decoding a motion vector of a current block, the method comprising: decoding information on a motion vector of a current block; Generating a hypothetical motion vector using information on a predetermined predicted motion vector candidate and the decoded motion vector among all candidates of the predicted motion vector, generating difference vectors between the hypothetical motion vector and each of all the candidates, Comparing the generated difference vectors with information on the decoded motion vector to selectively exclude the predetermined predicted motion vector from all candidates; And determining one of the candidates of the excluded prediction motion vector as a prediction motion vector of the current block and restoring the motion vector of the current block based on the determined prediction motion vector and information on the decoded motion vector .

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 장치는 현재 블록의 움직임 벡터를 추정하고, 상기 추정 결과에 기초해 예측 움직임 벡터의 전체 후보들 중 제1 예측 움직임 벡터 후보를 상기 현재 블록의 예측 움직임 벡터로 결정하여, 상기 현재 블록의 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초해 움직임 벡터에 대한 정보를 생성하는 움직임벡터추정부; 상기 전체 후보들 중 제2 예측 움직임 벡터 후보 및 상기 차이 벡터를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 차이 벡터들과 상기 움직임 벡터에 대한 정보를 비교하여, 상기 제2 예측 움직임 벡터 후보를 상기 전체 후보들에서 선택적으로 제외하는 후보결정부; 및 상기 움직임 벡터에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터에 대한 정보를 부호화하는 움직임벡터부호화부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for encoding a motion vector, the apparatus comprising: a motion vector estimating unit for estimating a motion vector of a current block; A motion vector estimator for determining a predicted motion vector of the current block and generating information on the motion vector based on the motion vector of the current block and the predicted motion vector of the current block; Generating a virtual motion vector using the second predicted motion vector candidate and the difference vector of all the candidates, generating difference vectors between the virtual motion vector and each of all the candidates, A candidate determining unit for comparing the information on the first predicted motion vector candidate with the information on the second predicted motion vector candidate to selectively exclude the second predicted motion vector candidate from all the candidates; And a motion vector coding unit for coding information on the motion vector and information on a predicted motion vector of the current block.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 장치는 현재 블록의 움직임 벡터에 대한 정보를 복호화하는 움직임벡터복호화부; 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보 및 상기 복호화된 움직임 벡터에 대한 정보를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 생성된 차이벡터들을 상기 복호화된 움직임 벡터에 대한 정보와 비교하여, 상기 소정의 예측 움직임 벡터를 상기 전체 후보들에서 선택적으로 제외하는 단계 후보결정부; 및 제외되지 않은 예측 움직임 벡터의 후보들 중 하나를 상기 현재 블록의 예측 움직임 벡터로 결정하고, 상기 결정된 예측 움직임 벡터 및 상기 복호화된 움직임 벡터에 대한 정보에 기초해 상기 현재 블록의 움직임 벡터를 복원하는 움직임벡터복원부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for decoding a motion vector, comprising: a motion vector decoding unit decoding motion vector information of a current block; Generating a hypothetical motion vector using information on a predetermined predicted motion vector candidate and the decoded motion vector among all candidates of the predicted motion vector, generating difference vectors between the hypothetical motion vector and each of all the candidates, A candidate decision unit for comparing the generated difference vectors with information about the decoded motion vector and selectively excluding the predetermined predicted motion vector from all the candidates; And a motion estimating unit that determines one of the candidates of the excluded prediction motion vector as the predicted motion vector of the current block and restores the motion vector of the current block based on the determined prediction motion vector and information on the decoded motion vector, And a vector restoration unit.

상기 기술적 과제를 해결하기 위해 본 발명은 상기된 움직임 벡터를 부호화하는 방법 및/또는 복호화하는 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.According to an aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for executing a method of coding and / or decoding a motion vector.

본 발명에 따르면, 예측 움직임 벡터의 후보들을 이용하여 움직임 벡터를 예측 부호화, 예측 복호화하는 경우에도 예측 움직임 벡터의 후보들의 개수를 축소하여 움직임 벡터를 예측 부호화, 예측 복호화할 수 있다. 따라서, 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측에 이용된 예측 움직임 벡터 후보를 특정하기 필요한 정보를 최소한의 비트로 부호화할 수 있어, 움직임 벡터 부호화/복호화의 압축률이 향상되며, 이에 따라, 영상 부호화/복호화의 압축률도 향상될 수 있다.According to the present invention, even when the motion vectors are predictively and predictively decoded using the candidates of the predicted motion vector, the number of candidates of the predicted motion vector can be reduced to predict and decode the motion vector. Accordingly, it is possible to encode information necessary for specifying a predicted motion vector candidate used for predicting the motion vector of the current block among the candidates of the predicted motion vector to a minimum bit, thereby improving the compression rate of the motion vector encoding / decoding, The compression rate of image encoding / decoding can also be improved.

도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 도시한다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 도시한다.
도 3은 본 발명의 일 실시예에 따른 계층적 부호화 단위를 도시한다.
도 4는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 부호화부를 도시한다.
도 5는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 복호화부를 도시한다.
도 6은 본 발명의 일 실시예에 따른 최대 부호화 단위, 서브 부호화 단위 및 예측 단위를 도시한다.
도 7은 본 발명의 일 실시예에 따른, 부호화 단위 및 변환 단위를 도시한다.
도 8a 및 8b는 본 발명의 일 실시예에 따른, 부호화 단위, 예측 단위 및 주파수 변환 단위의 분할 형태를 도시한다.
도 9는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 장치를 도시한다.
도 10a 및 10b는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.
도 10c 내지 10e는 본 발명의 일 실시예에 따른 현재 블록에 인접한 다양한 크기의 블록들을 도시한다.
도 11a 내지 11c는 본 발명의 또 다른 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.
도 12는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 축소하는 방법을 도시한다.
도 13a 내지 13d는 본 발명의 일 실시예에 따른 소정 크기의 부호화 단위에 포함된 현재 블록의 위치를 도시한다.
도 14는 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 장치를 도시한다.
도 15는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 방법을 설명하기 위한 흐름도이다.
도 16은 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 방법을 설명하기 위한 흐름도이다.
1 illustrates an image encoding apparatus according to an embodiment of the present invention.
FIG. 2 illustrates an image decoding apparatus according to an embodiment of the present invention.
FIG. 3 illustrates a hierarchical encoding unit according to an embodiment of the present invention.
FIG. 4 illustrates an image encoding unit based on an encoding unit according to an embodiment of the present invention.
FIG. 5 illustrates an image decoding unit based on an encoding unit according to an embodiment of the present invention.
FIG. 6 illustrates a maximum encoding unit, a sub-encoding unit, and a prediction unit according to an embodiment of the present invention.
7 shows an encoding unit and a conversion unit according to an embodiment of the present invention.
FIGS. 8A and 8B show a division form of an encoding unit, a prediction unit, and a frequency conversion unit according to an embodiment of the present invention.
9 illustrates an apparatus for encoding a motion vector according to an embodiment of the present invention.
10A and 10B illustrate candidates of a predicted motion vector according to an embodiment of the present invention.
Figures 10C-10E illustrate blocks of various sizes adjacent to a current block in accordance with an embodiment of the present invention.
Figures 11A through 11C illustrate candidates of a predicted motion vector according to another embodiment of the present invention.
12 illustrates a method of reducing candidates of a predicted motion vector according to an embodiment of the present invention.
FIGS. 13A to 13D show positions of current blocks included in a coding unit of a predetermined size according to an embodiment of the present invention.
FIG. 14 illustrates an apparatus for decoding a motion vector according to an embodiment of the present invention.
15 is a flowchart illustrating a method of coding a motion vector according to an embodiment of the present invention.
16 is a flowchart for explaining a method of decoding a motion vector according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1 은 본 발명의 일 실시예에 따른 영상 부호화 장치를 도시한다.1 illustrates an image encoding apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 부호화 장치(100)는 최대 부호화 단위 분할부(110), 부호화 심도 결정부(120), 영상 데이터 부호화부(130) 및 부호화 정보 부호화부(140)를 포함한다.1, an image encoding apparatus 100 according to an exemplary embodiment of the present invention includes a maximum encoding unit division unit 110, an encoding depth determination unit 120, an image data encoding unit 130, (140).

최대 부호화 단위 분할부(110)는 최대 크기의 부호화 단위인 최대 부호화 단위에 기반하여 현재 프레임 또는 현재 슬라이스를 분할할 수 있다. 현재 프레임 또는 현재 슬라이스를 적어도 하나의 최대 부호화 단위로 분할할 수 있다. The maximum coding unit division unit 110 may divide the current frame or the current slice based on the maximum coding unit which is the coding unit of the maximum size. The current frame or the current slice can be divided into at least one maximum encoding unit.

본 발명의 일 실시예에 따르면, 최대 부호화 단위 및 심도를 이용해 부호화 단위가 표현될 수 있다. 전술한 바와 같이 최대 부호화 단위는 현재 프레임의 부호화 단위 중 크기가 가장 큰 부호화 단위를 나타내며, 심도는 부호화 단위가 계층적으로 축소된 정도를 나타낸다. 심도가 커지면서, 부호화 단위는 최대 부호화 단위로부터 최소 부호화 단위까지 축소될 수 있으며, 최대 부호화 단위의 심도는 최소 심도로 정의되고, 최소 부호화 단위의 심도는 최대 심도로 정의될 수 있다. 최대 부호화 단위는 심도가 커짐에 따라 심도별 부호화 단위의 크기는 감소하므로, k 심도의 서브 부호화 단위는 k보다 큰 심도의 복수 개의 서브 부호화 단위를 포함할 수 있다.According to an embodiment of the present invention, an encoding unit can be expressed using a maximum encoding unit and a depth. As described above, the maximum encoding unit indicates the largest encoding unit among the encoding units of the current frame, and the depth indicates the degree to which the encoding units are hierarchically reduced. As the depth increases, the encoding unit can be reduced from the maximum encoding unit to the minimum encoding unit, the depth of the maximum encoding unit can be defined as the minimum depth, and the depth of the minimum encoding unit can be defined as the maximum depth. As the depth of the maximum encoding unit increases, the size of the depth-dependent encoding unit decreases. Therefore, the sub-encoding unit of k depth may include a plurality of sub-encoding units of depth greater than k.

부호화되는 프레임의 크기가 커짐에 따라, 더 큰 단위로 영상을 부호화하면 더 높은 영상 압축률로 영상을 부호화할 수 있다. 그러나, 부호화 단위를 크게 하고, 그 크기를 고정시켜버리면, 계속해서 변하는 영상의 특성을 반영하여 효율적으로 영상을 부호화할 수 없다. As the size of a frame to be encoded increases, if an image is encoded in a larger unit, an image can be encoded with a higher image compression rate. However, if the coding unit is enlarged and its size is fixed, the image can not be efficiently encoded reflecting the characteristics of the continuously changing image.

예를 들어, 바다 또는 하늘에 대한 평탄한 영역을 부호화할 때에는 부호화 단위를 크게 할수록 압축률이 향상될 수 있으나, 사람들 또는 빌딩에 대한 복잡한 영역을 부호화할 때에는 부호화 단위를 작게 할수록 압축률이 향상된다.For example, when coding a flat area with respect to the sea or sky, the compression rate can be improved by increasing the coding unit. However, when coding a complex area for people or buildings, the compression ratio is improved as the coding unit is decreased.

이를 위해 본 발명의 일 실시예는 프레임 또는 슬라이스마다 상이한 크기의 최대 영상 부호화 단위를 설정하고, 최대 심도를 설정한다. 최대 심도는 부호화 단위가 축소될 수 있는 최대 횟수를 의미하므로, 최대 심도에 따라 최대 영상 부호화 단위에 포함된 최소 부호화 단위 크기를 가변적으로 설정할 수 있게 된다.To this end, one embodiment of the present invention sets a maximum image encoding unit of a different size for each frame or slice, and sets a maximum depth. Since the maximum depth means the maximum number of times the encoding unit can be reduced, the minimum encoding unit size included in the maximum image encoding unit can be variably set according to the maximum depth.

부호화 심도 결정부(120)는 최대 심도를 결정한다. 최대 심도는 R-D 코스트(Rate-Distortion Cost) 계산에 기초해 결정될 수 있다. 최대 심도는 프레임 또는 슬라이스마다 상이하게 결정되거나, 각각의 최대 부호화 단위마다 상이하게 결정될 수도 있다. 결정된 최대 심도는 부호화 정보 부호화부(140)로 출력되고, 최대 부호화 단위별 영상 데이터는 영상 데이터 부호화부(130)로 출력된다. The encoding depth determination unit 120 determines the maximum depth. The maximum depth may be determined based on the Rate-Distortion Cost calculation. The maximum depth may be determined differently for each frame or slice, or may be determined differently for each maximum encoding unit. The determined maximum depth is output to the encoding information encoding unit 140, and the image data for each maximum encoding unit is output to the image data encoding unit 130.

최대 심도는 최대 부호화 단위에 포함될 수 있는 가장 작은 크기의 부호화 단위 즉, 최소 부호화 단위를 의미한다. 다시 말해, 최대 부호화 단위는 상이한 심도에 따라 상이한 크기의 서브 부호화 단위로 분할될 수 있다. 도 8a 및 8b를 참조하여 상세히 후술한다. 또한, 최대 부호화 단위에 포함된 상이한 크기의 서브 부호화 단위들은 상이한 크기의 처리 단위에 기초해 예측 또는 변환될 수 있다. 변환은 공간 도메인의 픽셀 값들을 주파수 도메인의 계수들로 변환으로서 이산 코사인 변환(discrete cosine transform) 또는 KLT(Karhunen Loever Transform)일 수 있다.The maximum depth means the smallest encoding unit, that is, the minimum encoding unit, which can be included in the maximum encoding unit. In other words, the maximum encoding unit may be divided into sub-encoding units of different sizes according to different depths. Will be described later in detail with reference to Figs. 8A and 8B. In addition, sub-encoding units of different sizes included in the maximum encoding unit may be predicted or converted based on processing units of different sizes. The transform may be a discrete cosine transform or a Karhunen Loever Transform (KLT) as transforming the pixel values of the spatial domain into coefficients in the frequency domain.

다시 말해, 영상 부호화 장치(100)는 영상 부호화를 위한 복수의 처리 단계들을 다양한 크기 및 다양한 형태의 처리 단위에 기초해 수행할 수 있다. 영상 데이터의 부호화를 위해서는 예측, 변환, 엔트로피 부호화 등의 처리 단계를 거치는데, 모든 단계에 걸쳐서 동일한 크기의 처리 단위가 이용될 수도 있으며, 단계별로 상이한 크기의 처리 단위를 이용할 수 있다.In other words, the image encoding apparatus 100 can perform a plurality of processing steps for image encoding based on various sizes and processing units of various types. In order to encode the image data, processing steps such as prediction, conversion, and entropy encoding are performed. The processing units of the same size may be used in all steps, and processing units of different sizes may be used in each step.

예를 들어 영상 부호화 장치(100)는 소정의 부호화 단위를 예측하기 위해, 부호화 단위와 다른 처리 단위를 선택할 수 있다. For example, in order to predict a predetermined encoding unit, the image encoding device 100 may select a different encoding unit from the encoding unit.

부호화 단위의 크기가 2Nx2N(단, N은 양의 정수)인 경우, 예측을 위한 처리 단위는 2Nx2N, 2NxN, Nx2N, NxN 등일 수 있다. 다시 말해, 부호화 단위의 높이 또는 너비 중 적어도 하나를 반분하는 형태의 처리 단위를 기반으로 움직임 예측이 수행될 수도 있다. 이하, 예측의 기초가 되는 처리 단위는 '예측 단위'라 한다.If the size of the encoding unit is 2Nx2N (where N is a positive integer), the processing unit for prediction may be 2Nx2N, 2NxN, Nx2N, NxN, and the like. In other words, motion prediction may be performed based on a processing unit of a type that halves at least one of a height or a width of an encoding unit. Hereinafter, a processing unit serving as a basis of prediction is referred to as a 'prediction unit'.

예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있으며, 특정 예측 모드는 특정 크기 또는 형태의 예측 단위에 대해서만 수행될 수 있다. 예를 들어, 인트라 모드는 정방형인 2Nx2N, NxN 크기의 예측 단위에 대해서만 수행될 수 있다. 또한, 스킵 모드는 2Nx2N 크기의 예측 단위에 대해서만 수행될 수 있다. 부호화 단위 내부에 복수의 예측 단위가 있다면, 각각의 예측 단위에 대해 예측을 수행하여 부호화 오차가 가장 작은 예측 모드가 선택될 수 있다.The prediction mode may be at least one of an intra mode, an inter mode, and a skip mode, and the specific prediction mode may be performed only for a prediction unit of a specific size or type. For example, the intra mode can be performed only for a 2Nx2N, NxN sized prediction unit, which is a square. In addition, the skip mode can be performed only for a prediction unit of 2Nx2N size. If there are a plurality of prediction units in an encoding unit, a prediction mode having the smallest coding error can be selected by performing prediction for each prediction unit.

또한, 영상 부호화 장치(100)는 부호화 단위와 다른 크기의 처리 단위에 기초해 영상 데이터를 변환할 수 있다. 부호화 단위의 변환을 위해서 부호화 단위보다 작거나 같은 크기의 데이터 단위를 기반으로 변환이 수행될 수 있다. 이하, 변환의 기초가 되는 처리 단위를 '변환 단위'라 한다.Also, the image encoding apparatus 100 can convert image data based on a processing unit having a different size from the encoding unit. The conversion may be performed based on a data unit having a size smaller than or equal to the encoding unit in order to convert the encoding unit. Hereinafter, a processing unit serving as a basis of the conversion is referred to as a 'conversion unit'.

부호화 심도 결정부(120)는 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용해 최대 부호화 단위에 포함된 서브 부호화 단위들을 결정할 수 있다. 다시 말해, 최대 부호화 단위가 어떠한 형태의 복수의 서브 부호화 단위로 분할되는지 결정할 수 있는데, 여기서 복수의 서브 부호화 단위는 심도에 따라 크기가 상이하다. 그런 다음, 영상 데이터 부호화부(130)는 부호화 심도 결정부(120)에서 결정된 분할 형태에 기초해 최대 부호화 단위를 부호화하여 비트스트림을 출력한다. The coding depth determiner 120 may determine sub-coding units included in the maximum coding unit using Rate-Distortion Optimization based on a Lagrangian Multiplier. In other words, it is possible to determine what type of sub-encoding unit the maximum encoding unit is divided into, wherein the plurality of sub-encoding units have different sizes depending on the depth. Then, the image data encoding unit 130 encodes the maximum encoding unit based on the division type determined by the encoding depth determination unit 120, and outputs the bit stream.

부호화 정보 부호화부(140)는 부호화 심도 결정부(120)에서 결정된 최대 부호화 단위의 부호화 모드에 대한 정보를 부호화한다. 최대 부호화 단위의 분할 형태에 대한 정보, 최대 심도에 대한 정보 및 심도별 서브 부호화 단위의 부호화 모드에 대한 정보를 부호화하여 비트스트림을 출력한다. 서브 부호화 단위의 부호화 모드에 대한 정보는 서브 부호화 단위의 예측 단위에 대한 정보, 예측 단위별 예측 모드 정보, 서브 부호화 단위의 변환 단위에 대한 정보 등을 포함할 수 있다.The encoding information encoding unit 140 encodes information on the encoding mode of the maximum encoding unit determined by the encoding depth determination unit 120. [ Information on the division type of the maximum encoding unit, information on the maximum depth, and information on the encoding mode of the sub-encoding unit by depth, and outputs the bit stream. The information on the encoding mode of the sub-encoding unit may include information on the prediction unit of the sub-encoding unit, prediction mode information per prediction unit, information on the conversion unit of the sub-encoding unit, and the like.

최대 부호화 단위의 분할 형태에 대한 정보는 각각의 부호화 단위에 대해 분할 여부를 나타내는 정보일 수 있다. 예를 들어, 최대 부호화 단위를 분할하여 부호화하는 경우, 최대 부호화 단위에 대해 분할 여부를 나타내는 정보를 부호화하고, 최대 부호화 단위를 분할하여 생성된 서브 부호화 단위를 다시 분할하여 부호화하는 경우에도, 각각의 서브 부호화 단위에 대해서 분할 여부를 나타내는 정보를 부호화한다. 분할 여부를 나타내는 정보는 분할 여부를 나타내는 플래그 정보일 수 있다.The information on the division type of the maximum encoding unit may be information indicating whether or not the division is performed for each encoding unit. For example, when the maximum encoding unit is divided and encoded, information indicating whether or not the maximum encoding unit is divided is encoded, and even when the sub-encoding unit generated by dividing the maximum encoding unit is divided and coded again, Information indicating whether or not the sub-encoding unit is divided is encoded. The information indicating whether or not to divide may be flag information indicating whether or not to divide.

최대 부호화 단위마다 상이한 크기의 서브 부호화 단위가 존재하고, 각각의 서브 부호화 단위마다 부호화 모드에 관한 정보가 결정되어야 하므로, 하나의 최대 부호화 단위에 대해서는 적어도 하나의 부호화 모드에 관한 정보가 결정될 수 있다. There is a sub-encoding unit of a different size for each maximum encoding unit, and information on the encoding mode is determined for each sub-encoding unit, so that information on at least one encoding mode can be determined for one maximum encoding unit.

영상 부호화 장치(100)는 심도가 커짐에 따라 최대 부호화 단위를 높이 및 너비를 반분하여 서브 부호화 단위를 생성할 수 있다. 즉, k 심도의 부호화 단위의 크기가 2Nx2N이라면, k+1 심도의 부호화 단위의 크기는 NxN 이다. As the depth increases, the image encoding apparatus 100 may generate a sub-encoding unit by dividing the maximum encoding unit by half the height and the width. That is, if the size of the encoding unit of the kth depth is 2Nx2N, the size of the encoding unit of the k + 1th depth is NxN.

따라서, 일 실시예에 따른 영상 부호화 장치(100)는 영상의 특성을 고려한 최대 부호화 단위의 크기 및 최대 심도를 기반으로, 각각의 최대 부호화 단위마다 최적의 분할 형태를 결정할 수 있다. 영상 특성을 고려하여 가변적으로 최대 부호화 단위의 크기를 조절하고, 상이한 심도의 서브 부호화 단위로 최대 부호화 단위를 분할하여 영상을 부호화함으로써, 다양한 해상도의 영상을 보다 효율적으로 부호화할 수 있다. Accordingly, the image encoding apparatus 100 according to an exemplary embodiment can determine an optimal division type for each maximum encoding unit based on the size and the maximum depth of a maximum encoding unit considering characteristics of an image. It is possible to more efficiently encode images of various resolutions by adjusting the size of the maximum encoding unit in consideration of the image characteristics and encoding the image by dividing the maximum encoding unit into sub-encoding units of different depths.

도 2 는 본 발명의 일 실시예에 따른 영상 복호화 장치를 도시한다.FIG. 2 illustrates an image decoding apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 영상 복호화 장치(200)는 영상 데이터 획득부(210), 부호화 정보 추출부(220) 및 영상 데이터 복호화부(230)를 포함한다. 2, an image decoding apparatus 200 according to an exemplary embodiment of the present invention includes an image data obtaining unit 210, an encoding information extracting unit 220, and an image data decoding unit 230.

영상 관련 데이터 획득부(210)는 영상 복호화 장치(200)가 수신한 비트스트림을 파싱하여, 최대 부호화 단위별로 영상 데이터를 획득하여 영상 데이터 복호화부(230)로 출력한다. 영상 데이터 획득부(210)는 현재 프레임 또는 슬라이스에 대한 헤더로부터 현재 프레임 또는 슬라이스의 최대 부호화 단위에 대한 정보를 추출할 수 있다. 다시 말해, 비트스트림을 최대 부호화 단위로 분할하여, 영상 데이터 복호화부(230)가 최대 부호화 단위마다 영상 데이터를 복호화하게 한다.The image-related data acquisition unit 210 parses the bit stream received by the image decoding apparatus 200, acquires image data for each maximum encoding unit, and outputs the image data to the image data decoding unit 230. The image data obtaining unit 210 may extract information on the current frame or the maximum encoding unit of the slice from the header of the current frame or slice. In other words, the bitstream is divided into a maximum encoding unit, and the video data decoding unit 230 decodes the video data per maximum encoding unit.

부호화 정보 추출부(220)는 영상 복호화 장치(200)가 수신한 비트열을 파싱하여, 현재 프레임에 대한 헤더로부터 최대 부호화 단위, 최대 심도, 최대 부호화 단위의 분할 형태, 서브 부호화 단위의 부호화 모드에 관한 정보를 추출한다. 분할 형태 및 부호화 모드에 관한 정보는 영상 데이터 복호화부(230)로 출력된다. The encoding information extracting unit 220 parses the bit stream received by the video decoding apparatus 200 and extracts the maximum encoding unit, the maximum depth, the division type of the maximum encoding unit, and the encoding mode of the sub encoding unit from the header for the current frame . The information on the division type and the encoding mode is output to the video data decoding unit 230. [

최대 부호화 단위의 분할 형태에 대한 정보는 최대 부호화 단위에 포함된 심도에 따라 상이한 크기의 서브 부호화 단위에 대한 정보를 포함할 수 있다. 전술한 바와 같이 분할 형태에 대한 정보는 각각의 부호화 단위에 대해 부호화된 분할 여부를 나타내는 정보(예를 들어, 플래그 정보)일 수 있다. 부호화 모드에 관한 정보는 서브 부호화 단위별 예측 단위에 대한 정보, 예측 모드에 대한 정보 및 변환 단위에 대한 정보 등을 포함할 수 있다. The information on the division type of the maximum encoding unit may include information on the sub-encoding units of different sizes depending on the depth included in the maximum encoding unit. As described above, the information on the division type may be information (e.g., flag information) indicating whether or not the division is coded for each coding unit. The information on the encoding mode may include information on a prediction unit for each sub-encoding unit, information on a prediction mode, and information on a conversion unit.

영상 데이터 복호화부(230)는 부호화 정보 추출부에서 추출된 정보에 기초하여 각각의 최대 부호화 단위의 영상 데이터를 복호화하여 현재 프레임을 복원한다. The image data decoding unit 230 decodes the image data of each maximum encoding unit based on the information extracted by the encoding information extracting unit, and restores the current frame.

최대 부호화 단위의 분할 형태에 대한 정보에 기초하여, 영상 데이터 복호화부(230)는 최대 부호화 단위에 포함된 서브 부호화 단위를 복호화할 수 있다. 복호화 과정은 인트라 예측 및 움직임 보상을 포함하는 인터 예측 과정 및 역변환 과정을 포함할 수 있다.The image data decoding unit 230 can decode the sub-encoding unit included in the maximum encoding unit based on the information on the division type of the maximum encoding unit. The decoding process may include an inter prediction process including intra prediction and motion compensation, and an inverse conversion process.

영상 데이터 복호화부(230)는 서브 부호화 단위의 예측을 위해, 서브 부호화 단위별 예측 단위에 대한 정보 및 예측 모드에 대한 정보에 기초해 인트라 예측 또는 인터 예측을 수행할 수 있다. 또한, 영상 데이터 복호화부(230)는 서브 부호화 단위의 변환 단위에 대한 정보에 기초해 서브 부호화 단위마다 역변환을 수행할 수 있다.The image data decoding unit 230 may perform intra prediction or inter prediction based on information on a prediction unit for each sub-coding unit and prediction mode information for prediction of a sub-coding unit. In addition, the image data decoding unit 230 may perform inverse conversion for each sub-encoding unit based on information on the conversion unit of the sub-encoding unit.

도 3 은 본 발명의 일 실시예에 따른 계층적 부호화 단위를 도시한다.FIG. 3 illustrates a hierarchical encoding unit according to an embodiment of the present invention.

도 3을 참조하면, 본 발명에 따른 계층적 부호화 단위는 너비x높이가 64x64인 부호화 단위부터, 32x32, 16x16, 8x8, 및 4x4를 포함할 수 있다. 정사각형 형태의 부호화 단위 이외에도, 너비x높이가 64x32, 32x64, 32x16, 16x32, 16x8, 8x16, 8x4, 4x8인 부호화 단위들이 존재할 수 있다.Referring to FIG. 3, the hierarchical coding unit according to the present invention may include 32x32, 16x16, 8x8, and 4x4 from a coding unit having a width x height of 64x64. In addition to the square-shaped encoding units, there may be encoding units whose width x height is 64x32, 32x64, 32x16, 16x32, 16x8, 8x16, 8x4, 4x8.

도 3을 참조하면, 해상도가 1920x1080인 영상 데이터(310)에 대해서, 최대 부호화 단위의 크기는 64x64, 최대 심도가 2로 설정되어 있다. Referring to FIG. 3, the maximum encoding unit size is set to 64x64 and the maximum depth is set to 2 for the image data 310 having a resolution of 1920x1080.

또 다른 해상도가 1920x1080인 영상 데이터(320)에 대해서 최대 부호화 단위의 크기는 64x64, 최대 심도가 4로 설정되어 있다. 해상도가 352x288인 비디오 데이터(330)에 대해서 최대 부호화 단위의 크기는 16x16, 최대 심도가 2로 설정되어 있다.The size of the maximum encoding unit is set to 64x64 and the maximum depth is set to 4 for the image data 320 having another resolution of 1920x1080. For the video data 330 having a resolution of 352x288, the size of the maximum encoding unit is set to 16x16 and the maximum depth is set to 2. [

해상도가 높거나 데이터량이 많은 경우 압축률 향상뿐만 아니라 영상 특성을 정확히 반영하기 위해 부호화 사이즈의 최대 크기가 상대적으로 큰 것이 바람직하다. 따라서, 영상 데이터(330)에 비해, 해상도가 높은 영상 데이터(310 및 320)는 최대 부호화 단위의 크기가 64x64로 선택될 수 있다.It is desirable that the maximum size of the encoding size is relatively large in order to accurately reflect not only the compression ratio but also the image characteristic when the resolution is high or the data amount is large. Therefore, the size of the maximum encoding unit of the image data 310 and 320 having a higher resolution than the image data 330 can be selected to be 64x64.

최대 심도는 계층적 부호화 단위에서 총 계층수를 나타낸다. 영상 데이터(310)의 최대 심도는 2이므로, 영상 데이터(310)의 부호화 단위(315)는 장축 크기가 64인 최대 부호화 단위로부터, 심도가 증가함에 따라 장축 크기가 32, 16인 서브 부호화 단위들까지 포함할 수 있다. The maximum depth indicates the total number of layers in the hierarchical encoding unit. Since the maximum depth of the image data 310 is 2, the coding unit 315 of the image data 310 is divided into sub-coding units 315 having a major axis size of 32 and 16 as the depth increases, .

반면, 영상 데이터(330)의 최대 심도는 2이므로, 영상 데이터(330)의 부호화 단위(335)는 장축 크기가 16인 최대 부호화 단위들로부터, 심도가 증가함에 따라 장축 크기가 8, 4인 부호화 단위들까지 포함할 수 있다. On the other hand, since the maximum depth of the image data 330 is 2, the encoding unit 335 of the image data 330 is encoded from the maximum encoding units having the major axis size of 16 to the encoding units having the major axis size of 8 and 4 Units.

영상 데이터(320)의 최대 심도는 4이므로, 비디오 데이터(320)의 부호화 단위(325)는 장축 크기가 64인 최대 부호화 단위로부터, 심도가 증가함에 따라 장축 크기가 32, 16, 8, 4인 서브 부호화 단위들까지 포함할 수 있다. 심도가 증가할수록 더 작은 서브 부호화 단위에 기초해 영상을 부호화하므로 보다 세밀한 장면을 포함하고 있는 영상을 부호화하는데 적합해진다.Since the maximum depth of the video data 320 is 4, the encoding unit 325 of the video data 320 has a length of 32, 16, 8, and 4 as the depth increases, Sub-encoding units. As the depth increases, the image is encoded based on a smaller sub-encoding unit, which makes it suitable for encoding an image including a finer scene.

도 4 는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 부호화부를 도시한다.FIG. 4 illustrates an image encoding unit based on an encoding unit according to an embodiment of the present invention.

인트라 예측부(410)는 현재 프레임(405) 중 인트라 모드의 예측 단위에 대해 인트라 예측을 수행하고, 움직임 추정부(420) 및 움직임 보상부(425)는 인터 모드의 예측 단위에 대해 현재 프레임(405) 및 참조 프레임(495)을 이용해 인터 예측 및 움직임 보상을 수행한다.The intra prediction unit 410 performs intra prediction on a prediction unit of the intra mode of the current frame 405 and the motion estimation unit 420 and the motion compensation unit 425 perform intra prediction on the prediction unit of the intra mode, 405 and a reference frame 495. The inter-prediction and the motion compensation are performed using the reference frame 495 and inter-prediction.

인트라 예측부(410), 움직임 추정부(420) 및 움직임 보상부(425)로부터 출력된 예측 단위에 기초해 레지듀얼 값들이 생성되고, 생성된 레지듀얼 값들은 변환부(430) 및 양자화부(440)를 거쳐 양자화된 변환 계수로 출력된다. The residual values are generated based on the prediction unit output from the intra prediction unit 410, the motion estimation unit 420 and the motion compensation unit 425, and the generated residual values are output to the conversion unit 430 and the quantization unit 440) and output as quantized transform coefficients.

양자화된 변환 계수는 역양자화부(460), 역변환부(470)를 통해 다시 레지듀얼 값으로 복원되고, 복원된 레지듀얼 값들은 디블로킹부(480) 및 루프 필터링부(490)를 거쳐 후처리되어 참조 프레임(495)으로 출력된다. 양자화된 변환 계수는 엔트로피 부호화부(450)를 거쳐 비트스트림(455)으로 출력될 수 있다.The quantized transform coefficients are restored to a residual value through an inverse quantization unit 460 and an inverse transform unit 470. The reconstructed residual values are passed through a deblocking unit 480 and a loop filtering unit 490, And output to the reference frame 495. The quantized transform coefficient may be output to the bitstream 455 via the entropy encoding unit 450.

본 발명의 일 실시예에 따른 영상 부호화 방법에 따라 부호화하기 위해, 영상 부호화부(400)의 구성 요소들인 인트라 예측부(410), 움직임 추정부(420), 움직임 보상부(425), 변환부(430), 양자화부(440), 엔트로피 부호화부(450), 역양자화부(460), 역변환부(470), 디블로킹부(480) 및 루프 필터링부(490)는 모두 최대 부호화 단위, 심도에 따른 서브 부호화 단위, 예측 단위 및 변환 단위에 기초해 영상 부호화 과정들을 처리한다. In order to perform encoding according to the image encoding method according to an embodiment of the present invention, an intra prediction unit 410, a motion estimation unit 420, a motion compensation unit 425, The quantization unit 440, the entropy encoding unit 450, the inverse quantization unit 460, the inverse transform unit 470, the deblocking unit 480 and the loop filtering unit 490 all have the maximum encoding unit, The prediction unit, and the conversion unit according to the sub-encoding unit, the prediction unit, and the conversion unit.

도 5는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 복호화부를 도시한다.FIG. 5 illustrates an image decoding unit based on an encoding unit according to an embodiment of the present invention.

비트스트림(505)이 파싱부(510)를 거쳐 복호화 대상인 부호화된 영상 데이터 및 복호화를 위해 필요한 부호화 정보가 파싱된다. 부호화된 영상 데이터는 엔트로피 복호화부(520) 및 역양자화부(530)를 거쳐 역양자화된 데이터로 출력되고, 역변환부(540)를 거쳐 레지듀얼 값들로 복원된다. 레지듀얼 값들은 인트라 예측부(550)의 인트라 예측의 결과 또는 움직임 보상부(560)의 움직임 보상 결과와 가산되어 부호화 단위 별로 복원된다. 복원된 부호화 단위는 디블로킹부(570) 및 루프 필터링부(580)를 거쳐 다음 부호화 단위 또는 다음 프레임의 예측에 이용된다. The bitstream 505 passes through the parser 510 and the encoded image data to be decoded and the encoding information necessary for decoding are parsed. The encoded image data is outputted as inverse-quantized data through the entropy decoding unit 520 and the inverse quantization unit 530, and is restored to the residual values through the inverse transform unit 540. [ The residual values are added to the intraprediction result of the intraprediction unit 550 or the motion compensation result of the motion compensation unit 560, and restored for each encoding unit. The restored encoding unit is used for predicting the next encoding unit or the next frame through the deblocking unit 570 and the loop filtering unit 580.

본 발명의 일 실시예에 따른 영상 복호화 방법에 따라 복호화하기 위해 영상 복호화부(400)의 구성 요소들인 파싱부(510), 엔트로피 복호화부(520), 역양자화부(530), 역변환부(540), 인트라 예측부(550), 움직임 보상부(560), 디블로킹부(570) 및 루프 필터링부(580)가 모두 최대 부호화 단위, 심도에 따른 서브 부호화 단위, 예측 단위 및 변환 단위에 기초해 영상 복호화 과정들을 처리한다. A parsing unit 510, an entropy decoding unit 520, an inverse quantization unit 530, and an inverse transform unit 540, which are components of the image decoding unit 400 for decoding according to the image decoding method according to an embodiment of the present invention, The intraprediction unit 550, the motion compensation unit 560, the deblocking unit 570 and the loop filtering unit 580 are all based on the maximum encoding unit, the depth-dependent sub-encoding unit, the prediction unit, And processes the image decoding processes.

특히, 인트라 예측부(550), 움직임 보상부(560)는 최대 부호화 단위 및 심도를 고려하여 서브 부호화 단위 내의 예측 단위 및 예측 모드를 결정하며, 역변환부(540)는 변환 단위의 크기를 고려하여 역변환을 수행한다.In particular, the intra prediction unit 550 and the motion compensation unit 560 determine a prediction unit and a prediction mode in the sub-coding unit in consideration of the maximum coding unit and the depth, and the inverse transform unit 540 takes the size of the conversion unit into consideration Performs inverse transform.

도 6은 본 발명의 일 실시예에 따른 최대 부호화 단위, 서브 부호화 단위 및 예측 단위를 도시한다.FIG. 6 illustrates a maximum encoding unit, a sub-encoding unit, and a prediction unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 부호화 장치(100) 및 영상 복호화 장치(200)는 영상 특성을 고려하여 부호화, 복호화를 수행하기 위해 계층적인 부호화 단위를 이용한다. 최대 부호화 단위 및 최대 심도는 영상의 특성에 따라 적응적으로 설정되거나, 사용자의 요구에 따라 다양하게 설정될 수 있다. The image encoding apparatus 100 and the image decoding apparatus 200 according to an embodiment of the present invention use a hierarchical encoding unit to perform encoding and decoding in consideration of image characteristics. The maximum encoding unit and the maximum depth may be adaptively set according to the characteristics of the image, or may be variously set according to the demand of the user.

본 발명의 일 실시예에 따른 부호화 단위의 계층 구조(600)는 최대 부호화 단위(610)의 높이 및 너비가 64이며, 최대 심도가 4인 경우를 도시한다. 부호화 단위의 계층 구조(600)의 세로축을 따라서 심도가 증가하고, 심도의 증가에 따라 서브 부호화 단위(620 내지 650)의 너비 및 높이가 축소된다. 또한, 부호화 단위의 계층 구조(600)의 가로축을 따라, 최대 부호화 단위(610) 및 서브 부호화 단위(620 내지 650)의 예측 단위가 도시되어 있다.The hierarchical structure 600 of the encoding unit according to an embodiment of the present invention shows a case where the height and the width of the maximum encoding unit 610 are 64 and the maximum depth is 4. The depth increases along the vertical axis of the hierarchical structure 600 of the encoding unit and the width and height of the sub-encoding units 620 to 650 are reduced as the depth increases. Prediction units of the maximum encoding unit 610 and the sub-encoding units 620 to 650 are shown along the horizontal axis of the hierarchical structure 600 of the encoding units.

최대 부호화 단위(610)는 심도가 0이며, 부호화 단위의 크기, 즉 너비 및 높이가 64x64이다. 세로축을 따라 심도가 증가하며, 크기 32x32인 심도 1의 서브 부호화 단위(620), 크기 16x16인 심도 2의 서브 부호화 단위(630), 크기 8x8인 심도 3의 서브 부호화 단위(640), 크기 4x4인 심도 4의 서브 부호화 단위(650)가 존재한다. 크기 4x4인 심도 4의 서브 부호화 단위(650)는 최소 부호화 단위이다.The maximum encoding unit 610 has a depth of 0, and the size of the encoding unit, i.e., the width and the height, is 64x64. A sub-encoding unit 620 having a depth 1 of 32x32 and a sub-encoding unit 630 having a depth 16x16 having a depth of 16x16, a sub-encoding unit 640 having a depth of 3x8 having a size 8x8, There is a sub-encoding unit 650 of depth 4. A sub-encoding unit 650 of depth 4 with a size of 4x4 is the minimum encoding unit.

도 6을 참조하면, 각각의 심도별로 가로축을 따라 예측 단위의 예시들이 도시되어 있다. 즉, 심도 0의 최대 부호화 단위(610)의 예측 단위는, 크기 64x64의 부호화 단위(610)와 동일하거나 작은 크기인 크기 64x64의 예측 단위(610), 크기 64x32의 예측 단위(612), 크기 32x64의 예측 단위(614), 크기 32x32의 예측 단위(616)일 수 있다. Referring to FIG. 6, examples of prediction units along the horizontal axis are shown for each depth. That is, the prediction unit of the maximum coding unit 610 of depth 0 is a prediction unit 610 of size 64x64, a prediction unit 612 of size 64x32, and size 32x64, which are the same or smaller than the coding unit 610 of size 64x64, A prediction unit 614 of size 32x32, and a prediction unit 616 of size 32x32.

심도 1의 크기 32x32의 부호화 단위(620)의 예측 단위는, 크기 32x32의 부호화 단위(620)와 동일하거나 작은 크기인 크기 32x32의 예측 단위(620), 크기 32x16의 예측 단위(622), 크기 16x32의 예측 단위(624), 크기 16x16의 예측 단위(626)일 수 있다. The prediction unit of the 32x32 coding unit 620 having the depth 1 has the prediction unit 620 of the size 32x32 which is equal to or smaller than the coding unit 620 of the size 32x32, the prediction unit 622 of the size 32x16, A prediction unit 624 of size 16x16, and a prediction unit 626 of size 16x16.

심도 2의 크기 16x16의 부호화 단위(630)의 예측 단위는, 크기 16x16의 부호화 단위(630)와 동일하거나 작은 크기인 크기 16x16의 예측 단위(630), 크기 16x8의 예측 단위(632), 크기 8x16의 예측 단위(634), 크기 8x8의 예측 단위(636)일 수 있다. The prediction unit of the 16x16 encoding unit 630 of depth 2 has a prediction unit 630 of 16x16 size, a prediction unit 632 of size 16x8, and a size of 8x16, which are the same or smaller than the encoding unit 630 of size 16x16. A prediction unit 634 of size 8x8, and a prediction unit 636 of size 8x8.

심도 3의 크기 8x8의 부호화 단위(640)의 예측 단위는, 크기 8x8의 부호화 단위(640)와 동일하거나 작은 크기인 크기 8x8의 예측 단위(640), 크기 8x4의 예측 단위(642), 크기 4x8의 예측 단위(644), 크기 4x4의 예측 단위(646)일 수 있다. The prediction unit of the 8x8 encoding unit 640 of depth 3 has a prediction unit 640 of size 8x8, a prediction unit 642 of size 8x4, and a size of 4x8, which are the same or smaller than the encoding unit 640 of size 8x8. A prediction unit 644 of size 4x4, and a prediction unit 646 of size 4x4.

마지막으로, 심도 4의 크기 4x4의 부호화 단위(650)는 최대 심도의 부호화 단위이고, 예측 단위는 크기 4x4의 예측 단위(650)이다. 그러나, 최대 심도의 부호화 단위라고 하여 반드시 부호화 단위와 예측 단위의 크기가 동일할 필요는 없으며, 다른 부호화 단위(610 내지 650)와 마찬가지로 부호화 단위보다 작은 크기의 예측 단위로 분할하여 예측을 수행할 수도 있다.Finally, a coding unit 650 with a depth 4 of size 4x4 is a coding unit with a maximum depth, and a prediction unit is a prediction unit 650 with a size 4x4. However, the encoding unit of the maximum depth does not necessarily have to be the same size as the encoding unit and the prediction unit, and the prediction unit may be divided into prediction units smaller than the encoding unit similarly to the other encoding units 610 to 650 have.

도 7은 본 발명의 일 실시예에 따른, 부호화 단위 및 변환 단위를 도시한다.7 shows an encoding unit and a conversion unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 부호화 장치(100) 및 영상 복호화 장치(200)는, 최대 부호화 단위 그대로 부호화하거나, 최대 부호화 단위 보다 작거나 같은 서브 부호화 단위로 최대 부호화 단위를 분할하여 부호화한다. 부호화 과정 중 변환을 위한 변환 단위의 크기도 부호화 단위 및 예측 단위와 무관하게 가장 높은 압축률을 위한 크기로 선택될 수 있다. 예를 들어, 현재 부호화 단위(710)가 64x64 크기일 때, 32x32 크기의 변환 단위(720)를 이용하여 변환이 수행될 수 도 있다.The image encoding apparatus 100 and the image decoding apparatus 200 according to an embodiment of the present invention encode the maximum encoding unit as a unit or encode the maximum encoding unit in units of sub encoding units smaller than or equal to the maximum encoding unit. The size of the conversion unit for the conversion during the encoding process can be selected as the size for the highest compression ratio regardless of the encoding unit and the prediction unit. For example, when the current encoding unit 710 is 64x64, the conversion may be performed using the 32x32 conversion unit 720. [

도 8a 및 8b는 본 발명의 일 실시예에 따른, 부호화 단위, 예측 단위 및 변환 단위의 분할 형태를 도시한다.FIGS. 8A and 8B show a division form of an encoding unit, a prediction unit, and a conversion unit according to an embodiment of the present invention.

도 8a는 본 발명의 일 실시예에 따른 부호화 단위 및 예측 단위를 도시한다. 8A shows an encoding unit and a prediction unit according to an embodiment of the present invention.

도 8a의 좌측은 최대 부호화 단위(810)를 부호화하기 위해 본 발명의 일 실시예에 따른 영상 부호화 장치(100)가 선택한 분할 형태를 도시한다. 영상 부호화 장치(100)는 다양한 형태로 최대 부호화 단위(810)를 분할하고, 부호화한 다음 다양한 분할 형태의 부호화 결과를 R-D 코스트에 기초해 비교하여 최적의 분할 형태를 선택한다. 최대 부호화 단위(810)를 그대로 부호화하는 것이 최적일 경우에는 도 8a 및 8b와 같이 최대 부호화 단위(810)를 분할하지 않고 최대 부호화 단위(800)를 부호화할 수도 있다. The left side of FIG. 8A shows a division type selected by the image encoding apparatus 100 according to an embodiment of the present invention to encode the maximum encoding unit 810. The image encoding apparatus 100 divides the maximum encoding unit 810 into various types, encodes the encoded image, and then selects an optimal division type by comparing the encoding results of various division types based on the R-D cost. When it is optimal to directly encode the maximum encoding unit 810, the maximum encoding unit 800 may be encoded without dividing the maximum encoding unit 810 as shown in FIGS. 8A and 8B.

도 8a의 좌측을 참조하면, 심도 0인 최대 부호화 단위(810)를 심도 1 이상의 서브 부호화 단위로 분할하여 부호화한다. 최대 부호화 단위(810)를 네 개의 심도 1의 서브 부호화 단위로 분할한 다음, 전부 또는 일부의 심도 1의 서브 부호화 단위를 다시 심도 2의 서브 부호화 단위로 분할한다.Referring to the left side of FIG. 8A, a maximum encoding unit 810 having a depth of 0 is divided into sub-encoding units having a depth of 1 or more and encoded. The maximum encoding unit 810 is divided into sub-encoding units of four depths 1, and then all or a part of the sub-encoding units of depth 1 are divided into sub-encoding units of depth 2 again.

심도 1의 서브 부호화 단위 중 우측 상부에 외치한 서브 부호화 단위 및 좌측 하부에 위치한 서브 부호화 단위가 심도 2 이상의 서브 부호화 단위로 분할되었다. 심도 2 이상의 서브 부호화 단위 중 일부는 다시 심도 3 이상의 서브 부호화 단위로 분할될 수 있다.Among the sub-coding units of depth 1, sub-coding units coded at the upper right and sub-coding units located at the lower left are divided into sub-coding units of depth 2 or more. Some of the sub-encoding units having depths of 2 or more may be further divided into sub-encoding units having depths of 3 or more.

도 8b의 우측은 최대 부호화 단위(810)에 대한 예측 단위의 분할 형태를 도시한다. The right side of FIG. 8B shows the division type of the prediction unit for the maximum coding unit 810.

도 8a의 우측을 참조하면, 최대 부호화 단위에 대한 예측 단위(860)는 최대 부호화 단위(810)와 상이하게 분할될 수 있다. 다시 말해, 서브 부호화 단위들 각각에 대한 예측 단위는 서브 부호화 단위보다 작을 수 있다. Referring to the right side of FIG. 8A, the prediction unit 860 for the maximum coding unit can be divided into the maximum coding unit 810 and the prediction unit 860 for the maximum coding unit. In other words, the prediction unit for each of the sub-encoding units may be smaller than the sub-encoding unit.

예를 들어, 심도 1의 서브 부호화 단위 중 우측 하부에 외치한 서브 부호화 단위(854)에 대한 예측 단위는 서브 부호화 단위(854)보다 작을 수 있다. 심도 2의 서브 부호화 단위들(814, 816, 818, 828, 850, 852) 중 일부 서브 부호화 단위(815, 816, 850, 852)에 대한 예측 단위는 서브 부호화 단위보다 작을 수 있다. For example, a prediction unit for a sub-coding unit 854 coded right below the sub-coding unit at depth 1 may be smaller than the sub-coding unit 854. The prediction unit for some of the sub-encoding units 815, 816, 850, and 852 among the sub-encoding units 814, 816, 818, 828, 850, and 852 at the depth 2 may be smaller than the sub-

또한, 심도 3의 서브 부호화 단위(822, 832, 848)에 대한 예측 단위는 서브 부호화 단위보다 작을 수 있다. 예측 단위는 각각의 서브 부호화 단위를 높이 또는 너비 방향으로 반분한 형태일 수도 있고, 높이 및 너비 방향으로 4분한 형태일 수도 있다.In addition, the prediction unit for the sub-coding units 822, 832, and 848 of depth 3 may be smaller than the sub-coding unit. The prediction unit may be a form in which each sub-coding unit is halved in the height or width direction, or may be divided into four in height and width directions.

도 8b는 본 발명의 일 실시예에 따른 예측 단위 및 변환 단위를 도시한다. FIG. 8B shows a prediction unit and a conversion unit according to an embodiment of the present invention.

도 8b의 좌측은 도 8a의 우측에 도시된 최대 부호화 단위(810)에 대한 예측 단위의 분할 형태를 도시하고, 도 8b의 우측은 최대 부호화 단위(810)의 변환 단위의 분할 형태를 도시한다. The left side of FIG. 8B shows the division form of the prediction unit for the maximum coding unit 810 shown on the right side of FIG. 8A, and the right side of FIG. 8B shows the division form of the conversion unit of the maximum coding unit 810.

도 8b의 우측을 참조하면, 변환 단위(870)의 분할 형태는 예측 단위(860)와 상이하게 설정될 수 있다. Referring to the right side of FIG. 8B, the division type of the conversion unit 870 may be set differently from the prediction unit 860. [

예를 들어, 심도 1의 부호화 단위(854)에 대한 예측 단위가 높이를 반분한 형태로 선택되더라도, 변환 단위는 심도 1의 부호화 단위(854)의 크기와 동일한 크기로 선택될 수 있다. 마찬가지로, 심도 2의 부호화 단위(814, 850)에 대한 예측 단위가 심도 2의 부호화 단위(814, 850)의 높이를 반분한 형태로 선택되더라도 변환 단위는 심도 2의 부호화 단위(814, 850)의 원래 크기와 동일한 크기로 선택될 수 있다. For example, even if the prediction unit for the depth 1 encoding unit 854 is selected to be half the height, the conversion unit may be selected to be the same size as the depth unit 854 encoding unit. Likewise, even if the prediction unit for the depth 2 coding units 814 and 850 is selected in such a manner that the height of the depth level 2 coding units 814 and 850 is halved, the level of the level 2 coding units 814 and 850 It can be selected to be the same size as the original size.

예측 단위보다 더 작은 크기로 변환 단위가 선택될 수도 있다. 예를 들어, 심도 2의 부호화 단위(852)에 대한 예측 단위가 너비를 반분한 형태로 선택된 경우에 변환 단위는 예측 단위보다 더 작은 크기인 높이 및 너비를 반분한 형태로 선택될 수 있다.The conversion unit may be selected to be smaller than the prediction unit. For example, if the prediction unit for depth 2 coding unit 852 is chosen to be half the width, the conversion unit may be selected to be half the width and height, which is a smaller size than the prediction unit.

도 9는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 장치를 도시한다. 9 illustrates an apparatus for encoding a motion vector according to an embodiment of the present invention.

도 1의 영상 부호화 장치(100) 또는 도 4의 영상 부호화부(400)에 포함되어 움직임 벡터를 부호화하는 장치가 도 9에 상세히 도시된다. 도 9를 참조하면, 본 발명의 일 실시예에 따른 움직임 벡터 부호화 장치(900)는 움직임벡터추정부(910), 후보결정부(920) 및 움직임벡터부호화부(930)를 포함한다.An apparatus for encoding a motion vector included in the image coding apparatus 100 of FIG. 1 or the image coding unit 400 of FIG. 4 is shown in detail in FIG. Referring to FIG. 9, a motion vector coding apparatus 900 according to an embodiment of the present invention includes a motion vector estimation unit 910, a candidate determination unit 920, and a motion vector coding unit 930.

인터 예측 즉, 시간적 예측을 이용해 부호화된 블록을 복호화하기 위해서는 현재 블록과 참조 픽처 내의 유사한 블록 사이의 상대적인 위치 차이를 나타내는 움직임 벡터에 대한 정보가 필요하다. 따라서, 영상 부호화시에 움직임 벡터에 대한 정보를 부호화하여 비트스트림에 삽입하게 되는데, 움직임 벡터에 대한 정보를 그대로 부호화하여 삽입하면, 움직임 벡터에 대한 정보를 부호화하기 위한 오버헤드(overhead)가 증가하게 되어 영상 데이터의 압축률이 낮아진다.In order to decode a block coded using inter prediction or temporal prediction, information on a motion vector indicating a relative positional difference between a current block and a similar block in a reference picture is needed. Therefore, when the image coding is performed, the information on the motion vector is encoded and inserted into the bitstream. If the information on the motion vector is directly encoded and inserted, an overhead for coding information on the motion vector increases And the compression rate of the video data is lowered.

따라서, 영상 부호화에서는 현재 블록의 움직임 벡터를 예측하고, 예측의 결과로 생성된 예측 움직임 벡터(motion vector predictor)와 원본 움직임 벡터와의 움직임 벡터 차이(motion vector difference)만을 부호화하여 비트스트림에 삽입으로써 움직임 벡터에 대한 정보도 압축한다. Accordingly, in the image coding, only the motion vector difference between the motion vector predictor and the original motion vector generated as a result of the prediction is encoded, and the motion vector difference is inserted into the bitstream. Information about motion vectors is also compressed.

움직임 벡터의 예측 부호화에는 명시 모드(explicit mode) 및 암시 모드(implicit mode)가 있을 수 있다.The predictive coding of the motion vector may include an explicit mode and an implicit mode.

MPEG-4 H.264/MPEG-4 AVC(Advanced Video Coding)와 같은 코덱에서는 현재 블록의 움직임 벡터를 예측하기 위해 현재 블록에 인접한 이전에 부호화된 블록들의 움직임 벡터를 이용한다. 현재 블록에 좌측, 상부 및 우측 상부에 인접한 이전한 부호화된 블록들의 움직임 벡터들의 중앙값(median)을 현재 블록의 예측 움직임 벡터로 이용한다. 인터 예측을 이용해 부호화된 모든 블록의 움직임 벡터가 동일한 방법을 이용해 예측되기 때문에 현재 블록의 예측 움직임 벡터에 대해 정보는 별도로 부호화할 필요가 없다. 그러나, 본원 발명에 따른 영상 부호화 장치(100) 또는 영상 부호화부(400)는 움직임 벡터를 보다 정확하게 예측하기 위해 전술한 예측 움직임 벡터에 대한 정보를 별도로 부호화하지 않는 암시(implicit) 모드 및 예측 움직임 벡터에 대한 정보를 부호화하는 명시 모드를 모두 이용한다. 명시 모드는 복수의 예측 움직임 벡터 후보들 중에서 현재 블록의 예측 움직임 벡터로 이용된 예측 움직임 벡터에 대한 정보를 부호화하여 비트스트림에 시퀀스 파라미터, 슬라이스 파라미터 또는 블록 파라미터로서 삽입하는 모드를 의미한다.In a codec such as MPEG-4 H.264 / MPEG-4 Advanced Video Coding (AVC), a motion vector of a previously coded block adjacent to a current block is used to predict a motion vector of the current block. The median of the motion vectors of the previous coded blocks adjacent to the upper left, upper and right upper portions of the current block is used as the predicted motion vector of the current block. Since motion vectors of all blocks encoded using inter prediction are predicted using the same method, information on the predicted motion vector of the current block need not be separately encoded. However, in order to more accurately predict a motion vector, the image encoding apparatus 100 or the image encoding unit 400 according to the present invention may use an implicit mode in which information on the predictive motion vector is not separately encoded, And the explicit mode in which information on the < RTI ID = 0.0 > The explicit mode refers to a mode in which information on a predictive motion vector used as a predictive motion vector of a current block among a plurality of predictive motion vector candidates is encoded and inserted as a sequence parameter, a slice parameter, or a block parameter in the bitstream.

도 9는 이러한 명시 모드에 따라 움직임 벡터를 부호화할 때, 예측 부호화를 수행하는 장치를 도시한다. FIG. 9 shows an apparatus for performing predictive coding when a motion vector is encoded according to this explicit mode.

움직임벡터추정부(910)는 현재 블록의 움직임 벡터를 추정한다. 현재 블록과 유사 또는 동일한 블록을 적어도 하나의 참조 픽처에서 검색하고, 검색 결과에 기초해 현재 블록과 검색된 참조 블록 사이의 상대적인 위치 차이인 움직임 벡터를 추정한다. SAD(Sum of Absolute Difference)를 계산에 기초해 현재 블록과 유사 또는 동일한 블록을 검색하고, 검색 결과에 기초해 현재 블록의 움직임 벡터를 추정할 수 있다.The motion vector estimator 910 estimates a motion vector of the current block. A block similar to or identical to the current block is searched in at least one reference picture and a motion vector which is a relative position difference between the current block and the searched reference block is estimated based on the search result. A block similar to or identical to the current block is searched based on the calculation of the sum of absolute differences (SAD), and the motion vector of the current block can be estimated based on the search result.

또한, 움직임벡터추정부(910)는 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터에 기초해 현재 블록의 움직임 벡터를 예측한다. 다시 말해, 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터들을 예측 움직임 벡터(motion vector predictor)의 후보들(candidates)로 설정하고, 예측 움직임 벡터의 후보들 중 추정된 현재 블록의 움직임 벡터와 가장 유사한 예측 움직임 벡터 후보를 결정한다. In addition, the motion vector estimator 910 predicts a motion vector of a current block based on motion vectors of blocks included in a previously coded area adjacent to the current block. In other words, the motion vectors of the blocks included in the previously coded area adjacent to the current block are set as candidates of the motion vector predictor, and motion vectors of the current block estimated from among the candidates of the predicted motion vector And determines a predicted motion vector candidate most similar to the predicted motion vector candidate.

MPEG-4 H.264/MPEG-4 AVC(Advanced Video Coding)와 같은 코덱에서는 현재 블록에 좌측, 상부 및 우측 상부에 인접한 이전에 부호화된 블록들의 움직임 벡터들의 중앙값(median)을 현재 블록의 예측 움직임 벡터로 이용한다. 부호화되는 모든 블록들이 이전에 부호화된 블록들의 움직임 벡터를 이용해 예측되고, 하나의 예측 움직임 벡터만 이용하기 때문에 예측 움직임 벡터에 대해 정보는 별도로 부호화할 필요가 없다. 다시 말해, 인터 예측을 이용해 부호화된 블록의 예측 움직임 벡터는 하나이다.In a codec such as MPEG-4 H.264 / MPEG-4 Advanced Video Coding (AVC), a median of motion vectors of previously coded blocks adjacent to the left, top, Vector. All the blocks to be coded are predicted using the motion vectors of previously coded blocks, and since only one predicted motion vector is used, information on the predicted motion vector need not be separately coded. In other words, the predicted motion vector of a block coded using inter prediction is one.

그러나, 현재 블록의 움직임 벡터가 보다 정확하게 예측되면, 움직임 벡터를 보다 높은 압축률로 부호화할 수 있는 바, 이를 위해 본 발명의 일 실시예는 복수의 예측 움직임 벡터의 후보들 중 하나를 선택하여 현재 블록의 예측 움직임 벡터로 이용함으로써, 보다 높은 압축률로 현재 블록의 움직임 벡터를 부호화한다. 이하에서는 복수의 예측 움직임 벡터의 후보들을 이용해 현재 블록의 움직임 벡터를 부호화하는 방법을 보다 상세히 설명한다.However, if the motion vector of the current block is more accurately predicted, the motion vector can be encoded with a higher compression rate. To this end, one embodiment of the present invention selects one of the candidates of the plurality of predicted motion vectors, By using the predicted motion vector as a predicted motion vector, the motion vector of the current block is encoded with a higher compression ratio. Hereinafter, a method of coding a motion vector of a current block using a plurality of predictive motion vector candidates will be described in detail.

도 10a 및 10b는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.10A and 10B illustrate candidates of a predicted motion vector according to an embodiment of the present invention.

도 10a를 참조하면, 본 발명의 일 실시예에 따른 움직임 벡터를 예측 방법은 현재 블록에 인접한 이전에 부호화된 블록들의 움직임 벡터 중 하나를 현재 블록의 예측 움직임 벡터로 이용할 수 있다. 현재 블록의 상부에 인접한 블록들 중 가장 좌측의 a0 블록, 좌측에 인접한 가장 상부의 b0 블록, 우측상부에 인접한 c 블록, 좌측상부에 인접한 d 블록 및 좌측하부에 인접한 e 블록의 움직임 벡터들을 모두 현재 블록의 예측 움직임 벡터의 후보들로 이용할 수 있다.Referring to FIG. 10A, in the method of predicting a motion vector according to an embodiment of the present invention, one of motion vectors of previously coded blocks adjacent to a current block can be used as a predicted motion vector of a current block. The motion vectors of the leftmost a0 block, the uppermost block b0 adjacent to the left, the c block adjacent to the upper right, the d block adjacent to the upper left, and the e block adjacent to the lower left, among the blocks adjacent to the upper portion of the current block, And can be used as candidates of the predicted motion vector of the block.

본 발명에 따른 영상 부호화 방법 및 복호화 방법은 심도에 의해 구분되는 다양한 크기의 부호화 단위를 기초로 영상 부호화 및 복호화를 수행하는 바, 좌측하부에 인접한 e 블록의 움직임 벡터도 예측 움직임 벡터 후보로 이용할 수 있다.The image encoding method and the decoding method according to the present invention perform image encoding and decoding based on coding units of various sizes classified by depth, and a motion vector of an e block adjacent to the lower left is also used as a prediction motion vector candidate. have.

도 8a를 참조하여 설명하면, 현재 블록이 부호화 단위(820)이면, 현재 블록의 상부, 좌측상부, 우측상부, 좌측 및 좌측하부의 부호화 단위들(814, 816, 818 및 822)은 현재 블록 이전에 부호화된다. 따라서, 현재 블록의 좌측하부에 인접한 블록의 움직임 벡터도 예측 움직임 벡터 후보로 이용할 수 있다.8A, when the current block is an encoding unit 820, the upper, left upper, right upper, left and lower left encoding units 814, 816, 818, and 822 of the current block are moved to the current block As shown in FIG. Therefore, a motion vector of a block adjacent to the lower left of the current block can also be used as a predicted motion vector candidate.

도 10b를 참조하면, 현재 블록의 인접한 모든 블록의 움직임 벡터들을 예측 움직임 벡터의 후보들로 이용할 수 있다. 다시 말해, 상부에 인접한 블록들 중 가장 좌측의 a0 블록뿐만 아니라 상부에 인접한 모든 블록들(a0 내지 aN)의 움직임 벡터를 예측 움직임 벡터 후보로 이용할 수 있으며, 좌측에 인접한 불록들 중 가장 상부의 b0 블록뿐만 아니라 좌측에 인접한 모든 블록들(b0 내지 bN)의 움직임 벡터를 예측 움직임 벡터 후보로 이용할 수 있다. Referring to FIG. 10B, motion vectors of all adjacent blocks of the current block may be used as candidates of a predicted motion vector. In other words, not only the leftmost a block of the blocks adjacent to the uppermost block but also the motion vectors of all the blocks ao to aN adjacent to the top of the block ao can be used as the predicted motion vector candidates. The motion vectors of all the blocks b0 to bN adjacent to the left side can be used as the predicted motion vector candidates.

또한, 인접한 블록들의 움직임 벡터의 중앙값을 예측 움직임 벡터 후보로 이용할 수 있다. 다시 말해, median(mv_a0, mv_b0, mv_c)을 현재 블록의 예측 움직임 벡터 후보로 이용할 수 있다. 여기서, mv_a0은 a0 블록의 움직임 벡터이고, mv_b0는 b0 블록의 움직임 벡터이며, mv_c는 c 블록의 움직임 벡터이다. In addition, a median value of motion vectors of adjacent blocks can be used as a predicted motion vector candidate. In other words, median (mv_a0, mv_b0, mv_c) can be used as a predicted motion vector candidate of the current block. Here, mv_a0 is a motion vector of the a0 block, mv_b0 is a motion vector of the b0 block, and mv_c is a motion vector of the c block.

다만, 현재 블록의 크기 및 인접한 블록들의 크기에 따라 현재 블록의 예측 움직임 벡터의 후보들을 제한할 수 있는 바, 도 10c 내지 10e를 참조하여 상세히 설명한다. However, the candidates of the predicted motion vector of the current block can be limited according to the size of the current block and the size of the adjacent blocks, which will be described in detail with reference to FIGS. 10C to 10E.

도 10c 내지 10e는 본 발명의 일 실시예에 따른 현재 블록에 인접한 다양한 크기의 블록들을 도시한다.Figures 10C-10E illustrate blocks of various sizes adjacent to a current block in accordance with an embodiment of the present invention.

전술한 바와 같이 본 발명에 따른 영상 부호화 방법 및 복호화 방법은 심도에 따라 결정되는 다양한 크기의 부호화 단위 및 예측 단위를 이용해 영상을 부호화한다. 따라서, 현재 블록에 인접한 블록들의 크기도 다양할 수 있는 바, 현재 블록의 크기와 일부 인접한 블록들의 크기가 크게 상이하면, 크기가 다른 일부 인접한 블록들의 움직임 벡터는 예측 움직임 벡터 후보로 이용하지 않을 수 있다.As described above, the image encoding method and the decoding method according to the present invention encode an image using various sizes of encoding units and prediction units determined according to the depth. Therefore, if the size of the current block and the size of some neighboring blocks are greatly different from each other, the motion vectors of some neighboring blocks having different sizes may not be used as the predicted motion vector candidates. have.

도 10c를 참조하면, 현재 블록(1010)의 상부에 인접한 블록들(1014 내지 1018)은 현재 블록(1010)의 크기보다 작은 블록들이다. 현재 블록(1010)과 크기가 동일한 크기의 인접한 블록(1012)의 움직임 벡터가 현재 블록(1010)의 움직임 벡터와 동일 또는 유사할 가능성이 높을 수 있으므로, 움직임벡터추정부(910)는 동일한 크기의 인접한 블록(1012)의 움직임 벡터만을 예측 움직임 벡터 후보로 이용할 수 있다.Referring to FIG. 10C, blocks 1014 to 1018 adjacent to the top of the current block 1010 are blocks smaller than the size of the current block 1010. The motion vector of the adjacent block 1012 having the same size as the current block 1010 may be the same as or similar to the motion vector of the current block 1010. Therefore, Only the motion vector of the adjacent block 1012 can be used as a predicted motion vector candidate.

크기가 동일하지 않더라도, 소정 크기 이상의 인접한 블록들의 움직임 벡터들만 예측 움직임 벡터 후보로 이용할 수 있다. 예를 들어, 현재 블록(1010)의 크기와 비교하여 1/4 크기 이상인 블록들(1012 및 1018)의 움직임 벡터들만을 예측 움직임 벡터 후보로 이용할 수 있다.Only the motion vectors of adjacent blocks of a predetermined size or more can be used as the predicted motion vector candidates. For example, only the motion vectors of the blocks 1012 and 1018 having a size equal to or larger than 1/4 of the size of the current block 1010 can be used as the predicted motion vector candidates.

도 10d를 참조하면, 현재 블록(1020)의 좌측에 인접한 블록(1022)의 크기는 현재 블록의 16배로서, 현저한 크기의 차이가 존재한다. 현저한 크기의 차이로 인해 좌측에 인접한 블록(1022)의 움직임 벡터가 현재 블록(1020)의 움직임 벡터와 동일 또는 유사할 가능성이 낮을 수 있다. 따라서, 좌측에 인접한 블록(1022)의 움직임 벡터는 현재 블록(1020)의 예측 움직임 벡터 후보로 이용하지 않고, 상부에 인접한 블록(1024) 및 좌측상부에 인접한 블록(1026)의 움직임 벡터만 예측 움직임 벡터 후보로 이용할 수 있다.Referring to FIG. 10D, the size of the block 1022 adjacent to the left side of the current block 1020 is 16 times that of the current block, and there is a noticeable difference in size. The possibility that the motion vector of the block 1022 adjacent to the left side is the same as or similar to the motion vector of the current block 1020 due to the remarkable difference in size may be low. Therefore, the motion vector of the block 1022 adjacent to the left side is not used as the predicted motion vector candidate of the current block 1020, and only the motion vectors of the block 1024 adjacent to the upper side and the block 1026 adjacent to the upper left side are predicted It is available as a vector candidate.

도 10e를 참조하면, 현재 블록(1030)의 크기가 인접한 모든 블록들(1031 내지 1037)의 크기보다 크다. 이 때, 인접한 모든 블록들(1031 내지 1037)의 움직임 벡터를 모두 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하면, 현재 블록(1030)의 예측 움직임 벡터의 후보들의 개수가 너무 많을 수 있다. 현재 블록(1030)과 인접한 블록들(1031 내지 1037) 사이의 크기 차이가 클수록 예측 움직임 벡터의 후보들의 개수는 더 많아진다. 따라서, 본 발명의 일 실시예에 따른 움직임벡터추정부(910)는 인접한 블록 중 일부 블록의 움직임 벡터는 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하지 않는다. Referring to FIG. 10E, the size of the current block 1030 is larger than the size of all adjacent blocks 1031 to 1037. In this case, if all of the motion vectors of all the adjacent blocks 1031 to 1037 are used as the predicted motion vector candidates of the current block 1030, the number of candidates of the predicted motion vector of the current block 1030 may be too large. The larger the difference in size between the current block 1030 and the adjacent blocks 1031 to 1037, the more the number of candidates of the predicted motion vector becomes. Therefore, the motion vector estimation unit 910 according to the embodiment of the present invention does not use the motion vectors of some of the adjacent blocks as the predicted motion vector candidates of the current block 1030. [

예를 들어, 도 10e에 도시된 실시예에서, 좌측하부에 인접한 블록(1031) 및 우측상부에 인접한 블록(1037)의 움직임 벡터는 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하지 않을 수 있다.For example, in the embodiment shown in FIG. 10E, the motion vectors of the block 1031 adjacent to the lower left and the block 1037 adjacent to the upper right may not be used as the predicted motion vector candidates of the current block 1030 .

이를 보다 일반화하여, 현재 블록(1030)의 크기가 소정 크기 이상이면, 인접한 블록들 중 특정 방향으로 인접한 블록들의 움직임 벡터는 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하지 않을 수 있다.If the size of the current block 1030 is greater than or equal to a predetermined size, motion vectors of adjacent blocks in a specific direction among adjacent blocks may not be used as the predicted motion vector candidates of the current block 1030. [

도 11a 내지 11c는 본 발명의 또 다른 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.Figures 11A through 11C illustrate candidates of a predicted motion vector according to another embodiment of the present invention.

도 11a는 본 발명의 일 실시예에 따른 B 픽처(Bi-directional Predictive Picture)의 예측 움직임 벡터 후보를 결정하는 방법을 도시한다. 현재 블록을 포함하는 현재 픽처가 양방향 예측을 수행하는 B 픽처일 때, 시간적 거리(temporal distance)에 기초해 생성된 움직임 벡터가 예측 움직임 벡터 후보일 수 있다.11A illustrates a method of determining a predicted motion vector candidate of a B-directional Predictive Picture according to an embodiment of the present invention. When the current picture including the current block is a B picture performing bidirectional prediction, a motion vector generated based on a temporal distance may be a predicted motion vector candidate.

현재 픽처(1110)의 현재 블록(1100)의 예측 움직임 벡터 후보(mv_temporal)는 시간적으로 선행하는 픽처(1112)의 동일한 위치(colocated)의 블록(1120)의 움직임 벡터를 이용해 결정될 수 있다. 예를 들어, 현재 블록(1100)과 동일한 위치의 블록(1120)의 움직임 벡터 mv_colA가 현재 픽처(1110)의 시간적으로 후행하는 픽처(1114)의 검색된 블록(1122)에 대해 생성되면, 현재 블록(1100)의 예측 움직임 벡터의 후보들인 mv_L0A 및 mv_L1A 는 다음과 같이 결정될 수 있다. The predicted motion vector candidate mv_temporal of the current block 1100 of the current picture 1110 can be determined using the motion vector of the block 1120 of the same colocated temporal preceding picture 1112. [ For example, if the motion vector mv_colA of the block 1120 in the same position as the current block 1100 is generated for the retrieved block 1122 of the temporally following picture 1114 of the current picture 1110, 1100), mv_L0A and mv_L1A, which are candidates of the predicted motion vector, can be determined as follows.

mv_L1A = (t1/t2) * mv_colAmv_L1A = (t1 / t2) * mv_colA

mv_L0A = mv_L1A - mv_colAmv_L0A = mv_L1A - mv_colA

여기서, mv_L0A는 시간적으로 선행하는 픽처(1112)에 대한 현재 블록(1110)의 예측 움직임 벡터 후보를 의미하고, mv_L1A는 시간적으로 후행하는 픽처(1114)에 대한 현재 블록(1110)의 예측 움직임 벡터 후보를 의미한다.Here, mv_L0A denotes a predicted motion vector candidate of the current block 1110 with respect to the temporally preceding picture 1112, mv_L1A denotes a predicted motion vector candidate of the current block 1110 with respect to the temporally preceding picture 1114, .

도 11a에 도시된 실시예에서는 B 픽처인 현재 픽처(1110)가 시간적으로 선행하는 픽처(1112)와 시간적으로 후행하는 픽처(1114) 사이에 존재한다. 이 때, 동일한 위치의 블록(1120)의 움직임 벡터 mv_colA가 현재 픽처(1110)의 시간적으로 후행하는 픽처(1114)에 대해 생성되면, mv_L1A에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다. 다시 말해, mv_colA가 도 11a에 도시된 방향과 반대 방향의 움직임 벡터인 경우 즉, 시간적으로 선행하는 픽처(1112) 이전의 다른 픽처에 대해 생성된 경우보다 mv_colA가 도 11a에 도시된 방향의 움직임 벡터인 경우에 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.In the embodiment shown in FIG. 11A, the current picture 1110 as a B picture exists between the temporally preceding picture 1112 and the temporally following picture 1114. At this time, when the motion vector mv_colA of the block 1120 in the same position is generated for the temporally following picture 1114 of the current picture 1110, the motion vector of the current block 1100 is predicted more accurately based on mv_L1A . In other words, when mv_colA is a motion vector opposite to the direction shown in Fig. 11A, that is, when mv_colA is generated for another picture preceding the temporally preceding picture 1112, The motion vector of the current block 1100 can be more accurately predicted.

따라서, 현재 블록(1110)으로부터 동일한 위치의 블록(1120)으로의 방향이 List0 방향이라면, 동일한 위치의 블록(1120)의 움직임 벡터 mv_colA는 List1 방향이어야, 도 11a에 도시된 바와 같이 현재 픽처(1110)가 선행하는 픽처(1112)와 후행하는 픽처(1114) 사이에 존재할 가능성이 높아져 mv_colA에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.Therefore, if the direction from the current block 1110 to the block 1120 at the same position is the List0 direction, the motion vector mv_colA of the block 1120 at the same position must be in the direction of List1. Is likely to exist between the preceding picture 1112 and the following picture 1114, so that the motion vector of the current block 1100 can be more accurately predicted based on mv_colA.

또한, 도 11a에 도시된 픽처들(1110 내지 1114)은 시간 순서에 따라 배열되어 있으므로, POC(Picture Order Count)에 기초해 현재 블록의 예측 움직임 벡터 후보(mv_temporal)를 생성할 수 있다. 현재 블록이 참조하는 픽처가 도 11a에 도시된 인접한 픽처들(1112 및 1114)이 아닌 다른 픽처일 수 있으므로, POC에 기초해 현재 블록의 예측 움직임 벡터 후보를 생성한다.In addition, since the pictures 1110 to 1114 shown in FIG. 11A are arranged in time order, a predicted motion vector candidate (mv_temporal) of the current block can be generated based on a POC (Picture Order Count). The predicted motion vector candidate of the current block is generated based on the POC because the picture to which the current block refers may be a picture other than the neighboring pictures 1112 and 1114 shown in FIG. 11A.

예를 들어, 현재 픽처의 POC를 CurrPOC이고, 현재 픽처가 참조하는 픽처의 POC를 CurrRefPOC이라면, 현재 블록의 예측 움직임 벡터 후보는 다음과 같이 생성될 수 있다. For example, if the POC of the current picture is CurrPOC and the POC of the picture referred to by the current picture is CurrRefPOC, the predicted motion vector candidate of the current block can be generated as follows.

Scale = (CurrPOC-CurrRefPOC)/(ColPOC-ColRefPOC)Scale = (CurrPOC-CurrRefPOC) / (ColPOC-ColRefPOC)

mv_temporal = Scale*mv_colAmv_temporal = Scale * mv_colA

여기서 ColPOC는 동일한 위치의 블록(1120)이 포함되어 있는 시간적으로 선행하는 픽처(1112)의 POC이며, ColRefPOC는 동일한 위치의 블록(1120)이 참조하는 블록(1122)이 포함되어 있는 시간적으로 후행하는 픽처(1114)의 POC이다.Where ColPOC is the POC of the temporally preceding picture 1112 that contains the block 1120 of the same position and ColRefPOC is the temporal distance of the block 1122 containing the block 1122 referenced by the block 1120 of the same position POC of the picture 1114.

도 11b는 본 발명의 또 다른 실시예에 따른 B 픽처(Bi-directional Predictive Picture)의 예측 움직임 벡터 후보를 생성하는 방법을 도시한다. 도 11a에 도시된 방법과 비교해보면, 시간적으로 후행하는 픽처(1114)에 현재 블록(1100)과 동일한 위치의 블록이 존재한다는 점이 상이하다.FIG. 11B shows a method of generating a predictive motion vector candidate of a B-directional predictive picture according to another embodiment of the present invention. Compared with the method shown in Fig. 11A, there is a difference in that a temporally following picture 1114 has a block at the same position as the current block 1100. Fig.

도 11b를 참조하면, 현재 픽처(1110)의 현재 블록(1100)의 예측 움직임 벡터 후보는 시간적으로 후행하는 픽처(1114)의 동일한 위치(colocated)의 블록(1130)의 움직임 벡터를 이용해 생성될 수 있다. 예를 들어, 현재 블록(1100)과 동일한 위치의 블록(1130)의 움직임 벡터 mv_colB가 현재 픽처(1110)의 시간적으로 선행하는 픽처(1112)의 검색된 블록(1132)에 대해 생성되면, 현재 블록(1100)의 예측 움직임 벡터의 후보들인 mv_L0B 및 mv_L1B 는 다음과 같이 생성될 수 있다. 11B, the predicted motion vector candidate of the current block 1100 of the current picture 1110 may be generated using the motion vector of the block 1130 of the same position (colocated) of the temporally following picture 1114 have. For example, if the motion vector mv_colB of the block 1130 in the same position as the current block 1100 is generated for the retrieved block 1132 of the temporally preceding picture 1112 of the current picture 1110, 1100), mv_L0B and mv_L1B, which are candidates of the predicted motion vector, can be generated as follows.

mv_L0B = (t3/t4) * mv_colBmv_L0B = (t3 / t4) * mv_colB

mv_L1B = mv_L0B - mv_colBmv_L1B = mv_L0B - mv_colB

여기서, mv_L0B는 시간적으로 선행하는 픽처(1112)에 대한 현재 블록(1110)의 예측 움직임 벡터를 의미하고, mv_L1B는 시간적으로 후행하는 픽처(1114)에 대한 현재 블록(1100)의 예측 움직임 벡터 후보를 의미한다.Mv_L0B denotes a predicted motion vector of the current block 1110 with respect to the temporally preceding picture 1112 and mv_L1B denotes a predicted motion vector candidate of the current block 1100 with respect to the temporally preceding picture 1114 it means.

도 11a와 마찬가지로 도 11b에 도시된 실시예에서도 B 픽처인 현재 픽처(1110)가 시간적으로 선행하는 픽처(1112)와 시간적으로 후행하는 픽처(1114) 사이에 존재한다. 따라서, 동일한 위치의 블록(1130)의 움직임 벡터 mv_colB가 시간적으로 선행하는 픽처(1112)에 대해 생성되면, mv_L0B에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다. 다시 말해, mv_colB가 도 11b에 도시된 방향과 반대 방향의 움직임 벡터인 경우 즉, 시간적으로 후행하는 픽처(1114) 이후의 다른 픽처에 대해 생성된 경우보다 mv_colB가 도 11b에 도시된 방향의 움직임 벡터인 경우 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.11A, the current picture 1110, which is a B picture, exists between the temporally preceding picture 1112 and the temporally following picture 1114 in the embodiment shown in FIG. 11B. Therefore, when the motion vector mv_colB of the block 1130 at the same position is generated for the temporally preceding picture 1112, the motion vector of the current block 1100 can be more accurately predicted based on mv_L0B. In other words, when mv_colB is a motion vector opposite to the direction shown in FIG. 11B, that is, when mv_colB is generated for another picture after the temporally following picture 1114, The motion vector of the current block 1100 can be more accurately predicted.

따라서, 현재 블록(1110)으로부터 동일한 위치의 블록(1130)으로의 방향이 List1 방향이라면, 동일한 위치의 블록(1130)의 움직임 벡터 mv_colB는 List0 방향이어야, 도 11b에 도시된 바와 같이 현재 픽처(1110)가 선행하는 픽처(1112)와 후행하는 픽처(1114) 사이에 존재할 가능성이 높아져 mv_colB에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.Therefore, if the direction from the current block 1110 to the block 1130 at the same position is the List 1 direction, the motion vector mv_colB of the block 1130 at the same position must be in the direction of List 0, Is more likely to exist between the preceding picture 1112 and the following picture 1114, it is possible to more accurately predict the motion vector of the current block 1100 based on mv_colB.

또한, 현재 블록이 참조하는 픽처가 도 11b에 도시된 인접한 픽처들(1112 및 1114)이 아닌 다른 픽처일 수 있으므로, POC에 기초해 현재 블록의 예측 움직임 벡터 후보를 생성한다.In addition, since the picture to which the current block refers may be a picture other than the neighboring pictures 1112 and 1114 shown in FIG. 11B, a predicted motion vector candidate of the current block is generated based on the POC.

예를 들어, 현재 픽처의 POC를 CurrPOC이고, 현재 픽처가 참조하는 픽처의 POC를 CurrRefPOC이라면, 현재 블록이 예측 움직임 벡터 후보는 다음과 같이 생성될 수 있다. For example, if the POC of the current picture is CurrPOC and the POC of the picture referred to by the current picture is CurrRefPOC, the predicted motion vector candidate of the current block can be generated as follows.

Scale = (CurrPOC-CurrRefPOC)/(ColPOC-ColRefPOC)Scale = (CurrPOC-CurrRefPOC) / (ColPOC-ColRefPOC)

mv_temporal = Scale*mv_colBmv_temporal = Scale * mv_colB

여기서 ColPOC는 동일한 위치의 블록(1130)이 포함되어 있는 시간적으로 후행하는 픽처(1114)의 POC이며, ColRefPOC는 동일한 위치의 블록(1130)이 참조하는 블록(1132)이 포함되어 있는 시간적으로 선행하는 픽처(1112)의 POC이다.Where ColPOC is the POC of the temporally trailing picture 1114 that contains the block 1130 of the same position and ColRefPOC is the temporal precedence of the block 1132 containing the block 1132 referenced by the block 1130 of the same position POC of the picture 1112.

도 11c는 본 발명의 일 실시예에 따른 P 픽처(Predictive Picture)의 예측 움직임 벡터 후보를 도시한다.FIG. 11C shows a predicted motion vector candidate of a P-picture (Predictive Picture) according to an embodiment of the present invention.

도 11c를 참조하면, 현재 픽처(1110)의 현재 블록(1100)의 예측 움직임 벡터 후보는 시간적으로 선행하는 픽처(1112)의 동일한 위치(colocated)의 블록(1140)의 움직임 벡터를 이용해 결정될 수 있다. 예를 들어, 현재 블록(1100)과 동일한 위치의 블록(1140)의 움직임 벡터 mv_colC가 또 다른 시간적으로 선행하는 픽처(1116)의 검색된 블록(1142)에 대해 생성되면, 현재 블록(1100)의 예측 움직임 벡터 후보인 mv_L0C는 다음과 같이 결정될 수 있다.11C, the predicted motion vector candidate of the current block 1100 of the current picture 1110 may be determined using the motion vector of the block 1140 of the same colocated temporal preceding picture 1112 . For example, if the motion vector mv_colC of the block 1140 in the same position as the current block 1100 is generated for the retrieved block 1142 of another temporally preceding picture 1116, the prediction of the current block 1100 Mv_L0C, which is a motion vector candidate, can be determined as follows.

mv_L0C = (t6/t5) * mv_colCmv_L0C = (t6 / t5) * mv_colC

도 11a 및 11b와 관련하여 전술한 바와 같이 POC에 기초해 mv_L0C를 결정할 수도 있다. 현재 픽처(1110)의 POC, 현재 픽처(1110)가 참조하는 픽처의 POC, 시간적으로 선행하는 픽처(1112)의 POC 및 또 다른 시간적으로 선행하는 픽처(1116)의 POC에 기초해 mv_L0C를 결정할 수 있다. Mv_L0C may be determined based on the POC as described above with respect to Figures 11A and 11B. It is possible to determine mv_L0C based on the POC of the current picture 1110, the POC of the picture referred to by the current picture 1110, the POC of the temporally preceding picture 1112 and the POC of another temporally preceding picture 1116 have.

현재 픽처(1110)가 P 픽처이므로, 현재 블록(1100)의 예측 움직임 벡터 후보는 도 11a 및 11b와 달리 하나만 결정된다. Since the current picture 1110 is a P-picture, only one candidate of the predicted motion vector of the current block 1100 is determined, unlike Figs. 11A and 11B.

또한, 도 11a 및 11b에서 시간적 거리에 기초해 생성된 예측 움직임 벡터 후보를 현재 블록의 움직임 벡터를 예측하는데 이용하기 위해서는 동일한 위치의 블록들(1120 및 1130) 중 어떤 블록을 이용해 예측 움직임 벡터 후보를 생성하는지 나타내는 정보가 함께 부호화되어야 하는 바, 이 정보는 슬라이스 파라미터 또는 시퀀스 파라미터로서 슬라이스 헤더 또는 시퀀스 헤더에 포함될 수 있다.11A and 11B, in order to use the predicted motion vector candidate generated based on the temporal distance to predict the motion vector of the current block, a predicted motion vector candidate is selected using any one of the blocks 1120 and 1130 in the same position Information to be generated must be coded together, and this information may be included in a slice header or a sequence header as a slice parameter or a sequence parameter.

종합하면, 도 10a 및 10b, 도 11a 내지 11c에 따라 다음과 같이 예측 움직임 벡터의 후보들의 집합 C는 다음과 같을 수 있다.In summary, according to FIGS. 10A and 10B and FIGS. 11A to 11C, the set C of the candidates of the predicted motion vector may be as follows.

C = {median(mv_a0, mv_b0, mv_c), mv_a0, mv_a1 ..., mv_aN, mv_b0, mv_b1, ... , mv_bN, mv_c, mv_d, mv_e, mv_temporal} Mv_b0, mv_b1, ..., mv_bN, mv_c, mv_d, mv_e, mv_temporal}, mv_a0, mv_a1,

또는, 집합 C는 예측 움직임 벡터의 후보들의 개수를 줄인 집합일 수 있다.Alternatively, the set C may be a set that reduces the number of candidates of the predicted motion vector.

C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal}C = {median (mv_a ', mv_b', mv_c '), mv_a', mv_b ', mv_c', mv_temporal}

여기서, mv_x는 x 블록의 움직임 벡터를 의미하고, median()은 중앙값을 의미하며, mv_temporal은 도 11a 내지 11c와 관련하여 전술한 시간적 거리를 이용해 생성된 예측 움직임 벡터 후보들을 의미한다. mv_a'은 mv_a0, mv_a1, ... , mv_aN 중 유효한 최초의 움직임 벡터를 의미한다. 예를 들어, a0 블록이 인트라 예측을 이용해 부호화되었거나, 현재 블록과 다른 픽처를 참조하면, a0의 움직임 벡터인 mv_a0은 유효하지 않으므로, mv_a'=mv_a1이 되며, a1 블록의 움직임 벡터도 유효하지 않은 경우에는 mv_a'=mv_a2이다. 마찬가지로, mv_b'은 mv_b0, mv_b1, ... , mv_bN 중 유효한 최초의 움직임 벡터를 의미하고, mv_c'은 mv_c, mv_d, mv_e 중 유효한 최초의 움직임 벡터를 의미한다.Here, mv_x denotes a motion vector of x block, median () denotes a median value, and mv_temporal denotes predicted motion vector candidates generated using the temporal distance described above with reference to Figs. 11A to 11C. mv_a 'denotes a first motion vector valid among mv_a0, mv_a1, ..., mv_aN. For example, if the a0 block is coded using intraprediction or a different picture from the current block is referenced, mv_a0, which is a motion vector of a0, is not valid, so mv_a '= mv_a1, and a1 block motion vector is also invalid In the case of mv_a '= mv_a2. Likewise, mv_b 'denotes the first motion vector valid among mv_b0, mv_b1, ..., mv_bN, and mv_c' denotes the first motion vector valid among mv_c, mv_d, and mv_e.

현재 블록에 인접한 블록들의 움직임 벡터들 중 현재 블록과 다른 픽처를 참조하는 블록의 움직임 벡터는 현재 블록의 움직임 벡터를 효율적으로 예측할 수 없다. 따라서, 예측 움직임 벡터 후보들의 집합 C에서 현재 블록과 다른 픽처를 참조하는 블록의 움직임 벡터를 제외할 수 있다.A motion vector of a block that refers to a picture different from the current block among the motion vectors of blocks adjacent to the current block can not efficiently predict a motion vector of the current block. Therefore, the motion vector of a block that refers to a different picture from the current block in the set C of predicted motion vector candidates can be excluded.

움직임 벡터 부호화 장치(900)가 명시 모드에 따라 움직임 벡터를 부호화할 때에는 C 집합 중 어떤 예측 움직임 벡터 후보를 현재 블록의 움직임 벡터를 예측하는데 이용했는지 지시하는(signalling) 정보도 함께 부호화한다. 다시 말해, 움직임 벡터 부호화 장치(900)가 움직임 벡터를 부호화할 때, C 집합의 원소 즉 예측 움직임 벡터의 후보들에 각각에 대응되는 이진수를 할당하고, 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보에 대응되는 이진수도 함께 부호화한다.When the motion vector coding apparatus 900 codes a motion vector according to the explicit mode, information indicating which prediction motion vector candidate in the C set is used for predicting the motion vector of the current block is also encoded. In other words, when the motion vector coding apparatus 900 encodes a motion vector, a binary number corresponding to each of the candidates of the C set, that is, the prediction motion vector, is allocated, and a prediction motion The binary number corresponding to the vector candidate is also encoded.

C 집합의 원소 중 하나를 특정하기 위해 각각의 예측 움직임 벡터 후보에 대응되는 이진수를 할당하고, 이진수를 출력하기 때문에 C 집합의 원소의 개수가 적을수록 더 적은 비트의 이진수로 C 집합의 원소를 특정할 수 있다. In order to specify one of the elements of the set C, a binary number corresponding to each of the predicted motion vector candidates is allocated and a binary number is output. Therefore, the smaller the number of elements of the C set, the smaller the number of elements of the C set can do.

따라서, C 집합에서 중복되는 예측 움직임 벡터 후보가 있으면, 중복되는 예측 움직임 벡터 후보는 C 집합에서 제외하고, 이진수를 할당할 수 있다. 예를 들어, C 집합이 전술한 바와 같이 C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal} 일 때, mv_a', mv_b' 및 mv_c'가 모두 동일하다면, C 집합을 C = { mv_a', mv_temporal}와 같이 두 개의 원소로 결정하고, 이진수를 할당할 수 있다. 중복되는 예측 움직임 벡터 후보를 제외하기 전에 C 집합의 5개의 원소들을 3 비트를 이용해 특정할 수 있다면, 중복되는 예측 움직임 벡터 후보를 제외한 후에는 2개의 원소들을 1 비트를 이용해 특정할 수 있다.Therefore, if there are overlapping predicted motion vector candidates in the C set, the redundant predicted motion vector candidates can be excluded from the C set and assigned a binary number. For example, when C set is C = {median (mv_a ', mv_b', mv_c '), mv_a', mv_b ', mv_c', mv_temporal}, mv_a ', mv_b' and mv_c ' If they are the same, the C set can be determined as two elements, such as C = {mv_a ', mv_temporal}, and binary numbers can be assigned. If the 5 elements of the C set can be specified using 3 bits before excluding the redundant predicted motion vector candidates, after excluding the redundant predicted motion vector candidates, two elements can be specified by using one bit.

중복되는 예측 움직임 벡터 후보를 제외하는 대신 중복되는 예측 움직임 벡터 후보가 현재 블록의 예측 움직임 벡터로 결정될 확률을 높이기 위해 소정의 가중치(weight)를 부가할 수도 있다. 전술한 예에서 mv_a', mv_b' 및 mv_c'가 모두 동일하여 mv_a'만 C 집합에 포함되어 있으므로, mv_a'에 소정의 가중치를 부가하여 mv_a'가 현재 블록의 움직임 벡터를 예측하는데 이용될 확률을 높일 수 있다.Instead of excluding overlapping predicted motion vector candidates, a predetermined weight may be added to increase the probability that the redundant predicted motion vector candidate is determined as the predicted motion vector of the current block. Since mv_a ', mv_b' and mv_c 'are all the same in the above example, only mv_a' is included in the C set, a predetermined weight is added to mv_a 'so that the probability that mv_a' is used to predict the motion vector of the current block is .

또한, 예측 움직임 벡터 후보가 하나인 경우에는 예측 움직임 벡터의 후보들 중에서 하나를 특정하기 위한 이진수를 부호화하지 않을 수도 있다. 예를 들어, C 집합이 C = {median(mv_a0, mv_b0, mv_c), mv_a0, mv_a1 ..., mv_aN, mv_b0, mv_b1, ... , mv_bN, mv_c, mv_d, mv_e, mv_temporal} 인데, a0 내지 aN 블록, b0 내지 bN 블록, c 블록, d 블록, e 블록이 모두 인트라 예측된 블록들이면, C 집합은 C = {mv_temporal} 이므로, 실질적으로 하나의 원소 밖에 포함하지 않는다. 따라서, 이 경우에 움직임 벡터 부호화 장치(900)는 예측 움직임 벡터 후보 중 하나를 특정하기 위한 이진수를 부호화하지 않을 수도 있다. If there is one prediction motion vector candidate, it is also possible not to encode a binary number for specifying one of the candidates of the prediction motion vector. For example, the C set is C = {median (mv_a0, mv_b0, mv_c), mv_a0, mv_a1 ... mv_aN, mv_b0, mv_b1, ..., mv_bN, mv_c, mv_d, mv_e, mv_temporal} If the aN block, the b0 to bN block, the c block, the d block, and the e block are all intraprediction blocks, then the C set is C = {mv_temporal}, so that it contains substantially only one element. Therefore, in this case, the motion vector coding apparatus 900 may not encode a binary number for specifying one of the predicted motion vector candidates.

전술한 모든 예측 움직임 벡터의 후보들 이외에 다른 움직임 벡터가 예측 움직임 벡터의 후보들로 이용될 수 있음은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 이해할 수 있다.It will be appreciated by those skilled in the art that other motion vectors than all the predicted motion vector candidates may be used as candidates for the predicted motion vector.

또한, 본 발명의 또 다른 실시예에 따르면, 후보결정부(920)는 예측 움직임 벡터의 후보들의 개수를 줄일 수 있다.According to another embodiment of the present invention, the candidate determining unit 920 may reduce the number of candidates of the predicted motion vector.

전술한 바와 같이, 복수의 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위해서 별도의 정보가 부호화되어 비트스트림에 포함된다. 따라서, C 집합의 원소의 개수가 적을수록 C 집합에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위해 필요한 정보가 적은 비트로 부호화될 수 있다. 이를 위해 후보결정부(920)는 소정의 평가 함수를 이용해 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다. 도 12를 참조하여 상세히 설명한다.As described above, in order to specify a predicted motion vector candidate used for predicting the motion vector of the current block among the candidates of the plurality of predicted motion vectors, additional information is encoded and included in the bitstream. Accordingly, as the number of elements of the C set is smaller, the information required for specifying the predicted motion vector candidates used for predicting the motion vector of the current block in the C set can be encoded with fewer bits. For this, the candidate determining unit 920 may selectively exclude a predetermined predicted motion vector candidate from all candidates of the predicted motion vector using a predetermined evaluation function. Will be described in detail with reference to FIG.

도 12는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 줄이는 방법을 도시한다.FIG. 12 illustrates a method of reducing candidates of a predicted motion vector according to an embodiment of the present invention.

도 12에서는 C 집합의 원소의 개수가 세 개로서, MVP1, MVP2 및 MVP3이 C 집합의 원소들이고, 현재 블록의 움직임 벡터가 MV인 경우를 가정한다. 현재 블록의 움직임 벡터와 가장 유사한 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용되므로, MV와 가장 유사한 MVP3이 현재 블록의 움직임 벡터를 예측하는데 이용된다.12, it is assumed that MVP1, MVP2 and MVP3 are elements of the C set, and the motion vector of the current block is MV. Since the predicted motion vector candidate most similar to the motion vector of the current block is used to predict the motion vector of the current block, MVP3, which is most similar to MV, is used to predict the motion vector of the current block.

따라서, 움직임 벡터 부호화 장치(900)에서 움직임 벡터에 대한 정보로서 부호화되는 현재 블록의 움직임 벡터와 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보 사이의 차이 벡터(이하 '실제 움직임 벡터 차이'(motion vector difference)라 한다.)는 (2,0)이다. MV가 (5,0)이고, MVP3이 (3,0)이므로, 실제 움직임 벡터 차이는 (2,0)이다.Accordingly, the difference vector between the motion vector of the current block, which is encoded as information on the motion vector in the motion vector coding apparatus 900, and the predicted motion vector candidate used to predict the motion vector of the current block (hereinafter, (motion vector difference) is (2, 0). Since MV is (5, 0) and MVP3 is (3, 0), the actual motion vector difference is (2, 0).

후보 결정부(920)는 이러한 실제 움직임 벡터 차이 및 소정의 평가 함수를 이용해 예측 움직임 벡터의 전체 후보들 중 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외한다. 보다 상세히는, 실제 움직임 벡터 차이와 소정의 예측 움직임 벡터 후보를 이용해 가상의 움직임 벡터를 생성하고, 생성된 가상의 움직임 벡터와 전체 후보들 사이의 움직임 벡터 차이들(이하 '가상의 움직임 벡터 차이들')을 전체 후보들 대해 생성한다. 실제 움직임 벡터 차이와 소정의 예측 움직임 벡터 후보를 가산하여 가상의 움직임 벡터를 생성하고, 생성된 가상의 움직임 벡터와 전체 후보들 사이의 움직임 벡터 차이를 계산한다. 실제 움직임 벡터 차이와 전체 후보들 각각에 대해 계산된 가상의 움직임 벡터 차이를 비교함으로써, 소정의 예측 움직임 벡터 후보를 예측 움직임 벡터의 전체 후보들에서 선택적으로 제외할 수 있다.The candidate determining unit 920 selectively excludes at least one predicted motion vector candidate among all candidates of the predicted motion vector using the actual motion vector difference and the predetermined evaluation function. More specifically, a virtual motion vector is generated using an actual motion vector difference and a predetermined predicted motion vector candidate, motion vector differences between the generated virtual motion vector and all candidates (hereinafter referred to as 'virtual motion vector differences' ) For all candidates. A virtual motion vector is generated by adding an actual motion vector difference and a predetermined predicted motion vector candidate, and a difference between a generated virtual motion vector and a motion vector between all candidates is calculated. It is possible to selectively exclude a predetermined predicted motion vector candidate from all candidates of the predicted motion vector by comparing the actual motion vector difference and the calculated virtual motion vector difference with respect to all of the candidates.

도 12를 참조하여 상세히 설명하면, 먼저 후보 결정부(920)는 예측 움직임 벡터 후보 중 하나인 MVP1을 전체 후보들에서 제외할지 판단한다. 12, the candidate determining unit 920 determines whether MVP1, which is one of the predicted motion vector candidates, is excluded from all candidates.

MVP1에 기초한 가상의 움직임 벡터와 다른 예측 움직임 벡터 후보를 감산하여 생성된 가상의 움직임 벡터 차이가 실제 움직임 벡터 차이보다 작다면, MVP1은 현재 블록의 움직임 벡터를 예측하는데 이용될 수 없다. 예를 들어, MVP1와 실제 움직임 벡터 차이를 가산하여 생성된 가상의 움직임 벡터에서 MVP3을 감산하여 생성된 가상의 움직임 벡터 차이가 실제 움직임 벡터 차이보다 작다면, MVP3이 MVP1보다 더 정확하게 가상의 움직임 벡터를 예측한 것이고, 이 경우 MVP1은 예측 움직임 벡터가 될 수 없는 것이 명백하기 때문이다.MVP1 can not be used to predict the motion vector of the current block if the difference between the virtual motion vector generated by subtracting the MVP1-based virtual motion vector and another predicted motion vector candidate is smaller than the actual motion vector difference. For example, if a virtual motion vector difference generated by subtracting MVP3 from a virtual motion vector generated by adding MVP1 and an actual motion vector difference is smaller than an actual motion vector difference, then MVP3 is more accurate than MVP1, And in this case, it is apparent that MVP1 can not be a predicted motion vector.

도 12에서 MVP1과 실제 움직임 벡터 차이를 가산하면, MVP1에 기초한 가상의 움직임 벡터는 (2,0)이다. 따라서, MVP1에 기초해 가상의 움직임 벡터를 생성하였을 때, MVP2에 대한 가상의 움직임 벡터 차이는 (2,0)이고, MVP3에 대한 가상의 움직임 벡터 차이는 (-1,0)이다. 이 때, MVP3에 대한 가상의 움직임 벡터 차이인 (-1,0)의 크기는 실제 움직임 벡터 차이의 크기인 (2,0)보다 작으므로, MVP1은 현재 블록의 예측 움직임 벡터가 될 수 없다. 따라서, MVP1을 예측 움직임 벡터의 전체 후보에서 제외할 수 있다. 다시 말해, 전술한 C 집합에서 MVP1에 대응되는 예측 움직임 벡터 후보는 제외할 있다. In Fig. 12, when MVP1 and the actual motion vector difference are added, the virtual motion vector based on MVP1 is (2, 0). Therefore, when a virtual motion vector is generated based on MVP1, the virtual motion vector difference for MVP2 is (2,0), and the virtual motion vector difference for MVP3 is (-1,0). In this case, MVP1 can not be a predicted motion vector of the current block because the magnitude of (-1,0), which is a virtual motion vector difference for MVP3, is smaller than (2,0), which is the magnitude of the actual motion vector difference. Therefore, MVP1 can be excluded from all candidates of the predicted motion vector. In other words, the predicted motion vector candidate corresponding to MVP1 in the above-described C set can be excluded.

이때, MVP1 자신에 대해 계산된 가상의 움직임 벡터 차이는 (2,0)이고, 이는 실제 움직임 벡터 차이와 항상 동일하므로, 실제 움직임 벡터의 크기보다 작을 수 없다. 따라서, 예측 움직임 벡터의 전체 후보들 각각에 대해 가상의 움직임 벡터 차이를 계산할 때, MVP1 자신에 대한 가상의 움직임 벡터 차이는 계산하지 않을 수 있다.In this case, the virtual motion vector difference calculated for MVP1 itself is (2, 0), which is always equal to the actual motion vector difference, and thus can not be smaller than the actual motion vector size. Therefore, when calculating the virtual motion vector difference for each of all candidates of the predicted motion vector, the virtual motion vector difference for MVP1 itself may not be calculated.

MVP1을 제외 여부가 판단 완료되면, 후보결정부(920)는 MVP2를 예측 움직임 벡터의 전체 후보들에서 제외할지 판단한다. MVP2를 실제 움직임 벡터 차이와 가산하면, MVP2에 기초한 가상의 움직임 벡터는 (2,0)이다. 따라서, MVP1에 대한 가상의 움직임 벡터 차이는 (2,0)이고, MVP3에 대한 가상의 움직임 벡터 차이는 (-1,0)이다. MVP3에 대한 가상의 움직임 벡터 차이의 크기가 실제 움직임 벡터 차이의 크기보다 작으므로, MVP1과 마찬가지로 MVP2도 예측 움직임 벡터의 전체 후보들에서 제거할 수 있다. MVP2의 제외 여부를 판단할 때, MVP1에 대한 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교는 선택적이다. MVP1은 이미 현재 블록의 예측 움직임 벡터가 아닌 것이 명백한 것으로 판단되었으므로, MVP1을 제외한 나머지 후보들 각각에 대한 가상의 움직임 벡터 차이를 실제 움직임 벡터 차이와 비교할 수 있다.When it is determined that MVP1 is excluded, the candidate determining unit 920 determines whether to exclude MVP2 from all candidates of the predicted motion vector. When MVP2 is added to the actual motion vector difference, the virtual motion vector based on MVP2 is (2, 0). Thus, the virtual motion vector difference for MVP1 is (2,0) and the virtual motion vector difference for MVP3 is (-1,0). Since the magnitude of the virtual motion vector difference for MVP3 is smaller than the magnitude of the actual motion vector difference, MVP2, like MVP1, can be removed from all candidates of the predicted motion vector. When determining whether to exclude MVP2, a comparison between the virtual motion vector difference and the actual motion vector difference for MVP1 is optional. It is determined that MVP1 is not a predicted motion vector of the current block. Therefore, it is possible to compare a virtual motion vector difference for each of the remaining candidates except MVP1 with an actual motion vector difference.

또한, 후보결정부(920)는 MVP3에 대해서도 제외 여부를 판단한다. MVP3에 기초한 가상의 움직임 벡터는 실제 움직임 벡터와 동일하고, 실제 움직임 벡터에서 다른 예측 움직임 벡터 후보(즉, MVP1 또는 MVP2)를 감산하더라도, 실제 움직임 벡터 차이의 크기보다 작은 가상의 움직임 벡터 차이가 발생할 수 없으므로, MVP3는 예측 움직임 벡터의 전체 후보에서 제외되지 않는다. 또한, 본 발명의 또 다른 실시예에 따르면, 현재 블록의 움직임 벡터를 예측하는데 이용되는 것으로 결정된 MVP3는 예측 움직임 벡터의 전체 후보들에서 제외되지 않는 것이 명백하므로, 후보결정부(920)는 현재 블록의 움직임 벡터를 예측하는데 이용되는 것으로 결정된 예측 움직임 벡터 후보에 대해서는 제외 여부를 스킵(skip)할 수 있다.Further, the candidate determining unit 920 determines whether the MVP3 is also excluded. A virtual motion vector based on MVP3 is equal to the actual motion vector and even if subtracting another predicted motion vector candidate (i.e., MVP1 or MVP2) from the actual motion vector, a virtual motion vector difference smaller than the magnitude of the actual motion vector difference MVP3 is not excluded from all candidates of the predicted motion vector. According to another embodiment of the present invention, it is apparent that MVP3 determined to be used for predicting the motion vector of the current block is not excluded from all candidates of the predicted motion vector. It is possible to skip the excluded motion vector candidates determined to be used for predicting the motion vector.

요컨대, 후보결정부(920)는 예측 움직임 벡터의 전체 후보들 중 하나인 제2 예측 움직임 벡터의 제외 여부를 결정하는 바, 제2 예측 움직임 벡터와 실제 움직임 벡터 차이를 가산하여 가상의 움직임 벡터를 생성하고, 가상의 움직임 벡터와 다른 예측 움직임 벡터의 차이 벡터를 전체 후보들 각각에 대해 계산하여, 복수의 가상의 움직임 벡터 차이를 생성한다. 복수의 가상의 움직임 벡터 차이 중 실제 움직임 벡터 차이보다 크기가 작은 가상의 움직임 벡터 차이가 적어도 하나 존재한다면, 제2 예측 움직임 벡터는 현재 블록의 예측 움직임 벡터가 아님이 명백하므로, 예측 움직임 벡터의 전체 후보들에서 제외한다. That is, the candidate determining unit 920 determines whether or not to exclude the second predicted motion vector, which is one of all candidates of the predicted motion vector, and generates a virtual motion vector by adding the second predicted motion vector and the actual motion vector difference And calculates a difference vector between a virtual motion vector and another predicted motion vector for each of all the candidates to generate a plurality of virtual motion vector differences. If there is at least one virtual motion vector difference that is smaller than the actual motion vector difference among the plurality of virtual motion vector differences, it is apparent that the second predicted motion vector is not the predicted motion vector of the current block. Exclude candidates.

또한, 후보결정부(920)는 이러한 제외 여부에 대한 판단을 예측 움직임 벡터의 전체 후보들 각각에 대해 반복함으로써, 예측 움직임 벡터의 후보들의 전체 개수, 즉, C 집합의 원소의 개수를 줄일 수 있다. C 집합의 전체 예측 움직임 벡터의 후보들의 정렬 순서에 따라 순서대로 제외 여부를 판단한다. 예를 들어, C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal}일 때, median(mv_a’, mv_b’, mv_’)의 제외 여부를 판단하고, 판단이 끝나면, mv_a'의 제외 여부를 판단한다. 그런 다음, mv_b’의 제외 여부를 판단한다. C 집합의 정렬 순서에 따라 mv_temporal까지 제외 여부 판단을 반복한다. In addition, the candidate determining unit 920 can reduce the total number of candidates of the predicted motion vector, i.e., the number of elements of the C set, by repeating the determination on the excluded or not for each of all the candidates of the predicted motion vector. It is determined whether or not to exclude in order according to the sorting order of the candidates of the total set of predicted motion vectors in the C set. For example, when median (mv_a ', mv_b', mv_c '), mv_a', mv_b ', mv_c', mv_temporal} is determined, When the judgment is finished, it is judged whether or not mv_a 'is excluded. Then, it is determined whether or not mv_b 'is excluded. Repeat the mv_temporal exceptions according to the sort order of the C set.

반복하여 판단할 때, 이전 판단 과정에서 제외된 후보에 대해서는 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교를 생략할 수 있음은 MVP2의 제외 여부 판단과 관련하여 전술하였다.In the case of repeated judgment, the comparison between the virtual motion vector difference and the actual motion vector difference can be omitted for the candidates excluded in the previous judgment process.

또한, C 집합은 도 13a 내지 13d와 관련하여 후술하는 바와 같이 소정의 기준에 따라 재정렬될 수 있는 바, C 집합이 재정렬된 경우에는 재정렬된 순서에 따라 제외 여부에 대한 판단을 반복한다.In addition, the C set can be rearranged according to a predetermined criterion as described later with reference to FIGS. 13A to 13D. If the C sets are rearranged, the C sets are repeatedly determined according to the order of rearrangement.

도 12와 관련하여 전술한 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 크기 비교는 1차원 움직임 벡터는 물론, 2차원 움직임 벡터에 대해서도 적용될 수 있다. 다시 말해, x 좌표 및 y 좌표로 정의되는 가상의 움직임 벡터 차이의 크기와 실제 움직임 벡터 차이의 크기를 비교하여 소정의 예측 움직임 벡터의 후보를 전체 후보들에서 선택적으로 제외할 수 있다. Comparing the magnitudes of the virtual motion vector difference and the actual motion vector difference described above with reference to FIG. 12 can be applied not only to the one-dimensional motion vector but also to the two-dimensional motion vector. In other words, the size of the virtual motion vector difference defined by the x-coordinate and the y-coordinate is compared with the size of the actual motion vector difference to selectively exclude a candidate of a predetermined predicted motion vector from all candidates.

그러나, 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교의 기준(criterion)인 크기는 예시적인 것이며, 다양한 기준이 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교에 이용될 수 있다. 소정 기준에 기초해 가상의 움직임 벡터 차이에 대한 값과 실제 움직임 벡터 차이에 대한 값을 생성하는 평가 함수를 'A'라고 할 때, 다음의 수학식 1에 따라 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이를 비교할 수 있다.However, the size, which is a criterion for comparison between the hypothetical motion vector difference and the actual motion vector difference, is illustrative, and various criteria can be used for comparing the hypothetical motion vector difference and the actual motion vector difference. Assuming that an evaluation function for generating a value for a virtual motion vector difference and an actual motion vector difference based on a predetermined criterion is 'A', a virtual motion vector difference and an actual motion vector Differences can be compared.

Figure 112017076464290-pat00001
Figure 112017076464290-pat00001

후보결정부(920)는 예측 움직임 벡터의 전체 후보들 중 하나인 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외할지 여부를 판단하기 위해 수학식 1을 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다. 수학식 1에서 'MVD'는 실제 움직임 벡터 차이를 의미한다. 'mvx'의 제외 여부를 판단하기 위해 'mvx'에 기초한 가상의 움직임 벡터인 'mvx+MVD'와 다른 예측 움직임 벡터 후보인 'mvy' 사이의 가상의 움직임 벡터 차이인 'mvx+MVD-mvy'를 소정의 평가 함수 'A'를 이용해 평가한 값인 'A(mvx+MVD-mvy)'를 계산하고, 계산 결과 생성된 값들을 실제 움직임 벡터 차이에 대한 값인 'A(MVD)'와 비교한다. 전체 후보들 중에서 'mvx'를 제외한 다른 예측 움직임 벡터 후보들을 'mvy'에 반복하여 대입하여, 수학식 1을 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다. The candidate determining unit 920 determines whether or not to exclude 'mvx', which is one of all candidates of the predicted motion vector, from all candidate candidates of the predicted motion vector, 'mvy' satisfying the expression (1) . In Equation (1), 'MVD' denotes an actual motion vector difference. mvx + MVD-mvy ', which is a virtual motion vector difference between' mvx + MVD ', which is a virtual motion vector based on' mvx ', and' mvy ', which is another predicted motion vector candidate, (Mvx + MVD-mvy), which is a value obtained by evaluating the motion vector A using a predetermined evaluation function 'A', and compares the generated values with 'A (MVD)', which is a value for the actual motion vector difference. Mvy 'candidates other than' mvx 'among all candidates are repeatedly substituted into' mvy 'to determine whether there exists at least one of all candidates' mvy' satisfying the expression (1).

전술한 바와 같이 'A'에 의해 평가되는 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이는 x 좌표 및 y 좌표로 정의될 수 있다. 이 경우, 평가 함수는 다음의 수학식 2와 같이 x 좌표를 평가한 값 및 y 좌표를 평가한 값의 합으로 정의될 수 있다. As described above, a virtual motion vector difference and an actual motion vector difference estimated by 'A' can be defined as an x coordinate and a y coordinate. In this case, the evaluation function can be defined as a sum of a value obtained by evaluating the x-coordinate and a value obtained by evaluating the y-coordinate as shown in the following equation (2).

Figure 112017076464290-pat00002
Figure 112017076464290-pat00002

가상의 움직임 벡터 차이 또는 실제 움직임 벡터 차이가 x 좌표 'p' 및 y 좌표 'q'로 정의될 때, 각각의 좌표 값을 소정의 함수 'f'를 대입하고, 대입한 결과의 합으로 평가 함수 'A'가 정의될 수 있다.When a virtual motion vector difference or an actual motion vector difference is defined as an x coordinate 'p' and a y coordinate 'q', each coordinate value is substituted by a predetermined function 'f' 'A' can be defined.

본 발명의 일 실시예에 따르면, 수학식 1 및 수학식 2의 평가 함수 'A'는 가상의 움직임 벡터 차이를 엔트로피 부호화한 결과와 실제 움직임 벡터 차이를 엔트로피 부호화한 결과를 추정하는 평가 함수일 수 있다. 후보결정부(920)는 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이를 엔트로피 부호화한 결과를 평가 함수 'A'에 기초해 추정하고, 추정 결과에 기초해 예측 움직임 벡터의 후보들의 개수를 줄일 수 있다. 수학식 3을 참조하여 상세히 설명한다.According to an embodiment of the present invention, the evaluation function 'A' in Equations (1) and (2) can be an evaluation function for estimating a result of entropy-coding a difference between a result of entropy encoding a virtual motion vector difference and an actual motion vector . The candidate determining unit 920 estimates the result of entropy-encoding the difference between the virtual motion vector and the actual motion vector based on the evaluation function 'A', and reduces the number of candidates of the predicted motion vector based on the estimation result . Will be described in detail with reference to Equation (3).

Figure 112017076464290-pat00003
Figure 112017076464290-pat00003

Figure 112017076464290-pat00004
Figure 112017076464290-pat00004

x 좌표 값 또는 y 좌표 값에 대해 엔트로피 부호화 결과를 추정하는 함수 'f'는 수학식 3과 같이 정의될 수 있다. 가변장 부호화(variable length coding)(예를 들어, 유니버셜 가변장 부호화 : Universal Variable Length Coding) 결과를 예측하는 함수 'f'에 x 좌표 값 또는 y 좌표 값인 'val'이 입력되면 상기 수학식 3에 따라 'Length'가 계산된다.The function 'f' for estimating the entropy encoding result with respect to the x coordinate value or the y coordinate value can be defined as Equation (3). When an x coordinate value or a y coordinate value 'val' is input to a function 'f' for predicting a result of variable length coding (for example, Universal Variable Length Coding) 'Length' is calculated accordingly.

수학식 3은 다음과 같이 나타낼 수도 있다.Equation (3) may be expressed as follows.

Figure 112017076464290-pat00005
Figure 112017076464290-pat00005

x 좌표 값 또는 y 좌표 값은 가상의 움직임 벡터 차이 또는 실제 움직임 벡터 차이의 x 좌표 값 또는 y 좌표 값일 수 있다.The x-coordinate value or the y-coordinate value may be an x-coordinate value or a y-coordinate value of a virtual motion vector difference or an actual motion vector difference.

수학식 3에 따르면, 'val'이 음수 또는 '0'이면 'val'을 양수로 변환한 다음, 1 비트만큼 좌측으로 쉬프트하여 좌표 값에 '2'를 곱하고, '1'을 가산하여 'Temp'로 저장한다. 'val'이 양수이면 'val'을 1 비트만큼 좌측으로 쉬프트하여 좌표 값에 '2'를 곱하여 'Temp'로 저장한다. 그런 다음 'Temp'가 '1'이 될 때까지 'while' 루프를 반복하여, 'Length'를 계산한다. According to Equation (3), if 'val' is a negative number or '0', 'val' is converted to a positive number and then shifted to the left by one bit to multiply the coordinate value by '2', and '1' '. If 'val' is a positive number, 'val' is shifted to the left by 1 bit, and the coordinate value is multiplied by '2' and stored as 'Temp'. Then repeat the 'while' loop until 'Temp' is '1' to calculate 'Length'.

예를 들어, 가상의 움직임 벡터 차이 또는 실제 움직임 벡터 차이가 (2,0)이라면, A(2,0) = f(2) + f(0)이다.For example, if the virtual motion vector difference or the actual motion vector difference is (2,0), A (2,0) = f (2) + f (0).

f(2)는 다음과 같이 계산된다. f(2)의 '2'가 양수이므로, 1 비트만큼 좌측으로 쉬프트하여 'Temp'를 '4'로 설정한다. 첫 번째 while 루프에서는 'Temp'가 '4'이고, '4'는 '1'이 아니므로, '4'를 우측으로 쉬프트하여 '1/2'를 곱함으로써 'Temp'를 '2'로 설정한다. 'Length'의 초기값은 '1'로 설정되어 있으므로, 첫 번째 while 루프에서 'Length'는 '3'이 된다. f (2) is calculated as follows. Since '2' of f (2) is a positive number, it shifts to the left by one bit and sets 'Temp' to '4'. In the first while loop, 'Temp' is set to '4', '4' is not '1', 'Temp' is set to '2' by shifting '4' to the right and multiplying by ' do. The initial value of 'Length' is set to '1', so 'Length' is '3' in the first while loop.

두 번째 while 루프에서는 'Temp'가 '2'이고, '2'는 '1'이 아니므로, '2'를 우측으로 쉬프트하여 '1/2'를 곱함으로써 'Temp'를 '1'로 설정한다. 현재 'Length'는 '3'이므로, 두 번째 while 루프에서 'Length'는 '5'가 된다. 세 번째 while 루프는 'Temp'가 '1'이므로 수행되지 않으며, f(2)는 '5'가 된다.In the second while loop, 'Temp' is set to '2', '2' is not '1', and 'Temp' is set to '1' by shifting '2' to the right and multiplying by ' do. Currently 'Length' is '3', so 'Length' in the second while loop is '5'. The third while loop is not performed because 'Temp' is '1', and f (2) is '5'.

f(0)는 다음과 같이 계산된다. f(0)의 입력 좌표 값이 '0'이므로, '0'을 좌측으로 1 비트 쉬프트하고, '1'을 가산하여 'Temp'는 '1'로 설정된다. 따라서, while 루프는 수행되지 않는다. 'Length'의 초기값에 따라 f(0)는 '1'이 된다.f (0) is calculated as follows. Since the input coordinate value of f (0) is '0', '0' is shifted left by one bit, '1' is added, and 'Temp' is set to '1'. Thus, a while loop is not performed. According to the initial value of 'Length', f (0) becomes '1'.

수학식 3과 관련하여 전술한 소정의 평가 함수 'f'는 가변장 부호화를 이용한 엔트로피 부호화의 결과를 추정하기 위한 함수이다. 따라서, 후보결정부(920)는 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외할지 판단하기 위해, 평가 함수 'A'를 이용해 가상의 움직임 벡터 차이들을 가변장 길이 부호화한 결과를 추정한다. 추정 결과, 실제 움직임 벡터 차이보다 더 짧은 길이로 부호화되는 것으로 추정된 가상의 움직임 벡터 차이가 적어도 하나 존재하면, 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외한다.The predetermined evaluation function 'f' described in relation to Equation (3) is a function for estimating the result of entropy encoding using variable length coding. Accordingly, the candidate determining unit 920 estimates the result of variable length length coding of the virtual motion vector differences using the evaluation function 'A' to determine whether to exclude 'mvx' from all candidates of the predicted motion vector. As a result of estimation, if there is at least one hypothetical motion vector difference estimated to be encoded with a shorter length than the actual motion vector difference, 'mvx' is excluded from all candidates of the predicted motion vector.

그러나, 가변장 부호화 결과가 아닌 다른 방법에 의한 엔트로피 부호화 결과를 추정할 수 있음은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다. 예를 들어, 또 다른 평가 함수 'h'를 이용해 가상의 움직임 벡터 차이의 엔트로피 부호화 결과 및 실제 움직임 벡터 차이의 엔트로피 부호화 결과를 추정하고, 비교할 수 있으며, 이 때, 'h'는 컨텍스트 적응 이진 산술 부호화(Context adaptive binary arithmetic coding)의 결과를 추정하는 함수일 수 있다. However, it is easily understood by those skilled in the art that the entropy encoding result can be estimated by a method other than the variable length encoding result. For example, an entropy encoding result of an entropy encoding result and an actual motion vector difference of a virtual motion vector difference may be estimated and compared using another evaluation function 'h', where 'h' is a context adaptive binary arithmetic And may be a function for estimating the result of context adaptive binary arithmetic coding.

또한, 본 발명의 또 다른 실시예에 따르면, 소정의 평가 함수에 기초한 평가 결과의 정확도를 높이기 위해 인덱스 정보를 평가한 결과도 함께 추정할 수 있다. 인덱스 정보는 예측 움직임 벡터의 전체 후보들 중에서 소정의 예측 움직임 벡터 후보를 특정하기 위한 정보이다. 수학식 4를 참조하여 상세히 설명한다.According to still another embodiment of the present invention, the result of evaluating the index information to increase the accuracy of the evaluation result based on the predetermined evaluation function can also be estimated together. The index information is information for specifying a predetermined predicted motion vector candidate among all candidates of the predicted motion vector. Will be described in detail with reference to Equation (4).

Figure 112017076464290-pat00006
Figure 112017076464290-pat00006

후보결정부(920)는 예측 움직임 벡터의 전체 후보들 중 하나인 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외할지 여부를 판단하기 위해 수학식 4를 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다. 수학식 4에서 'MVD'는 실제 움직임 벡터 차이를 의미하며, mvxIdx와 mvyIdx는 예측 움직임 벡터의 전체 후보들에서 각각 ‘mvx’와 'mvy'를 특정하기 위한 인덱스 정보를 의미한다. 'mvx'의 제외 여부를 판단하기 위해, 'mvx'에 기초한 가상의 움직임 벡터인 'mvx+MVD'와 다른 예측 움직임 벡터 후보인 'mvy' 사이의 가상의 움직임 벡터 차이인 'mvx+MVD-mvy' 및 ‘mvy’를 전체 후보들에서 특정하기 위한 인덱스 정보를 소정의 평가 함수 ‘A’를 이용해 평가하고, 실제 움직임 벡터 차이 및 ‘mvx’를 전체 후보들에서 특정하기 위한 인덱스 정보를 소정의 평가 함수 ‘A’를 이용해 평가한다. 평가 결과, 수학식 4을 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다. The candidate determining unit 920 determines whether or not to exclude 'mvx', which is one of all candidates of the predicted motion vector, from all candidate candidates of the predicted motion vector, 'mvy' satisfying the expression (4) . In Equation (4), 'MVD' denotes an actual motion vector difference, and mvxIdx and mvyIdx denote index information for specifying 'mvx' and 'mvy' in all candidates of the predicted motion vector, respectively. mvx + MVD-mvy ', which is a virtual motion vector difference between' mvx + MVD ', which is a virtual motion vector based on' mvx ', and' mvy ', which is another predicted motion vector candidate based on' mvx ' 'And' mvy 'in all candidates using a predetermined evaluation function' A ', and index information for specifying an actual motion vector difference and' mvx 'in all candidates is determined by a predetermined evaluation function' A '. As a result of the evaluation, it is determined whether 'mvy' satisfying the expression (4) is present in at least one of all candidates.

전술한 바와 같이 'A'에 의해 평가되는 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이는 x 좌표 및 y 좌표로 정의될 수 있으며, 수학식 5와 같이 정의될 수 있다.As described above, the virtual motion vector difference and the actual motion vector difference estimated by 'A' can be defined as an x coordinate and a y coordinate, and can be defined as shown in Equation (5).

Figure 112017076464290-pat00007
Figure 112017076464290-pat00007

수학식 2와 비교하면, 수학식 2의 좌변의 A(mvx+MVD-mvy)는 가상의 움직임 벡터 차이만 평가하였으나, 수학식 5의 A(mvx+MVD-mvy, mvyIdx)는 가상의 움직임 벡터 차이 및 예측 움직임 벡터의 전체 후보들에서 'mvy'를 특정하기 위한 정보도 함께 평가한다. 평가 함수 ‘A’는 전술한 바와 같이 엔트로피 부호화한 결과를 평가하기 위한 함수일 수 있으며, 이 때, 함수 'f'는 수학식 2와 관련하여 전술한 바와 같이 가상의 움직임 벡터 차이의 x 좌표 값 또는 y 좌표 값에 기초해 엔트로피 부호화 결과를 추정하기 위한 함수이고, 함수 'g'는 'mvxIdx'의 엔트로피 부호화 결과를 추정하기 위한 함수일 수 있다. 'mvx+MVD-mvy'의 x 좌표 값이 'p1'이고 y 좌표 값이 'q1'일 때, A(mvx+MVD-mvy, mvxIdx)는 수학식 5에 도시된 바와 같이 계산할 수 있다. (Mvx + MVD-mvy, mvyIdx) in Equation (5) is calculated based on the motion vector of the virtual motion vector A (mvx + MVD-mvy) The information for specifying 'mvy' in all candidates of difference and prediction motion vectors is also evaluated. The evaluation function 'A' may be a function for evaluating a result of entropy encoding as described above. In this case, the function 'f' is an x coordinate value of a virtual motion vector difference, is a function for estimating the entropy encoding result based on the y coordinate value, and the function 'g' is a function for estimating the entropy encoding result of 'mvxIdx'. (mvx + MVD-mvy, mvxIdx) can be calculated as shown in Equation (5) when the x coordinate value of 'mvx + MVD-mvy' is 'p1' and the y coordinate value is 'q1'.

수학식 2의 우변의 A(MVD)도 실제 움직임 벡터 차이만 평가하였으나, 수학식 5의 A(MVD, mvxIdx)는 실제 움직임 벡터 차이 및 예측 움직임 벡터의 전체 후보들에서 'mvx'를 특정하기 위한 정보를 함께 평가한다. 함수 'f'는 수학식 2와 관련하여 전술한 바와 같이 실제 움직임 벡터 차이의 x 좌표 값 또는 y 좌표 값에 기초해 엔트로피 부호화 결과를 추정하기 위한 함수이고, 함수 'g'는 'mvxIdx'의 엔트로피 부호화 결과를 추정하기 위한 함수일 수 있다. 'MVD'의 x 좌표 값이 'p2'이고 y 좌표 값이 'q2'일 때, A(MVD, mvxIdx)는 수학식 5에 도시된 바와 같이 계산할 수 있다.A (MVD) on the right side of Equation (2) also evaluates only the actual motion vector difference, but A (MVD, mvxIdx) in Equation 5 indicates information for specifying 'mvx' in all candidates of the actual motion vector difference and the predicted motion vector Are evaluated together. The function 'f' is a function for estimating the entropy encoding result based on the x coordinate value or the y coordinate value of the actual motion vector difference as described above in relation to Equation (2), and the function g is a function for estimating the entropy of mvxIdx And may be a function for estimating the encoding result. When the x coordinate value of 'MVD' is 'p2' and the y coordinate value is 'q2', A (MVD, mvxIdx) can be calculated as shown in Equation (5).

수학식 4 및 5에 따른 제외 여부 판단은 수학식 2에 따른 제외 여부 판단에 대해 보조적으로 이용될 수 있다. 다시 말해, 수학식 2에 따라 기초해 ‘mvx’를 전체 예측 움직임 벡터의 후보들에서 제외할지 먼저 판단하고, 보조적으로 수학식 4 및 5에 따라 다시 한번 제외 여부를 판단할 수 있다. 예를 들어, 수학식 2에 따라 판단한 결과 ‘A(mvx+MVD-mvy)’와 ‘A(MVD)’가 동일하거나 큰 경우만 존재하고, ‘A(mvx+MVD-mvy)’가 ‘A(MVD)’보다 작은 경우는 존재하지 않는다면, 수학식 2에 따르면, ‘mvx’가 예측 움직임 벡터의 전체 후보들에서 제외되지 않는다. 그러나, ‘A(mvx+MVD-mvy)’와 ‘A(MVD)’가 동일하여도, 수학식 4 및 5에 따른 판단 결과에 기초해 ‘mvx’를 예측 움직임 벡터의 전체 후보들에서 제외할 수 있다.Equation 4 and Equation 5 may be used to determine whether or not to exclude whether or not to exclude the object according to Equation (2). In other words, it is first determined whether 'mvx' is excluded from the candidates of the total predicted motion vector based on Equation (2), and it can be determined whether or not to exclude again according to Equations (4) and (5). For example, if A (mvx + MVD-mvy) and A (MVD) are equal to or greater than A (mvx + MVD-mvy) (MVD) ', then according to equation (2),' mvx 'is not excluded from all candidates of the predicted motion vector. However, even if 'A (mvx + MVD-mvy)' and 'A (MVD)' are the same, 'mvx' can be excluded from all candidates of the predicted motion vector based on the determination result according to Equations have.

후보결정부(920)가 수학식 1 내지 5에 기초해 예측 움직임 벡터 후보에 대해 제외 여부를 판단할 때, C 집합의 정렬 순서에 따라 모든 예측 움직임 벡터의 후보들에 대해 반복함은 전술하였다. 본 발명의 또 다른 실시예에 따르면, 후보결정부(920)는 C 집합을 소정의 기준에 따라 재정렬하고, 재정렬 순서에 따라 제외 여부의 판단을 반복할 수 있다. 도 13a 내지 13d를 참조하여 상세히 설명한다. When the candidate determining unit 920 determines whether or not to exclude a predicted motion vector candidate based on Equations 1 to 5, it has been described above that it is repeated for all candidates of the predicted motion vector according to the sorting order of the C set. According to another embodiment of the present invention, the candidate determining unit 920 may rearrange the C sets according to a predetermined criterion, and repeat the determination of whether to exclude the C sets according to the rearrangement order. Will be described in detail with reference to Figs. 13A to 13D.

도 13a 내지 13d는 본 발명의 일 실시예에 따른 소정 크기의 부호화 단위에 포함된 현재 블록의 위치를 도시한다.FIGS. 13A to 13D show positions of current blocks included in a coding unit of a predetermined size according to an embodiment of the present invention.

전체 예측 움직임 벡터의 후보들이 C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal}와 같을 때, C 집합의 예측 움직임 벡터 후보 각각에 이진수를 할당함으로써 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터를 특정할 수 있음을 전술하였다. When the candidates of the entire predictive motion vector are equal to C = {median (mv_a ', mv_b', mv_c '), mv_a', mv_b ', mv_c', mv_temporal}, binary numbers are assigned to each of the C set of predicted motion vector candidates The predictive motion vector used to predict the motion vector of the current block among the candidates of the predictive motion vector can be specified.

이 때, C 집합에 포함된 예측 움직임 벡터의 후보들의 정렬 순서에 따라 이진수가 할당되고, 이러한 이진수는 허프만 코드에 기초한 가변장 부호일 수 있다. 따라서, C 집합의 정렬 순서에서 앞에 위치한 예측 움직임 벡터 후보에 더 적은 개수의 비트를 할당할 수 있다. 예를 들어, C 집합에서 'median(mv_a', mv_b', mv_c')'에 '0' 비트를 할당하고, mv_a'에 '00' 비트를 할당하며, mv_b'에 '01' 비트를 할당할 수 있다. 따라서, 후보결정부(920)는 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높은 예측 움직임 벡터 후보가 C 집합의 앞쪽에 위치하도록, 예측 움직임 벡터의 후보들을 소정 순서에 따라 정렬한다.In this case, a binary number is assigned according to the sort order of the candidates of the predicted motion vector included in the C set, and the binary number may be a variable length code based on the Huffman code. Therefore, a smaller number of bits can be allocated to the predicted motion vector candidate located before the C-th sort order. For example, in the C set, a '0' bit is allocated to 'median (mv_a', mv_b ', mv_c'), a '00' bit is assigned to mv_a and a '01' bit is allocated to mv_b . Accordingly, the candidate determining unit 920 determines the candidates of the predicted motion vector in a predetermined order so that the predicted motion vector candidates likely to be used in predicting the motion vector of the current block among the candidates of the predicted motion vector are located in front of the C set. .

현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높은 예측 움직임 벡터는 부호화 단위에서 현재 블록의 위치에 따라 결정될 수 있다. 도 13a와 같이 현재 블록이 부호화 단위의 하단에 위치하면, 현재 블록의 움직임 벡터는 부호화 단위의 좌측에 인접한 블록의 움직임 벡터 또는 좌측하부에 인접한 블록의 움직임 벡터와 동일 또는 유사할 가능성이 높다. 따라서, 좌측에 인접한 블록의 움직임 벡터 또는 좌측 하부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터의 후보가 C 집합의 앞쪽에 위치하도록 정렬 순서를 변경할 필요가 있다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_b'가 좌측에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터의 후보이므로, C 집합은 mv_b'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어, C = {mv_b', mv_a', median(mv_a', mv_b', mv_c'), mv_c', mv_temporal}와 같이 재정렬될 수 있다. A prediction motion vector highly likely to be used for predicting the motion vector of the current block can be determined according to the position of the current block in the coding unit. 13A, if the current block is positioned at the lower end of the coding unit, the motion vector of the current block is likely to be the same as or similar to the motion vector of the block adjacent to the left of the coding unit or the block adjacent to the lower left. Therefore, it is necessary to change the sorting order so that the candidate of the predicted motion vector corresponding to the motion vector of the block adjacent to the left side or the motion vector of the block adjacent to the lower left side is located in front of the C set. Since the mv_b 'candidates of the predicted motion vector of the set C are candidates of the predicted motion vector corresponding to the motion vector of the block adjacent to the left, the C set is a sequence of mv_b' and median (mv_a ', mv_b', mv_c ' Can be rearranged as C = {mv_b ', mv_a', median (mv_a ', mv_b', mv_c '), mv_c', mv_temporal}.

마찬가지로, 도 13b와 같이 현재 블록이 부호화 단위의 좌측에 위치하면, 부호화 단위의 좌측에 인접한 블록의 움직임 벡터 및 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_b'가 좌측에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보이므로, C 집합은 mv_b'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어, C = {mv_b', mv_a', median(mv_a', mv_b', mv_c'), mv_c', mv_temporal}와 같이 재정렬될 수 있다. Likewise, if the current block is located on the left side of the coding unit as shown in FIG. 13B, the motion vector of the block adjacent to the left of the coding unit and the predicted motion vector candidate corresponding to the motion vector of the block adjacent to the upper block are predicted There is a high possibility of being used. Since the mv_b 'of the candidates of the predicted motion vector of the C set is the predicted motion vector candidate corresponding to the motion vector of the block adjacent to the left, the C set includes the order of mv_b' and median (mv_a ', mv_b', mv_c ') Alternatively, they may be rearranged as C = {mv_b ', mv_a', median (mv_a ', mv_b', mv_c '), mv_c', mv_temporal}.

도 13c와 같이 현재 블록이 부호화 단위의 상부에 위치하면, 부호화 단위의 좌측에 인접한 블록의 움직임 벡터 및 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보가 현재 블록의 예측 움직임 벡터로 이용될 가능성이 높다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_a'가 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보이므로, C 집합은 mv_a'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어, C = {mv_a', median(mv_a', mv_b', mv_c'), mv_b', mv_c', mv_temporal}와 같이 재정렬될 수 있다. 13C, when the current block is located above the coding unit, the motion vector of the block adjacent to the left of the coding unit and the predicted motion vector candidate corresponding to the motion vector of the block adjacent to the upper block are used as the predicted motion vector of the current block There is a high possibility. Since the mv_a 'of the candidates of the predicted motion vector of the C set is the predicted motion vector candidate corresponding to the motion vector of the block adjacent to the upper side, the C set is a sequence of mv_a' and median (mv_a ', mv_b', mv_c ') Alternatively, they can be rearranged as C = {mv_a ', median (mv_a', mv_b ', mv_c'), mv_b ', mv_c', mv_temporal}.

도 13d와 같이 현재 블록이 부호화 단위의 우측에 위치하면, 부호화 단위의 우측 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_c'가 우측상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보이므로, C 집합은 mv_c'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어 C = {mv_c', mv_a', mv_b', median(mv_a', mv_b', mv_c'), mv_temporal}와 같이 재정렬될 수 있다.If the current block is located on the right side of the coding unit as shown in FIG. 13D, there is a high possibility that the predicted motion vector candidate corresponding to the motion vector of the block adjacent to the upper right of the coding unit is used to predict the motion vector of the current block. Since the mv_c 'among the candidates of the predicted motion vector of the C set is the predicted motion vector candidate corresponding to the motion vector of the block adjacent to the upper right, the C set is a sequence of mv_c' and median (mv_a ', mv_b', mv_c ' Can be rearranged as C = {mv_c ', mv_a', mv_b ', median (mv_a', mv_b ', mv_c'), mv_temporal}.

예측 움직임 벡터의 후보들을 재정렬하는 기준으로서 부호화 단위에서 현재 블록의 위치는 예시적인 것이다. 다시 말해, 다양한 기준이 예측 움직임 벡터의 후보들을 재정렬하는 기준으로 이용될 수 있다. 현재 블록의 움직임 벡터와 유사할 가능성이 높은 예측 움직임 벡터 후보가 C 집합의 앞부분으로 정렬될 수 있게 하는 다양한 기준이 예측 움직임 벡터의 후보들을 재정렬하는 기준으로 이용될 수 있다. 현재 블록 이전에 부호화된 다른 블록들과 관련된 소정의 정보에 기초해 현재 블록의 움직임 벡터와 유사할 가능성이 높은 예측 움직임 벡터 후보를 결정하고, 결정에 기초해 C 집합을 재정렬할 수 있다.The position of the current block in the encoding unit as a reference for rearranging the candidates of the predicted motion vector is exemplary. In other words, various criteria can be used as a reference to rearrange the candidates of the predicted motion vector. Various criteria that allow the prediction motion vector candidates likely to be similar to the motion vector of the current block to be aligned to the beginning of the C set can be used as a reference for rearranging the candidates of the prediction motion vector. It is possible to determine a predicted motion vector candidate that is likely to be similar to a motion vector of the current block based on predetermined information related to other blocks encoded before the current block, and rearrange the C sets based on the determination.

또한, 현재 블록의 움직임 벡터를 부호화하기 이전에 현재 블록에 대해 부호화되거나 복호화된 다른 정보에 기초해 현재 블록의 움직임 벡터와 유사할 가능성이 높은 예측 움직임 벡터 후보를 결정하고, 결정에 기초해 C 집합을 재정렬할 수 있다.In addition, a motion vector candidate that is likely to be similar to the motion vector of the current block is determined based on other information encoded or decoded on the current block before coding the motion vector of the current block, and based on the determination, Can be rearranged.

또한, C 집합의 재정렬 시에 중복된 예측 움직임 벡터 후보는 제외하고, 재정렬을 수행할 수 있다. 예측 움직임 벡터의 전체 후보들에 중복된 예측 움직임 벡터 후보가 있는 경우에는 이를 먼저 제외하고, 전술한 수학식 1 내지 5에 따라 각각의 예측 움직임 벡터 후보에 대해 제외 여부를 판단할 수 있다.Also, the reordering can be performed except for the redundant predicted motion vector candidates at the reordering of the C set. If there are overlapping predicted motion vector candidates in all candidates of the predicted motion vector, it is possible to exclude the predicted motion vector candidates and determine whether to exclude each predicted motion vector candidate according to Equations 1 to 5 above.

다시 도 9를 참조하면, 움직임벡터부호화부(930)는 움직임 벡터에 대한 정보 및 예측 움직임 벡터에 대한 정보를 부호화한다. 움직임 벡터에 대한 정보는 현재 블록의 실제 움직임 벡터와 실제 예측 움직임 벡터 사이의 차이 벡터이고, 예측 움직임 벡터에 대한 정보는 예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터가 제외된 후보들에서 현재 블록의 움직임 벡터 예측에 이용된 예측 움직임 벡터를 특정하기 위한 정보를 부호화한다. 다시 말해, 후보결정부(920)에서 제외되지 않은 예측 움직임 벡터의 후보들에서 현재 블록의 예측 움직임 벡터를 특정하기 위한 정보가 예측 움직임 벡터에 대한 정보로서 부호화된다.Referring again to FIG. 9, the motion vector coding unit 930 encodes information on a motion vector and information on a predicted motion vector. The information about the motion vector is a difference vector between the actual motion vector of the current block and the actual predicted motion vector, and the information about the predicted motion vector is the motion vector of the current block in the candidates excluding at least one predicted motion vector from all candidates of the predicted motion vector. And information for specifying a predicted motion vector used in the motion vector prediction of the current frame. In other words, information for specifying a predictive motion vector of the current block in the candidates of the predictive motion vector not excluded in the candidate decision unit 920 is encoded as information on the predictive motion vector.

실제 움직임 벡터 차이를 움직임벡터추정부(910)로부터 수신하여 소정의 엔트로피 부호화 방법에 따라 부호화하고, 후보결정부(920)에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외하여 결정된 예측 움직임 벡터의 후보들에서 움직임벡터추정부(910)에서 결정된 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보를 부호화한다.The motion vector difference is received from the motion vector estimation unit 910 and is encoded according to a predetermined entropy coding method, and candidates of the predicted motion vector determined by selectively excluding at least one predicted motion vector candidate in the candidate determination unit 920 Information for specifying a predicted motion vector candidate used for predicting the motion vector of the current block determined by the motion vector estimation unit 910. [

후보결정부(920)가 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터의 후보를 전술한 수학식 1 내지 5에 따라 제외하여 예측 움직임 벡터의 후보들을 결정하면, 결정된 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보를 부호화한다. 움직임벡터부호화부(930)는 후보결정부(920)에서 제외되지 않은 예측 움직임 벡터의 후보들 각각을 인덱싱(indexing)하고, 예측 움직임 벡터에 대한 정보로서 인덱스 정보를 엔트로피 부호화할 수 있다. 인덱싱이란 예측 움직임 벡터의 후보들 각각에 소정의 이진수를 할당하는 것을 의미하며, 예측 움직임 벡터에 대한 정보는 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 정보를 의미한다. 후보결정부(920)가 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외한 결과, 예측 움직임 벡터 후보가 하나만 남게 되면, 움직임벡터부호화부(930)에서 예측 움직임 벡터에 대한 정보를 별도로 부호화할 필요가 없다. 현재 블록의 움직임 벡터를 예측하는데 이용할 예측 움직임 벡터 후보가 암묵적(implicit)으로 결정되기 때문이다.When the candidate determining unit 920 determines candidates of the predicted motion vector by excluding candidates of at least one predicted motion vector from all candidates of the predicted motion vector according to Equations 1 to 5 described above, And information for specifying a predicted motion vector candidate used for predicting the motion vector of the current block is encoded. The motion vector coding unit 930 may index each of the candidates of the predicted motion vector not excluded in the candidate decision unit 920 and entropy-encode the index information as information on the predicted motion vector. Indexing means assigning a predetermined binary number to each of the candidates of the predicted motion vector and information on the predicted motion vector means information used to predict a motion vector of the current block among the candidates of the predicted motion vector. As a result of the candidate decision unit 920 selectively excluding at least one predicted motion vector candidate, there is no need to separately encode the information about the predicted motion vector in the motion vector coding unit 930 . The predicted motion vector candidate to be used for predicting the motion vector of the current block is implicitly determined.

또한, 도 13a 내지 13d와 관련하여 전술한 바와 같이 후보결정부(920)가 전체 예측 움직임 벡터의 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 예측 움직임 벡터의 후보들에서 적어도 하나의 예측 움직임 벡터를 선택적으로 제외하여 생성한 예측 움직임 벡터의 후보들 각각을 인덱싱하고, 인덱스 정보를 엔트로피 부호화할 수도 있다.13A to 13D, the candidate determining unit 920 rearranges the candidates of the entire predicted motion vector according to a predetermined criterion, and predicts at least one predicted motion vector And indexes each candidate of the generated predicted motion vector and entropy-encodes the index information.

후보결정부(920)의 재정렬 결과, 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높은 예측 움직임 벡터 후보에 가장 적은 비트수의 이진수가 할당되므로, 예측 움직임 벡터에 대한 정보를 보다 높은 압축률로 부호화할 수 있다.As a result of rearrangement of the candidate decision unit 920, since the binary number of the smallest number of bits is allocated to the prediction motion vector candidates likely to be used in predicting the motion vector of the current block, information on the predicted motion vector is encoded with a higher compression rate can do.

도 14는 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 장치를 도시한다. FIG. 14 illustrates an apparatus for decoding a motion vector according to an embodiment of the present invention.

도 2의 영상 복호화 장치(200) 또는 도 5의 영상 부호화부(500)에 포함되어 움직임 벡터를 복호화하는 장치가 도 14에 상세히 도시된다. 도 14를 참조하면, 본 발명의 일 실시예에 따른 움직임 벡터 복호화 장치(1400)는 움직임벡터복호화부(1410), 후보결정부(1420) 및 움직임벡터복원부(1430)를 포함한다.An apparatus for decoding a motion vector included in the image decoding apparatus 200 of FIG. 2 or the image encoding unit 500 of FIG. 5 is shown in detail in FIG. Referring to FIG. 14, a motion vector decoding apparatus 1400 according to an embodiment of the present invention includes a motion vector decoding unit 1410, a candidate determination unit 1420, and a motion vector restoration unit 1430.

도 14의 움직임 벡터 복호화 장치(1400)는 현재 블록의 움직임 벡터가 전술한 명시 모드 및 암시 모드 중 명시 모드에 따라 부호화된 경우, 현재 블록의 움직임 벡터를 복호화하는 장치를 도시한다.The motion vector decoding apparatus 1400 of FIG. 14 shows an apparatus for decoding a motion vector of a current block when a motion vector of the current block is coded according to the explicit mode among the explicit mode and the implicit mode described above.

움직임벡터복호화부(1410)는 현재 블록의 움직임 벡터에 대한 비트스트림을 수신하고, 수신된 비트스트림을 복호화한다. 비트스트림에 포함된 움직임 벡터에 대한 정보를 복호화한다. 현재 블록의 실제 움직임 벡터 차이를 복호화한다. 실제 움직임 벡터 차이를 소정의 엔트로피 복호화 방법에 따라 복호화할 수 있다. 실제 움직임 벡터 차이는 현재 블록의 움직임 벡터와 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보 사이의 차이 벡터이다.The motion vector decoding unit 1410 receives the bitstream of the motion vector of the current block and decodes the received bitstream. And decodes information on a motion vector included in the bitstream. And decodes the actual motion vector difference of the current block. The actual motion vector difference can be decoded according to a predetermined entropy decoding method. The actual motion vector difference is a difference vector between the motion vector of the current block and the predicted motion vector candidate used to predict the motion vector of the current block.

본 발명의 움직임 벡터를 부호화하는 방법에 따르면, 전술한 수학식 1 내지 5에 따라 예측 움직임 벡터의 전체 후보들 중 적어도 하나의 예측 움직임 벡터 후보를 제외하고, 예측 움직임 벡터의 후보들이 결정된다. 예측 움직임 벡터의 후보들은 고정되는 것이 아니며, 블록 단위로 복호화를 진행함에 따라 계속해서 변경될 수 있다. 따라서, 예측 움직임 벡터의 후보에 대한 정보가 동일하더라도, 예측 움직임 벡터의 후보들이 결정되지 않으면 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 정확하게 복원할 수 없다.According to the method of coding a motion vector of the present invention, candidates of a predicted motion vector are determined by excluding at least one predicted motion vector candidate among all candidates of the predicted motion vector according to the above-described Equations 1 to 5. The candidates of the predicted motion vector are not fixed, but can be continuously changed as the decoding proceeds on a block-by-block basis. Therefore, even if the information on the candidate of the predicted motion vector is the same, if the predicted motion vector candidates are not determined, the predicted motion vector candidate used for predicting the motion vector of the current block can not be accurately reconstructed.

따라서, 예측 움직임 벡터 후보를 결정하기에 앞서 후보결정부(1420)는 예측 움직임 벡터의 후보들을 결정한다. 움직임 벡터의 전체 후보들 중 적어도 하나의 예측 움직임 벡터 후보를 수학식 1 내지 5에 따라 선택적으로 제외하여 예측 움직임 벡터의 후보들을 결정한다. 현재 블록에 인접한 이전에 복호화된 영역에 포함된 블록들의 움직임 벡터들에 기초해 결정된 전체 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용되지 않는 것이 명백한 예측 움직임 벡터 후보를 소정의 평가 함수에 기초해 제외한다. Therefore, the candidate determining unit 1420 determines the candidates of the predicted motion vector before determining the predicted motion vector candidate. And selects candidates of the predicted motion vector by selectively excluding at least one predicted motion vector candidate among all candidates of the motion vector according to Equations (1) to (5). Based on a predetermined evaluation function, excludes a predicted motion vector candidate that is not used to predict a motion vector of the current block among all candidates determined based on motion vectors of blocks included in a previously decoded area adjacent to the current block do.

예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보 및 움직임 벡터 복호화부에서 복호화된 움직임 벡터에 대한 정보에 기초해 가상의 움직임 벡터를 생성하고, 생성된 가상의 움직임 벡터와 다른 예측 움직임 벡터 후보의 차이인 가상의 움직임 벡터 차이를 전체 후보들 각각에 대해 계산한다. 계산된 가상의 움직임 벡터 차이들을 움직임벡터복호화부(1410)에서 복호화된 움직임 벡터에 대한 정보 즉, 실제 움직임 벡터 차이와 비교하여 예측 움직임 벡터의 후보를 제외한다. 가상의 움직임 벡터 차이들의 엔트로피 부호화 결과를 실제 움직임 벡터 차이의 엔트로피 부호화 결과와 비교하여 소정의 예측 움직임 벡터의 후보를 제외할지 여부를 판단할 수 있다. 또한, 엔트로피 부호화 결과의 추정 정확도를 높이기 위해 인덱스 정보를 엔트로피 부호화한 결과도 함께 추정하여 제외 여부 판단에 이용할 수 있다. 예측 움직임 벡터의 후보를 제외하는 방법은 수학식 1 내지 5와 관련하여 전술하였다. A virtual motion vector is generated based on information on a motion vector predicted by a motion vector decoding unit and a motion vector predicted by a predetermined motion vector candidate among all candidates of the predicted motion vector, A difference of a virtual motion vector, which is a difference, is calculated for each of all candidates. The calculated virtual motion vector differences are compared with the information on the motion vector decoded by the motion vector decoding unit 1410, that is, the difference between the actual motion vectors, thereby excluding candidates of the predicted motion vectors. The entropy encoding result of the virtual motion vector differences may be compared with the entropy encoding result of the actual motion vector difference to determine whether to exclude the candidate of the predetermined predicted motion vector. In order to increase the estimation accuracy of the entropy encoding result, the result of entropy encoding the index information can also be estimated and used to determine whether or not to exclude the entropy encoding result. The method of excluding candidates of the predicted motion vector has been described above with reference to Equations (1) to (5).

또한, 본 발명의 또 다른 실시예에 따르면, 후보결정부(1420)는 예측 움직임 벡터의 전체 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 후보들에 대해 수학식 1 내지 5에 따른 제외 판단을 반복하여 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다. 재정렬된 전체 후보들에서 중복된 예측 움직임 벡터 후보를 제외하고, 수학식 1 내지 5에 따른 제외 판단을 반복할 수도 있다.According to another embodiment of the present invention, the candidate determination unit 1420 rearranges the entire candidates of the predicted motion vector according to a predetermined criterion, and performs the exclusion determination according to Equations 1 to 5 on all the reordered candidates It is possible to selectively exclude at least one predictive motion vector candidate repeatedly. It is possible to repeat the exclusion determination according to Equations 1 to 5 except for the redundant predicted motion vector candidates in all the reordered candidates.

후보결정부(1420)가 예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터 후보를 제외한 결과, 예측 움직임 벡터의 전체 후보들 중 복수의 예측 움직임 벡터 후보가 남으면, 움직임벡터복호화부(1410)는 예측 움직임 벡터에 대한 정보를 복호화한다. 예측 움직임 벡터에 대한 정보를 소정의 엔트로피 복호화 방법에 따라 복호화한다. 예측 움직임 벡터에 대한 정보는 적어도 하나의 예측 움직임 벡터 후보가 제외된 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보이다. 후보결정부(1420)에서 제외되지 않은 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보가 복호화된다.If the candidate decision unit 1420 has left a plurality of predicted motion vector candidates among all the candidates of the predicted motion vector as a result of excluding at least one predicted motion vector candidate among all candidates of the predicted motion vector, the motion vector decoding unit 1410 decides And decodes the information on the motion vector. And decodes information on the predicted motion vector according to a predetermined entropy decoding method. The information on the predictive motion vector is information for specifying a predictive motion vector candidate used to predict a motion vector of a current block among the candidates of the predictive motion vector from which at least one predictive motion vector candidate is excluded. Information for specifying a predicted motion vector candidate used for predicting the motion vector of the current block among the candidates of the predicted motion vector not excluded in the candidate decision unit 1420 is decoded.

후보결정부(1420)가 예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터 후보를 제외한 결과, 하나의 예측 움직임 벡터 후보만 남으면, 남겨진 하나의 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용되므로, 움직임벡터복호화부(1410)는 별도로 예측 움직임 벡터의 후보에 대한 정보를 복호화할 필요가 없다.If the candidate decision unit 1420 has left only one predicted motion vector candidate as a result of excluding at least one predicted motion vector candidate among all candidates of the predicted motion vector, the remaining predicted motion vector candidate predicts the motion vector of the current block The motion vector decoding unit 1410 does not need to separately decode the information on the candidate of the predicted motion vector.

움직임벡터복원부(1430)는 움직임벡터복호화부(1410)에서 복호화된 움직임 벡터에 대한 정보에 기초해 현재 블록의 움직임 벡터를 복원한다. 움직임벡터복호화부(1410)에서 복호화된 실제 움직임 벡터 차이와 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 가산하여 현재 블록의 움직임 벡터를 복원한다. 후보결정부(1420)에서 결정된 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용할 예측 움직임 벡터 후보를 결정하고, 결정된 예측 움직임 벡터 후보를 실제 움직임 벡터 차이와 가산한다. 후보결정부(1420)에서의 제외 결과, 하나가 아닌 복수의 예측 움직임 벡터의 후보들을 남은 경우에는, 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보는 움직임벡터복호화부(1410)에서 복호화된 예측 움직임 벡터에 대한 정보에 기초해 결정될 수 있다. The motion vector restoring unit 1430 restores the motion vector of the current block based on the information on the motion vector decoded by the motion vector decoding unit 1410. The motion vector decoding unit 1410 adds the motion vector difference decoded by the motion vector decoding unit 1410 and the predicted motion vector candidate used to predict the motion vector of the current block to recover the motion vector of the current block. A prediction motion vector candidate to be used for predicting the motion vector of the current block among the candidates of the prediction motion vector determined in the candidate determination unit 1420 is determined and the determined predicted motion vector candidate is added to the actual motion vector difference. In the case where candidates of a plurality of predictive motion vectors other than one are left as the result of the exclusion in the candidate decision unit 1420, the predicted motion vector candidate used for predicting the motion vector of the current block is decoded in the motion vector decoding unit 1410 May be determined based on information on the predicted motion vector.

후보결정부(1420)에 의해 예측 움직임 벡터의 후보들이 결정되므로, 복호화된 예측 움직임 벡터에 대한 정보가 동일하더라도, 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보는 상이한 위치에 인접한 블록의 움직임 벡터일 수 있다.Since the candidates of the predicted motion vector are determined by the candidate determining unit 1420, even if the information on the decoded predicted motion vector is the same, the predicted motion vector candidate used for predicting the motion vector of the current block is May be a motion vector.

도 15는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 방법을 설명하기 위한 흐름도이다.15 is a flowchart illustrating a method of coding a motion vector according to an embodiment of the present invention.

도 15를 참조하면, 단계 1510에서 움직임 벡터 부호화 장치는 현재 블록의 움직임 벡터를 추정하고, 현재 블록의 움직임 벡터를 예측하는데 이용되는 예측 움직임 벡터 후보를 예측 움직임 벡터의 전체 후보들 중에서 결정한다. 현재 블록과 동일 또는 유사한 움직임 벡터를 복수의 참조 픽처에서 검색하고, 검색 결과에 따라 현재 블록과 참조 블록의 상대적인 위치 차이인 움직임 벡터를 추정한다. Referring to FIG. 15, in step 1510, the motion vector encoding apparatus estimates a motion vector of a current block and determines a predicted motion vector candidate used for predicting a motion vector of the current block, from all candidates of the predicted motion vector. A motion vector which is the same or similar to the current block is searched in a plurality of reference pictures and a motion vector which is a relative position difference between the current block and the reference block is estimated according to the search result.

그런 다음 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터에 기초해 현재 블록의 움직임 벡터를 예측한다. 다시 말해, 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터들을 예측 움직임 벡터의 전체 후보들로 설정하고, 예측 움직임 벡터의 전체 후보들 중 추정된 현재 블록의 움직임 벡터와 가장 유사한 예측 움직임 벡터 후보를 결정한다. 현재 블록의 움직임 벡터와 결정된 예측 움직임 벡터 후보의 차이 벡터 즉, 실제 움직임 벡터 차이를 생성한다.Then, the motion vector of the current block is predicted based on the motion vectors of the blocks included in the previously encoded area adjacent to the current block. In other words, the motion vectors of the blocks included in the previously coded area adjacent to the current block are set as all candidates of the predicted motion vector, and a predicted motion vector which is the closest to the motion vector of the estimated current block among all candidates of the predicted motion vector The candidate is decided. A difference vector between the motion vector of the current block and the determined predicted motion vector candidate, that is, an actual motion vector difference, is generated.

단계 1520에서 영상 부호화 장치는 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외한다. 예측 움직임 벡터의 전체 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용되지 않는 것이 명백한 예측 움직임 벡터 후보를 제외한다. In step 1520, the image encoding apparatus selectively excludes at least one predicted motion vector candidate from all candidates of the predicted motion vector. Excludes predicted motion vector candidates that are unlikely to be used to predict the motion vector of the current block among all candidates of the predicted motion vector.

영상 부호화 장치는 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보와 단계 1510에서 생성된 실제 움직임 벡터 차이를 이용해 가상의 움직임 벡터를 생성한다.생성된 가상의 움직임 벡터및 다른 예측 움직임 벡터 후보를 이용해 가상의 움직임 벡터 차이를 생성한다. 전체 후보들 각각에 대해 가상의 움직임 벡터 차이를 생성하고, 생성된 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이를 비교하여 소정의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다.The image encoding apparatus generates a virtual motion vector using a predetermined prediction motion vector candidate among all candidates of the predicted motion vector and an actual motion vector difference generated in step 1510. The generated virtual motion vector and another predicted motion vector candidate To generate a virtual motion vector difference. A virtual motion vector difference is generated for each of all the candidates, and a predetermined predicted motion vector candidate is selectively excluded by comparing the generated virtual motion difference and the actual motion vector difference.

단계 1520의 가상 움직임 벡터를 생성하는 과정 및 선택적으로 제외하는 과정을 전체 후보들 모두에 대해 반복하여 수행함으로써, 적어도 하나의 예측 움직임 벡터 후보를 전체 후보들에서 제외할 수 있다. 제외하는 과정을 반복하여 수행할 때에는 이미 제외된 예측 움직임 벡터 후보를 뺀 나머지 예측 움직임 벡터 후보들 각각에 대해 가상의 움직임 벡터 차이를 계산하고, 계산된 가상의 움직임 벡터 차이를 실제 움직임 벡터 차이와 비교할 수 있다. The process of generating and optionally excluding the virtual motion vector of step 1520 may be repeated for all of the candidates so that at least one predicted motion vector candidate may be excluded from all candidates. The motion vector difference may be calculated for each of the remaining predicted motion vector candidates obtained by subtracting the excluded prediction motion vector candidates from each other and the calculated virtual motion vector difference may be compared with the actual motion vector difference. have.

소정의 평가 함수에 기초해 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이를 평가하여 비교할 수 있으며, 소정의 평가 함수는 엔트로피 부호화 결과를 예측하는 함수일 수 있다. 가상의 움직임 벡터 차이를 엔트로피 부호화한 결과와 실제 움직임 벡터 차이를 엔트로피 부호화한 결과를 추정하는 함수에 기초해 비교할 수 있다. 또한, 평가의 정확도를 높이기 위해 인덱스 정보를 엔트로피 부호화한 결과도 함께 추정하여 제외 여부 판단에 이용할 수 있다. 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 제외하는 방법은 수학식 1 내지 5와 관련하여 전술하였다. The virtual motion vector difference and the actual motion vector difference can be evaluated and compared based on a predetermined evaluation function, and the predetermined evaluation function can be a function for predicting the entropy encoding result. It is possible to compare the result obtained by entropy encoding a virtual motion vector difference and the function of estimating a result of entropy encoding an actual motion vector difference. In addition, the entropy-encoded index information may be estimated together with the index information to improve the accuracy of the evaluation. The method of excluding at least one predicted motion vector candidate in all candidates of the predicted motion vector has been described above with reference to Equations 1 to 5. [

또한, 움직임 벡터 부호화 장치는 도 13a 내지 13d와 관련하여 전술한 바와 같이 움직임 벡터의 전체 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수도 있다. 재정렬된 전체 후보들에서 중복된 예측 움직임 벡터 후보를 제외하고, 수학식 1 내지 5에 따른 제외 판단을 반복할 수도 있다.In addition, the motion vector coding apparatus may rearrange the entire candidates of the motion vector according to a predetermined criterion, as described above with reference to FIGS. 13A to 13D, and selectively exclude at least one predictive motion vector candidate from all the reordered candidates have. It is possible to repeat the exclusion determination according to Equations 1 to 5 except for the redundant predicted motion vector candidates in all the reordered candidates.

단계 1530에서 움직임 벡터 부호화 장치는 움직임 벡터에 대한 정보 및 예측 움직임 벡터에 대한 정보를 부호화한다. 실제 움직임 벡터 차이 및 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보를 부호화한다. 예측 움직임 벡터에 대한 정보는 단계 1520 및 1530을 통해 제외되지 않은 예측 움직임 벡터의 후보들에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보일 수 있다.In step 1530, the motion vector coding apparatus encodes information on a motion vector and information on a predicted motion vector. Information for specifying an actual motion vector difference and a predicted motion vector candidate used to predict a motion vector of the current block is encoded. The information on the predicted motion vector may be information for specifying a predicted motion vector candidate used in predicting the motion vector of the current block in the candidates of the predicted motion vector not excluded through steps 1520 and 1530. [

예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 제외한 결과, 하나의 예측 움직임 벡터 후보만 남으면, 예측 움직임 벡터에 대한 정보를 부호화하지 않을 수 있다.If only one predicted motion vector candidate is left as a result of excluding at least one predicted motion vector candidate in all candidates of the predicted motion vector, information on the predicted motion vector may not be encoded.

도 16은 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 방법을 설명하기 위한 흐름도이다. 16 is a flowchart illustrating a method of decoding a motion vector according to an embodiment of the present invention.

도 16을 참조하면, 단계 1610에서 움직임 벡터 복호화 장치는 수신된 비트스트림으로부터 현재 블록의 움직임 벡터에 대한 정보를 복호화한다. 움직임 벡터에 대한 정보는 현재 블록의 실제 움직임 벡터와 현재 블록의 예측 움직임 벡터 사이의 실제 움직임 벡터 차이일 수 있다.Referring to FIG. 16, in step 1610, the motion vector decoding apparatus decodes information on the motion vector of the current block from the received bitstream. The information on the motion vector may be the difference between the actual motion vector of the current block and the predicted motion vector of the current block.

단계 1620에서 움직임 벡터 복호화 장치는 단계 1610에서 복호화된 움직임 벡터에 대한 정보 및 예측 움직임 벡터의 전체 후보들 중 하나의 예측 움직임 벡터 후보에 기초해 가상의 움직임 벡터를 생성한다.In step 1620, the motion vector decoding apparatus generates information on the motion vector decoded in step 1610 and a virtual motion vector based on the predicted motion vector candidate of all the candidates of the predicted motion vector.

가상의 움직임 벡터가 생성되면, 움직임 벡터 복호화 장치는 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 제외한다. 현재 블록에 인접한 이전에 복호화된 영역의 블록들의 움직임 벡터에 기초해 예측 움직임 벡터의 전체 후보들이 결정된다. 움직임 벡터 복호화 장치는 이러한 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다. 소정의 평가 함수에 기초해 가상의 움직임 벡터 차이와 단계 1610에서 복호화된 실제 움직임 벡터 차이를 평가하여 소정의 예측 움직임 벡터 후보를 선택적으로 제외한다. 예측 움직임 벡터 후보를 전체 후보들에서 제외하는 방법은 단계 1530과 동일하며, 수학식 1 내지 5를 참조하여 전술하였다.When a virtual motion vector is generated, the motion vector decoding apparatus excludes at least one predicted motion vector candidate from all candidates of the predicted motion vector. All candidates of the predicted motion vector are determined based on the motion vectors of the blocks of the previously decoded area adjacent to the current block. The motion vector decoding apparatus may selectively exclude at least one predicted motion vector candidate from all candidates of the predicted motion vector. The virtual motion vector difference based on the predetermined evaluation function and the actual motion vector difference decoded in step 1610 are evaluated to selectively exclude a predetermined predicted motion vector candidate. The method of excluding the predicted motion vector candidate from all candidates is the same as step 1530, and has been described above with reference to equations (1) to (5).

단계 1620의 가상의 움직임 벡터를 생성하는 과정 및 선택적으로 제외하는 과정을 전체 후보들 모두에 대해 반복하여 수행함으로써, 적어도 하나의 예측 움직임 벡터 후보를 전체 후보들에서 제외할 수 있다.The process of generating the virtual motion vector of step 1620 and the process of selectively excluding the virtual motion vector may be repeatedly performed for all of the candidates so that at least one predicted motion vector candidate may be excluded from all candidates.

또한, 움직임 벡터 부호화 장치는 도 13a 내지 13d와 관련하여 전술한 바와 같이 움직임 벡터의 전체 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수도 있다. 재정렬된 전체 후보들에서 중복된 예측 움직임 벡터 후보를 제외하고, 수학식 1 내지 5에 따른 제외 판단을 반복할 수도 있다.In addition, the motion vector coding apparatus may rearrange the entire candidates of the motion vector according to a predetermined criterion, as described above with reference to FIGS. 13A to 13D, and selectively exclude at least one predictive motion vector candidate from all the reordered candidates have. It is possible to repeat the exclusion determination according to Equations 1 to 5 except for the redundant predicted motion vector candidates in all the reordered candidates.

제외 결과, 복수의 예측 움직임 벡터의 후보들이 남으면, 예측 움직임 벡터에 대한 정보를 복호화하고, 하나의 예측 움직임 벡터 후보만 남으면 예측 움직임 벡터에 대한 정보를 복호화하지 않는다.As a result of the exclusion, if the candidates of the plurality of predicted motion vectors remain, information on the predicted motion vector is decoded. If only one predicted motion vector candidate is left, information on the predicted motion vector is not decoded.

단계 1630에서 움직임 벡터 복호화 장치는 단계 1620에서 제외되지 않은 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용되는 예측 움직임 벡터 후보를 결정한다.In step 1630, the motion vector decoding apparatus determines a predicted motion vector candidate used for predicting the motion vector of the current block among the candidates of the predicted motion vector not excluded in step 1620.

현재 블록의 예측 움직임 벡터에 대한 정보에 기초해 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용되는 예측 움직임 벡터 후보를 결정할 수 있다. 단계 1620의 제외 결과 하나의 예측 움직임 벡터 후보만 남은 경우에는 남은 하나의 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측 하는데 이용되는 예측 움직임 벡터 후보로 결정된다. A prediction motion vector candidate used for predicting the motion vector of the current block among the candidates of the predicted motion vector may be determined based on information on the predicted motion vector of the current block. If only one predicted motion vector candidate is left as a result of step 1620, the remaining predicted motion vector candidate is determined as a predicted motion vector candidate used to predict a motion vector of the current block.

예측 움직임 벡터 후보가 결정되면, 결정된 예측 움직임 벡터 후보와 단계 1610에서 복호화된 실제 움직임 벡터 차이를 가산하여 현재 블록의 움직임 벡터를 복원한다. When the predicted motion vector candidate is determined, the motion vector of the current block is restored by adding the determined predicted motion vector candidate and the difference of the actual motion vector decoded in step 1610. [

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다. 또한, 본 발명에 따른 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Modification is possible. Accordingly, the spirit of the present invention should be understood only in accordance with the following claims, and all of the equivalent or equivalent variations will fall within the scope of the present invention. In addition, the system according to the present invention can be embodied as computer-readable codes on a computer-readable recording medium.

예를 들어, 본 발명의 예시적인 실시예에 따른 영상 부호화 장치, 영상 복호화 장치, 움직임 벡터 부호화 장치 및 움직임 벡터 복호화 장치는 도 1, 2, 4, 5, 9 및 14에 도시된 바와 같은 장치의 각각의 유닛들에 커플링된 버스, 상기 버스에 결합된 적어도 하나의 프로세서를 포함할 수 있다. 또한, 명령, 수신된 메시지 또는 생성된 메시지를 저장하기 위해 상기 버스에 결합되어, 전술한 바와 같은 명령들을 수행하기 위한 적어도 하나의 프로세서에 커플링된 메모리를 포함할 수 있다. For example, the image encoding apparatus, the image decoding apparatus, the motion vector encoding apparatus, and the motion vector decoding apparatus according to exemplary embodiments of the present invention may be applied to a device as shown in FIGS. 1, 2, 4, 5, 9 and 14 A bus coupled to each of the units, and at least one processor coupled to the bus. It may also include a memory coupled to the bus for storing instructions, received messages or generated messages and coupled to the at least one processor for performing the instructions as described above.

또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

Claims (9)

영상을 복호화하는 방법에 있어서,
현재 블록의 움직임 벡터 차이에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 비트스트림으로부터 복호화하는 단계;
예측 움직임 벡터 후보 집합을 구성하는 단계;
상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 값을 기반으로, 상기 예측 움직임 벡터 후보 집합을 조정하는 단계;
상기 조정된 예측 움직임 벡터 후보 집합 및 상기 예측 움직임 벡터에 대한 정보를 기반으로 상기 현재 블록의 예측 움직임 벡터를 결정하는 단계; 및
상기 현재 블록의 예측 움직임 벡터 및 상기 현재 블록의 움직임 벡터 차이에 대한 정보를 기반으로 상기 현재 블록의 움직임 벡터를 결정하는 단계를 포함하되,
상기 조정된 예측 움직임 벡터 후보 집합은 상기 현재 블록에 인접한 블록들의 움직임 벡터들에 기반한 1차 예측 움직임 벡터 후보들과, 현재 블록과 동일한 위치의 참조 픽처상의 블록의 움직임 벡터에 기반한 2차 예측 움직임 벡터 후보 중 적어도 하나를 포함하고,
상기 인접한 블록들은 상기 현재 블록의 우측상부의 제1 블록, 상기 제1 블록의 좌측의 제2 블록, 상기 현재 블록의 좌측상부의 제3 블록 및 상기 현재 블록의 좌측하부의 제4 블록을 포함함을 특징으로 하는, 복호화 방법
A method for decoding an image,
Decoding information on a motion vector difference of a current block and information on a prediction motion vector for specifying a prediction motion vector of the current block from a bitstream;
Constructing a predicted motion vector candidate set;
Adjusting the predicted motion vector candidate set based on the values of the predicted motion vector candidates in the predicted motion vector candidate set;
Determining a predicted motion vector of the current block based on the adjusted predicted motion vector candidate set and information on the predicted motion vector; And
And determining a motion vector of the current block based on the predicted motion vector of the current block and the motion vector difference of the current block,
The adjusted predicted motion vector candidate set includes first-order predicted motion vector candidates based on motion vectors of blocks adjacent to the current block, second-order predicted motion vector candidates based on motion vectors of blocks on the reference picture at the same position as the current block, , ≪ / RTI >
The adjacent blocks include a first block on the upper right side of the current block, a second block on the left side of the first block, a third block on the upper left side of the current block, and a fourth block on the lower left side of the current block The decoding method
제 1항에 있어서,
상기 예측 움직임 벡터 후보 집합을 조정하는 단계는 상기 예측 움직임 벡터 후보 집합 내 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들이 존재하는 경우, 상기 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들 중 하나를 상기 예측 움직임 벡터 후보 집합에서 제거하는 것을 포함함을 특징으로 하는, 복호화 방법.
The method according to claim 1,
Wherein the step of adjusting the predicted motion vector candidate set comprises: if there are first-order predicted motion vector candidates having overlapping values in the predicted motion vector candidate set, selecting one of the first- And removing from the predicted motion vector candidate set.
제 1항에 있어서,
상기 조정된 예측 움직임 벡터 후보 집합은 총 두개의 예측 움직임 벡터 후보를 포함하고,
상기 예측 움직임 벡터에 대한 정보는 1비트 이진수 값을 통하여 상기 두개의 예측 움직임 벡터 후보 중 하나를 나타냄을 특징으로 하는, 복호화 방법.
The method according to claim 1,
Wherein the adjusted predicted motion vector candidate set includes a total of two predicted motion vector candidates,
Wherein the information on the predictive motion vector represents one of the two predictive motion vector candidates through a 1-bit binary value.
현재 블록의 움직임 벡터 차이에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 비트스트림으로부터 복호화하는 복호화부;
예측 움직임 벡터 후보 집합을 구성하고, 상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 값을 기반으로, 상기 예측 움직임 벡터 후보 집합을 조정하는 후보결정부; 및
상기 조정된 예측 움직임 벡터 후보 집합 및 상기 예측 움직임 벡터에 대한 정보를 기반으로 상기 현재 블록의 예측 움직임 벡터를 결정하고, 상기 현재 블록의 예측 움직임 벡터 및 상기 현재 블록의 움직임 벡터 차이에 대한 정보를 기반으로 상기 현재 블록의 움직임 벡터를 결정하는 움직임벡터 복원부를 포함하되,
상기 조정된 예측 움직임 벡터 후보 집합은 상기 현재 블록에 인접한 블록들의 움직임 벡터들에 기반한 1차 예측 움직임 벡터 후보들과, 현재 블록과 동일한 위치의 참조 픽처상의 블록의 움직임 벡터에 기반한 2차 예측 움직임 벡터 후보 중 적어도 하나를 포함하고,
상기 인접한 블록들은 상기 현재 블록의 우측상부의 제1 블록, 상기 제1 블록의 좌측의 제2 블록, 상기 현재 블록의 좌측상부의 제3 블록 및 상기 현재 블록의 좌측하부의 제4 블록을 포함함을 특징으로 하는, 복호화 장치.
A decoding unit decoding information on a motion vector difference of a current block and information on a prediction motion vector for specifying a prediction motion vector of the current block from a bitstream;
A candidate decision unit for constructing a predicted motion vector candidate set and adjusting the predicted motion vector candidate set based on the value of the predicted motion vector candidates in the predicted motion vector candidate set; And
Determining a predicted motion vector of the current block based on the adjusted predicted motion vector candidate set and information about the predicted motion vector, and calculating information on the predicted motion vector of the current block and the motion vector difference of the current block, And a motion vector restoring unit for determining a motion vector of the current block,
The adjusted predicted motion vector candidate set includes first-order predicted motion vector candidates based on motion vectors of blocks adjacent to the current block, second-order predicted motion vector candidates based on motion vectors of blocks on the reference picture at the same position as the current block, , ≪ / RTI >
The adjacent blocks include a first block on the upper right side of the current block, a second block on the left side of the first block, a third block on the upper left side of the current block, and a fourth block on the lower left side of the current block And decrypting the encrypted data.
제 4 항에 있어서,
상기 후보결정부는 상기 예측 움직임 벡터 후보 집합을 조정함에 있어, 상기 예측 움직임 벡터 후보 집합 내 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들이 존재하는 경우, 상기 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들 중 하나를 상기 예측 움직임 벡터 후보 집합에서 제거함을 특징으로 하는, 복호화 장치.
5. The method of claim 4,
In the case where the candidate motion vector candidates having overlapping values are present in the motion vector candidate set of the predictive motion vector, the candidate decision unit determines the candidate motion vectors of the primary predicted motion vector candidates From the predicted motion vector candidate set. ≪ Desc / Clms Page number 19 >
제 4 항에 있어서,
상기 후보결정부는 총 두개의 예측 움직임 벡터 후보를 포함하도록 상기 예측 움직임 벡터 후보 집합을 조정하고,
상기 후보결정부는 1비트 이진수 값을 갖는 상기 예측 움직임 벡터에 대한 정보를 통하여 상기 두개의 예측 움직임 벡터 후보 중 하나를 결정함을 특징으로 하는, 복호화 장치.
5. The method of claim 4,
Wherein the candidate determining unit adjusts the predicted motion vector candidate set so as to include a total of two predicted motion vector candidates,
Wherein the candidate determining unit determines one of the two predicted motion vector candidates through information on the predictive motion vector having a 1-bit binary value.
영상을 부호화하는 방법에 있어서,
현재 블록에 대한 인터 예측을 수행하여 상기 현재 블록의 움직임 벡터를 결정하는 단계;
예측 움직임 벡터 후보 집합을 구성하는 단계;
상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 값을 기반으로, 상기 예측 움직임 벡터 후보 집합을 조정하는 단계;
상기 현재 블록의 움직임 벡터에 기초하여 상기 조정된 예측 움직임 벡터 후보 집합에 포함된 예측 움직임 벡터 후보들 중 상기 현재 블록의 예측 움직임 벡터를 결정하여 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 부호화하는 단계;
상기 현재 블록의 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터의 차이를 나타내는 상기 현재 블록의 움직임 벡터의 차이에 대한 정보를 부호화하는 단계; 및
상기 현재 블록의 움직임 벡터 차이에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 포함하는 비트스트림을 생성하는 단계를 포함하고,
상기 조정된 예측 움직임 벡터 후보 집합은 상기 현재 블록에 인접한 블록들의 움직임 벡터들에 기반한 1차 예측 움직임 벡터 후보들과, 현재 블록과 동일한 위치의 참조 픽처상의 블록의 움직임 벡터에 기반한 2차 예측 움직임 벡터 후보 중 적어도 하나를 포함하고,
상기 인접한 블록들은 상기 현재 블록의 우측상부의 제1 블록, 상기 제1 블록의 좌측의 제2 블록, 상기 현재 블록의 좌측상부의 제3 블록 및 상기 현재 블록의 좌측하부의 제4 블록을 포함함을 특징으로 하는, 부호화 방법
A method of encoding an image,
Performing inter-prediction on a current block to determine a motion vector of the current block;
Constructing a predicted motion vector candidate set;
Adjusting the predicted motion vector candidate set based on the values of the predicted motion vector candidates in the predicted motion vector candidate set;
A predictive motion vector of the current block among the predicted motion vector candidates included in the adjusted predictive motion vector candidate set is determined based on the motion vector of the current block to determine a predictive motion vector for specifying the predictive motion vector of the current block Encoding the information about the data;
Encoding information on a difference between a motion vector of the current block and a motion vector of the current block indicating a difference between the motion vector of the current block and the predicted motion vector of the current block; And
Generating a bitstream including information on a motion vector difference of the current block and information on a predictive motion vector for specifying a predictive motion vector of the current block,
The adjusted predicted motion vector candidate set includes first-order predicted motion vector candidates based on motion vectors of blocks adjacent to the current block, second-order predicted motion vector candidates based on motion vectors of blocks on the reference picture at the same position as the current block, , ≪ / RTI >
The adjacent blocks include a first block on the upper right side of the current block, a second block on the left side of the first block, a third block on the upper left side of the current block, and a fourth block on the lower left side of the current block Encoding method < RTI ID = 0.0 >
영상을 부호화하는 장치에 있어서,
현재 블록에 대한 인터 예측을 수행하여 상기 현재 블록의 움직임 벡터를 결정하는 움직임 벡터 추정부;
예측 움직임 벡터 후보 집합을 구성하고, 상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 값을 기반으로, 상기 예측 움직임 벡터 후보 집합을 조정하는 후보 결정부; 및
상기 현재 블록의 움직임 벡터에 기초하여 상기 조정된 예측 움직임 벡터 후보 집합에 포함된 예측 움직임 벡터 후보들 중 상기 현재 블록의 예측 움직임 벡터를 결정하여 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 부호화하고, 상기 현재 블록의 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터의 차이를 나타내는 상기 현재 블록의 움직임 벡터의 차이에 대한 정보를 부호화하고, 상기 현재 블록의 움직임 벡터 차이에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 포함하는 비트스트림을 생성하는 움직임 벡터 부호화부를 포함하고,
상기 조정된 예측 움직임 벡터 후보 집합은 상기 현재 블록에 인접한 블록들의 움직임 벡터들에 기반한 1차 예측 움직임 벡터 후보들과, 현재 블록과 동일한 위치의 참조 픽처상의 블록의 움직임 벡터에 기반한 2차 예측 움직임 벡터 후보 중 적어도 하나를 포함하고,
상기 인접한 블록들은 상기 현재 블록의 우측상부의 제1 블록, 상기 제1 블록의 좌측의 제2 블록, 상기 현재 블록의 좌측상부의 제3 블록 및 상기 현재 블록의 좌측하부의 제4 블록을 포함함을 특징으로 하는, 부호화 장치.
An apparatus for encoding an image, the apparatus comprising:
A motion vector estimator for performing motion vector prediction on the current block to determine a motion vector of the current block;
A candidate decision unit for constructing a predicted motion vector candidate set and adjusting the predicted motion vector candidate set based on the value of the predicted motion vector candidates in the predicted motion vector candidate set; And
A predictive motion vector of the current block among the predicted motion vector candidates included in the adjusted predictive motion vector candidate set is determined based on the motion vector of the current block to determine a predictive motion vector for specifying the predictive motion vector of the current block And encodes information on the difference between the motion vector of the current block and the motion vector of the current block indicating the difference between the motion vector of the current block and the predicted motion vector of the current block, And a motion vector encoding unit for generating a bitstream including information on a predictive motion vector for specifying a predictive motion vector of the current block,
The adjusted predicted motion vector candidate set includes first-order predicted motion vector candidates based on motion vectors of blocks adjacent to the current block, second-order predicted motion vector candidates based on motion vectors of blocks on the reference picture at the same position as the current block, , ≪ / RTI >
The adjacent blocks include a first block on the upper right side of the current block, a second block on the left side of the first block, a third block on the upper left side of the current block, and a fourth block on the lower left side of the current block .
현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보; 및
현재 블록의 움직임 벡터와 현재 블록의 예측 움직임 벡터의 차이를 나타내는 현재 블록의 움직임 벡터의 차이에 대한 정보를 포함하고,
상기 현재 블록의 움직임 벡터는 현재 블록에 대한 인터 예측을 수행하여 결정되고,
예측 움직임 벡터 후보 집합이 구성되고, 상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 값을 기반으로, 상기 예측 움직임 벡터 후보 집합이 조정되고,
상기 예측 움직임 벡터에 대한 정보는 상기 현재 블록의 움직임 벡터에 기초하여 상기 조정된 예측 움직임 벡터 후보 집합에 포함된 예측 움직임 벡터 후보들 중 하나를 결정하여 부호화된 정보이고,
상기 조정된 예측 움직임 벡터 후보 집합은 상기 현재 블록에 인접한 블록들의 움직임 벡터들에 기반한 1차 예측 움직임 벡터 후보들과, 현재 블록과 동일한 위치의 참조 픽처상의 블록의 움직임 벡터에 기반한 2차 예측 움직임 벡터 후보 중 적어도 하나를 포함하고,
상기 인접한 블록들은 상기 현재 블록의 우측상부의 제1 블록, 상기 제1 블록의 좌측의 제2 블록, 상기 현재 블록의 좌측상부의 제3 블록 및 상기 현재 블록의 좌측하부의 제4 블록을 포함하는 비트스트림을 저장하는 컴퓨터로 읽을 수 있는 기록매체.
Information on a predicted motion vector for specifying a predicted motion vector of a current block; And
And information on a difference between a motion vector of a current block and a motion vector of a current block indicating a difference between the predicted motion vectors of the current block,
The motion vector of the current block is determined by performing inter-prediction on the current block,
A predicted motion vector candidate set is constructed, the predicted motion vector candidate set is adjusted based on the value of the predicted motion vector candidates in the predicted motion vector candidate set,
Wherein the information on the predictive motion vector is information determined by determining one of predictive motion vector candidates included in the adjusted predictive motion vector candidate set based on the motion vector of the current block,
The adjusted predicted motion vector candidate set includes first-order predicted motion vector candidates based on motion vectors of blocks adjacent to the current block, second-order predicted motion vector candidates based on motion vectors of blocks on the reference picture at the same position as the current block, , ≪ / RTI >
The adjacent blocks include a first block on the upper right side of the current block, a second block on the left side of the first block, a third block on the upper left side of the current block, and a fourth block on the lower left side of the current block A computer-readable recording medium storing a bit stream.
KR1020170100448A 2010-01-19 2017-08-08 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates KR101857801B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US29616310P 2010-01-19 2010-01-19
US61/296,163 2010-01-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020110004015A Division KR101768207B1 (en) 2010-01-19 2011-01-14 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180052802A Division KR101916382B1 (en) 2010-01-19 2018-05-08 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates

Publications (2)

Publication Number Publication Date
KR20170094535A KR20170094535A (en) 2017-08-18
KR101857801B1 true KR101857801B1 (en) 2018-05-14

Family

ID=59753327

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020170100448A KR101857801B1 (en) 2010-01-19 2017-08-08 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates
KR1020180052802A KR101916382B1 (en) 2010-01-19 2018-05-08 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates
KR1020180133140A KR101974140B1 (en) 2010-01-19 2018-11-01 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020180052802A KR101916382B1 (en) 2010-01-19 2018-05-08 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates
KR1020180133140A KR101974140B1 (en) 2010-01-19 2018-11-01 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates

Country Status (1)

Country Link
KR (3) KR101857801B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210006824A1 (en) * 2018-01-08 2021-01-07 Samsung Electronics Co., Ltd. Encoding and decoding method for motion information, and encoding and decoding device for motion information
CN118042151A (en) * 2018-01-25 2024-05-14 三星电子株式会社 Method and apparatus for video signal processing using sub-block based motion compensation
WO2019194499A1 (en) * 2018-04-01 2019-10-10 엘지전자 주식회사 Inter prediction mode-based image processing method and device therefor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279573B1 (en) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J. Jung, et al. Competition-Based Scheme for Motion Vector Selection and Coding. ITU-T SG16 Q.6 VCEG. VCEG-AC06r1, Aug. 2, 2006, pp.1-7
S-D. Kim, et al. An Efficient Motion Vector Coding Scheme Based on Minimum Bitrate Prediction. IEEE Trans. on Image Proc. Aug. 1999, Vol.8, No.8, pp.1117-1120
Test Model under Consideration. JCT-VC of ITU-T and ISO/IEC. JCTVC-B205 draft007, Oct. 2010, pp.1-179

Also Published As

Publication number Publication date
KR20180052118A (en) 2018-05-17
KR101974140B1 (en) 2019-04-30
KR20180121862A (en) 2018-11-09
KR20170094535A (en) 2017-08-18
KR101916382B1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
KR101768208B1 (en) Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates
KR101522850B1 (en) Method and apparatus for encoding/decoding motion vector
KR101859451B1 (en) Method and apparatus for encoding/decoding image by using motion vector of previous block as motion vector of current block
KR101974140B1 (en) Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates
KR101676791B1 (en) Method for decoding an image
KR101691553B1 (en) Method and apparatus for decoding image
KR101635111B1 (en) Method and apparatus for encoding/decoding motion vector
KR101882949B1 (en) Method and apparatus for encoding image, and computer-readable medium
KR101783965B1 (en) Method and apparatus for decoding image
KR101635114B1 (en) Method for decoding an image
KR101477546B1 (en) Apparatus for decoding motion vector
JP6935553B2 (en) Methods and Devices for Coding / Decoding Motion Vectors Based on Reduced Predicted Motion Vector Candidates
KR101477545B1 (en) Method for decoding motion vector
KR101617334B1 (en) Method and apparatus for encoding/decoding motion vector
KR101424977B1 (en) Method and apparatus for encoding/decoding motion vector
KR101617796B1 (en) Method and apparatus for decoding image
KR101606812B1 (en) Method and apparatus for decoding image
KR101454664B1 (en) Method for decoding motion vector

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant