KR101782153B1 - Method for selecting motion vector candidate and method for encoding/decoding image using the same - Google Patents

Method for selecting motion vector candidate and method for encoding/decoding image using the same Download PDF

Info

Publication number
KR101782153B1
KR101782153B1 KR1020160070356A KR20160070356A KR101782153B1 KR 101782153 B1 KR101782153 B1 KR 101782153B1 KR 1020160070356 A KR1020160070356 A KR 1020160070356A KR 20160070356 A KR20160070356 A KR 20160070356A KR 101782153 B1 KR101782153 B1 KR 101782153B1
Authority
KR
South Korea
Prior art keywords
block
picture
prediction
candidate
current
Prior art date
Application number
KR1020160070356A
Other languages
Korean (ko)
Other versions
KR20160143583A (en
Inventor
정제창
김기백
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Publication of KR20160143583A publication Critical patent/KR20160143583A/en
Priority to KR1020170121467A priority Critical patent/KR102420559B1/en
Application granted granted Critical
Publication of KR101782153B1 publication Critical patent/KR101782153B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

영상에서 부호화 또는 복호화하고자 하는 현재 블록에 대하여 움직임 정보를 유도하기 위해 현재 픽쳐를 포함한 참조 픽쳐의 참조 블록들로부터 예측 후보를 선택하는 움직임 벡터 후보 선택 방법 및 이를 이용하는 영상 부호화/복호화 방법이 개시된다. 움직임 벡터 후보 선택 방법은, 공간적 움직임 벡터 후보를 구성하는 단계, 현재 블록의 참조 픽쳐가 현재 픽쳐 내 존재하는지를 판단하는 단계, 및 상기 판단하는 단계의 판단 결과가 예이면, 현재 블록에 앞서 부호화된 현재 픽쳐의 다른 블록에서의 공간적 움직임 벡터 후보를 추가하는 단계를 포함한다.A motion vector candidate selection method for selecting a prediction candidate from reference blocks of a reference picture including a current picture to derive motion information for a current block to be encoded or decoded in an image, and an image encoding / decoding method using the same. A motion vector candidate selection method includes: constructing a spatial motion vector candidate; determining whether a reference picture of a current block exists in a current picture; and if the determination result of the determining step is YES, And adding a spatial motion vector candidate in another block of the picture.

Description

움직임 벡터 후보 선택 방법 및 이를 이용하는 영상 부호화/복호화 방법{METHOD FOR SELECTING MOTION VECTOR CANDIDATE AND METHOD FOR ENCODING/DECODING IMAGE USING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a motion vector candidate selection method and a video encoding / decoding method using the motion vector candidate selection method.

본 발명은 영상 부호화/복호화 기술에 관한 것으로, 보다 상세하게는, 영상 부호화/복호화에서 현재 블록에 대한 움직임 정보를 유도하기 위해 현재 픽쳐를 포함한 참조 픽쳐의 참조 블록들로부터 예측 후보를 선택하는 움직임 벡터 후보 선택 방법 및 이를 이용하는 영상 부호화/복호화 방법에 관한 것이다.The present invention relates to an image encoding / decoding technique, and more particularly, to a motion vector decoding method and a motion vector decoding method for decoding a motion vector for selecting a prediction candidate from reference blocks of a reference picture including a current picture, Candidate selection method and a video encoding / decoding method using the same.

인터넷과 휴대 단말의 보급과 정보 통신 기술의 발전에 따라 멀티미디어 데이터 이용이 급증하고 있다. 따라서, 각종 시스템에서 영상 예측을 통해 다양한 서비스나 작업을 수행하기 위하여 영상 처리 시스템의 성능 및 효율 개선에 대한 필요성이 상당히 증가하고 있다.With the spread of the Internet and mobile terminals and the development of information and communication technology, the use of multimedia data is increasing rapidly. Therefore, in order to perform various services or tasks through image prediction in various systems, there is a great need for improving the performance and efficiency of the image processing system.

한편, 기존의 영상 부호화/복호화 기술에서는 화면 간 예측 방식에 따라 현재 픽쳐 이전이나 이후의 적어도 하나의 참조 픽쳐에서 현재 블록의 주변 블록들에 대한 움직임 정보를 예측하거나, 화면 내 예측 방식에 따라 현재 픽쳐 내 참조 블록에서 움직임 정보를 획득하여 현재 블록에 대한 움직임 벡터를 추정하고 있다.Meanwhile, in the conventional image encoding / decoding technique, motion information on neighboring blocks of the current block is predicted in at least one reference picture before or after the current picture according to the inter picture prediction method, The motion information for the current block is estimated by acquiring the motion information from the reference block.

그러나 기존의 화면 간 예측은 픽쳐들 사이의 시간적인 예측 모드를 이용하여 예측 블록을 생성하기 때문에 계산 복잡도가 높은 단점이 있고, 화면 내 예측은 커다란 부호화 복잡도를 가지는 단점이 있다.However, existing inter-picture prediction has a drawback in that the calculation complexity is high because a prediction block is generated using a temporal prediction mode between pictures, and in-picture prediction has a disadvantage that it has a large coding complexity.

이와 같이, 종래 기술의 영상 부호화/복호화 방법에서는 영상 부호화 또는 영상 복호화에 대한 성능 개선이 여전히 요구되고 있다.As described above, in the image encoding / decoding method of the related art, performance improvement for image encoding or image decoding is still required.

상기와 같은 과제를 해결하기 위한 본 발명의 목적은, 움직임 벡터 후보를 효과적으로 선택할 수 있는, 움직임 벡터 후보 선택 방법을 제공하는데 있다.It is an object of the present invention to provide a motion vector candidate selection method capable of effectively selecting a motion vector candidate.

본 발명의 다른 목적은, 움직임 벡터 후보 선택 방법을 이용하는 영상 부호화/복호화 방법을 제공하는데 있다.Another object of the present invention is to provide an image encoding / decoding method using a motion vector candidate selection method.

상기 목적을 달성하기 위한 본 발명의 일 측면에서는, 공간적 움직임 벡터 후보(제1 후보)를 구성하는 단계, 현재 블록의 참조 픽쳐가 현재 픽쳐 내 존재하는지를 판단하는 단계, 및 상기 판단하는 단계의 판단 결과가 예이면, 상기 현재 블록에 앞서 부호화된 현재 픽쳐의 다른 블록에서의 공간적 움직임 벡터 후보(제2 후보)를 추가하는 단계를 포함하는, 움직임 벡터 후보 선택 방법이 제공된다.According to an aspect of the present invention, there is provided a method of generating spatial motion vector candidates, comprising the steps of: constructing a spatial motion vector candidate (first candidate); determining whether a reference picture of a current block exists in a current picture; Is added, adding a spatial motion vector candidate (second candidate) in another block of the current picture encoded before the current block, is provided.

여기서, 움직임 벡터 후보 선택 방법은, 상기 판단하는 단계의 판단 결과가 아니오이면 시간적 움직임 벡터 후보(제3 후보)를 추가하는 단계를 더 포함할 수 있다.Here, the motion vector candidate selection method may further include adding a temporal motion vector candidate (third candidate) if the determination result of the determining step is NO.

여기서, 움직임 벡터 후보 선택 방법은, 상기 추가하는 단계 후에, 상기 제1 후보, 상기 제2 부호 및 상기 제3 후보를 포함하는 혼합 리스트 후보를 구성하는 단계를 더 포함할 수 있다.Here, the motion vector candidate selection method may further comprise, after the adding step, constructing a mixed list candidate including the first candidate, the second code and the third candidate.

여기서, 움직임 벡터 후보 선택 방법은, 상기 혼합 리스트 후보를 구성하는 단계 후에, 상기 현재 픽쳐가 참조 픽쳐인지를 판단하는 단계; 및 상기 현재 픽쳐가 참조 픽쳐이고, 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, 미리 설정된 고정 좌표의 고정 후보를 추가하는 단계를 더 포함할 수 있다.Here, the motion vector candidate selection method may include: determining whether the current picture is a reference picture after constructing the mixed list candidate; And adding the fixed candidate of fixed coordinates if the current picture is a reference picture and the number of motion vector candidates in the mixed list candidate is smaller than a preset number.

여기서, 움직임 벡터 후보 선택 방법은, 상기 현재 픽쳐가 참조 픽쳐가 아니고, 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, (0, 0)을 고정 후보로 추가하는 단계를 더 포함할 수 있다.Here, if the current picture is not a reference picture and the number of motion vector candidates in the mixed list candidates is smaller than a preset number, a step of adding (0, 0) as a fixed candidate is performed .

여기서, 상기 현재 픽쳐의 다른 블록은 상기 현재 블록의 주변 블록을 사이에 두고 상기 현재 블록과 마주하는 블록들로서 상기 현재 픽쳐에서 상기 현재 블록에 앞서 부호화된 블록을 포함할 수 있다. 상기 현재 픽쳐의 다른 블록은 상기 현재 블록에 앞서 화면 간 예측으로 부호화된 블록일 수 있다.Here, another block of the current picture may include a block that is coded before the current block in the current picture, as a block that faces the current block with a neighboring block of the current block interposed therebetween. The other block of the current picture may be a block coded by inter-picture prediction prior to the current block.

상기 목적을 달성하기 위한 본 발명의 다른 측면에서는, 공간적 움직임 벡터 후보(제1 후보)를 구성하는 단계; 현재 블록의 참조 픽쳐가 현재 픽쳐 내 존재하는지를 판단하는 단계; 상기 판단하는 단계의 판단 결과가 예이면, 상기 현재 블록에 앞서 부호화된 현재 픽쳐의 다른 블록에서의 공간적 움직임 벡터 후보(제2 후보)를 추가하는 단계; 상기 판단하는 단계의 판단 결과가 아니오이면, 시간적 움직임 벡터 후보(제3 후보)를 추가하는 단계; 및 상기 제1 후보, 및 상기 제2 후보와 상기 제3 후보 중 어느 하나를 포함하는 움직임 벡터 후보를 토대로 참조 화소 필터링을 수행하는 단계를 포함하는, 영상 부호화 방법이 제공된다.According to another aspect of the present invention, there is provided a motion estimation method comprising: constructing a spatial motion vector candidate (first candidate); Determining whether a reference picture of the current block exists in the current picture; Adding a spatial motion vector candidate (second candidate) in another block of the current picture encoded before the current block if the determination result of the determining step is YES; Adding a temporal motion vector candidate (third candidate) if the determination result of the determining step is NO; And performing reference pixel filtering based on the motion vector candidate including the first candidate and the second candidate and the third candidate.

여기서, 영상 부호화 방법은, 상기 수행하는 단계 전에, 상기 현재 픽쳐가 참조 픽쳐인지를 판단하는 단계; 상기 현재 픽쳐가 참조 픽쳐이고, 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, 미리 설정된 고정 좌표의 고정 후보를 추가하는 단계; 및 상기 현재 픽쳐가 참조 픽쳐가 아니고, 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, (0, 0)을 고정 후보로 추가하는 단계를 더 포함할 수 있다.Here, the image coding method may further comprise: before the performing step, determining whether the current picture is a reference picture; If the current picture is a reference picture and the number of motion vector candidates in the mixed list candidate is smaller than a preset number, adding a fixed candidate of fixed coordinates previously set; And adding (0, 0) as a fixed candidate if the current picture is not a reference picture and the number of motion vector candidates in the mixed list candidate is smaller than a preset number.

여기서, 영상 부호화 방법은, 상기 수행하는 단계 후에, 화면 내 예측을 통해 예측 블록을 생성하는 단계; 및 상기 생성된 예측 블록에 대해 예측 모드 부호화를 수행하는 단계를 더 포함할 수 있다.Here, the image encoding method may further include: generating a prediction block through intra-picture prediction after the performing; And performing prediction mode encoding on the generated prediction block.

상기 목적을 달성하기 위한 본 발명의 또 다른 측면에서는, 공간적 움직임 벡터 후보(제1 후보)를 구성하는 단계; 현재 블록의 참조 픽쳐가 현재 픽쳐 내 존재하는지를 판단하는 단계; 상기 판단하는 단계의 판단 결과가 예이면, 상기 현재 블록에 앞서 부호화된 현재 픽쳐의 다른 블록에서의 공간적 움직임 벡터 후보(제2 후보)를 추가하는 단계; 상기 판단하는 단계의 판단 결과가 아니오이면, 시간적 움직임 벡터 후보(제3 후보)를 추가하는 단계; 및 상기 제2 후보와 상기 제3 후보 중 적어도 어느 하나와 상기 제1 후보를 포함하는 움직임 벡터 후보를 토대로 모션 예측을 수행하는 단계를 포함하는, 영상 부호화 방법이 제공된다.According to another aspect of the present invention, there is provided a method for generating a spatial motion vector candidate, the method comprising: constructing a spatial motion vector candidate (first candidate); Determining whether a reference picture of the current block exists in the current picture; Adding a spatial motion vector candidate (second candidate) in another block of the current picture encoded before the current block if the determination result of the determining step is YES; Adding a temporal motion vector candidate (third candidate) if the determination result of the determining step is NO; And performing motion prediction based on a motion vector candidate including at least one of the second candidate and the third candidate and the first candidate.

여기서, 영상 부호화 방법은, 상기 수행하는 단계 전에, 상기 현재 픽쳐가 참조 픽쳐인지를 판단하는 단계; 상기 현재 픽쳐가 참조 픽쳐이고, 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, 미리 설정된 고정 좌표의 고정 후보를 추가하는 단계; 및 상기 현재 픽쳐가 참조 픽쳐가 아니고, 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, (0, 0)을 고정 후보로 추가하는 단계를 더 포함할 수 있다.Here, the image coding method may further comprise: before the performing step, determining whether the current picture is a reference picture; If the current picture is a reference picture and the number of motion vector candidates in the mixed list candidate is smaller than a preset number, adding a fixed candidate of fixed coordinates previously set; And adding (0, 0) as a fixed candidate if the current picture is not a reference picture and the number of motion vector candidates in the mixed list candidate is smaller than a preset number.

여기서, 영상 부호화 방법은, 상기 수행하는 단계 후에, 내삽(interpolation)을 수행하는 단계를 더 포함할 수 있다.Here, the image encoding method may further include performing interpolation after the performing step.

상기 목적을 달성하기 위한 본 발명의 또 다른 측면에서는, 부호화된 픽쳐를 엔트로피 복호화하는 단계; 복호화된 픽쳐를 역양자화하는 단계; 역양자화된 픽쳐는 역변환하는 단계; 상기 복호화된 픽쳐의 헤더 정보를 토대로 역변환된 영상에 대한 움직임 정보 예측 후보를 선택하는 단계; 및 상기 움직임 정보 예측 후보에 기반하여 획득한 가감산 영상 정보를 토대로 상기 역변환된 영상을 복호화하는 단계를 포함하는, 영상 복호화 방법이 제공된다.According to still another aspect of the present invention, there is provided a method of encoding a coded picture, the method comprising: entropy decoding a coded picture; Dequantizing the decoded picture; Transforming the inversely quantized picture; Selecting a motion information prediction candidate for an inversely transformed image based on the header information of the decoded picture; And decoding the inversely transformed image based on the addition / subtraction image information acquired based on the motion information prediction candidate.

여기서, 상기 선택하는 단계는, 상기 역변환된 영상 내 현재 픽쳐의 주변 블록으로부터의 공간적 움직임 벡터 후보(제1 후보), 및 상기 현재 블록에 앞서 부호화된 현재 픽쳐의 다른 블록에서의 공간적 움직임 벡터 후보(제2 후보)를 포함하는 후보군을 토대로 상기 현재 블록에 대한 움직임을 예측할 수 있다.Here, the selecting may include: a spatial motion vector candidate (first candidate) from a neighboring block of the current picture in the inversely transformed image; and a spatial motion vector candidate in another block of the current picture encoded prior to the current block A second candidate) for the current block based on the candidate group.

여기서, 상기 선택하는 단계는, 시간적 움직임 벡터 후보(제3 후보)가 더 추가된 후보군을 토대로 상기 현재 블록에 대한 움직임을 예측할 수 있다.Here, the selecting may predict a motion of the current block based on a candidate group to which a temporal motion vector candidate (third candidate) is further added.

여기서, 상기 선택하는 단계는, 상기 제1 후보, 상기 제2 부호 및 상기 제3 후보를 포함하는 혼합 리스트 후보군을 구성하고, 상기 현재 블록의 현재 픽쳐가 참조 픽쳐인지를 판단하고, 상기 현재 픽쳐가 참조 픽쳐이고 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, 미리 설정된 고정 좌표의 고정 후보를 추가할 수 있다.Here, the selecting step may include: forming a mixed list candidate group including the first candidate, the second code, and the third candidate, determining whether the current picture of the current block is a reference picture, If the number of motion vector candidates in the mixed list candidates is smaller than a preset number, fixed candidates of fixed coordinates may be added.

여기서, 영상 복호화 방법은, 상기 선택하는 단계에서 상기 현재 픽쳐가 참조 픽쳐가 아니고 상기 혼합 리스트 후보 내 움직임 벡터 후보의 개수가 미리 설정된 개수보다 작으면, (0, 0)을 고정 후보로 추가할 수 있다.Here, if the current picture is not a reference picture and the number of motion vector candidates in the mixed list candidates is smaller than a preset number, the image decoding method may add (0, 0) as a fixed candidate have.

여기서, 상기 현재 픽쳐의 다른 블록은 상기 현재 블록의 주변 블록을 사이에 두고 상기 현재 블록과 마주하는 블록들로서 상기 현재 픽쳐에서 상기 현재 블록에 앞서 화면 간 예측으로 부호화된 블록을 포함할 수 있다.Here, another block of the current picture may include a block that faces the current block with a neighboring block of the current block interposed therebetween, and a block that is coded by inter-picture prediction before the current block in the current picture.

상기 목적을 달성하기 위한 본 발명의 또 다른 측면에서는, 화면 내 예측에서의 참조 화소 구성에 관한 영상 부호화 방법으로서, 현재 블록에 대한 화면 내 예측에서 현재 블록의 참조 화소를 이웃 블록으로부터 획득하는 단계, 참조 화소에 적응적으로 필터링을 수행하는 단계, 적응적인 필터링이 적용된 참조 화소를 현재 블록의 예측 모드에 따라 입력값으로 사용하여 현재 블록의 예측 블록을 생성하는 단계, 예측 블록에 적응적인 후처리 필터를 적용하는 단계를 포함하는, 영상 부호화 방법이 제공된다.According to another aspect of the present invention for achieving the above object, there is provided a video encoding method for a reference pixel configuration in intra-frame prediction, comprising: obtaining a reference pixel of a current block from intra- Generating a prediction block of a current block by using a reference pixel to which adaptive filtering is applied as an input value according to a prediction mode of the current block, generating a post-processing filter adaptive to the prediction block, The method comprising the steps of:

여기서, 상기 획득하는 단계는, 현재 블록의 참조 화소를 상기 이웃 블록으로부터 획득할 수 있다.Here, the acquiring step may acquire a reference pixel of the current block from the neighboring block.

여기서, 상기 획득하는 단계는, 이웃 블록의 이용가능성에 따라 결정될 수 있다.Here, the acquiring step may be determined according to availability of neighboring blocks.

여기서, 이웃 블록의 이용가능성은, 이웃 블록의 위치 및/또는 특정 플래그(constrained_intra_pred_flag)에 의해서 결정될 수 있다. 일례로, 특정 플래그는 이웃 블록이 이용가능할 때, 1의 값을 가질 수 있다. 그것은 이웃 블록의 예측 모드가 화면 간 모드일 때 해당 블록의 참조 화소를 현재 블록의 예측에 사용할 수 없음을 의미할 수 있다.Here, the availability of the neighboring block may be determined by the position of the neighboring block and / or a specific flag (constrained_intra_pred_flag). In one example, a particular flag may have a value of 1 when neighboring blocks are available. That is, when the prediction mode of the neighboring block is the inter-view mode, it can mean that the reference pixel of the block can not be used for prediction of the current block.

여기서, 특정 플래그(constrained_intra_pred_flag)는 이웃 블록의 예측 모드에 따라 결정되며, 예측 모드는 화면 내 예측 또는 화면 간 예측 중 하나일 수 있다.Here, the specific flag (constrained_intra_pred_flag) may be determined according to the prediction mode of the neighboring block, and the prediction mode may be one of intra prediction or inter prediction.

여기서, 특정 플래그(constrained_intra_pred_flag)가 0일 때는, 이웃 블록의 예측 모드에 관계없이 이웃 블록의 이용가능성이 '참(true)'가 되고, 1일 때는 이웃 블록의 예측 모드가 화면 내 예측이면 '참'이 되고, 화면 간 예측이면 이웃 블록의 이용가능성이 '거짓(false)'이 될 수 있다.Here, when the specific flag (constrained_intra_pred_flag) is 0, the availability of the neighboring block becomes 'true' irrespective of the prediction mode of the neighboring block. If the prediction mode of the neighboring block is intra- , And if the prediction is inter-picture prediction, the availability of the neighboring block may be 'false'.

여기서, 화면 간 예측은, 하나 이상의 참조 픽쳐로부터 참조하여 예측 블록을 생성할 수 있다.Here, the inter picture prediction can generate a prediction block with reference to one or more reference pictures.

여기서, 참조 픽쳐는, 참조 픽쳐 리스트 0(List 0)과 참조 픽쳐 리스트 1(List 1)을 통해 관리되며 하나 이상의 과거 픽쳐, 미래 픽쳐, 현재 픽쳐를 상기 List 0, List 1에 포함할 수 있다.Here, the reference picture is managed through the reference picture list 0 (List 0) and the reference picture list 1 (List 1), and one or more past picture, future picture, and current picture can be included in the List 0 and List 1.

여기서, List 0 및 List1은, 참조 픽쳐 리스트에 현재 픽쳐를 넣을지가 적응적으로 결정될 수 있다.Here, List 0 and List 1 can be adaptively determined whether to insert the current picture into the reference picture list.

여기서, 현재 픽쳐를 참조 픽쳐 리스트에 넣을지를 결정하는 정보는 시퀀스, 참조 픽쳐 파라미터 셋 등에 포함될 수 있다.Here, the information for determining whether to insert the current picture into the reference picture list may be included in the sequence, the reference picture parameter set, and the like.

상기 목적을 달성하기 위한 본 발명의 또 다른 측면에서는, 컴퓨팅 장치에서 수행되는 영상 복호화 방법으로서, 입력 비트스트림으로부터 이웃 블록의 참조 화소 이용가능성에 관한 플래그를 시퀀스 또는 픽쳐 단위로 획득하는 단계; 플래그에 따라 화면 내 예측을 수행할 때 이웃 블록의 참조 화소 이용가능성을 결정하는 단계; 플래그가 0일 때 이웃 블록의 예측 모드에 관계없이 이웃 블록의 참조 화소를 현재 블록의 예측에 사용하고, 플래그가 1일 때 이웃 블록의 예측 모드가 화면 내 예측인 경우에 이웃 블록의 참조 화소를 현재 블록의 예측에 사용하며, 이웃 블록의 예측 모드가 화면 간 예측인 경우에 이웃 블록의 참조 화소를 현재 블록의 예측에 사용하지 않는, 영상 복호화 방법이 제공된다.According to still another aspect of the present invention, there is provided a method of decoding an image performed in a computing device, the method comprising: obtaining a flag for a reference pixel availability of a neighboring block in a sequence or picture unit from an input bitstream; Determining a reference pixel availability of a neighboring block when intra prediction is performed according to a flag; When the flag is 0, the reference pixel of the neighboring block is used for prediction of the current block regardless of the prediction mode of the neighboring block. If the prediction mode of the neighboring block is intra prediction when the flag is 1, And the reference pixel of the neighboring block is not used for prediction of the current block when the prediction mode of the neighboring block is the inter-view prediction.

여기서, 화면 간 예측은 참조 픽쳐에서 블록 매칭을 기반으로 예측 블록을 생성할 수 있다.Here, the inter picture prediction can generate a prediction block based on block matching in the reference picture.

여기서, 참조 픽쳐는 P 픽쳐에서는 List 0을, B 픽쳐에서는 List 0과 List 1을 통해 관리될 수 있다.Here, the reference picture can be managed by List 0 in the P picture, and by List 0 and List 1 in the B picture.

여기서, 화면 간 예측에서 List 0에 현재 픽쳐를 포함할 수 있다.Here, in the inter picture prediction, the current picture can be included in List 0.

여기서, 화면 간 예측에서 List 1에 현재 픽쳐를 포함할 수 있다.Here, the current picture can be included in List 1 in inter-picture prediction.

여기서, 상기 List 0과 List 1에 현재 픽쳐를 포함하는 것은 시퀀스 파라미터에서 전송되는 플래그에 기반하여 결정될 수 있다.Here, the inclusion of the current picture in the List 0 and List 1 can be determined based on the flag transmitted in the sequence parameter.

여기서, 상기 List 0과 List 1에 현재 픽쳐를 포함하는 것은 픽쳐 파라미터에서 전송되는 플래그에 기반하여 결정될 수 있다.Here, the inclusion of the current picture in the List 0 and List 1 can be determined based on the flag transmitted from the picture parameter.

상술한 바와 같은 본 발명의 실시예에 따른 움직임 벡터 후보 선택 방법 및 이를 이용하는 영상 부호화/복호화 방법을 이용할 경우에는, 영상 처리 시스템이나 이러한 영상 처리 시스템을 구비하는 각종 시스템에서 영상 부호화를 위해 움직임 벡터 후보를 효과적으로 선택하여 장치 또는 시스템의 성능 및 효율을 개선할 수 있다.In the case of using the motion vector candidate selection method and the image coding / decoding method using the motion vector candidate method according to the embodiment of the present invention as described above, the motion vector candidates for the image coding in the image processing system and various systems including the image processing system Can be effectively selected to improve the performance and efficiency of the device or system.

또한, 움직임 벡터 후보 또는 움직임 정보 예측 후보의 효과적인 선택을 통해 영상 부호화 장치, 영상 복호화 장치 또는 영상 처리 시스템의 성능과 효율을 향상시킬 수 있는 장점이 있다.Further, there is an advantage that the performance and efficiency of the image encoding apparatus, the image decoding apparatus, or the image processing system can be improved through effective selection of the motion vector candidate or the motion information prediction candidate.

도 1은 본 발명의 영상 부호화 장치 및/또는 영상 복호화 장치를 이용하는 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 영상 부호화 장치에 대한 블록도이다.
도 3은 본 발명의 일실시예에 따른 영상 복호화 장치에 대한 블록도이다.
도 4는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 P 슬라이스의 화면 간 예측을 나타낸 예시도이다.
도 5는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 B 슬라이스의 화면 간 예측을 나타낸 예시도이다.
도 6은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 단방향으로 예측 블록을 생성하는 경우를 설명하기 위한 예시도이다.
도 7은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트를 구성하는 예시도이다.
도 8은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트로부터 화면 간 예측을 수행하는 경우의 다른 예를 나타낸 예시도이다.
도 9는 본 발명의 일실시예에 따른 영상 부호화 방법에서 화면 내 예측을 설명하기 위한 예시도이다.
도 10은 본 발명의 일실시예에 따른 영상 부호화 방법에서 P 슬라이스나 B 슬라이스에서의 예측 원리를 설명하기 위한 예시도이다.
도 11은 도 10의 영상 부호화 방법에서 내삽(interpolation)을 수행하는 경우를 설명하기 위한 예시도이다.
도 12는 본 발명의 일실시예에 따른 영상 부호화 방법의 주요 과정을 코딩 단위(coding unit)에서의 신택스로 설명하기 위한 도면이다.
도 13은 도 12에서 사용하는 현재 픽쳐에서 블록매칭을 통해 예측 블록을 생성할 경우, 화면 간 예측에서와 같이 대칭형(symmetric type) 분할 또는 비대칭형(asymmetric type) 분할을 지원하는 예를 설명하기 위한 예시도이다.
도 14는 도 9의 화면 내 예측(Intra)과 같이 화면 간 예측(Inter)에서 2Nx2N, NxN을 지원할 수 있음을 설명하기 위한 예시도이다.
도 15는 본 발명의 일실시예에 따른 영상 부호화 방법에서 영상의 a, b, c의 위치(x라고 가정)에 있는 화소에 대해서는 수평 1D 필터를 수행하는 과정을 설명하기 위한 도면이다.
도 16은 비교예에 따른 현재 블록과 주변 블록에 대한 예시도이다.
도 17은 다른 비교예에 따른 현재 블록과 주변 블록에 대한 예시도이다.
도 18은 또 다른 비교예에 따른 현재 블록과 주변 블록에 대한 예시도이다.
도 19는 본 발명의 일실시예에 따른 영상 부호화 방법에 채용할 수 있는 현재 블록과 주변 블록에 대한 예시도이다.
도 20은 본 발명의 일실시예에 따른 영상 부호화 방법에서 현재 블록의 참조 픽쳐와 후보 블록의 참조 픽쳐와의 시간적인 거리가 일정 거리 이상일 때는 후보군에서 제외하고 그 거리 미만일 때는 거리에 따라 스케일링한 후 후보군에 포함하는 경우를 설명하기 위한 예시도이다.
도 21은 본 발명의 일실시예에 따른 영상 부호화 방법에서 현재 블록이 참조하는 픽쳐가 현재 픽쳐와 다른 픽쳐일 때 현재 픽쳐를 예측 후보군에 추가하는 경우를 설명하기 위한 예시도이다.
도 22는 본 발명의 일실시예에 따른 영상 부호화 방법에서 현재 블록이 참조하는 픽쳐가 현재 픽쳐일 때 현재 픽쳐를 예측 후보군에 추가하는 경우를 설명하기 위한 예시도이다.
도 23은 본 발명의 다른 실시예에 따른 영상 부호화 방법에 대한 순서도이다.
1 is a view for explaining a system using an image encoding apparatus and / or an image decoding apparatus according to the present invention.
2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention.
3 is a block diagram of an image decoding apparatus according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating an inter-picture prediction of a P slice in an image encoding and decoding method according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an inter-picture prediction of a B slice in an image encoding and decoding method according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of generating a prediction block in a unidirectional manner in the image encoding and decoding method according to an embodiment of the present invention. Referring to FIG.
FIG. 7 is a diagram illustrating a reference picture list in the image encoding and decoding method according to an embodiment of the present invention. Referring to FIG.
FIG. 8 is a diagram illustrating an example of performing inter-picture prediction from a reference picture list in an image encoding and decoding method according to an embodiment of the present invention.
9 is an exemplary diagram for explaining intra prediction in the image encoding method according to an embodiment of the present invention.
10 is an exemplary diagram for explaining a prediction principle in a P slice or a B slice in the image encoding method according to an embodiment of the present invention.
11 is an exemplary diagram for explaining a case where interpolation is performed in the image encoding method of FIG.
FIG. 12 is a diagram for explaining a main procedure of an image coding method according to an embodiment of the present invention with a syntax in a coding unit.
13 is a diagram illustrating an example of supporting a symmetric type partition or an asymmetric type partition as in inter picture prediction when a prediction block is generated through block matching in the current picture used in FIG. Fig.
FIG. 14 is an exemplary diagram for explaining that 2Nx2N and NxN can be supported in inter-picture prediction (Inter) as in intra-picture prediction (Intra) in FIG.
FIG. 15 is a diagram for explaining a process of performing a horizontal 1D filter on pixels located at positions a, b, and c of an image (assuming x) in the image encoding method according to an embodiment of the present invention.
16 is an exemplary view of a current block and a neighboring block according to a comparative example.
17 is an exemplary view of a current block and neighboring blocks according to another comparative example.
18 is an exemplary view of a current block and a neighboring block according to yet another comparative example.
FIG. 19 is an exemplary view of a current block and neighboring blocks that can be employed in the image encoding method according to an embodiment of the present invention.
FIG. 20 is a block diagram illustrating a method of encoding an image according to an exemplary embodiment of the present invention. Referring to FIG. 20, when a temporal distance between a reference picture of a current block and a reference picture of a candidate block is greater than a predetermined distance, Candidate group, as shown in Fig.
FIG. 21 is an exemplary view for explaining a case where a current picture is added to a prediction candidate group when a picture referred to by a current block is a picture different from the current picture in the image coding method according to an embodiment of the present invention.
22 is an exemplary diagram for explaining a case where a current picture is added to a prediction candidate group when a picture referred to by a current block is a current picture in the image coding method according to an embodiment of the present invention.
23 is a flowchart illustrating a method of encoding an image according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises ", or" having ", and the like, specify that the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 것을 의미한다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, are meant to be equivalent to those generally understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as being consistent with the meanings in the context of the relevant art and are not to be construed as ideal or overly formal meanings unless explicitly defined in the present application.

통상적으로 동영상은 일련의 픽쳐(Picture)로 구성될 수 있으며, 각 픽쳐들은 프레임 또는 블록(Block)과 같은 소정의 영역으로 분할될 수 있다. 또한, 분할된 영역은 블록(Block)뿐 아니라, 코딩 트리 유닛(Coding Tree Unit, CTU), 코딩 유닛(Coding Unit, CU), 예측 유닛(Prediction Unit, PU), 변환 유닛(Transform Unit, TU)과 같이 다양한 크기 또는 용어로 지칭할 수 있다. 각 유닛(Unit)은 하나의 휘도 블록과 두 개의 색차 블록으로 구성될 수 있으며, 이는 컬러 포맷에 따라 달리 구성될 수 있다. 또한, 컬러 포맷에 따라 휘도 블록과 색차 블록의 크기가 결정될 수 있다. 예를 들어, 4:2:0인 경우 색차 블록의 크기는 휘도 블록의 가로, 세로가 1/2인 길이를 가질 수 있다. 이 단위 및 용어에 대해서는 기존의 HEVC(high efficiency video coding) 또는 H.264/AVC(advanced video coding) 등의 용어를 참조할 수 있다.The moving picture may be generally composed of a series of pictures, and each picture may be divided into a predetermined area such as a frame or a block. In addition, the divided area includes not only a block but also a coding tree unit (CTU), a coding unit (CU), a prediction unit (PU), a transform unit (TU) As shown in FIG. Each unit may consist of one luminance block and two color difference blocks, which may be otherwise configured according to the color format. Further, the size of the luminance block and the color difference block can be determined according to the color format. For example, in the case of 4: 2: 0, the size of the color difference block may have a length of 1/2 of the luminance block. For these units and terms, terms such as conventional high efficiency video coding (HEVC) or advanced video coding (H.264 / AVC) can be referred to.

또한, 현재 블록 또는 현재 화소를 부호화하거나 복호화하는데 참조되는 픽쳐, 블록 또는 화소를 참조 픽쳐(reference picture), 참조 블록(reference block) 또는 참조 화소(reference pixel)라고 한다. 또한, 이하에 기재된 "픽쳐(picture)"이라는 용어는 영상(image), 프레임(frame) 등과 같은 동등한 의미를 갖는 다른 용어로 대치되어 사용될 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다A reference picture, a reference block, or a reference pixel is referred to as a reference picture, a block, or a pixel to be referred to in encoding or decoding a current block or a current pixel. It is also to be understood that the term "picture" described below may be used in place of other terms having equivalent meanings such as image, frame, etc., I can understand if I am a child

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 영상 부호화 장치 및/또는 영상 복호화 장치를 이용하는 시스템을 설명하기 위한 도면이다.1 is a view for explaining a system using an image encoding apparatus and / or an image decoding apparatus according to the present invention.

도 1을 참조하면, 영상 부호화 장치 및/또는 영상 복호화 장치를 이용하는 시스템은 개인용 컴퓨터(personal computer, PC), 노트북 컴퓨터, 개인 휴대 단말기(personal digital assistant, PDA), 휴대형 멀티미디어 플레이어(portable multimedia player, PMP), 플레이스테이션 포터블(playstation portable, PSP), 무선 통신 단말기(wireless communication terminal), 스마트폰(smart phone), 텔레비전(TV) 등과 같은 사용자 단말기(11)이거나 응용 서버와 서비스 서버 등 서버 단말기(12)일 수 있다. 이러한 시스템은 컴퓨팅 장치로 지칭될 수 있다.1, a system using an image encoding apparatus and / or an image decoding apparatus includes a personal computer (PC), a notebook computer, a personal digital assistant (PDA), a portable multimedia player A user terminal 11 such as a PMP, a Playstation Portable (PSP), a wireless communication terminal, a smart phone, a TV or the like, or a server terminal such as an application server and a service server 12). Such a system may be referred to as a computing device.

또한, 컴퓨팅 장치는 각종 기기 또는 유무선 통신망(network)과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하거나 복호화하거나 부호화/복호화를 위해 화면 간(inter) 또는 화면 내(intra) 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리(18), 프로그램을 실행하여 연산 및 제어하기 위한 프로세서(14) 등을 구비하는 다양한 장치를 포함할 수 있다.In addition, the computing device may be a communication device such as a communication modem for performing communication with various devices or a wired / wireless communication network, an inter or intra prediction for encoding or decoding an image or encoding / A memory 18 for storing various programs and data for executing programs, a processor 14 for executing and calculating programs and the like, and the like.

또한, 컴퓨팅 장치는 영상 부호화 장치에 의해 비트스트림(bitstream)으로 부호화된 영상을 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 영상 복호화 장치에서 복호화되어 복원된 영상으로 재생될 수 있다. 또한, 영상 부호화 장치에 의해 비트스트림으로 부호화된 영상은 컴퓨터 판독 가능한 기록 매체를 통하여 부호화 장치에서 복호화 장치로 전달될 수도 있다.In addition, the computing device can transmit a bitstream-encoded image by a video encoding device through a wired or wireless communication network such as the Internet, a short-range wireless communication network, a wireless LAN network, a WiBro network, a mobile communication network, (Universal Serial Bus), and the like, and can be decoded by the image decoding apparatus and reproduced as a reconstructed image. In addition, an image encoded by a video encoding apparatus by a bit stream may be transferred from a coding apparatus to a decoding apparatus via a computer-readable recording medium.

도 2는 본 발명의 일실시예에 따른 영상 부호화 장치에 대한 블록도이다. 도 3은 본 발명의 일실시예에 따른 영상 복호화 장치에 대한 블록도이다.2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention. 3 is a block diagram of an image decoding apparatus according to an embodiment of the present invention.

본 실시예에 따른 영상 부호화 장치(20)는, 도 2에 나타낸 바와 같이, 예측부(200), 감산부(205), 변환부(210), 양자화부(215), 역양자화부(220), 역변환부(225), 가산부(230), 필터부(235), 복호화 픽쳐 버퍼(decorded picture buffer, DPB, 240) 및 엔트로피 부호화부(245)를 포함할 수 있다. 또한, 영상 부호화 장치(20)는 분할부(190)를 더 포함할 수 있다.2, the image encoding apparatus 20 according to the present embodiment includes a predictor 200, a subtractor 205, a transformer 210, a quantizer 215, an inverse quantizer 220, An inverse transform unit 225, an adder 230, a filter unit 235, a decoded picture buffer (DPB) 240, and an entropy encoding unit 245. In addition, the image encoding apparatus 20 may further include a segmentation unit 190.

또한, 본 실시예에 따른 영상 복호화 장치(30)는, 도 3에 나타낸 바와 같이, 엔트로피 복호화부(305), 예측부(310), 역양자화부(315), 역변환부(320), 가산부(325), 필터부(330) 및 복호화 픽쳐 버퍼(335)를 포함할 수 있다.3, the image decoding apparatus 30 according to the present embodiment includes an entropy decoding unit 305, a predicting unit 310, an inverse quantizing unit 315, an inverse transforming unit 320, A decoded picture buffer 325, a filter unit 330, and a decoded picture buffer 335.

전술한 영상 부호화 장치(20)와 영상 복호화 장치(30)는 각각 별도의 장치들일 수 있으나, 구현에 따라서 하나의 영상 부호화/복호화 장치로 만들어질 수 있다. 그 경우, 영상 부호화 장치(20)의 예측부(200), 역양자화부(220), 역변환부(225), 가산부(230), 필터부(235) 및 복호화 픽쳐 버퍼(240)는 기재된 순서대로 영상 복호화 장치(30)의 예측부(310), 역양자화부(315), 역변환부(320), 가산부(325), 필터부(330) 및 메모리(335)와 실질적으로 동일한 기술요소로서 적어도 동일한 구조를 포함하거나 적어도 동일한 기능을 수행하도록 구현될 수 있다. 또한, 엔트로부 부호화부(245)는 그 기능을 역으로 수행할 때, 엔트로피 복호화부(305)에 대응될 수 있다. 따라서 이하의 기술요소들과 이들의 작동 원리 등에 대한 상세 설명에서는 대응 기술요소들의 중복되는 설명을 생략하기로 한다.The image encoding apparatus 20 and the image decoding apparatus 30 may be separate apparatuses, but may be implemented as one image encoding / decoding apparatus according to the implementation. In this case, the prediction unit 200, the inverse quantization unit 220, the inverse transformation unit 225, the addition unit 230, the filter unit 235, and the decoding picture buffer 240 of the image coding apparatus 20 The inverse quantization unit 315, the inverse transform unit 320, the addition unit 325, the filter unit 330, and the memory 335 of the image decoding apparatus 30 as a technical element that is substantially the same as the prediction unit 310, the inverse quantization unit 315, But may at least include the same structure or may be implemented to perform at least the same function. In addition, the entropy coding unit 245 may correspond to the entropy decoding unit 305 when performing its function inversely. Therefore, a detailed description of the following technical elements and their operating principles will not be repeated.

그리고 영상 복호화 장치는 영상 부호화 장치에서 수행되는 영상 부호화 방법을 복호화에 적용하는 컴퓨팅 장치에 대응하므로, 이하의 설명에서는 영상 부호화 장치를 중심으로 설명하기로 한다.Since the image decoding apparatus corresponds to a computing apparatus that applies the image encoding method performed in the image encoding apparatus to decoding, the following description will be made with reference to the image encoding apparatus.

컴퓨팅 장치는 영상 부호화 방법 및/또는 영상 복호화 방법을 구현하는 프로그램이나 소프트웨어 모듈을 저장하는 메모리와 메모리에 연결되어 프로그램을 수행하는 프로세서를 포함할 수 있다. 그리고 영상 부호화 장치는 부호화기로, 영상 복호화 장치는 복호화기로 각각 지칭될 수 있다.The computing device may include a memory for storing a program or a software module implementing the image encoding method and / or the image decoding method, and a processor connected to the memory for executing the program. The video encoding apparatus may be referred to as an encoder, and the video decoding apparatus may be referred to as a decoder.

본 실시예의 영상 부호화 장치의 각 구성요소를 좀 더 구체적으로 설명하면 다음과 같다.Each component of the image encoding apparatus of this embodiment will be described in more detail as follows.

분할부(190)는, 입력 영상을 정해진 크기의 블록(M×N)으로 분할한다. 여기서, M 또는 N은 1 이상의 임의의 자연수이다.The division unit 190 divides the input image into blocks (MxN) of a predetermined size. Here, M or N is an arbitrary natural number of 1 or more.

상세하게는, 분할부(190)은 픽쳐 분할부와 블록 분할부로 구성될 수 있다. 블록은 영상의 특성 및 해상도 등에 따라 크기 또는 형태가 결정될 수 있고, 픽쳐 분할부를 통해 지원되는 블록의 크기 또는 형태는 가로 및 세로의 길이가 2의 지수승으로 표현되는 M×N 정사각 형태(256×256, 128×128, 64×64, 32×32, 16×16, 8×8, 4×4 등)이거나, M×N 직사각 형태일 수 있다. 예를 들어, 해상도가 높은 8k UHD급 영상의 경우 256×256, 1080p HD급 영상의 경우 128×128, WVGA급 영상의 경우 16×16 등 크기로 입력 영상을 분할할 수 있다.Specifically, the dividing unit 190 may be constituted by a picture dividing unit and a block dividing unit. The size or shape of the block can be determined according to the characteristics and resolution of the image, and the size or shape of the block supported through the picture partitioning unit is M × N square shape in which the length and the length are represented by an exponent of 2 (256 X 256, 128 x 128, 64 x 64, 32 x 32, 16 x 16, 8 x 8, 4 x 4, etc.), or an M x N rectangular shape. For example, an input image can be divided into 256 × 256 for an 8 k UHD image having a high resolution, 128 × 128 for a 1080p HD image, and 16 × 16 for a WVGA image.

이러한 블록의 크기 또는 형태에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위에서 설정이 가능하며, 관련 정보를 복호화기에 전송할 수 있다. 즉, 시퀀스 파라미터 셋, 픽쳐 파라미터 셋, 슬라이스 헤더 또는 이들의 조합 단위에서 설정될 수 있다.Information on the size or shape of such a block can be set in units of a sequence, picture, slice, or the like, and related information can be transmitted to the decoder. That is, a sequence parameter set, a picture parameter set, a slice header, or a combination thereof.

여기서, 시퀀스(sequence)는 몇 개의 관련 장면을 모아서 구성되는 구성단위를 가리킨다. 그리고 픽쳐(picture)는 하나의 장면 또는 픽쳐에서 일련의 휘도(Y) 성분 혹은 휘도와 색차(Y, Cb, Cr) 성분 전체를 일컫는 용어로서, 한 픽쳐의 범위는 경우에 따라서 한 프레임 혹은 한 필드가 될 수 있다.Here, a sequence indicates a constituent unit formed by collecting a number of related scenes. A picture is a term that refers to a series of luminance (Y) components or luminance and chrominance (Y, Cb, Cr) components in one scene or picture. The range of one picture is one frame or one field .

슬라이스(slice)는 동일 액세스 유닛(access unit) 안에 존재하는 하나의 독립 슬라이스 세그먼트와 다수의 종속 슬라이스 세그먼트를 말할 수 있다. 액세스 유닛은 한 장의 코딩된 픽쳐와 관련된 NAL(network abstraction layer) 유닛의 집합(set)을 의미한다. NAL 유닛은 H.264/AVC와 HEVC 표준에서 비디오 압축 비트스트림을 네트워크 친화적인 형식으로 구성한 구문 구조(syntax structure)이다. 한 슬라이스 단위를 하나의 NAL 유닛으로 구성하는 것이 일반적이며, 시스템 표준에서는 일반적으로 한 프레임을 구성하는 NAL 혹은 NAL 집합을 하나의 액세스 유닛으로 간주한다.A slice can refer to one independent slice segment and a number of dependent slice segments that are in the same access unit. An access unit means a set of network abstraction layer (NAL) units associated with a single coded picture. The NAL unit is a syntax structure composed of a video compression bitstream in a network-friendly format in the H.264 / AVC and HEVC standards. It is common to configure one slice unit as one NAL unit, and system standards generally regard a set of NALs or NALs constituting one frame as one access unit.

다시 픽쳐 분할부의 설명으로 되돌아가서, 블록 크기 또는 형태(M×N)에 대한 정보는 명시적 플래그로 이루어질 수 있는데, 구체적으로 블록 형태 정보, 블록이 정사각인 경우에 하나의 길이 정보, 직사각일 경우에는 각각의 길이 정보, 또는 가로와 세로 길이의 차이값 정보 등을 포함할 수 있다. 예를 들어, M과 N이 k의 지수승(k를 2라 가정)으로 구성되어 있을 경우(M=2m, N=2n), m과 n에 대한 정보를 단항 이진화, 절삭형 단항 이진화 등의 다양한 방법으로 부호화하여 관련 정보를 복호화장치에 전달할 수 있다. 또는, 픽쳐 분할부에서 지원하는 분할 허용 최소 크기(Minblksize)가 I×J(설명의 편의상 I=J라고 가정. I=2i,J=2j 일 경우), m-i 또는 n-j에 대한 정보를 전달할 수 있다. 다른 예로, M과 N이 다를 경우, m과 n의 차이값(|m-n|)을 전달할 수 있다. 또는, 픽쳐 분할부에서 지원하는 분할 허용 최대 크기(Maxblksize)가 I×J(설명의 편의상 I=J라고 가정. I=2i,J=2j 일 경우), i-m 또는 n-j에 대한 정보를 전달할 수 있다.Returning to the description of the picture division section, information on the block size or type (M × N) can be made of an explicit flag, specifically, block type information, one length information when the block is square, The length information, or the difference value information between the horizontal and vertical lengths. For example, if M and N are composed of exponential powers of k (assuming k is 2) (M = 2 m , N = 2 n ), information on m and n can be unary binarization, Or the like, and transmit the related information to the decoding apparatus. Alternatively, if the division allowable minimum size (Minblksize) supported by the picture division unit is IxJ (assuming I = J for convenience of explanation, I = 2 i , J = 2 j ), information about mi or nj . As another example, when M and N are different, it is possible to convey the difference value (| mn |) between m and n. Alternatively, information about im or nj may be conveyed if the division allowable maximum size (Maxblksize) supported by the picture division unit is IxJ (assuming I = J for convenience of explanation, I = 2 i , J = 2 j ) .

묵시적인 상황일 경우 예컨대, 관련 정보에 대한 신택스는 존재하나 부호화기/복호화기에서 확인할 수 없는 경우에는, 부호화기나 복호화기는 미리 준비된 기본 설정을 따를 수 있다. 예를 들어, 블록 형태 정보를 확인하는 단계에서 관련 신택스를 확인할 수 없는 경우 블록 형태는 기본 설정인 정사각 형태로 둘 수 있다. 또한, 블록 크기 정보를 확인하는 단계는, 좀더 상세하게는, 상기 예와 같이 분할 허용 최소 크기(Minblksize)로부터의 차이값을 통해 블록 크기 정보를 확인하는 단계에서 차이값 관련 신택스는 확인할 수 있으나 분할 허용 최소 크기(Minblksize) 관련 신택스는 확인할 수 없는 경우 미리 준비된 분할 허용 최소 크기(Minblksize) 관련 기본 설정값으로부터 얻을 수 있다. In case of an implied situation, for example, if there is a syntax for the related information but can not be confirmed by the encoder / decoder, the encoder or decoder may follow the basic setting prepared in advance. For example, if the related syntax can not be confirmed at the step of confirming the block type information, the block type may be set to a square shape, which is the default setting. In addition, the step of checking the block size information may check the difference value related syntax in the step of checking the block size information through the difference value from the minimum allowable size (Minblksize) as in the above example, If the syntax related to the MinBlkSize is not available, it can be obtained from the default settings related to the MinBlkSize which is prepared in advance.

이와 같이, 픽쳐 분할부에서 블록의 크기 또는 형태는 부호화기 및/또는 복호화기에서 관련 정보를 명시적으로 전송하거나 또는 영상의 특성 및 해상도 등에 따라 묵시적으로 결정될 수 있다.As such, the size or shape of the block in the picture partitioning unit can be implicitly determined by explicitly transmitting the related information in the encoder and / or the decoder or according to the characteristics and resolution of the image.

상기와 같이 픽쳐 분할부를 통해 분할 및 결정된 블록은 기본 부호화 단위로 사용될 수 있다. 또한, 픽쳐 분할부를 통해 분할 및 결정된 블록은 픽쳐, 슬라이스, 타일(tile) 등의 상위 레벨 단위를 구성하는 최소 단위일 수 있고, 부호화 블록(coding block), 예측 블록(prediction block), 변환 블록(transform block), 양자화 블록(quantization block), 엔트로피 블록(entropy block), 인루프 필터링 블록(inloopfiltering block) 등의 최대 단위일 수 있으나, 일부 블록은 이에 한정되지 않고 예외도 가능하다. 예컨대, 인루프 필터링 블록과 같이 일부는 위에서 설명한 블록 크기보다 더 큰 단위로 적용될 수 있다.As described above, a block divided and determined through the picture division unit can be used as a basic encoding unit. The block divided and determined through the picture division unit may be a minimum unit that constitutes a high level unit such as a picture, a slice, and a tile, and may be a coding block, a prediction block, a quantization block, an entropy block, an inloopfiltering block, and the like, but some blocks are not limited to this and may be an exception. For example, some such as an in-loop filtering block may be applied in units larger than the block sizes described above.

블록 분할부는 부호화, 예측, 변환, 양자화, 엔트로피, 인루프 필터 등의 블록에 대한 분할을 수행한다. 분할부(190)는 각 구성에 포함되어 기능을 수행하기도 한다. 예컨대, 변환부(210)에 변환블록 분할부, 양자화부(215)에 양자화블록 분할부를 포함할 수 있다. 블록 분할부의 초기 블록의 크기 또는 형태는 이전 단계 또는 상위 레벨 블록의 분할 결과에 의해 결정될 수 있다. 예를 들어, 부호화 블록의 경우 이전 단계인 픽쳐 분할부를 통해 획득된 블록을 초기 블록으로 설정할 수 있다. 혹은, 예측 블록의 경우 예측 블록의 상위 레벨인 부호화 블록의 분할 과정을 통해 획득된 블록을 초기 블록으로 설정할 수 있다. 혹은, 변환 블록의 경우 변환 블록의 상위 레벨인 부호화 블록의 분할 과정을 통해 획득된 블록을 초기 블록으로 설정할 수 있다. 상기 초기 블록의 크기 또는 형태를 결정하는 조건은 항상 고정적이지 않으며 일부가 변경되거나 예외인 경우가 존재할 수 있다. 또한, 이전 단계 또는 상위 레벨 블록의 분할 상태(예를 들어, 부호화 블록의 크기, 부호화 블록의 형태 등)와 현재 레벨의 설정 조건(예를 들어, 지원되는 변환 블록의 크기, 변환 블록의 형태 등) 각각 최소 하나 이상의 요인의 조합에 따라 현재 레벨의 분할 동작(분할 가능 여부, 분할 가능한 블록 형태 등)에 영향을 줄 수도 있다. The block division unit performs division on blocks such as coding, prediction, conversion, quantization, entropy, and in-loop filter. The partitioning unit 190 also functions in each configuration. For example, the transforming unit 210 may include a transform block dividing unit and the quantizing unit 215 may include a quantization block dividing unit. The size or shape of the initial block of the block partition may be determined by the result of division of the previous level or higher level block. For example, in the case of a coded block, a block obtained through a picture division unit which is a previous stage can be set as an initial block. Alternatively, in the case of a prediction block, a block obtained through a division process of a coding block which is a higher level of the prediction block may be set as an initial block. Alternatively, in the case of a transform block, a block obtained through a dividing process of an encoding block, which is a higher level of the transform block, may be set as an initial block. The condition for determining the size or type of the initial block is not always fixed, and there may be a case where a part is changed or an exception is made. In addition, it is also possible to set the setting level of the current level (for example, the size of the supported conversion block, the type of the conversion block, etc.) of the previous level or the higher level block (for example, the size of the encoding block, ) May affect the division operation of the current level (division possibility, divisible block type, etc.) according to a combination of at least one or more factors.

블록 분할부는 쿼드트리(quad tree) 기반의 분할 방식을 지원할 수 있다. 즉, 분할 전 블록에서 가로 및 세로가 1/2씩의 길이를 갖는 4개의 블록으로 분할할 수 있다. 이는 최초 블록 기준(dep_0)으로 분할 허용 깊이 한계(dep_k, k는 분할 허용 횟수를 의미하고, 분할 허용 깊이 한계(dep_k)일 때의 블록 크기는 (M >> k, N >> k)임)까지 분할을 반복적으로 할 수 있다.The block partitioning part can support a quad tree based partitioning method. That is, the block may be divided into four blocks each having a length of 1/2 in the horizontal and vertical directions in the block before division. This means that the block size limit (dep >> k, n >> k) means the allowable division depth limit (dep >> k, k >>) while the block size limit (dep_k) Can be repeatedly performed.

또한, 바이너리 트리 기반의 분할 방식을 지원할 수 있다. 이는 가로 또는 세로 중 하나의 길이가 분할 전 블록과 비교하여 1/2의 길이를 갖는 2개의 블록으로 분할할 수 있음을 나타낸다. 상기 쿼드 트리 분할과 바이너리 트리의 분할의 경우 대칭 분할(symmetric partition)이나 비대칭 분할(asymmetric partition)일 수 있으며, 이는 부호화기/복호화기의 설정에 따라 어느 분할 방식을 따를지 정할 수 있다. 본 발명의 영상 부호화 방법에서 대칭 분할 방식 위주로 설명을 할 것이다.In addition, a binary tree-based partitioning scheme can be supported. This indicates that the length of one of the horizontal and vertical lengths can be divided into two blocks having a length of 1/2 as compared with the pre-division block. In the case of quad tree partitioning and binary tree partitioning, it may be a symmetric partition or an asymmetric partition, and it may be determined according to a partitioning scheme according to the setting of the encoder / decoder. In the image encoding method of the present invention, a symmetric division method will be mainly described.

분할 플래그(div_flag)를 통해 각 블록의 분할 여부를 나타낼 수 있으며, 해당 값이 1이면 분할을 수행하고, 값이 0이면 분할을 수행하지 않는다. 또는, 해당 값이 1이면 분할을 수행하고 추가 분할이 가능하며, 값이 0이면 분할을 수행하지 않고 더 이상의 분할을 허용하지 않을 수 있다. 분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서만 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다.The division flag (div_flag) indicates whether or not each block is divided. If the corresponding value is 1, the division is performed. If the value is 0, the division is not performed. Alternatively, if the value is 1, the segmentation is performed and further segmentation is possible. If the value is 0, the segmentation is not performed, and the segmentation is not allowed any more. Depending on the conditions such as the minimum allowable division size and the limit of the allowable division depth, the flag may be considered only for the division, and the additional division may not be considered.

분할 플래그는 쿼드트리 분할에서 사용 가능하고, 바이너리 트리 분할에서도 사용 가능하다. 바이너리 트리 분할에서는 분할 방향이 블록의 분할 깊이, 부호화 모드, 예측 모드, 크기, 형태, 종류(부호화, 예측, 변환, 양자화, 엔트로피, 인루프 필터 등 중 하나일 수 있음. 또는, 휘도, 색차 중 하나일 수 있음) 그리고 슬라이스 타입, 분할 허용 깊이 한계, 분할 허용 최소/최대 크기 등의 요인 중 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. 또한, 분할 플래그에 따라 및/또는 해당 분할 방향에 따라 즉, 블록의 가로만 1/2로 분할되거나 또는 세로만 1/2로 분할될 수 있다.The split flag can be used in a quadtree partition, and also in a binary tree partition. In binary tree segmentation, the dividing direction may be one of the block depth, encoding mode, prediction mode, size, type, and type (encoding, prediction, And may be determined depending on at least one of factors such as a slice type, a division allowable depth limit, a division allowable minimum / maximum size, or a combination thereof. In addition, it can be divided according to the division flag and / or according to the division direction, that is, divided into only 1/2 of the width of the block or 1/2.

예를 들어, 블록이 M×N(M>N)으로 M이 N보다 클 때 가로 분할을 지원하며, 현재 분할 깊이(dep_curr)는 분할 허용 깊이 한계보다 작아서 추가 분할이 가능하다고 가정하면, 위의 분할 플래그는 1비트로 할당되어 해당 값이 1이면 가로 분할을 수행하고, 0이면 더 이상 분할하지 않을 수 있다. 분할 깊이는 쿼드 트리와 바이너리 트리 분할에 하나의 분할 깊이를 둘 수도 있고, 쿼드 트리와 바이너리 트리 분할에 각각의 분할 깊이를 둘 수도 있다. 또한, 분할 허용 깊이 한계는 쿼드 트리와 바이너리 트리 분할에 하나의 분할 허용 깊이 한계를 둘 수도 있고, 쿼드 트리와 바이너리 트리 분할에 각각의 분할 허용 깊이 한계를 둘 수도 있다.For example, suppose that a block supports M × N (M> N) and M is greater than N, and that the current partition depth (dep_curr) is smaller than the partitioning allowable depth limit, The division flag is allocated with 1 bit. If the corresponding value is 1, the horizontal division is performed. If the division value is 0, the division flag can be no longer divided. The split depth can be one divide depth for quad tree and binary tree divisions, and one divide depth for quad tree and binary tree divisions. In addition, the allowable depth limit may have one partition allowable depth limit for the quadtree and the binary tree partition, or a respective partition allowable depth limit for the quadtree and binary tree partition.

다른 예로, 블록이 M×N(M>N)이고 N이 미리 설정된 분할 허용 최소 크기와 같아서 가로 분할을 지원하지 않는다면, 위의 분할 플래그는 1비트로 할당되어 해당 값이 1이면 세로 분할을 수행하고, 0이면 분할을 수행하지 않는다. As another example, if the block is M × N (M> N) and N is equal to the predetermined minimum allowable division size, and the horizontal division is not supported, the division flag is allocated to 1 bit. If the value is 1, If it is 0, no division is performed.

또한, 가로 분할 또는 세로 분할을 위한 플래그(div_h_flag, div_h_flag)를 각각 지원할 수 있으며, 상기 플래그에 따라 바이너리 분할을 지원할 수 있다. 가로 분할 플래그(div_h_flag) 또는 세로 분할 플래그(div_v_flag)를 통해 각 블록의 가로 또는 세로 분할 여부를 나타낼 수 있으며, 가로 분할 플래그(div_h_flag) 또는 세로 분할 플래그(div_v_flag)가 1이면 가로 또는 세로 분할을 수행하며, 0이면 가로 또는 세로 분할을 수행하지 않는다. 또는, 각 플래그가 1이면 가로 또는 세로 분할을 수행하며 가로 또는 세로의 추가 분할이 가능하고, 값이 0이면 가로 또는 세로 분할을 수행하지 않으며 더 이상의 가로 또는 세로의 추가 분할은 허용하지 않을 수 있다. 분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다. 또는, 가로 분할 또는 세로 분할을 위한 플래그(div_flag/h_v_flag)를 지원할 수 있으며, 상기 플래그에 따라 바이너리 분할을 지원할 수 있다. 분할 플래그(div_flag)는 가로 또는 세로 분할 여부를 나타낼 수 있으며 분할 방향 플래그(h_v_flag)는 가로 또는 세로의 분할 방향을 나타낼 수 있다. 분할 플래그(div_flag)가 1이면 분할을 수행하며 분할 방향 플래그(h_v_flag)에 따라 가로 또는 세로 분할을 수행하며, 0이면 가로 또는 세로 분할을 수행하지 않는다. 또는, 해당 값이 1이면 분할 방향 플래그(h_v_flag)에 따라 가로 또는 세로 분할을 수행하며 가로 또는 세로의 추가 분할이 가능하고, 값이 0이면 가로 또는 세로 분할을 수행하지 않으며 더 이상의 가로 또는 세로 분할을 허용하지 않는 것으로 간주할 수 있다. 분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다.Also, flags (div_h_flag, div_h_flag) for horizontal division or vertical division can be respectively supported, and binary division can be supported according to the flags. It is possible to indicate whether each block is horizontally or vertically divided through the horizontal division flag (div_h_flag) or the vertical division flag (div_v_flag). If the horizontal division flag (div_h_flag) or the vertical division flag (div_v_flag) If 0, no horizontal or vertical division is performed. Or, if each flag is 1, horizontal or vertical division is performed and horizontal or vertical division is possible. If the value is 0, horizontal division or vertical division is not performed and further division of horizontal or vertical division may not be allowed . The flag may be considered for the division depending on the conditions such as the division allowable minimum size and the division allowable depth limit, and the flag may not be considered. Alternatively, a flag (div_flag / h_v_flag) for horizontal division or vertical division may be supported, and binary division may be supported according to the flag. The division flag div_flag may indicate whether it is horizontally or vertically divided, and the division direction flag h_v_flag may indicate a horizontal or vertical division direction. If the division flag (div_flag) is 1, the division is performed and the horizontal or vertical division is performed according to the division direction flag (h_v_flag). If 0, the horizontal or vertical division is not performed. If the value is 1, horizontal or vertical division is performed according to the division direction flag (h_v_flag), and horizontal or vertical division is possible. If the value is 0, horizontal or vertical division is not performed. It can be regarded as not permitting. The flag may be considered for the division depending on the conditions such as the division allowable minimum size and the division allowable depth limit, and the flag may not be considered.

이러한 분할 플래그 또한 가로, 세로 분할을 위해 각각 지원할 수 있으며, 상기 플래그에 따라 바이너리 트리 분할을 지원할 수 있다. 또한, 분할 방향이 미리 결정되어 있는 경우, 상기 예와 같이 둘 중의 하나의 분할 플래그만 사용되거나, 두 분할 플래그 모두가 사용될 수 있다.These division flags can also support for horizontal and vertical division, respectively, and can support binary tree division according to the flags. When the dividing direction is predetermined, only one of the two division flags may be used, or both of the two division flags may be used as in the above example.

예를 들어, 상기의 플래그가 다 허용되면 가능한 블록의 형태는 M×N, M/2×N, M×N/2, M/2×N/2 중 어느 하나로 분할이 될 수 있다. 이 경우, 플래그는 수평 분할 플래그 또는 수직 분할 플래그(div_h_flag/div_v_flag) 순으로 00, 10, 01, 11로 부호화될 수 있다.For example, if the above flags are allowed, the possible block types can be divided into any one of M × N, M / 2 × N, M × N / 2, and M / 2 × N / 2. In this case, the flags can be encoded as 00, 10, 01, and 11 in the order of the horizontal division flag or the vertical division flag (div_h_flag / div_v_flag).

위의 경우, 분할 플래그가 중첩되어 사용될 수 있는 설정에서의 예시이고, 분할 플래그가 중첩되어 사용될 수 없는 설정 또한 가능하다. 예를 들어, 분할 블록 형태가 M×N, M/2×N, M×N/2로 분할될 수 있으며, 이 경우 위의 플래그는 수평 또는 수직 분할 플래그들 순으로 00, 01, 10로 부호화되거나, 분할 플래그(div_flag)와 수평-수직 플래그(h_v_flag, 이 플래그는 분할 방향이 가로 또는 세로를 나타내는 플래그) 순으로 0, 10, 11로 부호화될 수 있다. 여기에서 중첩의 의미는 가로 분할과 세로 분할을 동시에 수행하는 것을 의미할 수 있다.In the above case, the setting in which the division flag is used in the overlapping example is exemplified, and the setting in which the division flag can not be used overlapping is also possible. For example, the split block type may be divided into M × N, M / 2 × N, and M × N / 2. In this case, the above flags are encoded as 00, 01, Or the division flag div_flag and the horizontal-vertical flag h_v_flag, and the flags may be encoded as 0, 10, and 11 in the order of the horizontal or vertical division direction. Here, the meaning of the overlap may mean that the horizontal division and the vertical division are performed at the same time.

전술한 쿼드트리 분할 및 바이너리 트리 분할은 부호화기 및/또는 복호화기의 설정에 따라 어느 하나가 단독으로 사용되거나 혼용되어 사용될 수 있다. 예컨대, 블록의 크기 또는 형태에 따라서 쿼드트리 또는 바이너리 트리 분할이 결정될 수 있다. 즉, 블록 형태가 M×N이고, M이 N보다 큰 경우에는 가로 분할, 블록 형태가 M×N이고, N이 M보다 큰 경우에는 세로 분할에 따라 바이너리 트리 분할이 지원될 수 있고, 블록 형태가 M×N이고, N과 M인 동일한 경우에는 쿼드트리 분할이 지원될 수 있다.The quad tree division and the binary tree division described above can be used singly or in combination according to the setting of the encoder and / or the decoder. For example, a quadtree or binary tree partition may be determined depending on the size or type of the block. That is, when the block type is M x N and M is larger than N, the horizontal division, the block type is M x N, and if N is larger than M, the binary tree division can be supported according to the vertical division, Is M x N, and quad tree partitioning is supported if N and M are the same.

다른 예로, 블록(M×M)의 크기가 블록 분할 경계값(thrblksize)보다 크거나 같은 경우는 바이너리 트리 분할이 지원될 수 있고, 그보다 작은 경우에는 쿼드트리 분할이 지원될 수 있다.As another example, a binary tree partition may be supported if the size of the block (M x M) is greater than or equal to the block partition boundary value (thrblksize), and a quad tree partition may be supported if the size is smaller.

다른 예로, 블록(M×N)의 M 또는 N이 제1 분할 허용 최대 크기 (Maxblksize1)보다 작거나 같고 제1 분할 허용 최소 크기(Minblksize1)보다 크거나 같을 경우에는 쿼드 트리 분할을 지원하고, 블록(M×N)의 M 또는 N이 제2 분할 허용 최대 크기(Maxblksize2)보다 작거나 같고 제2 분할 허용 최소 크기(Minblksize2)보다 크거나 같을 경우에는 바이너리 트리 분할이 지원될 수도 있다. 만약 상기 분할 허용 최대 크기와 분할 허용 최소 크기로 정의할 수 있는 제1 분할 지원 범위와 제2 분할 지원 범위가 중복되는 경우에는, 부/복호화기의 설정에 따라 제1 또는 제2 분할 방법 중의 우선순위가 주어질 수 있다. 본 예에서는 제1의 분할 방법은 쿼드트리 분할, 제2 분할 방법은 바이너리 트리 분할로 예를 들 수 있다.As another example, if M or N of the block (MxN) is equal to or smaller than the first allowable maximum size (Maxblksize1) and equal to or larger than the first allowable minimum size (Minblksize1), quad tree partitioning is supported, A binary tree segmentation may be supported if M or N of (M x N) is less than or equal to the second allowable maximum size Maxblksize2 and greater than or equal to the second allowable minimum size Minblksize2. If the first division supporting range and the second division supporting range, which can be defined as the division allowable maximum size and the division allowable minimum size, overlap, the priority of the first or second division method Rank can be given. In this example, quad tree partitioning is used for the first partitioning method, and binary tree partitioning is used for the second partitioning method.

예를 들어, 제1 분할 허용 최소 크기(Minblksize1)이 16이고 제2 분할 허용 최대 크기(Maxblksize2)가 64이며 분할 전 블록이 64×64 일 경우, 제1 분할 지원 범위와 제2 분할 지원 범위에 모두 속하므로 쿼드 트리 분할과 바이너리 트리 분할이 가능하다. 기설정에 따라 제1 분할 방법(본 예에서는 쿼드 트리 분할)으로 우선 순위가 주어진다면, 분할 플래그 (div_flag)가 1일 경우에는 쿼드 트리 분할을 수행하며 추가 쿼드 트리 분할이 가능하고, 0일 경우에는 쿼드 트리 분할을 수행하지 않으며 더 이상 쿼드 트리 분할을 수행하지 않는 것으로 간주할 수 있다.For example, when the first division allowable minimum size (Minblksize1) is 16, the second division allowable maximum size (Maxblksize2) is 64, and the pre-division block is 64x64, the first division support range and the second division support range Quad tree partitioning and binary tree partitioning are possible because it belongs to all. If divide flag (div_flag) is 1, quad tree partitioning is performed and additional quadtree partitioning is possible, if the priority is given by the first partitioning method (quad tree partitioning in this example) according to the setting, Can be regarded as not performing a quadtree partition and no longer performing a quadtree partition.

분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서만 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다. 만약, 상기 분할 플래그(div_flag)가 1일 경우에는 32×32의 크기를 갖는 4개의 블록으로 분할이 되어 제1 분할 허용 최소 크기(Minblksize1) 보다 크기 때문에 쿼드 트리 분할을 계속 수행할 수 있다.Depending on the conditions such as the minimum allowable division size and the limit of the allowable division depth, the flag may be considered only for the division, and the additional division may not be considered. If the division flag div_flag is 1, it is divided into 4 blocks having a size of 32x32 and is larger than the first division allowable minimum size (Minblksize1), so that the quadtree partitioning can be continued.

만일, 0일 경우에는 추가적인 쿼드 트리 분할을 수행하지 않으며, 현재 블록 크기(64×64)가 상기 제2 분할 지원 범위에 속하게 되므로 바이너리 트리 분할을 수행할 수 있다. 분할 플래그(div_flag/h_v_flag순으로)가 0일 경우에는 더 이상 분할을 수행하지 않으며, 10 또는 11인 경우에는 가로 분할 또는 세로 분할을 수행할 수 있다.If 0, no additional quadtree partitioning is performed, and the current block size (64x64) belongs to the second partitioning support range, so that binary tree partitioning can be performed. When the division flag (in the order of div_flag / h_v_flag) is 0, no further division is performed, and in the case of 10 or 11, a horizontal division or a vertical division can be performed.

또한, 분할 전 블록이 32×32이며 분할 플래그(div_flag)가 0이라 더 이상 쿼드 트리 분할을 하지 않고 제2 분할 허용 최대 크기(Maxblksize2)가 16일 경우, 현재 블록의 크기(32×32)가 제2 분할 지원 범위에 속하지 않으므로 더 이상의 분할을 지원하지 않을 수 있다. 위 설명에서 분할 방법의 우선순위는 슬라이스 타입, 부호화 모드, 휘도/색차 성분 등 중에서 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. In addition, when the block before division is 32x32 and the division flag (div_flag) is 0, the quad tree partition is not performed any more and the second block allowable maximum size (Maxblksize2) is 16, It does not belong to the second division support range and may not support further division. In the above description, the priority of the division method may be determined according to at least one of a slice type, a coding mode, a luminance / chrominance component, or a combination thereof.

다른 예로써, 휘도 및 색차 성분에 따라 다양한 설정을 지원할 수 있다. 예를 들어, 휘도 성분에서 결정된 쿼드 트리 또는 바이너리 트리 분할 구조를 색차 성분에서는 추가적인 정보 부/복호화없이 그대로 사용할 수 있다. 또는, 휘도 성분과 색차 성분의 독립적인 분할을 지원할 경우, 휘도 성분에는 쿼드 트리 + 바이너리 트리, 색차 성분에는 쿼드 트리 분할을 지원할 수도 있다. 또는, 휘도와 색차 성분에서 쿼드 트리 + 바이너리 트리 분할을 지원하되, 상기 분할 지원 범위가 휘도와 색차 성분에도 동일 또는 비례할 수도 있고, 그렇지 않을 수도 있다. 예를 들어, 컬러 포맷이 4:2:0인 경우일 경우, 색차 성분의 분할 지원 범위가 휘도 성분의 분할 지원 범위의 N/2일 수 있다.As another example, various settings can be supported depending on the luminance and chrominance components. For example, the quadtree or binary tree partition structure determined by the luminance component can be used as it is without additional information / decoding in the color difference component. Alternatively, if independent division of the luminance component and the chrominance component is supported, quad tree + binary tree may be included in the luminance component, and quad tree division may be supported in the chrominance component. Alternatively, the quad tree + binary tree division is supported in the luminance and chrominance components, but the division support range may or may not be the same or proportional to the luminance and chrominance components. For example, when the color format is 4: 2: 0, the division support range of the chrominance component may be N / 2 of the division support range of the luminance component.

다른 예로, 슬라이스 타입에 따라 다른 설정을 둘 수 있다. 예를 들어, I 슬라이스에서는 쿼드 트리 분할을 지원할 수 있고, P 슬라이스에서는 바이너리 트리 분할을 지원할 수 있고, B 슬라이스에서는 쿼드 트리 분할과 바이너리 트리 분할을 함께 지원할 수 있다.As another example, different settings can be made depending on the slice type. For example, I slices can support quadtree partitioning, P slices can support binary tree partitioning, and B slices can support quadtree partitioning and binary tree partitioning.

상기 예와 같이 쿼드 트리 분할 및 바이너리 트리 분할이 다양한 조건에 따라 설정 및 지원될 수 있다. 상기의 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 상기 예에서 언급된 하나 이상의 요인 또는 이들의 조합되는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다. 위의 분할 허용 깊이 한계는 분할 방식(쿼드트리, 바이너리 트리), 슬라이스 타입, 휘도/색차 성분, 부호화 모드 등에서 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다.Quad tree partitioning and binary tree partitioning can be set and supported according to various conditions as in the above example. It should be noted that the above-mentioned examples are not limited to the above-mentioned cases and may include cases in which mutual conditions are reversed, and may include one or more factors mentioned in the above-mentioned examples or combinations thereof, It is possible. The above allowable division depth limit can be determined according to at least one factor or a combination of at least one of division method (quad tree, binary tree), slice type, luminance / chrominance component, coding mode and the like.

또한, 상기 분할 지원 범위는 분할 방식(쿼드트리, 바이너리 트리), 슬라이스 타입, 휘도/색차 성분, 부호화 모드 등에서 최소 하나 이상의 요인에 또는 이들의 조합에 따라 결정될 수 있으며, 관련 정보는 분할 지원 범위의 최대값, 최소값으로 표현할 수 있다.The division support range may be determined according to at least one factor or a combination thereof in a division mode (quad tree, binary tree), a slice type, a luminance / chrominance component, a coding mode, Maximum value, and minimum value.

이에 대한 정보를 명시적 플래그로 구성할 경우, 최대값/최소값 각각의 길이 정보, 또는 최소값과 최대값의 차이값 정보 등을 표현할 수 있다. 예를 들어, 최대값과 최소값이 k의 지수승(k를 2라 가정)으로 구성되어 있을 경우, 최대값과 최소값의 지수 정보를 다양한 이진화를 통해 부호화하여 복호화 장치에 전달할 수 있다. 또는, 최대값과 최소값의 지수의 차이값을 전달할 수 있다. 이 때 전송되는 정보는 최소값의 지수 정보와 지수의 차이값 정보일 수 있다When information on this is configured with an explicit flag, length information of each of the maximum value / minimum value, or difference value information between the minimum value and the maximum value can be expressed. For example, when the maximum value and the minimum value are composed of exponentiation powers of k (assuming k is 2), the exponential information of the maximum and minimum values can be encoded through various binarization and transmitted to the decoding apparatus. Alternatively, the difference value between the maximum value and the minimum value can be transmitted. The information transmitted at this time may be the difference information of the exponent information and the exponent of the minimum value

전술한 설명에 따라 플래그와 관련한 정보들은 시퀀스, 픽쳐, 슬라이스, 타일, 블록 등의 단위에서 생성되고 전송될 수 있다.In accordance with the above description, information related to flags can be generated and transmitted in units of sequences, pictures, slices, tiles, blocks, and the like.

상기 예시로 제시된 분할 플래그들로 쿼드 트리 또는 바이너리 트리 또는 두 트리 방식의 혼합을 통해 블록 분할 정보를 나타낼 수 있으며, 분할 플래그는 단항 이진화, 절삭형 단항 이진화 등의 다양한 방법으로 부호화하여 관련 정보를 복호화 장치에 전달할 수 있다. 상기 블록의 분할 정보를 표현하기 위한 분할 플래그의 비트스트림 구조는 1개 이상의 스캔 방법 중 선택할 수 있다.The block division information may be represented by a quad tree, a binary tree, or a combination of two tree schemes with the division flags shown in the above examples. The division flags may be encoded by various methods such as unary binarization and cutting type unary binarization, Device. The bitstream structure of the division flag for representing the division information of the block may be selected from one or more scanning methods.

예를 들어, 분할 깊이 순서(dep0에서 dep_k순서로) 기준으로 분할 플래그들의 비트스트림을 구성할 수 있고, 분할 여부 기준으로 분할 플래그들의 비트스트림을 구성할 수도 있다. 분할 깊이 순서 기준 방법에서는 최초 블록 기준으로 현 수준의 깊이에서의 분할 정보를 획득한 후 다음 수준의 깊이에서의 분할 정보를 획득하는 방법이며, 분할 여부 기준 방법에서는 최초 블록 기준으로 분할된 블록에서의 추가 분할 정보를 우선적으로 획득하는 방법을 의미하며, 이 외에도 위의 예에서 제시되지 않은 다른 스캔 방법이 포함되어 선택될 수 있다.For example, a bitstream of division flags can be configured based on the division depth order (from dep0 to dep_k), and a bitstream of division flags can be configured based on division. In the division depth order reference method, division information at the current level is acquired on the basis of the first block, and division information is acquired at the next level. In the division method, It means a method of preferentially acquiring additional division information, and other scanning methods not shown in the above example may be included and selected.

또한, 구현에 따라서, 블록 분할부는 전술한 분할 플래그가 아닌 미리 정의된 소정 형태의 블록 후보군에 대한 인덱스 정보를 생성하여 이를 표현할 수 있다. 블록 후보군의 형태는, 예를 들어, 분할 전 블록에서 가질 수 있는 분할 블록의 형태로서 M×N, M/2×N, M×N/2, M/4×N, 3M/4×N, M×N/4, M×3N/4, M/2×N/2 등을 포함할 수 있다.Also, according to the implementation, the block dividing unit may generate index information for a block candidate group of a predetermined type, which is not the division flag described above, and express it. M × N, M × N, M × N / 2, M / 4 × N, 3M / 4 × N, and M × N are the types of block candidates, M × N / 4, M × 3N / 4, M / 2 × N / 2, and the like.

위와 같이 분할 블록의 후보군이 결정되면 상기 분할 블록 형태에 대한 인덱스 정보를 고정 길이 이진화, 단삭 절단형 이진화, 절단형 이진화 등과 같은 다양한 방법을 통해 부호화할 수 있다. 위에서 설명한 분할 플래그와 같이 블록의 분할 깊이, 부호화 모드, 예측 모드, 크기, 형태, 종류 그리고 슬라이스 타입, 분할 허용 깊이 한계, 분할 허용 최소/최대 크기 등의 요인 중 최소 하나 이상의 요인 또는 이들의 조합에 따라 분할 블록 후보군이 결정될 수 있다.When the candidate group of the divided block is determined as described above, the index information for the divided block type can be encoded by various methods such as fixed length binarization, truncated binarization, truncated binarization, and the like. At least one of factors such as the division depth of a block, a coding mode, a prediction mode, a size, a type, a type and a slice type, a division allowable depth limit, a division allowable minimum / maximum size, The divided block candidate group can be determined.

다음 설명을 위해서 (M×N, M×N/2)를 후보 리스트1(list1), (M×N, M/2×N, M×N/2, M/2×N/2)를 후보 리스트2(list2), (M×N, M/2×N, M×N/2)를 후보 리스트3(list3), (M×N, M/2×N, M×N/2, M/4×N, 3M/4×N, M×N/4, M×3N/4, M/2×N/2)를 후보 리스트4(list4)로 가정한다. 예를 들어, M×N을 기준으로 설명할 때, (M=N)일 경우에는 후보 list2의 분할 블록 후보를, (M≠N)일 경우에는 후보 list3의 분할 블록 후보를 지원할 수 있다.(M × N, M × N / 2, M / 2 × N / 2) as candidate lists 1 (list 1) (M × N, M / 2 × N, M × N / 2, M / N × 2) of the list 2 (list 2) 4 × N, 3M / 4 × N, M × N / 4, M × 3N / 4 and M / 2 × N / 2) are assumed to be the candidate list 4 (list4). For example, when describing M × N as a reference, a divided block candidate of candidate list 2 can be supported when (M = N), and a divided block candidate of candidate list 3 if (M ≠ N).

다른 예로, M×N의 M 또는 N이 경계값(blk_th)보다 크거나 같을 경우에는 후보 list2의 분할 블록 후보를, 그보다 작을 경우에는 후보 list4의 분할 블록 후보를 지원할 수 있다. 또한, M 또는 N이 제1 경계값(blk_th_1)보다 크거나 같을 경우에는 후보 list1의 분할 블록 후보를, 제1 경계값(blk_th_1)보다는 작지만 제2 경계값(blk_th_2)보다는 크거나 같을 경우에는 후보 list2의 분할 블록 후보를, 제2 경계값(blk_th_2)보다 작을 경우에는 후보 list4의 분할 블록 후보를 지원할 수 있다.As another example, if M × N of M or N is greater than or equal to the boundary value blk_th, the divided block candidate of the candidate list 2 can be supported, and if it is smaller than that, the divided block candidate of the candidate list 4 can be supported. When M or N is equal to or greater than the first threshold value blk_th_1, if the divided block candidate of the candidate list 1 is smaller than the first threshold value blk_th_1 but equal to or greater than the second threshold value blk_th_2, If the divided block candidate of list2 is smaller than the second boundary value blk_th_2, the divided block candidate of the candidate list 4 can be supported.

다른 예로, 부호화 모드가 화면 내 예측인 경우 후보 list2의 분할 블록 후보를, 화면 간 예측인 경우 후보 list4의 분할 블록 후보를 지원할 수 있다.As another example, it is possible to support a divided block candidate of the candidate list 2 when the coding mode is intra-picture prediction and a divided block candidate of the candidate list 4 when inter prediction is performed.

상기와 같은 분할 블록 후보가 지원된다 하더라도 각각의 블록에서 이진화에 따른 비트 구성은 같을 수도, 다를 수도 있다. 예를 들어, 위의 분할 플래그에서의 적용과 같이 블록 크기 또는 형태에 다라 지원되는 분할 블록 후보가 제한된다면 해당 블록 후보의 이진화에 따른 비트 구성이 달라질 수 있다. 예컨대, (M>N)일 경우에는 가로 분할에 따른 블록 형태 즉, M×N, M×N/2, M/2×N/2를 지원할 수 있고, 분할 블록 후보군(M×N, M/2×N, M×N/2, M/2×N/2)에서의 M×N/2과 현재 조건의 M×N/2에 따른 인덱스의 이진 비트가 서로 다를 수 있다.Even if the divided block candidates are supported, the bit configuration according to the binarization in each block may be the same or different. For example, if the divided block candidates supported by the block size or shape are limited as in the case of the division flag, the bit configuration according to the binarization of the corresponding block candidate may be changed. M × N, M × N / 2 and M / 2 × N / 2 in the case of (M> N) The binary bits of the index according to the M × N / 2 of the current condition and the M × N / 2 of the current condition may be different from each other.

블록의 종류 예컨대 부호화, 예측, 변환, 양자화, 엔트로피, 인루프 필터링 등에 사용되는 블록의 종류에 따라 분할 플래그 또는 분할 인덱스 방식 중 하나를 사용하여 블록의 분할 및 형태에 대한 정보를 표현할 수 있다. 또한, 각 블록 종류에 따라 분할 및 블록의 형태 지원에 대한 블록 크기 제한 및 분할 허용 깊이 한계 등이 다를 수 있다.Information on the segmentation and type of the block can be expressed using one of the segmentation flag or the segmentation index method according to the type of the block used for coding, prediction, conversion, quantization, entropy, in-loop filtering, and the like. In addition, block size limitation and division allowable depth limit for the partitioning and block type support may be different depending on each block type.

블록 단위의 부호화/복호화 과정은 우선 부호화 블록이 결정된 후, 예측 블록 결정, 변환 블록 결정, 양자화 블록 결정, 엔트로피 블록 결정, 인루프 필터 결정 등의 과정에 따라 부호화/복호화를 진행할 수 있다. 상기의 부호화/복호화 과정에 대한 순서는 항상 고정적이지 않으며, 일부 순서가 변경되거나 제외될 수 있다. 상기 블록의 크기 및 형태의 후보별 부호화 비용에 따라 각 블록의 크기 및 형태가 결정되고, 결정된 각 블록의 영상 데이터 및 결정된 각 블록의 크기 및 형태 등의 분할 관련 정보들을 부호화할 수 있다.In the coding / decoding process on a block-by-block basis, after the coding block is determined, the coding / decoding can be performed according to the processes of the prediction block determination, the transform block determination, the quantization block determination, the entropy block determination and the in-loop filter determination. The order of the encoding / decoding process is not always fixed, and some order may be changed or excluded. The size and shape of each block are determined according to the coding cost of each candidate of the size and the shape of the block, and coding related information such as image data of each determined block and size and type of each determined block can be encoded.

예측부(200)는 소프트웨어 모듈인 예측 모듈(prediction module)을 이용하여 구현될 수 있고, 부호화할 블록에 대하여 화면 내 예측 방식이나 화면 간 예측 방식으로 예측 블록을 생성할 수 있다. 여기서, 예측 블록은 화소 차이의 관점에서, 부호화할 블록과 가깝게 일치하는 것으로 이해되는 블록이며, SAD(sum of absolute difference), SSD(sum of square difference)를 포함하는 다양한 방법으로 결정될 수 있다. 또한, 이때 영상 블록들을 복호화시에 사용될 수 있는 각종 구문(syntax)들을 생성할 수도 있다. 예측 블록은 부호화 모드에 따라 화면 내 블록과 화면 간 블록으로 분류될 수 있다.The prediction unit 200 can be implemented using a prediction module, which is a software module, and can generate a prediction block using an intra-picture prediction scheme or an inter-picture prediction scheme for a block to be encoded. Here, the prediction block is a block which is understood to closely match the block to be encoded in terms of pixel difference, and can be determined by various methods including a sum of absolute difference (SAD) and a sum of square difference (SSD). Also, at this time, various syntaxes that can be used in decoding the image blocks may be generated. The prediction block can be classified into an in-picture block and an inter-picture block according to an encoding mode.

화면 내 예측(intra prediction)은 공간적인 상관성을 이용하는 예측 기술로, 현재 픽쳐 내에서 이전에 부호화되고 복호화되어 복원된 블록들의 참조 화소들을 이용하여 현재 블록을 예측하는 방법을 말한다. 즉, 화면 내 예측과 복원으로 재구성된 밝기 값을 부호화기 및 복호화기에서 참조 화소로 사용할 수 있다. 화면 내 예측은 연속성을 갖는 평탄한 영역 및 일정한 방향성을 가진 영역에 대해 효과적일 수 있으며, 공간적인 상관성을 이용하기 때문에 임의 접근(random access)을 보장하고, 오류 확산을 방지하는 목적으로 사용될 수 있다.Intra prediction refers to a prediction technique that uses spatial correlation and predicts a current block using reference pixels of previously reconstructed and decoded blocks in the current picture. That is, the brightness value reconstructed by intra prediction and reconstruction can be used as reference pixels in the encoder and the decoder. Intra prediction can be effective for flat areas with continuity and areas with constant directionality, and it can be used for the purpose of guaranteeing random access and preventing error diffusion because it uses spatial correlation.

화면 간 예측(inter prediction)은 하나 이상의 과거 또는 미래 픽쳐에서 부호화된 영상을 참조하여 시간적인 상관성을 이용하여 데이터의 중복을 제거하는 압축 기법을 이용한다. 즉, 화면 간 예측은 하나 이상의 과거 또는 미래 픽쳐를 참조함으로써 높은 유사성을 갖는 예측 신호를 생성할 수 있다. 화면 간 예측을 이용하는 부호화기에서는 참조 픽쳐에서 현재 부호화하려는 블록과 상관도가 높은 블록을 탐색하고, 선택된 블록의 위치 정보와 잔차(residue) 신호를 복호화기로 전송할 수 있고, 복호화기는 전송된 영상의 선택 정보를 이용하여 부호화기와 동일한 예측 블록을 생성하고 전송된 잔차 신호를 보상하여 복원 영상을 구성할 수 있다.Inter prediction uses a compression technique that removes redundancy of data by using temporal correlation with reference to an image encoded in one or more past or future pictures. That is, the inter picture prediction can generate a prediction signal having high similarity by referring to one or more past or future pictures. In the encoder using inter-picture prediction, a block having a high degree of correlation with a block to be currently coded is searched in the reference picture, and the position information and residue signal of the selected block can be transmitted to the decoder. A reconstructed image can be constructed by generating the same prediction block as the encoder and compensating the transmitted residual signal.

도 4는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 P 슬라이스의 화면 간 예측을 나타낸 예시도이다. 도 5는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 B 슬라이스의 화면 간 예측을 나타낸 예시도이다.FIG. 4 is a diagram illustrating an inter-picture prediction of a P slice in an image encoding and decoding method according to an embodiment of the present invention. FIG. 5 is a diagram illustrating an inter-picture prediction of a B slice in an image encoding and decoding method according to an embodiment of the present invention.

본 실시예의 영상 부호화 방법에서, 화면 간 예측은 시간적으로 높은 상관성이 있는 이전에 부호화된 픽쳐로부터 예측 블록을 생성하기 때문에 부호화 효율을 높일 수 있다. Current(t)는 부호화할 현재 픽쳐를 의미할 수 있고, 영상 픽쳐의 시간적인 흐름 혹은 POC(picture order count)를 기준으로 할 때 현재 픽쳐의 POC보다 이전의 제1 시간적인 거리(t-1)를 가지는 제1 참조픽쳐와 제1 시간적인 거리 이전의 제2 시간적인 거리(t-2)를 가지는 제2 참조픽쳐를 포함할 수 있다.In the image coding method of this embodiment, the inter picture prediction generates a prediction block from a previously coded picture having a high temporal correlation, so that the coding efficiency can be increased. Current (t) may refer to the current picture to be coded and may be a first temporal distance (t-1) prior to the POC of the current picture based on temporal flow of the picture or POC (picture order count) And a second reference picture having a second temporal distance (t-2) before the first temporal distance.

즉, 도 4에 도시한 바와 같이, 본 실시예의 영상 부호화 방법에 채용할 수 있는 화면 간 예측은 현재 픽쳐(current(t))의 현재 블록과 참조 픽쳐들(t-1, t-2)의 참조 블록들의 블록 매칭을 통해 상관성이 높은 블록을 이전에 부호화가 완료된 참조 픽쳐들(t-1, t-2)로부터 최적의 예측 블록을 찾는 움직임 추정을 수행할 수 있다. 정밀한 추정을 위해 필요에 따라 인접한 두 화소들 사이에 적어도 하나 이상의 부화소가 배열된 구조에 기반하는 보간(interpolation) 과정을 수행한 후, 최적의 예측 블록을 찾은 후 움직임 보상을 하여 최종적인 예측 블록을 찾을 수 있다.4, inter-picture prediction that can be employed in the video coding method of this embodiment is the same as that of the current block of the current picture (current (t)) and that of the reference pictures (t-1, t-2) It is possible to perform motion estimation for finding an optimal prediction block from reference pictures (t-1, t-2) that have been previously encoded with a block having a high correlation through block matching of reference blocks. An interpolation process based on a structure in which at least one or more subpixels are arranged between adjacent two pixels as necessary for precise estimation is performed and then an optimal prediction block is found and motion compensation is performed, Can be found.

또한, 도 5에 도시한 바와 같이, 본 실시예의 영상 부호화 방법에 채용할 수 있는 화면 간 예측은 현재 픽쳐(current(t))를 기준으로 시간적으로 양방향에 존재하는 이미 부호화가 완료된 참조 픽쳐들(t-1, t+1)로부터 예측 블록을 생성할 수 있다. 또한, 1개 이상의 참조 픽쳐에서 2개의 예측 블록을 생성할 수 있다.5, the inter-picture prediction that can be employed in the image coding method of the present embodiment is based on the already-coded reference pictures (" current (t) " t-1, t + 1). In addition, two prediction blocks can be generated from one or more reference pictures.

화면 간 예측을 통해 영상의 부호화를 수행할 경우, 최적의 예측 블록에 대한 움직임 벡터 정보와 참조 픽쳐에 대한 정보를 부호화한다. 본 실시예에서는 단방향 또는 양방향으로 예측 블록을 생성할 경우 참조 픽쳐 리스트를 달리 구성하여 해당 참조 픽쳐 리스트로부터 예측 블록을 생성할 수 있다. 기본적으로 시간적으로 현재 픽쳐 이전에 존재하는 참조 픽쳐는 리스트 0(L0)에 할당하여 관리되고 현재 픽쳐 이후에 존재하는 참조 픽쳐는 리스트 1(L1)에 할당하여 관리될 수 있다.When encoding an image through inter-picture prediction, motion vector information for the optimal prediction block and information about the reference picture are encoded. In this embodiment, when a prediction block is generated in a unidirectional or bidirectional direction, a reference block list may be configured differently to generate a prediction block from the corresponding reference picture list. Basically, the reference pictures temporally present before the current picture are managed by being allocated to the list 0 (L0), and the reference pictures existing after the current picture can be allocated to the list 1 (L1) and managed.

참조 픽쳐 리스트 0를 구성할 때, 참조 픽쳐 리스트 0의 참조 픽쳐 허용 개수까지 채우지 못할 경우 현재 픽쳐 이후에 존재하는 참조 픽쳐를 할당할 수 있다. 이와 비슷하게 참조 픽쳐 리스트 1을 구성할 때, 참조 픽쳐 리스트 1의 참조 픽쳐 허용 개수까지 채우지 못할 경우 현재 픽쳐 이전에 존재하는 참조 픽쳐를 할당할 수 있다.The reference pictures existing after the current picture can be allocated when the reference picture list 0 can not be filled up to the reference picture list number 0 of the reference picture list 0. Similarly, when the reference picture list 1 is constructed, if the reference picture list 1 can not satisfy the reference picture list, the reference pictures existing before the current picture can be allocated.

도 6은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 단방향으로 예측 블록을 생성하는 경우를 설명하기 위한 예시도이다.FIG. 6 is a diagram illustrating an example of generating a prediction block in a unidirectional manner in the image encoding and decoding method according to an embodiment of the present invention. Referring to FIG.

도 6을 참조하면, 본 실시예에 따른 영상 부호화 및 복호화 방법에서는 기존과 같이 이전에 부호화된 참조 픽쳐(t-1, t-2)로부터 예측 블록을 찾을 수 있고, 이에 더하여 현재 픽쳐(current(t))에 이미 부호화가 완료된 영역으로부터 예측 블록을 찾을 수 있다.Referring to FIG. 6, in the image encoding and decoding method according to the present embodiment, a prediction block can be found from a previously encoded reference picture t-1, t-2. In addition, a current picture t) from the region where coding has already been completed.

즉, 본 실시예에 따른 영상 부호화 및 복호화 방법에서는, 시간적으로 높은 상관성이 있는 이전에 부호화된 픽쳐(t-1, t-2)로부터 예측 블록을 생성한 것뿐만 아니라 공간적으로 상관성이 높은 예측 블록을 함께 찾도록 구현될 수 있다. 그러한 공간적으로 상관성이 높은 예측 블록을 찾는 것은 화면 내 예측의 방식으로 예측 블록을 찾는 것에 대응할 수 있다. 현재 픽쳐에서 부호화가 완료된 영역으로부터 블록 매칭을 수행하기 위해, 본 실시예의 영상 부호화 방법은 화면 내 예측 모드와 혼합하여 예측 후보와 관련된 정보에 대한 신택스(syntax)를 구성할 수 있다.That is, in the image encoding and decoding method according to the present embodiment, not only a prediction block is generated from a previously coded picture (t-1, t-2) having a temporally high correlation, but also a prediction block having a high spatial correlation As shown in FIG. Finding such a spatially highly correlated prediction block can correspond to finding a prediction block in a manner of intra prediction. In order to perform block matching from an area where coding is completed in the current picture, the image coding method of the present embodiment can construct a syntax for information related to the prediction candidate in combination with the intra-picture prediction mode.

예를 들어, n(n은 임의의 자연수) 가지의 화면 내 예측 모드를 지원하는 경우, 한 가지 모드를 화면 내 예측 후보군에 추가하여 n+1가지 모드를 지원하며 2M-1≤n+1<2M 를 만족시키는 M개의 고정 비트를 사용하여 예측 모드를 부호화할 수 있다. 또한, HEVC의 MPM(most probable mode)와 같이 가능성 높은 예측 모드의 후보군 중에서 선택하도록 구현될 수 있다. 또한, 예측 모드 부호화의 상위 단계에서 우선적으로 부호화할 수도 있다.For example, when n (n is an arbitrary natural number) branch prediction mode is supported, one mode is added to the intra prediction prediction candidate to support n + 1 modes and 2M-1? N + 1 &Lt; 2 &lt; M &gt; can be used to encode the prediction mode. Also, it can be implemented to select among candidate groups of probable prediction modes, such as MPV (most probable mode) of HEVC. It is also possible to preferentially encode at a higher stage of prediction mode encoding.

현재 픽쳐에서 블록 매칭을 통해 예측 블록을 생성할 경우, 본 실시예의 영상 부호화 방법은 화면 간 예측 모드와 혼합하여 관련된 정보에 대한 신택스를 구성할 수도 있다. 추가적인 관련 예측 모드 정보로는 움직임 또는 이동(motion or displacement) 관련 정보가 이용될 수 있다. 움직임 또는 이동 관련 정보는 여러 벡터 후보 중 최적의 후보 정보, 최적의 후보 벡터와 실제 벡터와의 차분치, 참조 방향, 참조 픽쳐 정보 등을 포함할 수 있다.When a prediction block is generated through block matching in the current picture, the image coding method of the present embodiment may form a syntax for information related to mixing with the inter-picture prediction mode. Additional associated prediction mode information may be motion or displacement related information. The motion or motion-related information may include optimal candidate information among various vector candidates, a difference value between an optimal candidate vector and an actual vector, a reference direction, reference picture information, and the like.

도 7은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트를 구성하는 예시도이다. 도 8은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트로부터 화면 간 예측을 수행하는 경우의 다른 예를 나타낸 예시도이다.FIG. 7 is a diagram illustrating a reference picture list in the image encoding and decoding method according to an embodiment of the present invention. Referring to FIG. FIG. 8 is a diagram illustrating an example of performing inter-picture prediction from a reference picture list in an image encoding and decoding method according to an embodiment of the present invention.

도 7을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 현재 픽쳐(current(t))의 현재 블록에 대하여 제1 참조픽쳐 리스트(reference list 0, L0)와 제2 참조픽쳐 리스트(reference list 1, L1)로부터 화면 간 예측을 수행할 수 있다.7, a method of encoding an image according to an embodiment of the present invention includes a first reference picture list (L0) and a second reference picture list (L0) for a current block of a current picture (current (t) 1, &lt; / RTI &gt; L1).

도 7 및 도 8을 참조하면, 참조 픽쳐 리스트 0은 현재 픽쳐(t) 이전의 참조 픽쳐로 구성할 수 있는데, t-1, t-2는 각각 현재 픽쳐(t)의 POC보다 이전의 제1 시간적인 거리(t-1), 제2 시간적인 거리(t-2)를 가지는 참조 픽쳐들을 지시한다. 또한, 참조 픽쳐 리스트 1은 현재 픽쳐(t) 이후의 참조 픽쳐로 구성할 수 있는데, t+1, t+2는 각각 현재 픽쳐(t)의 POC보다 이후의 제1 시간적인 거리(t+1), 제2 시간적인 거리(t+2)를 가지는 참조 픽쳐들을 지시한다. Referring to FIGS. 7 and 8, the reference picture list 0 can be composed of reference pictures before the current picture t, where t-1 and t-2 are respectively the first , The temporal distance (t-1), and the second temporal distance (t-2). The reference picture list 1 can be composed of a reference picture after the current picture t and t + 1 and t + 2 respectively represent a first temporal distance t + 1 after the POC of the current picture t ) And a second temporal distance (t + 2).

참조 픽쳐 리스트 구성에 관한 전술한 예들은 시간적인 거리(본 예에서는 POC 기준)의 차이가 1인 참조 픽쳐들로 참조 픽쳐 리스트를 구성하는 예를 나타내고 있으나, 참조 픽쳐간의 시간적인 거리 차이를 다르게 구성할 수도 있다. 즉, 참조 픽쳐들의 인덱스 차이와 참조 픽쳐들의 시간적인 거리 차이가 비례하지 않을 수 있다는 것을 의미한다. 또한, 리스트 구성 순서를 시간적인 거리 기준으로 구성되지 않을 수도 있다. 이에 대한 내용은 후술할 참조 픽쳐 리스트 구성 예에서 확인할 수 있다.Although the above-described examples of the reference picture list construction show an example in which the reference picture list is composed of the reference pictures having the difference of the temporal distance (POC standard in this example), the difference in temporal distance between the reference pictures is configured differently You may. That is, the index difference of the reference pictures and the temporal distance difference of the reference pictures may not be proportional. In addition, the list arrangement order may not be constituted based on temporal distance. This can be confirmed in an example of the reference picture list construction to be described later.

슬라이스 타입(I, P 또는 B)에 따라 리스트에 있는 참조 픽쳐로부터 예측을 수행할 수 있다. 그리고 현재 픽쳐(current(t))에서 블록 매칭을 통해 예측 블록을 생성할 경우, 참조 픽쳐 리스트(reference list 0 및/또는 reference list 1)에 현재 픽쳐를 추가하여 화면 간 예측 방식으로 부호화를 수행할 수 있다.The prediction can be performed from the reference picture in the list according to the slice type (I, P, or B). When a prediction block is generated by block matching in the current picture (current (t)), a current picture is added to a reference picture list (reference list 0 and / or reference list 1) .

도 8에 도시한 바와 같이 참조 픽쳐 리스트 0(reference list 0)에 현재 픽쳐(t)를 추가하거나 또는 참조 픽쳐 리스트 1(reference list 1)에 현재 픽쳐(current(t))를 추가할 수 있다. 즉, 참조 픽쳐 리스트 0은 현재 픽쳐(t) 이전의 참조 픽쳐에 시간적인 거리(t)인 참조 픽쳐를 추가하여 구성할 수 있고, 참조 픽쳐 리스트 1은 현재 픽쳐(t) 이후의 참조 픽쳐에 시간적인 거리(t)인 참조 픽쳐를 추가하여 구성할 수도 있다. The current picture t can be added to the reference list 0 or the current picture current t can be added to the reference list 1 as shown in FIG. That is, the reference picture list 0 can be constructed by adding a reference picture which is a temporal distance (t) to the reference picture before the current picture (t), and the reference picture list 1 is composed of time A reference picture that is a distance t may be added.

예를 들어, 참조 픽쳐 리스트 0를 구성할 때 현재 픽쳐 이전의 참조 픽쳐를 참조 픽쳐 리스트 0에 할당하고 이어 현재 픽쳐(t)를 할당할 수 있고, 참조 픽쳐 리스트 1을 구성할 때 현재 픽쳐 이후의 참조 픽쳐를 참조 픽쳐 리스트 1에 할당하고 이어 현재 픽쳐(t)를 할당할 수 있다. 또는, 참조 픽쳐 리스트 0를 구성할 때 현재 픽쳐(t)를 할당하고 이어 현재 픽쳐 이전의 참조 픽쳐를 할당할 수 있고, 참조 픽쳐 리스트 1을 구성할 때 현재 픽쳐(t)를 할당하고 이어 현재 픽쳐 이후의 참조 픽쳐를 할당할 수 있다.For example, when the reference picture list 0 is constructed, the reference picture prior to the current picture can be assigned to the reference picture list 0, and the current picture t can be allocated. When the reference picture list 1 is constructed, The reference picture can be assigned to the reference picture list 1 and then the current picture t can be allocated. Alternatively, when the reference picture list 0 is constructed, the current picture t can be allocated and the reference picture prior to the current picture can be allocated. When the reference picture list 1 is constructed, the current picture t is allocated, It is possible to assign subsequent reference pictures.

또한, 참조 픽쳐 리스트 0을 구성할 때 현재 픽쳐 이전의 참조 픽쳐를 할당하고 이어 현재 픽쳐 이후의 참조 픽쳐를 할당하고 현재 픽쳐(t)를 할당할 수 있다. 이와 비슷하게 참조 픽쳐 리스트 1을 구성할 때 현재 픽쳐 이후의 참조 픽쳐를 할당하고 이어서 현재 픽쳐 이전의 참조 픽쳐를 할당하고 현재 픽쳐(t)를 할당할 수 있다. 위의 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다. Also, when the reference picture list 0 is constructed, the reference picture before the current picture can be allocated, the reference picture after the current picture can be allocated, and the current picture t can be allocated. Similarly, when constructing the reference picture list 1, the reference pictures after the current picture can be allocated, the reference pictures before the current picture can be allocated, and the current picture t can be allocated. The above examples are not specific to the above-mentioned case, but may include cases where the conditions of each other are reversed, and examples of other cases may also be modified.

각 참조 픽쳐 리스트에 현재 픽쳐를 포함할 지 여부(예를 들어, 어떤 리스트에도 추가하지 않음 또는 리스트 0에만 추가 또는 리스트 1에만 추가 또는 리스트 0와 1에 같이 추가)는 부호화기/복호화기에 동일한 설정이 가능하고, 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송이 가능하다. 이에 대한 정보는 고정 길이 이진화, 단삭 절단형 이진화, 절단형 이진화 등의 방법을 통해 부호화될 수 있다.Whether or not to include the current picture in each reference picture list (for example, not adding to any list, adding to list 0 only, or adding to list 1 or adding to lists 0 and 1) Information can be transmitted in units of sequences, pictures, slices, and the like. The information on this can be encoded by a method such as fixed-length binarization, truncation-type binarization, truncation-type binarization, and the like.

본 실시예의 영상 부호화 및 복호화 방법은, 도 7의 방법과 달리, 현재 픽쳐(t)에서 블록 매칭을 수행하여 예측 블록을 선택하고, 이러한 예측 블록에 대한 관련 정보를 포함하는 참조 픽쳐 리스트를 구성하며, 이러한 참조 픽쳐 리스트를 영상 부호화 및 복호화에 이용하는데 차이가 있다.The image encoding and decoding method of this embodiment differs from the method of FIG. 7 in that block matching is performed on the current picture t to select a prediction block, and a reference picture list including related information about the prediction block is constructed , There is a difference in that such a reference picture list is used for image coding and decoding.

참조 픽쳐 리스트 구성에 있어서 각 리스트 구성 순서 및 규칙, 각 리스트의 참조 픽쳐 허용 개수에 대한 설정을 달리할 수 있는데, 이는 현재 픽쳐의 리스트 포함여부(현재 픽쳐를 화면 간 예측에서의 참조 픽쳐로 포함할지 여부), 슬라이스 타입, 리스트 재구성 파라미터(리스트 0, 1에 각각 적용될 수도 있고, 리스트 0, 1에 같이 적용될 수도 있음), GOP(Group of Picture) 내의 위치, 시간적 계층 정보(temporal id) 등의 여러 요인 중 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수도 있고, 명시적으로 관련 정보를 시퀀스, 픽쳐 등의 단위로 전송할 수 있다.In the reference picture list configuration, it is possible to set the order and the rule of each list and the allowable number of the reference pictures of the respective lists differently. This includes whether the current picture is included in the list (whether the current picture is included as a reference picture in inter- (E.g., whether or not it is applicable to the list 0 or 1), a slice type, a list reconstruction parameter (which may be applied to lists 0 and 1 respectively, or may be applied to lists 0 and 1 respectively), a position in a group of pictures (GOP) At least one of the factors, or a combination thereof, and can explicitly transmit the related information in units of a sequence, picture, or the like.

예를 들어, P 슬라이스인 경우 현재 픽쳐를 리스트에 포함하는 것과 관계없이 참조 픽쳐 리스트 0은 리스트 구성 규칙 A에 따를 수 있고, B 슬라이스인 경우 현재 픽쳐를 리스트에 포함하는 참조 픽쳐 리스트 0에는 리스트 구성 규칙 B, 참조 픽쳐 리스트 1에는 리스트 구성 규칙 C를 따를 수 있고, 현재 픽쳐를 포함하지 않는 참조 픽쳐 리스트 0에는 리스트 구성 규칙 D, 참조 픽쳐 리스트 1에는 리스트 구성 규칙 E에 따를 수 있으며, 리스트 구성 규칙 중 B와 D, C와 E는 같을 수도 있다. 리스트 구성 규칙은 상기 참조 픽쳐 리스트 구성 예에서 설명된 것과 같거나 변형된 방식으로 구성될 수 있다.For example, in the case of a P slice, the reference picture list 0 can follow the list construction rule A, regardless of whether the current picture is included in the list, and the reference picture list 0 that includes the current picture in the list in the case of B slice, Rule B and the reference picture list 1 can follow the list construction rule C, and the list construction rule D for the reference picture list 0 that does not include the current picture and the list construction rule E for the reference picture list 1, B and D, C and E may be the same. The list configuration rules may be configured in the same or modified manner as described in the above-described reference picture list configuration example.

다른 예로써, 현재 픽쳐를 리스트에 포함하는 경우에는 제1 참조 픽쳐 허용 개수, 포함하지 않는 경우에는 제2 참조 픽쳐 허용 개수를 설정할 수 있다. 제1 참조 픽쳐 허용 개수와 제2 참조 픽쳐 허용 개수는 같을 수도 있고 다를 수도 있으며, 제1 참조 픽쳐 허용 개수와 제2 참조 픽쳐 허용 개수의 차이가 1인 것을 기본 설정으로 둘 수도 있다.As another example, when the current picture is included in the list, the first reference picture allowable number can be set, and when not included, the second reference picture allowable number can be set. The first reference picture allowable number and the second reference picture allowable number may be equal to or different from each other and the difference between the first reference picture allowable number and the second reference picture allowable number may be set to 1 by default.

다른 예로, 현재 픽쳐를 리스트에 포함하며 리스트 재구성 파라미터가 적용될 경우, 슬라이스 A에서는 모든 참조 픽쳐가 리스트 재구성 후보군이 될 수 있고, 슬라이스 B에서는 리스트 재구성 후보군에 일부 참조 픽쳐만 포함될 수 있다. 이때, 슬라이스 A 또는 B는 현재 픽쳐의 리스트 포함여부, 시간적 계층 정보, 슬라이스 타입, GOP 내의 위치 등에 구분될 수 있고, 후보군에 포함 여부를 나누는 요인으로 참조 픽쳐의 POC 또는 참조 픽쳐 인덱스, 참조 예측 방향(현재 픽쳐 전/후), 현재 픽쳐 여부 등에 의해 결정될 수 있다. As another example, if the current picture is included in the list and the list reconstruction parameter is applied, all the reference pictures in the slice A can be the list reconstruction candidates, and the slice B can include only some reference pictures in the list reconstruction candidate group. At this time, the slice A or B can be classified into whether or not the current picture is included in the list, temporal layer information, slice type, position in the GOP, and the like. The POC or reference picture index of the reference picture, (Before / after the current picture), whether or not the current picture is present, and the like.

전술한 구성에 의하면, 현재 픽쳐에서 화면 간 예측으로 부호화된 참조 블록을 이용할 수 있으므로, I 슬라이스의 움직인 예측에서도 화면 간 예측을 허용 또는 이용할 수 있게 된다.According to the above-described structure, the reference block encoded with the inter-picture prediction can be used in the current picture, so that inter-picture prediction can be allowed or utilized even in the moving prediction of the I-slice.

또한, 참조 픽쳐 리스트를 구성할 때, 슬라이스 타입에 따라 인덱스 할당 또는 리스트 구성 순서를 달리할 수 있다. I 슬라이스의 경우, 현재 픽쳐(current(t))에서 상기 참조 픽쳐 리스트 구성 예와 같이 우선순위를 높게 하여 더 적은 인덱스(예를 들어, idx=0, 1, 2와 같이)를 사용하고, 해당 참조 픽쳐 리스트의 참조 픽쳐 허용 개수(C)를 최대값으로 하는 이진화(고정 길이 이진화, 단삭 절단형 이진화, 절단형 이진화 등) 통해 영상 부호화에서의 비트량을 줄일 수 있다. 또한, P 또는 B 슬라이스의 경우, 현재 픽쳐에서 블록 매칭을 수행하여 현재 블록의 참조 픽쳐를 예측 후보로 선택할 확률이 다른 참조 픽쳐를 통해 예측 후보를 선택하는 확률보다 낮다고 판단되는 상황이라 하면, 현재 픽쳐의 블록 매칭에 대한 우선순위를 뒤로 설정하여 더 높은 인덱스(예를 들어, idx= C, C-1와 같이)를 사용하여 해당 참조 픽쳐 리스트의 참조 픽쳐 허용 개수를 최대값으로 하는 다양한 방법의 이진화를 통해 영상 부호화에서의 비트량을 줄일 수 있다. 위의 예에서 현재 픽쳐의 우선순위 설정은 상기 참조 픽쳐 리스트 구성 예에서 설명된 것과 같거나 변형된 방식으로 구성될 수 있다. 또한, 슬라이스 타입에 따라(예를 들어, I 슬라이스) 참조 픽쳐 리스트를 구성하지 않음으로써 참조 픽쳐에 대한 정보를 생략하는 것이 가능하다. 예컨대, 기존의 화면 간 예측을 통해 예측 블록을 생성하되 화면 간 예측 모드에서의 움직임 정보에서 참조 픽쳐 정보를 제외한 나머지로 화면간 예측 정보를 표현할 수 있다.Further, when constructing the reference picture list, the index allocation or the list construction order may be different according to the slice type. In the case of the I-slice, a lower index (for example, idx = 0, 1, 2) is used in the current picture (current (t)) with a higher priority as in the reference picture list structure example, It is possible to reduce the bit amount in the image encoding through the binarization (fixed length binarization, chopping-type binarization, truncation-type binarization, etc.) with the maximum allowable reference picture number C of the reference picture list. In the case of the P or B slice, when it is judged that the block matching is performed in the current picture and it is judged that it is lower than the probability of selecting the prediction candidate through the reference picture having a different probability of selecting the reference picture of the current block as the prediction candidate, The binarization of various methods of setting the priority for the block matching of the reference picture list to the maximum value using a higher index (for example, idx = C, C-1) The amount of bits in the image encoding can be reduced. In the above example, the priority setting of the current picture can be configured in the same or modified manner as that described in the reference picture list configuration example. In addition, it is possible to omit the information on the reference picture by not constructing the reference picture list according to the slice type (for example, I slice). For example, it is possible to generate a prediction block through the existing inter-view prediction, but to display the inter-view prediction information with the remainder excluding the reference picture information in the motion information in the inter-picture prediction mode.

현재 픽쳐에서 블록 매칭을 수행하는 방식은 슬라이스 타입에 따라 지원 여부를 결정할 수 있다. 예를 들어, 현재 블록에서의 블록 매칭을 I 슬라이스에서는 지원하지만 P 슬라이스나 B 슬라이스에서는 지원하지 않도록 설정할 수도 있고, 다른 예로의 변형 또한 가능하다. 또한, 현재 픽쳐에서 블록 매칭을 지원하는 방식은 픽쳐, 슬라이스, 타일 등 단위로 지원 여부를 결정할 수도 있고, GOP 내의 위치, 시간적 계층 정보(temporal ID) 등에 따라 결정할 수도 있다. 이러한 설정 정보는 영상 부호화 과정이나 부호화기에서 복호화기로 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다.The method of performing block matching in the current picture can determine whether or not to support according to the slice type. For example, block matching in the current block is supported by I slices, but not P slices or B slices, or other variations are possible. In addition, the method of supporting block matching in the current picture may determine whether to support in units of pictures, slices, tiles, etc., or may be determined according to the position in the GOP, temporal layer information, or the like. Such setting information may be transmitted in units of a sequence, a picture, a slice, or the like in an image encoding process or a decoder in an encoder.

또한, 상위 레벨 단위에서 위와 관련된 설정 정보 또는 신택스가 존재하며 설정 관련 동작이 온(on)되는 상황이라도 하위 레벨 단위에서 위와 동일한 설정 정보 또는 신택스가 존재할 때, 하위 레벨 단위에서의 설정 정보가 상위 레벨 단위에서의 설정 정보를 우선할 수 있다. 예를 들어, 동일 또는 유사한 설정 정보를 시퀀스, 픽쳐, 슬라이스에서 처리한다면, 시퀀스 단위보다는 픽쳐 단위가, 픽쳐 단위보다는 슬라이스 단위가 우선순위를 가질 수 있다.Further, even when the above setting information or syntax exists in the upper level unit and the setting related operation is turned on, when the same setting information or syntax exists in the lower level unit, the setting information in the lower level unit is changed to the upper level The setting information in the unit can be prioritized. For example, if the same or similar setting information is processed in a sequence, a picture, or a slice, a picture unit may have priority rather than a sequence unit, and a slice unit may have priority rather than a picture unit.

도 9는 본 발명의 일실시예에 따른 영상 부호화 방법에서 화면 내 예측을 설명하기 위한 예시도이다.9 is an exemplary diagram for explaining intra prediction in the image encoding method according to an embodiment of the present invention.

도 9를 참조하면, 본 실시예에 따른 화면 내 예측 방법은, 참조 화소 채움(reference sample padding), 참조 화소 필터링(reference sample filtering), 화면 내 예측(intra prediciton) 및 경계 필터링(boundary filtering)의 일련의 단계들을 포함할 수 있다.Referring to FIG. 9, the intra-frame prediction method according to the present embodiment includes a reference sample padding, a reference sample filtering, an intra predicting, and a boundary filtering. May comprise a series of steps.

참조 화소 채움 단계는 참조 화소 구성 단계의 예시일 수 있고, 참조 화소 필터링 단계는 참조 화소 필터부에 의해 실행될 수 있고, 화면 내 예측은 예측 블록 생성 단계와 예측 모드 부호화 단계를 포함할 수 있으며, 경계 필터링은 후처리 필터 단계의 일실시예에 대한 예시일 수 있다.The reference pixel filling step may be an example of the reference pixel forming step, the reference pixel filtering step may be executed by the reference pixel filter part, and the intra picture prediction may include a prediction block generating step and a prediction mode coding step, The filtering may be an example for one embodiment of the post-processing filter step.

즉, 본 실시예의 영상 부호화 방법에서 실행되는 화면 내 예측은 참조 화소 구성 단계, 참조 화소 필터링 단계, 예측 블록 생성 단계, 예측 모드 부호화 단계 및 후처리 필터링 단계를 포함할 수 있다. 여러 가지 환경 요인 예컨대, 블록 크기, 블록 형태, 블록 위치, 예측 모드, 예측 방법, 양자화 파라미터 등에 따라서 전술한 과정들 중 하나 또는 일부는 생략될 수 있고, 다른 과정이 추가될 수도 있으며, 위에 기재된 순서가 아닌 다른 순서로 변경될 수 있다.That is, the intra-picture prediction performed in the image encoding method of this embodiment may include a reference pixel configuration step, a reference pixel filtering step, a prediction block generation step, a prediction mode encoding step and a post-processing filtering step. Depending on various environmental factors such as block size, block type, block location, prediction mode, prediction method, quantization parameter, etc., one or a part of the above processes may be omitted and other processes may be added, May be changed in a different order.

전술한 참조 화소 구성 단계, 참조 화소 필터링 단계, 예측 블록 생성 단계, 예측 모드 부호화 단계 및 후처리 필터링 단계는 메모리에 저장되는 소프트웨어 모듈들을 메모리에 연결되는 프로세서가 실행하는 형태로 구현될 수 있다. 따라서 이하의 설명에서는 설명의 편의상 각 단계를 구현하는 소프트웨어 모듈과 이를 실행하는 프로세서의 조합에 의해 생성되는 기능부 및/혹은 이러한 기능부의 기능을 수행하는 구성부로서 각각 참조 화소 구성부, 참조 화소 필터부, 예측 블록 생성부, 예측 모드 부호화부 및 후처리 필터부를 각 단계의 실행 주체로서 지칭하기로 한다.The reference pixel construction step, the reference pixel filtering step, the prediction block generation step, the prediction mode encoding step, and the post-processing filtering step may be implemented by a processor connected to a memory by executing software modules stored in the memory. Therefore, in the following description, for convenience of description, a functional unit generated by a combination of a software module that implements each step and a processor that executes the function, and / or a component that performs the function of the functional unit, A prediction block generation unit, a prediction mode encoding unit, and a post-processing filter unit will be referred to as an execution subject of each step.

각 구성요소를 좀더 구체적으로 설명하면, 참조 화소 구성부는 참조 화소 채움을 통해 현재 블록의 예측에 사용될 참조 화소를 구성한다. 참조 화소가 존재하지 않거나 이용 불가한 경우, 참조 화소 채움은 이용가능한 가까운 화소로부터 값을 복사하는 등의 방법을 통해 참조 화소에 사용될 수 있다. 값의 복사 등에는 복원된 픽쳐 버퍼 또는 복호화 픽쳐 버퍼(decoded picture buffer, DPB)가 이용될 수 있다.More specifically, the reference pixel forming unit forms a reference pixel to be used for predicting the current block through reference pixel filling. If a reference pixel does not exist or is unavailable, reference pixel filling can be used for the reference pixel through a method such as copying a value from the nearest available pixel. A reconstructed picture buffer or a decoded picture buffer (DPB) may be used for copying a value or the like.

즉, 화면 내 예측은 현재 픽쳐의 이전에 부호화가 완료된 블록들의 참조 화소를 사용하여 예측을 수행한다. 이를 위해, 참조 화소 구성 단계에서는 현재 블록의 이웃 블록 즉, 왼쪽, 왼쪽 위, 왼쪽 아래, 위쪽, 오른쪽 위 블록들 등과 같은 인접한 화소들을 주로 참조 화소로 사용한다.That is, the intra prediction uses the reference pixels of the blocks that have been encoded before the current picture to perform the prediction. To this end, adjacent pixels such as left, top, bottom left, top, and top right blocks of the current block are mainly used as reference pixels in the reference pixel configuration step.

다만상기 참조 화소를 위한 이웃 블록의 후보군은 블록의 부호화 순서를 래스터 스캔(raster scan) 또는 제트 스캔(z-scan)를 따를 경우의 예시일 뿐, 역 제트 스캔(inverse z-scan) 등과 같은 스캔이 부호화 순서 스캔 방식으로 사용될 경우에는 위의 블록들에 추가로 오른쪽, 오른쪽 아래, 아래 블록 등과 같은 인접 화소들도 참조 화소로 사용할 수 있다.However, the candidate group of the neighboring block for the reference pixel is only an example in which the coding order of a block is followed by a raster scan or a z-scan, Adjacent pixels such as right, lower right, and lower blocks may be used as reference pixels in addition to the above blocks.

또한, 구현에 따라서 화면 내 예측의 단계별 구성에 따라 바로 인접한 화소 외의 추가적인 화소들이 대체 또는 기존 참조 화소와 혼합되어 사용될 수 있다.Further, according to the implementation, additional pixels other than immediately adjacent pixels may be used as a substitute or mixed with an existing reference pixel according to the stepwise configuration of the intra prediction.

또한, 화면 내 예측의 모드 중 방향성을 갖는 모드로 예측이 되는 경우, 정수 단위의 참조 화소를 선형 보간을 통해 소수 단위의 참조 화소를 생성할 수 있다. 정수 단위 위치에 존재하는 참조 화소를 통해 예측을 수행하는 모드는 수직, 수평, 45도, 135도를 갖는 일부 모드를 포함하며, 위의 예측 모드들에 대해서는 소수 단위의 참조 화소를 생성하는 과정은 필요하지 않을 수 있다.In addition, in the case of predicting a mode having a directionality among the modes of intra-picture prediction, it is possible to generate a reference pixel in decimal units through linear interpolation of reference pixels in integer units. The mode for performing the prediction through the reference pixel existing in the integer unit position includes some modes having vertical, horizontal, 45 degrees, and 135 degrees, and the process of generating reference pixels in decimal units for the above prediction modes It may not be necessary.

상기 예측 모드를 제외한 다른 방향성을 가진 예측 모드들에서 보간되는 참조 화소는 1/2, 1/4, 1/8, 1/16, 1/32, 1/64 와 같이 1/2의 지수승의 보간 정밀도를 가질 수도 있고, 1/2의 배수의 정밀도를 가질 수도 있다.The reference pixels to be interpolated in the prediction modes having the direction other than the prediction mode are 1/2, 1/4, 1/8, 1/16, 1/32, 1/64, It may have interpolation precision, or it may have accuracy of a multiple of 1/2.

그것은 지원되는 예측 모드의 개수 또는 예측 모드의 예측 방향 등에 따라 보간 정밀도가 결정될 수 있기 때문이다. 픽쳐, 슬라이스, 타일, 블록 등에서 항상 고정적인 보간 정밀도를 지원할 수도 있고, 블록의 크기, 블록의 형태, 지원되는 모드의 예측 방향 등에 따라 적응적인 보간 정밀도가 지원될 수도 있다. 이 때, 모드의 예측 방향은 특정 선 기준(예를 들어, 좌표평면 상의 양<+>의 x축)으로 상기 모드가 가리키는 방향의 기울기 정보 또는 각도 정보로 표현될 수 있다.This is because the interpolation accuracy can be determined depending on the number of supported prediction modes or the prediction direction of the prediction mode and the like. A fixed interpolation precision may always be supported in a picture, a slice, a tile, a block, etc., and an adaptive interpolation precision may be supported depending on a block size, a block type, a prediction direction of a supported mode, At this time, the prediction direction of the mode can be expressed by the inclination information or the angle information of the direction indicated by the mode on a specific line reference (for example, x + axis of the positive + on the coordinate plane).

보간 방법으로는 바로 인접한 정수 화소를 통해 선형 보간을 수행하기도 하지만 그 외의 보간 방법을 지원할 수 있다. 보간을 위해 1개 이상의 필터 종류 및 탭의 개수 예를 들어, 6-tap 위너 필터, 8-tap 칼만 필터 등을 지원할 수 있으며, 블록의 크기, 예측 방향 등에 따라 어떤 보간을 수행할 것인지를 결정할 수 있다. 또한, 관련 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 전송될 수 있다.As an interpolation method, linear interpolation can be performed through adjacent integer pixels, but other interpolation methods can be supported. For interpolation, one or more filter types and the number of taps can be supported. For example, a 6-tap Wiener filter, an 8-tap Kalman filter, and so on can be determined. have. Further, the related information may be transmitted in units of a sequence, picture, slice, block, or the like.

참조 화소 필터부는 참조 화소를 구성한 후 부호화 과정에서 남아있는 열화를 줄여줌으로써 예측 효율을 높여줄 목적으로 참조 화소에 필터링을 수행할 수 있다. 참조 화소 필터부는, 블록의 크기, 형태 및 예측 모드에 따라 필터의 종류 및 필터링의 적용 유무를 묵시적 또는 명시적으로 결정할 수 있다. 즉, 같은 탭(tap)의 필터라도 필터 종류에 따라 필터 계수를 다르게 결정할 수 있다. 예를 들어, [1,2,1]/4, [1,6,1]/8과 같은 3 탭 필터를 사용할 수 있다.The reference pixel filter unit can filter the reference pixels for the purpose of improving the prediction efficiency by reducing the deterioration in the encoding process after the reference pixels are constructed. The reference pixel filter unit can implicitly or explicitly determine the type of the filter and the application of the filtering according to the size, type, and prediction mode of the block. That is, even if the filter is the same tap, the filter coefficient can be determined differently depending on the filter type. For example, you can use a 3-tap filter such as [1,2,1] / 4, [1,6,1] / 8.

또한, 참조 화소 필터부는, 추가적으로 비트를 보낼지 안 보낼지를 결정하여 필터링 적용 여부를 결정할 수 있다. 예를 들어, 묵시적인 경우, 참조 화소 필터부는 주변 참조 블록에서의 화소들의 특성(분산, 표준편차 등)에 따라 필터링 적용 여부를 판단할 수 있다.In addition, the reference pixel filter unit can determine whether to apply filtering by determining whether to send additional bits or not. For example, in an implied case, the reference pixel filter unit can determine whether to apply filtering according to the characteristics (dispersion, standard deviation, and the like) of the pixels in the peripheral reference block.

또한, 참조 화소 필터부는, 관련 플래그가 잔차 계수, 화면 내 예측 모드 등에 기설정된 숨김(hiding) 조건을 만족하는 경우, 필터링 적용 여부를 판단할 수 있다. 필터의 탭수는, 예를 들어, 작은 블록(blk)에서는 [1,2,1]/4와 같은 3-tap, 큰 블록(blk)에서는 [2,3,6,3,2]/16과 같은 5-tap으로 설정될 수 있고, 적용 횟수는 필터링을 수행하지 않을 것인지, 1번 필터링할 것인지, 2번 필터링할 것인지 등으로 결정될 수 있다.In addition, the reference pixel filter unit may determine whether or not the filtering is applied when the related flag satisfies a predetermined hiding condition such as a residual coefficient, an intra prediction mode, and the like. The number of taps of the filter is, for example, 3-tap such as [1,2,1] / 4 in a small block (blk), [2,3,6,3,2] / 16 in a large block The same 5-tap may be set, and the number of times of application may be determined by whether to perform filtering, whether to perform filtering once, or to perform filtering twice.

또한, 참조 화소 필터부는 현재 블록의 가장 인접한 참조 화소에 대해 기본적으로 필터링을 적용할 수 있다. 가장 인접한 참조 화소 외에 추가적인 참조 화소들 또한 필터링 과정에 고려될 수 있다. 예를 들어, 가장 인접한 참조 화소를 대체하여 추가적인 참조 화소들에 필터링을 적용할 수도 있고, 가장 인접한 참조 화소에 추가적인 참조 화소들을 혼용하여 필터링을 적용할 수도 있다.Also, the reference pixel filter unit can basically apply filtering to the nearest reference pixel of the current block. Additional reference pixels besides the nearest reference pixel may also be considered in the filtering process. For example, filtering may be applied to additional reference pixels by replacing the nearest reference pixel, or filtering may be applied by mixing additional reference pixels with the nearest reference pixel.

상기의 필터링은 고정적 도는 적응적으로 적용될 수 있는데, 이는 현재 블록의 크기 또는 이웃 블록의 크기, 현재 블록 또는 이웃 블록의 부호화 모드, 현재 블록과 이웃 블록의 블록 경계 특성(예를 들어, 부호화 단위의 경계인지 변환 단위의 경계인지 등), 현재 블록 또는 이웃 블록의 예측 모드 또는 방향, 현재 블록 또는 이웃 블록의 예측 방식, 양자화 파라미터 등의 요인 중에서 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정이 될 수 있다. 이에 대한 결정은 부호화기/복호화기에 동일한 설정을 가질 수 있고(묵시적), 부호화 비용 등을 고려하여 결정될 수도 있다(명시적). 기본적으로 적용되는 필터는 저역통과 필터(low pass filter)이며, 위에 명시된 여러 요인에 따라 필터 탭수, 필터 계수, 필터 플래그 부호화 여부, 필터 적용 횟수 등이 결정될 수 있으며, 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위에서 설정이 가능하며, 관련 정보를 복호화기에 전송할 수 있다.The filtering may be applied either fixedly or adaptively, depending on the size of the current block, the size of the neighboring block, the encoding mode of the current block or neighboring block, the block boundary property of the current block and the neighboring block (e.g., A prediction mode or direction of a current block or a neighboring block, a prediction method of a current block or a neighboring block, a quantization parameter, and the like, or a combination thereof. have. The decision can be made on the encoder / decoder with the same setting (implicit), or on the basis of the coding cost (explicit). Basically, the filter applied is a low pass filter. Depending on various factors described above, the number of filter taps, the filter coefficient, whether or not the filter flag is encoded, and the number of filter application can be determined. Slice, block, or the like, and can transmit the related information to the decoder.

예측 블록 생성부는 화면 내 예측에 있어서 참조 화소를 통해 외삽 또는 보외(extrapolation) 방식이나, 참조 화소의 평균값(DC) 또는 평면(planar) 모드와 같은 내삽(interpolation) 방식이나, 참조 화소의 복사(copy) 방식으로 예측 블록을 생성할 수 있다. The prediction block generation unit may perform an extrapolation or an extrapolation scheme through a reference pixel in intra-picture prediction, an interpolation scheme such as an average value (DC) or a planar mode of a reference pixel, a copy of a reference pixel ) Prediction block can be generated.

참조 화소의 복사의 경우 하나의 참조 화소를 복사하여 하나의 이상의 예측 화소를 생성할 수도 있고, 하나 이상의 참조 화소를 복사하여 하나 이상의 예측 화소를 생성할 수 있으며, 복사한 참조 화소의 개수는 복사된 예측 화소의 개수와 동일하거나 적을 수 있다. In the case of copying a reference pixel, one reference pixel may be copied to generate one or more prediction pixels, one or more reference pixels may be copied to generate one or more prediction pixels, and the number of copied reference pixels may be copied May be equal to or less than the number of prediction pixels.

또한, 상기 예측 방식에 따라 방향성 예측 방식과 비방향성 예측 방식으로 분류가 가능하며, 상세하게는 방향성 예측 방식은 직선 방향성 방식과 곡선 방향성 방식으로 분류가 가능하다. 직선 방향성 방식은 외삽 또는 보외 방식을 차용하나 예측 블록의 화소는 예측 방향 선상에 놓인 참조 화소를 통해 생성하며, 곡선 방향성 방식은 외삽 또는 보외 방식을 차용하나 예측 블록의 화소는 예측 방향 선상에 놓인 참조 화소를 통해 생성하되 블록의 세부 방향성(예를 들어, 에지<Edge>)를 고려하여 화소 단위의 부분적인 예측 방향의 변경이 허용되는 방식을 의미한다. 본 발명의 영상 부호화 및 복호화 방법에서 방향성 예측 모드의 경우 직선 방향성 방식 위주로 설명을 할 것이다. 또한, 상기 방향성 예측 방식의 경우 인접한 예측 모드 간의 간격은 균등하거나 비균등일 수 있으며, 이는 블록의 크기 또는 형태에 따라 결정될 수 있다. 예를 들어, 블록 분할부를 통해 현재 블록이 M×N의 크기와 형태를 갖는 블록을 획득했을 때, M과 N이 같을 경우에는 예측 모드 간의 간격은 균등일 수 있으며, M과 N이 다를 경우에는 예측 모드 간의 간격은 비균등일 수 있다. 다른 예로, M이 N보다 큰 경우에는 수직 방향성을 갖는 모드들은 수직 모드(90도)에 가까운 예측 모드 사이에는 더 세밀한 간격을 할당하고, 수직 모드에 먼 예측 모드에는 넓은 간격을 할당할 수 있다. N이 M보다 큰 경우에는 수평 방향성을 갖는 모드들은 수평 모드(180도)에 가까운 예측 모드 사이에는 더 세밀한 간격을 할당하고, 수평 모드에 먼 예측 모드에는 넓은 간격을 할당할 수 있다. 위의 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다. 이 때, 예측 모드 간의 간격은 각 모드의 방향성을 나타내는 수치 기반으로 계산될 수 있으며, 예측 모드의 방향성은 방향의 기울기 정보 또는 각도 정보로 수치화될 수 있다.In addition, according to the prediction method, it is possible to classify into a directional prediction method and a non-directional prediction method. Specifically, the directional prediction method can be classified into a linear directional method and a curved directional method. The linear direction method uses extrapolation or extrapolation but the pixels of the prediction block are generated through the reference pixels lying on the prediction direction line. The curved directional method uses an extrapolation or an extrapolation method, but the pixels of the prediction block are referred to as a reference Means a scheme in which a partial prediction direction of a pixel is allowed to be changed in consideration of a detailed directionality of a block (for example, edge <Edge>). In the case of the directional prediction mode in the image encoding and decoding method of the present invention, a linear directional method will be mainly described. In the case of the directional prediction method, the intervals between adjacent prediction modes may be equal or unequal, and this may be determined according to the size or type of the block. For example, when a block with the size and shape of M × N is acquired by the block division, if the M and N are the same, the intervals between the prediction modes may be uniform. If M and N are different The intervals between the prediction modes may be unequal. As another example, when M is greater than N, modes with vertical orientation may allocate finer intervals between prediction modes close to the vertical mode (90 degrees), and wider spacings may be allocated to far modes in the vertical mode. When N is greater than M, modes with horizontal orientation may allocate finer intervals between prediction modes close to the horizontal mode (180 degrees), and wide spacing may be allocated to horizontal modes with far prediction mode. The above examples are not specific to the above-mentioned case, but may include cases where the conditions of each other are reversed, and examples of other cases may also be modified. In this case, the interval between the prediction modes can be calculated based on numerical values indicating the directionality of each mode, and the directionality of the prediction mode can be numerically expressed as directional inclination information or angle information.

또한, 위의 방법 외에 공간적인 상관성을 이용하는 다른 방법 등을 포함하여 예측 블록을 생성할 수 있다. 예를 들어, 현재 픽쳐를 참조 픽쳐로 삼아 움직임 탐색 및 보상과 같은 화면 간 예측(inter prediction) 방식을 이용한 참조 블록을 예측 블록으로 생성할 수 있다.In addition, a prediction block including other methods using spatial correlation other than the above method can be generated. For example, a reference block using an inter prediction scheme such as motion search and compensation can be generated as a prediction block using the current picture as a reference picture.

예측 블록 생성 단계는 상기 예측 방식에 따라 참조 화소를 사용하여 예측 블록을 생성할 수 있다. 즉, 상기 예측 방식에 따라 기존의 화면 내 예측 방식의 외삽, 내삽, 복사, 평균 등의 방향성 예측 또는 비방향성 예측 방식을 통해 예측 블록을 생성할 수 있고, 화면 간 예측 방식을 사용하여 예측 블록을 생성할 수 있으며, 그 외의 추가적인 방법도 사용될 수 있다.The prediction block generating step may generate the prediction block using the reference pixel according to the prediction method. That is, it is possible to generate a prediction block through directional prediction or non-directional prediction such as extrapolation, interpolation, copying, and averaging of the existing intra-picture prediction method according to the prediction method, And other additional methods may be used.

상기 화면 내 예측 방식은 부호화기/복호화기의 동일한 설정 하에 지원될 수 있으며, 슬라이스 타입, 블록의 크기, 블록의 형태 등에 따라 결정될 수 있다. 화면 내 예측 방식은 상기 언급된 예측 방식 중 최소 하나 이상의 방식 또는 이들의 조합에 따라 지원될 수 있다. 화면 내 예측 모드는 상기 지원되는 예측 방식에 따라 구성될 수 있다. 지원되는 화면 내 예측 모드의 개수는 상기 예측 방식, 슬라이스 타입, 블록의 크기, 블록의 형태 등에 따라 결정될 수 있다. 상기 관련 정보들은 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위에서 설정 및 전송이 가능하다.The intra-picture prediction scheme may be supported under the same settings of the encoder / decoder, and may be determined according to a slice type, a block size, a block type, and the like. The intra prediction scheme can be supported according to at least one of the above-mentioned prediction schemes or a combination thereof. The intra prediction mode can be configured according to the supported prediction mode. The number of intra prediction modes supported can be determined according to the prediction method, slice type, block size, block type, and the like. The related information can be set and transmitted in units of a sequence, a picture, a slice, and a block.

예측 모드 부호화를 실행하는 예측 모드 부호화 단계는 부호화 비용 측면에서 각 예측 모드에 따른 부호화 비용이 최적인 모드를 현재 블록의 예측 모드로 결정할 수 있다.The prediction mode encoding step for performing the prediction mode encoding can determine the mode with the best encoding cost according to each prediction mode as the prediction mode of the current block in terms of encoding cost.

일례로, 예측 모드 부호화부는 예측 모드 비트를 줄이기 위한 목적으로 하나 이상의 이웃 블록의 모드를 현재 블록 모드 예측에 이용할 수 있다. 현재 블록의 모드와 동일할 확률이 높은 모드(most_probable_mode, MPM) 후보군으로 포함할 수 있는데, 이웃 블록의 모드들은 위의 후보군에 포함될 수 있다. 예를 들어 현재 블록의 왼쪽 위, 왼쪽 아래, 위쪽, 오른쪽 위 등의 블록의 예측 모드를 위의 후보군에 포함할 수 있다.For example, the prediction mode encoding unit may use one or more neighboring block modes for current block mode prediction for the purpose of reducing prediction mode bits. (MPM) candidates that are likely to be the same as the current block mode, and the modes of neighboring blocks may be included in the above candidate group. For example, the prediction mode of a block such as the upper left corner, the lower left corner, the upper right corner, and the upper right corner of the current block may be included in the above candidate group.

예측 모드의 후보군은 이웃 블록의 위치, 이웃 블록의 우선순위, 분할 블록에서의 우선순위, 이웃 블록의 크기 또는 형태, 기설정된 특정 모드, (색차 블록인 경우) 휘도 블록의 예측 모드 등의 요인 중 최소 하나 이상의 요인 또는 그들의 조합에 따라 구성될 수 있으며, 관련 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 전송할 수 있다.The candidate group of the prediction mode includes the position of the neighboring block, the priority of the neighboring block, the priority in the divided block, the size or type of the neighboring block, the preset specific mode, and the prediction mode of the luminance block And may be configured according to at least one or more factors or combinations thereof, and the related information may be transmitted in units of a sequence, a picture, a slice, a block, or the like.

예를 들어, 현재 블록과 이웃한 블록이 2개 이상의 블록으로 분할되어 있을 경우, 분할된 블록 중 어느 블록의 모드를 현재 블록의 모드 예측 후보로 포함할 지는 부호화기/복호화기의 동일한 설정하에 결정할 수 있다. 예를 들어, 현재 블록(M×M)의 이웃 블록 중 왼쪽 블록은 블록 분할부에서 쿼드 트리 분할을 수행하여 분할 블록이 3개로 구성되어 있으며 위에서 아래 방향으로 M/2×M/2, M/4×M/4, M/4×M/4의 블록을 포함할 경우, 블록 크기 기준으로 M/2×M/2 블록의 예측 모드를 현재 블록의 모드 예측 후보로 포함할 수 있다. 다른 예로, 현재 블록(N×N)의 이웃 블록 중 위쪽 블록은 블록 분할부에서 바이너리 트리 분할을 수행하여 분할 블록이 3개로 구성되어 있으며 왼쪽에서 오른쪽 방향으로 N/4×N, N/4×N, N/2×N의 블록을 포함할 경우, 기설정된 순서(왼쪽에서 오른쪽으로 우선순위가 할당됨)에 따라 왼쪽에서 첫번째 N/4×N 블록의 예측 모드를 현재 블록의 모드 예측 후보로 포함할 수 있다. For example, when a block adjacent to the current block is divided into two or more blocks, it is possible to determine which block mode among the divided blocks is included as a mode prediction candidate of the current block under the same setting of the encoder / decoder have. For example, the left block among the neighboring blocks of the current block (M × M) is divided into three blocks by performing a quadtree partition in the block division block, and M / 2 × M / 2 and M / 4 × M / 4 and M / 4 × M / 4, the prediction mode of the M / 2 × M / 2 block can be included as the mode prediction candidate of the current block on the basis of the block size. As another example, the upper block among the neighboring blocks of the current block (N × N) is divided into three blocks by performing the binary tree division in the block division block, and N / 4 × N and N / 4 × N, and N / 2 × N blocks, the prediction mode of the first N / 4 × N block on the left according to a predetermined order (priority assigned from left to right) is set as a mode prediction candidate of the current block .

다른 예로, 현재 블록과 이웃한 블록의 예측 모드가 방향성 예측 모드일 경우, 해당 모드의 예측 방향과 인접한 예측 모드(상기 모드의 방향의 기울기 정보 또는 각도 정보 측면)를 현재 블록의 모드 예측 후보군에 포함할 수 있다. 또한, 기설정된 모드(planar, DC, 수직, 수평 등)은 이웃 블록의 예측 모드 구성 또는 조합에 따라 우선적으로 포함될 수 있다. 또한, 이웃 블록의 예측 모드 중 발생 빈도가 높은 예측 모드를 우선적으로 포함할 수 있다. 상기 우선순위는 현재 블록의 모드 예측 후보군에 포함될 가능성 뿐만 아니라 상기 후보군 구성에서도 더 높은 우선 순위 또는 인덱스(즉, 이진화 과정에서 적은 비트를 할당받을 확률이 높음을 의미)를 할당받을 가능성을 의미할 수 있다.As another example, if the prediction mode of the block adjacent to the current block is the directional prediction mode, the prediction mode adjacent to the prediction direction of the current mode (inclination information of the direction of the mode or angle information side) can do. In addition, the predetermined modes (planar, DC, vertical, horizontal, etc.) may be preferentially included according to the prediction mode configuration or combination of neighboring blocks. In addition, a prediction mode having a high occurrence frequency among the prediction modes of neighboring blocks can be preferentially included. The priority may be a possibility to be allocated not only to the possibility of being included in the mode prediction candidate group of the current block but also a higher priority or index in the candidate group configuration (that is, a higher probability of allocating fewer bits in the binarization process) have.

다른 예로, 현재 블록의 모드 예측 후보군의 최대치가 k개이고, 왼쪽 블록은 현재 블록의 세로 길이보다 길이가 작은 m개의 블록으로 구성되고, 위쪽 블록은 현재 블록의 가로 길이보다 길이가 작은 n개의 블록으로 구성되면, 이웃 블록들의 분할 블록 합(m+n)이 k보다 클 때 기설정된 순서(왼쪽에서 오른쪽, 위쪽에서 아래쪽)에 따라 후보군을 채울 수 있고, 이웃 블록 분할들의 분할 블록 합(m+n)이 후보군의 최대치(k)보다 클 경우, 상기 이웃 블록(왼쪽 블록, 위쪽 블록)의 예측 모드에 상기 이웃 블록 위치 외 다른 이웃 블록(예를 들어, 왼쪽 아래, 왼쪽 위, 오른쪽 위 등)과 같은 블록의 예측 모드도 현재 블록의 모드 예측 후보군에 포함될 수 있다. 위의 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다.As another example, the maximum number of mode prediction candidates of the current block is k, the left block is composed of m blocks whose length is shorter than the length of the current block, and the upper block is n blocks whose length is shorter than the width of the current block (M + n) of neighboring blocks can be filled in according to a predetermined order (left to right, top to bottom) when the divided block sum (m + n) of neighboring blocks is larger than k, (E.g., lower left, upper left, upper right, etc.) other than the neighboring block position in the prediction mode of the neighboring block (left block, upper block) The prediction mode of the same block may be included in the mode prediction candidate group of the current block. The above examples are not specific to the above-mentioned case, but may include cases where the conditions of each other are reversed, and examples of other cases may also be modified.

이와 같이, 현재 블록의 모드의 예측을 위한 후보 블록은 특정 블록 위치에만 한정하지 않으며 왼쪽, 왼쪽 위, 왼쪽 아래, 위쪽, 오른쪽 위에 위치하는 블록 중 최소 하나 이상의 블록으로부터 예측 모드 정보를 활용할 수 있으며, 상기 예에서와 같이 여러 요인들을 고려하여 현재 블록의 예측 모드를 후보군으로 구성할 수 있다.As described above, the candidate block for predicting the mode of the current block is not limited to a specific block position, and prediction mode information can be utilized from at least one block among left, upper left, lower left, upper and upper right blocks, The prediction mode of the current block can be configured as a candidate group considering various factors as in the above example.

예측 모드 부호화부에서는 현재 블록의 모드와 동일할 확률이 높은 모드(MPM) 후보군(본 예에서 후보군 1로 지칭함)과 그렇지 않은 모드 후보군(본 예에서 후보군 2로 지칭함)으로 분류할 수 있으며, 현재 블록의 예측 모드가 상기 후보군들 중 어느 후보군에 속하는지에 따라 예측 모드 부호화 과정이 달라질 수 있다. 전체 예측 모드는 후보군 1의 예측 모드와 후보군 2의 예측 모드의 합으로 구성될 수 있으며, 후보군 1의 예측 모드 개수와 후보군 2의 예측 모드 개수는 전체 예측 모드의 개수, 슬라이스 타입, 블록의 크기, 블록의 형태 등의 요인 중 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. 상기 후보군에 따라 동일한 이진화를 적용하거나 다른 이진화를 적용할 수 있다. 예를 들어, 후보군 1에는 고정 길이 이진화를, 후보군 2에는 단삭 절단형 이진화를 적용할 수도 있다. 위의 설명에서 후보군의 개수를 2개로 예를 들었지만, 현재 블록의 모드와 동일할 확률이 높은 모드 제1 후보군, 현재 블록의 모드와 동일할 확률이 높은 모드 제2 후보군, 그렇지 않은 모드 후보군 등과 같이 확장이 가능하며, 이의 변형 또한 가능하다.The prediction mode encoding unit can classify the candidate MPM candidate group (referred to as the candidate group 1 in this example) and the mode candidate group (referred to as the candidate group 2 in this example) having a high probability of being the same as the current block mode, The prediction mode encoding process may be changed depending on which candidate group among the candidate groups the prediction mode of the block belongs to. The total prediction mode may be composed of the sum of the prediction mode of the candidate group 1 and the prediction mode of the candidate group 2. The number of prediction modes of the candidate group 1 and the prediction group of the candidate group 2 may be the sum of the total number of prediction modes, The shape of the block, and the like, or a combination thereof. The same binarization may be applied or another binarization may be applied according to the candidate group. For example, fixed length binarization may be applied to candidate group 1, and truncation type binarization may be applied to candidate group 2. Although the number of candidate groups is exemplified in the above description, it is assumed that the number of the candidate groups is two, but the number of the candidate groups is not limited to the first candidate group having a high probability of being the same as the current block, the second candidate group having a high probability of being the same as that of the current block, It is expandable, and its variants are also possible.

후처리 필터부에 의해 실행되는 후처리 필터링 단계는, 현재 블록과 이웃 블록의 경계에 인접한 참조 화소와 인접한 현재 블록 내의 화소 간의 상관성이 높은 특성을 고려하여 이전 과정에서 생성한 예측 블록 중 일부 예측 화소는 경계에 인접한 하나 이상의 참조 화소와 하나 이상의 예측 화소를 필터링하여 생성된 값으로 대체할 수 있고, 상기 블록의 경계에 인접한 참조 화소들간의 특성을 수치화한 값(예를 들어, 화소값의 차이, 기울기 정보 등)을 필터링 과정에 적용하여 생성된 값으로 상기 예측 화소를 대체할 수 있고, 위의 방법 외에 비슷한 목적(참조 화소를 통해 예측 블록의 일부 예측 화소를 보정)을 갖는 다른 방법 등이 추가될 수 있다.The post-processing filtering step executed by the post-processing filter unit may include a step of performing a post-processing filtering step of performing a post- May be replaced with a value generated by filtering one or more reference pixels adjacent to the boundary and one or more prediction pixels, and a value obtained by quantifying characteristics between reference pixels adjacent to the boundary of the block (for example, Gradient information, etc.) may be applied to the filtering process to replace the predictive pixel with the generated value, and another method having a similar purpose (correcting a part of the predictive pixel of the predictive block through the reference pixel) .

후처리 필터부에 있어서, 필터의 종류 및 필터링 적용 유무는 묵시적 또는 명시적으로 결정될 수 있으며, 후처리 필터부에 사용되는 참조 화소와 현재 화소의 위치 및 개수, 그리고 적용되는 예측 모드의 종류 등은 부호화기/복호화기에서 설정 가능하고, 관련 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송 가능하다.In the post-processing filter unit, the kind of the filter and whether or not the filtering is applied can be implicitly or explicitly determined. The reference pixel used in the post-processing filter unit, the position and the number of the current pixel, And can be set in an encoder / decoder, and related information can be transmitted in units of a sequence, a picture, a slice, and the like.

또한, 후처리 필터링 단계에서는, 블록 경계 필터링(boundary filtering)과 같이 예측 블록 생성 후 추가적인 후처리 과정을 진행할 수 있다. 또한, 잔차 신호 획득 후 변환/양자화 과정 및 그 역과정을 거쳐서 얻게된 잔차 신호와 예측 신호를 합하여 복원된 현재 블록을 위의 경계 필터링과 비슷하게 인접한 참조 블록의 화소의 특성을 고려하여 후처리 필터링을 수행할 수도 있다.Further, in the post-processing filtering step, an additional post-processing process can be performed after generating a prediction block such as boundary filtering. In addition, the reconstructed current block, which is obtained by adding the residual signal and the prediction signal obtained through the conversion / quantization process after the acquisition of the residual signal and the inverse process, is subjected to post-processing filtering considering the characteristics of the pixels of the reference block, .

최종적으로 전술한 과정을 통해 예측 블록을 선택 또는 획득하게 되며, 이 과정에서 나오는 정보는 예측 모드 관련 정보를 포함할 수 있고, 예측 블록의 획득 후 잔차 신호의 부호화를 위해 변환부(210)에 전달할 수 있다.Finally, the prediction block is selected or obtained through the above-described process. Information obtained in this process may include prediction mode related information, and after the prediction block is acquired, it is transmitted to the conversion unit 210 for encoding the residual signal .

도 10은 본 발명의 일실시예에 따른 영상 부호화 방법에서 P 슬라이스나 B 슬라이스에서의 예측 원리를 설명하기 위한 예시도이다. 도 11은 도 10의 영상 부호화 방법에서 내삽(interpolation)을 수행하는 경우를 설명하기 위한 예시도이다.10 is an exemplary diagram for explaining a prediction principle in a P slice or a B slice in the image encoding method according to an embodiment of the present invention. 11 is an exemplary diagram for explaining a case where interpolation is performed in the image encoding method of FIG.

도 10을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 모션 예측(motion estimation module) 및 보간(interpolation) 단계들을 포함할 수 있다. 모션 예측 단계에서 생성되는 모션 벡터, 참조 픽쳐 인덱스, 참조 방향에 대한 정보는 보간 단계로 전달될 수 있다. 모션 예측 단계와 보간 단계에서는 복원된 픽쳐 버퍼(decoded picture buffer, DPB)에 저장되는 값을 이용할 수 있다.Referring to FIG. 10, the image encoding method according to the present embodiment may include motion estimation module and interpolation steps. Information on the motion vector, the reference picture index, and the reference direction generated in the motion prediction step may be transmitted to the interpolation step. In the motion prediction step and the interpolation step, a value stored in the decoded picture buffer (DPB) can be used.

즉, 영상 부호화 장치는, 이전의 부호화된 픽쳐들에서 현재 블록과 유사한 블록을 찾기 위해 모션 예측(motion estimation)을 실행할 수 있다. 또한, 영상 부호화 장치는 소수 단위의 정밀도보다 정밀한 예측을 위해 참조 픽쳐의 내삽(interpolation)을 실행할 수 있다. 최종적으로 영상 부호화 장치는 예측 변수(predictor)를 통해 예측 블록을 획득하게 되며, 이 과정에서 나오는 정보는 움직임 벡터(motion vector), 참조 픽쳐 인덱스(reference picture index 또는 reference index), 참조 방향(reference direction) 등이 있으며, 이후 잔차 신호 부호화를 진행할 수 있다.That is, the image encoding apparatus can perform motion estimation to find a block similar to the current block in the previous encoded pictures. In addition, the image encoding apparatus can perform interpolation of a reference picture for precise prediction with respect to precision in decimal units. Finally, the image coding apparatus acquires a prediction block through a predictor. The information generated in this process includes a motion vector, a reference picture index, a reference direction, ), And the residual signal coding can be proceeded.

본 실시예에서는 P 슬라이스나 B 슬라이스에서도 화면 내 예측을 수행하기 때문에 화면 간 예측과 화면 내 예측을 지원하는 도 11과 같은 조합 방식의 구현이 가능하다.In the present embodiment, in-picture prediction is performed in P-slice or B-slice, so that it is possible to implement a combination scheme as shown in FIG. 11 that supports inter-picture prediction and intra-picture prediction.

도 11에 나타낸 바와 같이, 본 실시예에 따른 영상 부호화 방법은, 참조 화소 채움(reference sample padding), 참조 화소 필터링(reference sample filtering), 화면 내 예측(intra prediction), 경계 필터링(boundary filtering), 모션 예측(motion estimation), 및 보간(interpolation)의 단계들을 포함할 수 있다.As shown in FIG. 11, the image encoding method according to the present embodiment includes reference sample padding, reference sample filtering, intra prediction, boundary filtering, Motion estimation, and interpolation. &Lt; RTI ID = 0.0 &gt;

영상 부호화 장치는, 현재 픽쳐에서 블록 매칭을 지원하는 경우, I 슬라이스에서의 예측 방식은 도 9에 도시한 구성이 아닌 도 11에 도시한 구성으로 구현 가능하다. 즉, 영상 부호화 장치는 I 슬라이스에서 예측 모드뿐 아니라 P 슬라이스나 B 슬라이스에서만 발생하는 움직임 벡터, 참조 픽쳐 인덱스, 참조 방향 등의 정보를 예측 블록 생성에 이용할 수 있다. 다만, 참조 픽쳐가 현재라는 특성으로 인해 부분 생략 가능한 정보가 존재할 수 있다. 일례로, 참조 픽쳐가 현재 픽쳐인 경우 참조 픽쳐 인덱스, 참조 방향은 생략 가능하다.When the image encoding apparatus supports block matching in the current picture, the prediction method in the I-slice can be implemented by the configuration shown in FIG. 11 instead of the configuration shown in FIG. That is, the image encoding apparatus can use information such as a motion vector, a reference picture index, and a reference direction, which are generated not only in the prediction mode in the I-slice but also in the P-slice or B-slice, for generating the prediction block. However, information that can be partially omitted may exist due to the characteristic that the reference picture is current. For example, when the reference picture is the current picture, the reference picture index and the reference direction can be omitted.

또한, 영상 부호화 장치는, 내삽(interpolation)을 적용하는 경우, 영상의 특성상 예컨대 컴퓨터 그래픽 등의 인공적인 영상의 특성상 소수 단위까지의 블록 매칭이 필요하지 않을 수 있기 때문에 이에 대한 수행 여부도 부호화기에서 설정할 수 있고, 이에 대해서 시퀀스, 픽쳐, 슬라이스 등의 단위 설정도 가능하다.In addition, when interpolation is applied, the image encoding apparatus may not be required to perform block matching up to a decimal unit due to the characteristics of an artificial image such as a computer graphic due to characteristics of an image. And a unit such as a sequence, a picture, and a slice can be set.

예를 들어, 영상 부호화 장치는, 부호화기의 설정에 따라 화면 간 예측에 사용되는 참조 픽쳐들의 내삽을 수행하지 않을 수 있고, 현재 픽쳐에서 블록 매칭을 하는 경우에만 내삽을 수행하지 않는 등 다양한 설정을 할 수 있다. 즉, 본 실시예의 영상 부호화 장치는 참조 픽쳐들의 내삽 수행 여부에 대해 설정할 수 있다. 이때, 참조 픽쳐 리스트를 구성하는 모든 참조 픽쳐 또는 일부 참조 픽쳐들에 내삽 수행 여부를 결정할 수 있다.For example, the image encoding apparatus may not perform interpolation of reference pictures used for inter-view prediction according to the setting of the encoder, and may perform various settings such as not performing interpolation only when block matching is performed in the current picture . That is, the image encoding apparatus of the present embodiment can set whether interpolation of reference pictures is performed or not. At this time, it is possible to determine whether to perform interpolation on all reference pictures or some reference pictures constituting the reference picture list.

일례로, 영상 부호화 장치는, 어떤 현재 블록에서는 참조 블록이 존재하는 영상의 특성이 인공적인 영상이라 소수 단위로 블록 매칭을 할 필요가 없을 때에는 내삽을 수행하지 않고, 자연 영상이라 소수 단위로 블록 매칭을 할 필요가 있을 때는 내삽을 수행하도록 동작할 수 있다.For example, the image encoding apparatus does not perform interpolation when it is unnecessary to perform block matching on a fractional unit because the characteristic of an image in which a reference block exists in an existing block is an artificial image, Lt; RTI ID = 0.0 &gt; interpolation. &Lt; / RTI &gt;

또한, 영상 부호화 장치는, 블록 단위로 내삽을 수행한 참조 픽쳐에서 블록 매칭 적용 여부에 대한 설정이 가능하다. 예를 들어, 자연 영상과 인공 영상이 혼합되어 있을 경우 참조 픽쳐에 내삽을 수행하되 인공적인 영상의 부분을 탐색하여 최적의 움직임 벡터를 얻을 수 있는 경우에는 일정 단위(여기에서 정수 단위라고 가정)로 움직임 벡터를 표현할 수 있으며, 또한 선택적으로 자연 영상의 부분을 탐색하여 최적의 움직임 벡터를 얻을 수 있는 경우에는 다른 일정 단위(여기에서는 1/4 단위라고 가정)로 움직임 벡터를 표현할 수 있다.In addition, the image encoding apparatus can set whether or not block matching is applied in a reference picture interpolated on a block-by-block basis. For example, when a natural image and an artificial image are mixed, interpolation is performed on a reference picture, but when an optimal motion vector can be obtained by searching a part of an artificial image, a predetermined unit (here assumed to be an integer unit) A motion vector can be represented. In addition, when an optimal motion vector can be obtained by selectively searching a portion of a natural image, a motion vector can be expressed by another constant unit (here, 1/4 unit is assumed).

도 12는 본 발명의 일실시예에 따른 영상 부호화 방법의 주요 과정을 코딩 단위(coding unit)에서의 신택스로 설명하기 위한 도면이다.FIG. 12 is a diagram for explaining a main procedure of an image coding method according to an embodiment of the present invention with a syntax in a coding unit.

도 12를 참조하면, curr_pic_BM_enabled_flag는 현재 픽쳐에서 블록 매칭을 허용하는 플래그를 의미하고, 시퀀스, 픽쳐 단위에서 정의 및 전송될 수 있으며, 이 때 현재 픽쳐에서 블록 매칭을 수행하여 예측 블록 생성하는 과정은 화면 간 예측을 통해 동작하는 경우를 의미할 수 있다. 그리고 잔차 신호를 부호화하지 않는 화면 간 기술인 cu_skip_flag는, I 슬라이스를 제외한 P 슬라이스나 B 슬라이스에서만 지원되는 플래그라고 가정할 수 있다. 그 경우, curr_pic_BM_enabled_flag가 온(on)이 되는 경우에 I 슬라이스에서도 블록 매칭(block maching, BM)을 화면 간 예측 모드에서 지원할 수가 있다.Referring to FIG. 12, curr_pic_BM_enabled_flag denotes a flag that allows block matching in the current picture. The curr_pic_BM_enabled_flag can be defined and transmitted in units of a sequence and a picture. At this time, a process of generating a prediction block by performing block matching in the current picture, It can mean the case where it operates through inter prediction. It can be assumed that cu_skip_flag, which is an inter-screen technique that does not code the residual signal, is a flag that is supported only by the P slice or the B slice excluding the I slice. In this case, when curr_pic_BM_enabled_flag is turned on, block slicing (BM) can be supported in the inter-picture prediction mode also in the I-slice.

본 실시예에 따른 영상 부호화 방법은 현재 픽쳐에 블록 매칭을 통해 예측 블록을 생성하는 경우에 스킵(skip)을 지원할 수 있으며, 블록 매칭 외의 화면 내 기술의 경우에도 스킵을 지원할 수 있다. 그리고 조건에 따라 I 슬라이스에서 스킵을 지원하지 않을 수도 있다. 이러한 스킵 여부는 부호화기 설정에 따라 결정될 수 있다.The image encoding method according to the present embodiment can support skipping in the case of generating a prediction block through block matching on the current picture and can support skipping in the case of an in-screen technique other than block matching. It may not support skipping on I slices depending on the condition. This skipping may be determined according to the encoder setting.

일례로, I 슬라이스에서 스킵을 지원할 경우, 특정 플래그인 if(cu_skip_flag)를 통해 예측 단위인 prediction_unit()으로 연결하여 잔차신호를 부호화하지 않고 블록 매칭을 통해 예측 블록을 복원 블록으로 바로 복원할 수 있다. 또한, 영상 부호화 장치는 현재 픽쳐에서 블록 매칭을 통해 예측 블록을 사용하는 방법을 화면 간 예측 기술로 분류하고, 그러한 구분을 특정 플래그인 pred_mode_flag를 통해 처리할 수 있다.For example, when the I-slice supports skipping, the predicted block may be directly connected to prediction_unit () through a specific flag if (cu_skip_flag) to restore the prediction block to the restoring block through block matching without coding the residual signal . In addition, the image encoding apparatus classifies the method of using the prediction block through block matching in the current picture into the inter-picture prediction technique, and can process the classification through pred_mode_flag, which is a specific flag.

또한, 본 실시예에 따른 영상 부호화 장치는, pred_mode_flag가 0이면 예측 모드를 화면 간 예측 모드(MODE_INTER)로 설정하고, 1이면 화면 내 예측 모드(MODE_INTRA)로 설정할 수 있다. 이것은 기존과 유사한 화면 내 기술이지만 기존의 구조와의 구분을 위해 I 슬라이스에서 화면 간 기술 또는 화면 내 기술로 분류될 수 있다. 즉, 본 실시예의 영상 부호화 장치는, I 슬라이스에서 시간적인 상관성을 이용하지 않지만 시간적인 상관성의 구조를 사용할 수 있다. part_mode는 부호화 단위에서 분할되는 블록의 크기 및 형태에 대한 정보를 의미한다.In addition, if the pred_mode_flag is 0, the image encoding apparatus according to the present embodiment sets the prediction mode to the inter-picture prediction mode (MODE_INTER), and if the pred_mode_flag is 1, it can set the intra prediction mode (MODE_INTRA). This is an in-screen technology similar to the existing one, but it can be classified as an inter-screen technique or an in-screen technique in an I-slice to distinguish it from an existing structure. In other words, the image encoding apparatus of the present embodiment can use a temporal correlation structure without using temporal correlation in the I-slice. part_mode indicates information on the size and type of the block divided in the encoding unit.

본 실시예와 관련하여 사용되는 일부 신택스를 예시하면 다음과 같다.Some syntaxes used in connection with the present embodiment are as follows.

시퀀스 파라미터에서 sps_curr_pic_ref_enabled_flag라는 신택스는 IBC 사용 여부에 대한 플래그일 수 있다.The syntax sps_curr_pic_ref_enabled_flag in the sequence parameter may be a flag for whether to use the IBC.

픽쳐 파라미터에서 pps_curr_pic_ref_enabled_flag라는 신택스는 픽쳐 단위로 IBC 사용 여부에 대한 플래그일 수 있다.The syntax pps_curr_pic_ref_enabled_flag in the picture parameter may be a flag for whether IBC is used in units of pictures.

또한, pps_curr_pic_ref_enabled_flag라는 신택스의 온/오프(on/off)에 따라서 현재 픽쳐를 위한 NumPicTotalCurr를 늘릴지 말지를 결정할 수 있다.It is also possible to determine whether to increase the NumPicTotalCurr for the current picture according to the on / off of the syntax pps_curr_pic_ref_enabled_flag.

참조 픽쳐 리스트 0를 만드는 과정에서, pps_curr_pic_ref_enabled_flag에 따라 현재 픽쳐를 참조 픽쳐에 넣을지를 결정하라 수 있다.In the process of creating the reference picture list 0, it is possible to decide whether to insert the current picture into the reference picture according to the pps_curr_pic_ref_enabled_flag.

참조 픽쳐 리스트 1을 만드는 과정에서, pps_curr_pic_ref_enabled_flag에 따라 현재 픽쳐의 참조 픽쳐 리스트 추가 여부를 결정할 수 있다.In the process of creating the reference picture list 1, it is possible to determine whether or not the reference picture list of the current picture is added according to the pps_curr_pic_ref_enabled_flag.

위의 구성에 의하면, 현재 픽쳐는 상기의 플래그들에 따라 화면 간(inter) 예측에서의 참조 픽쳐 리스트에 포함될지가 결정될 수 있다.According to the above configuration, it can be determined whether or not the current picture is included in the reference picture list in the inter prediction according to the above flags.

도 13은 도 12에서 사용하는 현재 픽쳐에서 블록매칭을 통해 예측 블록을 생성할 경우, 화면 간 예측에서와 같이 대칭형(symmetric type) 분할 또는 비대칭형(asymmetric type) 분할을 지원하는 예를 설명하기 위한 예시도이다.13 is a diagram illustrating an example of supporting a symmetric type partition or an asymmetric type partition as in inter picture prediction when a prediction block is generated through block matching in the current picture used in FIG. Fig.

도 13을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 현재 픽쳐에서 블록 매칭을 통해 예측 블록을 생성하는 경우, 화면 간 예측에서와 같이 2N×2N, 2N×N, N×2N, N×N과 같은 대칭형(symmetric) 분할을 지원하거나, nL×2N, nR×2N, 2N×nU, 2N×nD와 같은 비대칭형(asymmetric) 분할을 지원할 수 있다.Referring to FIG. 13, in the case of generating a prediction block through block matching in the current picture, the image encoding method according to the present exemplary embodiment may use 2N × 2N, 2N × N, N × 2N, N, or support asymmetric partitioning such as nL x 2N, nR x 2N, 2N x nU, and 2N x nD.

도 14는 도 9의 화면 내 예측(Intra)과 같이 화면 간 예측(Inter)에서 2N×2N, N×N을 지원할 수 있음을 설명하기 위한 예시도이다. 이는 블록 분할부의 분할 방식에 따라 다양한 블록 크기 및 형태가 결정될 수 있다.FIG. 14 is an exemplary diagram for explaining that 2N × 2N and N × N can be supported in inter-picture prediction (Inter) as in intra-picture prediction (Intra) in FIG. It is possible to determine various block sizes and types according to the division method of the block dividing unit.

도 14를 참조하면, 본 실시예에 따른 영상 부호화 방법은, 기존의 화면 내 예측에 사용하는 예측 블록 형태와 같이 2N×2N 및 N×N을 지원할 수 있다. 이는 블록 분할부에서 쿼드트리 분할 방식 또는 미리 정의된 소정의 블록 후보군에 따른 분할 방식 등을 통해 정사각 형태를 지원한 예이며, 화면 내 예측에서도 바이너리 트리 분할 방식 또는 미리 정의돈 소정의 블록 후보군에 직사각 형태를 추가하여 다른 블록 형태 또한 지원할 수 있으며, 이에 대한 설정은 부호화기에서 설정이 가능하다.Referring to FIG. 14, the image encoding method according to the present embodiment can support 2N × 2N and N × N as well as a prediction block form used for intra-picture prediction. This is an example in which a square shape is supported through a quadtree division method in a block division unit or a division method according to a predefined block candidate group. In the case of intra-picture prediction, a binary tree division method or a predefined block Other types of blocks can be added by adding a type, and the setting for this can be set in the encoder.

또한, 화면 내 예측 중 현재 픽쳐에 블록 매칭을 할 경우(ref_idx = curr)에만 스킵(skip)을 적용할 것인지, 기존의 화면 내 예측에도 적용할 것인지, 그 외(else)의 파티션 형태(도 13 참조)를 가진 예측 블록에 대해서도 새로운 화면 내 예측에 적용할 것인지를 부호화기에 설정 가능하다. 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다.It is also possible to determine whether skip is applied to only the case of performing block matching on the current picture (ref_idx = curr), whether the skip is applied to the existing intra-picture prediction, ) Can be set in the encoder as to whether or not the predictive block having the reference picture (see FIG. Information on this can be transmitted in units of a sequence, a picture, a slice, and the like.

감산부(205, 도 2 참조)는 부호화할 현재 블록의 화소값으로부터 예측부(200)로부터 생성되는 예측 블록의 화소값들을 감산하여 화소 차이값을 도출함으로써, 잔차 블록을 생성할 수 있다.The subtraction unit 205 (see FIG. 2) can generate the residual block by subtracting the pixel values of the prediction block generated from the prediction unit 200 from the pixel values of the current block to be encoded, thereby deriving the pixel difference value.

변환부(210, 도 2 참조)는 감산부(205)에서 현재 블록과 화면 내 예측 또는 화면 간 예측을 통해 생성된 예측 블록과의 차분치인 잔차 블록을 전달받아 주파수 영역으로 변환한다. 변환 과정을 통해 잔차 블록의 각 화소는 변환 블록의 변환 계수에 대응된다. 변환 블록의 크기 및 형태는 부호화 단위와 같거나 작은 크기를 가질 수 있다. 또한, 변환 블록의 크기 및 형태는 예측 단위와 같을 수도 있고 작을 수도 있다. 영상 부호화 장치는 여러 예측 단위를 묶어서 변환 처리를 수행할 수 있다.The transforming unit 210 (see FIG. 2) receives the residual block, which is a difference between the current block and a prediction block generated through intra-picture prediction or inter-picture prediction, in the subtracting unit 205 and converts the residual block into a frequency domain. Through the conversion process, each pixel of the residual block corresponds to the transform coefficient of the transform block. The size and shape of the transform block may be the same or smaller than the encoding unit. In addition, the size and shape of the conversion block may be the same as or smaller than the prediction unit. The image encoding apparatus can perform conversion processing by grouping various prediction units.

변환 블록의 크기 또는 형태는 블록 분할부를 통해 결정될 수 있으며, 블록 분할에 따라 정사각 형태 또는 직사각 형태의 변환을 지원할 수 있다. 부호화기/복호화기에서 지원되는 변환 관련 설정 (지원되는 변환 블록의 크기, 형태 등)에 따라 상기 블록 분할 동작에 영향을 줄 수 있다. The size or type of the transform block can be determined through a block divider and can support square or rectangular transform according to the block division. The block dividing operation can be affected according to the conversion related setting (size, type, etc. of the supported conversion block) supported by the encoder / decoder.

상기 변환 블록의 크기 및 형태의 후보별 부호화 비용에 따라 각 변환 블록의 크기 및 형태가 결정되고, 결정된 각 변환 블록의 영상 데이터 및 결정된 각 변환 블록의 크기 및 형태 등의 분할 정보들을 부호화할 수 있다.The size and the shape of each transform block are determined according to the cost of coding the candidates of the size and the shape of the transform block and the division information such as the determined image data of each transform block and the determined size and type of each transform block can be encoded .

변환은 1차원 변환 매트릭스에 의해 변환될 수 있다. 예컨대, 이산 코사인 변환(discrete cosine transform, DCT), 이산 사인 변환(discrete cosine transform, DST), 수평, 수직 단위로 각 변환 매트릭스가 적응적으로 사용될 수 있다. 적응적 사용은 일례로 블록의 크기, 블록의 형태, 블록의 종류(휘도/색차), 부호화 모드, 예측 모드 정보, 양자화 파라미터, 이웃 블록의 부호화 정보 등의 여러 요인을 토대로 결정하는 것을 포함할 수 있다.The transform can be transformed by a one-dimensional transform matrix. For example, discrete cosine transforms (DCT), discrete cosine transforms (DST), and horizontal and vertical units may be adaptively used for each transformation matrix. The adaptive use may include, for example, determining based on various factors such as the size of the block, the type of the block, the type of the block (luminance / chrominance), the encoding mode, the prediction mode information, the quantization parameter, have.

예를 들어, 화면 내 예측의 경우, 예측 모드가 수평일 경우에는, 수직 방향으로는 DCT 기반의 변환 매트릭스가, 수평 방향으로는 DST 기반의 변환 매트릭스가 사용될 수 있다. 또한, 예측 모드가 수직일 경우에는, 수평 방향으로는 DCT 기반의 변환 매트릭스가, 수직 방향으로는 DST 기반의 변환 매트릭스가 사용될 수 있다.For example, in the case of intra-picture prediction, when the prediction mode is horizontal, a DCT-based transformation matrix may be used in the vertical direction, and a DST-based transformation matrix may be used in the horizontal direction. If the prediction mode is vertical, a DCT-based transformation matrix may be used in the horizontal direction and a DST-based transformation matrix may be used in the vertical direction.

변환 매트릭스는 위의 설명에서 나온 것에 한정되지는 않는다. 이에 대한 정보는 묵시적 또는 명시적인 방법을 사용하여 결정될 수 있으며, 블록의 크기, 블록의 형태, 부호화 모드, 예측 모드, 양자화 파라미터, 이웃 블록의 부호화 정보 등의 요인들 중 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있으며, 상기 관련 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 전송할 수 있다.The transformation matrix is not limited to that shown in the above description. Information on this may be determined using an implicit or explicit method, and may include one or more of the factors such as the size of the block, the type of the block, the encoding mode, the prediction mode, the quantization parameter, the encoding information of the neighboring block, And the related information may be transmitted in units of a sequence, a picture, a slice, a block, or the like.

여기서, 명시적인 방법을 사용할 경우를 고려하면, 수평 및 수직 방향에 대한 2개 이상의 변환 매트릭스를 후보군으로 두고 있을 경우, 각 방향마다 어떤 변환 매트릭스를 사용했는지에 대한 정보를 보낼 수도 있고, 또는 수평, 수직 방향에 대해 각각 어떤 변환 매트릭스를 사용했는지에 대하여 각각 하나의 쌍으로 묶어 2개 이상의 쌍을 후보군으로 두어 어떤 변환 매트릭스를 수평, 수직 방향에서 사용했는지에 대한 정보를 전송할 수도 있다.Here, considering the case of using the explicit method, when two or more transformation matrices for the horizontal and vertical directions are used as candidate groups, information on which transformation matrix is used for each direction may be sent, It is also possible to transmit information on which conversion matrix is used in the horizontal and vertical directions by putting two or more pairs as a candidate group by grouping them into one pair each of which conversion matrix is used for the vertical direction.

또한, 영상의 특성을 고려하여 부분적인 변환 또는 전체적인 변환을 생략할 수 있다. 예를 들면, 수평과 수직 성분들 중 어느 하나 또는 둘 모두를 생략할 수 있다. 화면 내 예측 또는 화면 간 예측이 잘 이뤄지지 않아 현재 블록과 예측 블록의 차이가 크게 발생할 경우 즉, 잔차 성분이 클 때, 이를 변환할 시 그에 따른 부호화 손실이 커질 수 있기 때문이다. 이는 부호화 모드, 예측 모드, 블록의 크기, 블록의 형태, 블록의 종류(휘도/색차), 양자화 파라미터, 이웃 블록의 부호화 정보 등의 요인들 중 최소 하나의 요인 도는 이들의 조합에 따라 결정될 수 있다. 위의 조건에 따라 묵시적 또는 명시적인 방법을 사용하여 이를 표현할 수 있고, 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송이 가능하다.In addition, the partial conversion or the entire conversion can be omitted in consideration of the characteristics of the image. For example, one or both of the horizontal and vertical components may be omitted. Since intra prediction or inter prediction is not performed well, a large difference between the current block and the prediction block, that is, when the residual component is large, the encoding loss due to the conversion can be increased. At least one factor among factors such as an encoding mode, a prediction mode, a block size, a block type, a block type (luminance / chrominance), a quantization parameter, a neighboring block coding information, . This can be expressed using an implicit or explicit method according to the above conditions, and information on this can be transmitted in units of sequence, picture, slice, and the like.

양자화부(215, 도 2 참조)는 변환부(210)에서 변환된 잔차 성분의 양자화를 수행한다. 양자화 파라미터는 블록 단위로 결정이 되며, 양자화 파라미터는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 설정될 수 있다.The quantization unit 215 (see FIG. 2) performs quantization of the residual component transformed by the transform unit 210. The quantization parameter is determined on a block-by-block basis, and the quantization parameter can be set in units of a sequence, a picture, a slice, and a block.

일례로, 양자화부(215)는 현재 블록의 왼쪽, 왼쪽 위, 위쪽, 오른쪽 위, 왼쪽 아래 등의 이웃 블록으로부터 유도된 1개 또는 2개 이상의 양자화 파라미터를 사용하여 현재 양자화 파라미터를 예측할 수 있다.For example, the quantization unit 215 may predict the current quantization parameters using one or more quantization parameters derived from neighboring blocks such as left, top, top, right top, bottom bottom, etc. of the current block.

또한, 양자화부(215)는 이웃 블록으로부터 예측한 양자화 파라미터가 존재하지 않는 경우 즉, 블록이 픽쳐, 슬라이스 등의 경계에 있는 경우, 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송된 기본 파라미터와의 차분치를 출력 혹은 전송할 수 있다. 이웃 블록으로부터 예측한 양자화 파라미터가 존재하는 경우, 해당 블록의 양자화 파라미터를 사용하여 차분치를 전송할 수도 있다.If the quantization parameter predicted from the neighboring block does not exist, that is, if the block is located at the boundary of a picture, a slice, or the like, the quantization unit 215 calculates a difference with respect to a basic parameter transmitted in units of a sequence, a picture, Value can be output or transmitted. When the quantization parameter predicted from the neighboring block exists, the differential value may be transmitted using the quantization parameter of the block.

양자화 파라미터를 유도할 블록의 우선순위는 미리 설정할 수도 있고, 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송할 수 있다. 잔차 블록을 데드존 균일 경계 양자화(DZUTQ: Dead Zone Uniform Threshold Quantization), 양자화 가중치 매트릭스(Quantization weighted matrix) 또는 이를 개량한 기법을 통해 양자화할 수 있다. 이는 1개 이상의 양자화 기법을 후보로 둘 수 있으며 부호화 모드, 예측 모드 정보 등에 의해 결정될 수 있다.The priority of the block from which the quantization parameter is to be derived may be set in advance or may be transmitted in units of a sequence, a picture, a slice, or the like. The residual block can be quantized through a dead zone uniform threshold quantization (DZUTQ), a quantization weighted matrix, or an improved technique. It can be set to one or more quantization schemes as candidates and can be determined by encoding mode, prediction mode information, and the like.

예를 들어, 양자화부(215)는 양자화 가중치 매트릭스를 화면 간 부호화, 화면 내 부호화 단위 등에 적용하기 위해 설정해 둘 수 있고, 또한 화면 내 예측 모드에 따라 다른 가중치 매트릭스를 둘 수도 있다. 양자화 가중치 매트릭스는 M×N의 크기로 블록의 크기가 양자화 블록 크기와 같다고 가정할 때, 각 주파수 성분의 위치마다 양자화 계수를 달리하여 구성할 수 있다. 그리고 양자화부(215)는 기존의 여러 양자화 방법 중 택일할 수도 있고, 부호화기/복호화기의 동일한 설정하에 사용될 수도 있다. 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송 가능하다.For example, the quantization unit 215 may set the quantization weight matrix to be applied to inter picture coding, intra picture coding unit, or the like, or may set another weighting matrix according to the intra picture prediction mode. Assuming that the size of the block is equal to the size of the quantization block and the size of the block is M × N, the quantization weight matrix can be configured by varying the quantization coefficient for each frequency component position. The quantization unit 215 may be one of various existing quantization methods and may be used under the same setting of the encoder / decoder. Information on this can be transmitted in units of a sequence, a picture, a slice, and the like.

한편, 도 2 및 3에 도시한 역양자화부(220,315) 및 역변환부(225,320)는 위의 변환부(210) 및 양자화부(215)에서의 과정을 역으로 수행하여 구현될 수 있다. 즉, 역양자화부(220)는 양자화부(215)에서 생성된 양자화된 변환 계수를 역양자화할 수 있고, 역변환부(225)는 역양자화된 변환 계수를 역변환하여 복원된 잔차 블록을 생성할 수 있다. The inverse quantization units 220 and 315 and the inverse transform units 225 and 320 shown in FIGS. 2 and 3 may be implemented by reversing the processes in the transform unit 210 and the quantization unit 215 described above. That is, the inverse quantization unit 220 can dequantize the quantized transform coefficients generated in the quantization unit 215, and the inverse transform unit 225 can inversely transform the inversely quantized transform coefficients to generate a reconstructed residual block have.

도 2 및 3에 도시한 가산부(230, 324)는 상기 복원된 잔차 블록의 화소값에 예측부로부터 생성되는 예측 블록의 화소값을 가산하여 복원 블록이 생성될 수 있다. 복원 블록은 부호화/복호화 픽쳐 버퍼(240, 335)에 저장되어 예측부 및 필터부에 제공될 수 있다.The adders 230 and 324 shown in FIGS. 2 and 3 may generate a restored block by adding the pixel values of the restored residual block to the pixel values of the predicted block generated from the predictor. The reconstruction block may be stored in the encoding / decoding picture buffer (240, 335) and provided to the prediction unit and the filter unit.

필터부(235, 도 2 참조)는 복원 블록에 디블록킹 필터(Deblocking Filter), SAO(Sample Adaptive Offset), ALP(Adaptive Loop Filter) 등과 같은 인루프 필터를 적용할 수 있다. 디블록킹 필터는 부호화 및 복호화 과정에서 발생하는 블록 경계 사이의 왜곡을 제거하기 위해, 복원 블록을 필터링할 수 있다. SAO는 잔차 블록에 대하여, 화소 단위로 원본 영상과 복원 영상과의 차이를 오프셋으로 복원해주는 필터 과정이다. ALF는 예측 블록과 복원 블록 사이의 차이를 최소화하기 위해 필터링을 수행할 수 있다. ALF는 디블록킹 필터를 통해 복원된 블록과 현재 블록의 비교값을 기초로 필터링을 수행할 수 있다.An in-loop filter such as a Deblocking Filter, a Sample Adaptive Offset (SAO), or an Adaptive Loop Filter (ALP) may be applied to the restoring block. The deblocking filter may filter the restoration block to remove distortion between block boundaries that occurs during the encoding and decoding processes. SAO is a filtering process that restores the difference between the original image and the reconstructed image by an offset, on a pixel-by-pixel basis, with respect to the residual block. The ALF can perform filtering to minimize the difference between the prediction block and the restoration block. The ALF can perform filtering based on the comparison value between the restored block and the current block through the deblocking filter.

엔트로피 부호화부(245, 도 2 참조)는 양자화부(215)를 통해 양자화된 변환 계수들을 엔트로피 부호화할 수 있다. 예를 들어, 컨텍스트 적응 가변 길이 코딩(CAVLC), 컨텍스트 적응 2진 산술 코딩(CABAC), 구문 기반 컨텍스트 적응 2진 산술 코딩(SBAC), 확률 간격 파티셔닝 엔트로피 부호화 외의 다른 부호화 방식을 사용하여 구현될(PIPE) 코딩 등의 기법을 수행할 수 있다.The entropy encoding unit 245 (see FIG. 2) can entropy encode the quantized transform coefficients through the quantization unit 215. For example, be implemented using other coding schemes than context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), syntax based context adaptive binary arithmetic coding (SBAC), and probability interval partitioning entropy coding PIPE) coding can be performed.

엔트로피 부호화부(245)는 양자화 계수를 부호화한 비트열과 부호화된 비트열을 복호화하는데 필요한 다양한 정보들을 부호화 데이터에 포함할 수 있다. 부호화 데이터는 부호화된 블록 형태, 양자화 계수 및 양자화 블록이 부호화된 비트열 및 예측에 필요한 정보 등을 포함할 수 있다. 양자화 계수의 경우 2차원의 양자화 계수를 1차원으로 스캐닝할 수 있다. 양자화 계수는 영상의 특성에 따라 분포도가 달라질 수 있다. 특히, 화면 내 예측의 경우 계수의 분포가 예측 모드에 따라 특정한 분포를 가질 수 있기 때문에 스캔 방법을 달리 설정할 수 있다.The entropy encoding unit 245 may include various types of information necessary for decoding the quantized coefficient bit stream and the encoded bit stream in the encoded data. The encoded data may include a coded block type, a quantization coefficient, a bit string in which the quantization block is coded, and information necessary for prediction. In the case of the quantization coefficient, the two-dimensional quantization coefficient can be scanned in one dimension. The quantization factor may vary depending on the characteristics of the image. In particular, in the case of the intra prediction, since the distribution of coefficients can have a specific distribution according to the prediction mode, the scanning method can be set differently.

또한, 엔트로피 부호화부(245)는 부호화하는 블록의 크기에 따라 달리 설정될 수 있다. 스캔 패턴은 지그재그, 대각선, 래스터(raster) 등 다양한 패턴들 중 적어도 어느 하나 이상으로 미리 설정하거나 후보로 설정할 수 있으며, 부호화 모드, 예측 모드 정보 등에 의해 결정될 수 있고, 부호화기와 복호화기의 동일한 설정하에 사용될 수 있다. 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송 가능하다.In addition, the entropy encoding unit 245 can be set differently according to the size of a block to be encoded. The scan pattern can be preset or candidate as at least one of various patterns such as zigzag, diagonal, and raster, and can be determined by the encoding mode, the prediction mode information, and the like, Can be used. Information on this can be transmitted in units of a sequence, a picture, a slice, and the like.

엔트로피 부호화부(245)에 입력되는 양자화된 블록(이하, 양자화 블록)의 크기는 변환 블록의 크기와 같거나 작을 수 있다. 또한, 양자화 블록은 2개 이상의 서브 블록으로 분할될 수 있으며, 분할된 경우에 분할 블록에서 스캔 패턴은 기존의 양자화 블록과 동일하게 설정할 수도 있고, 다르게 설정할 수도 있다.The size of a quantized block (hereinafter, a quantization block) input to the entropy encoding unit 245 may be equal to or smaller than the size of the transform block. In addition, the quantization block may be divided into two or more subblocks. In the case of division, the scan pattern in the divided block may be set to be the same as or different from that of the existing quantization block.

예를 들어, 기존의 양자화 블록의 스캔 패턴을 지그재그라고 할 경우, 서브 블록 모두에 지그재그를 적용할 수도 있고, 또는 DC 성분을 포함하는 블록의 좌측 상단에 위치하는 서브블록에 지그재그 패턴을 적용하고, 그 이외의 블록에는 대각선 패턴을 적용할 수 있다. 이 역시 부호화 모드, 예측 모드 정보 등에 따라 결정될 수 있다.For example, when a scan pattern of an existing quantization block is a zigzag, zigzag may be applied to all subblocks, or a zigzag pattern may be applied to a subblock located at the upper left of a block including a DC component, A diagonal pattern can be applied to other blocks. May also be determined according to the encoding mode, the prediction mode information, and the like.

또한, 엔트로피 부호화부(245)에서 스캔 패턴의 시작 위치는 기본적으로 좌측 상단으로부터 시작을 하나, 영상의 특성에 따라 우측 상단, 우측 하단 또는 좌측 하단에서 시작할 수 있으며, 2개 이상의 후보군 중 어느 것을 선택했는지에 대한 정보를 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송할 수 있다. 부호화 기술로서는 엔트로피 부호화 기술이 사용될 수 있으나 이에 한정되지 않는다.The start position of the scan pattern in the entropy encoding unit 245 basically starts from the upper left corner, but may start from the upper right corner, the lower right corner, or the lower left corner depending on the characteristics of the image. Information can be transmitted in units of a sequence, a picture, a slice, or the like. As the encoding technique, an entropy encoding technique may be used, but is not limited thereto.

한편, 도 2 및 도 3에 도시한 역양자화부(220)의 역양자화 및 역변환부(225)의 역변환은 위의 양자화부(215)의 양장화 및 변환부(210)의 변환 구조를 반대로 구성하고 기본적인 필터부(235, 330)를 조합하는 것으로 구현 가능하다.The inverse quantization and inverse transformation of the inverse quantization unit 225 of the inverse quantization unit 220 shown in FIGS. 2 and 3 is performed by reversing the transforming structure of the quantization unit 215 and the transformation unit 210 And the basic filter units 235 and 330 are combined.

다음으로, 본 발명의 영상 부호화 장치에 채용할 수 있는 보간(interpolation)에 대하여 간략히 설명하면 다음과 같다.Next, interpolation that can be employed in the image encoding apparatus of the present invention will be briefly described as follows.

블록 매칭을 통한 예측의 정확성을 높이기 위해 정수 단위보다 정밀한 소수단위의 해상도로 보간을 수행하는데, 이러한 보간법으로는 DCT-IF(discrete cosine transform based interpolation filter) 등의 기술이 있다. HEVC(high efficiency video coding)에서의 보간법으로는 DCT-IF 기술을 사용하고 있는데, 예를 들어 정수 사이의 1/2, 1/4 단위로 화소를 생성하여 참조 픽쳐를 보간하고, 이를 참조하여 블록 매칭을 수행하여 예측 블록을 생성할 수 있다.In order to improve the accuracy of the prediction through block matching, interpolation is performed with a finer resolution than that of an integer unit. The interpolation method includes a DCT-IF (discrete cosine transform based interpolation filter) technique. For example, a DCT-IF technique is used as an interpolation method in HEVC (high efficiency video coding). For example, pixels are generated in units of 1/2 and 1/4 between integers to interpolate reference pictures, Matching can be performed to generate a prediction block.

Figure 112016054524461-pat00001
Figure 112016054524461-pat00001

Figure 112016054524461-pat00002
Figure 112016054524461-pat00002

표 1과 표 2는 각각 휘도 성분과 색차 성분에서 사용되는 필터 계수를 보여주고 있는데, 휘도 성분에 대해서는 8-tap, 색차 성분에 대해서는 4-tap의 DCT-IF 필터가 사용된다. 색차 성분에 대해서도 색상 포맷(color format)에 따라 필터를 달리 적용할 수 있다. YCbCr의 4:2:0의 경우에는 표 2에서와 같은 필터를 적용할 수 있고, 4:4:4에서는 표 2가 아닌 표 1과 같은 필터나 그 외의 필터를 적용할 수 있고, 4:2:2일 경우 표 2와 같은 수평 1D 4-탭 필터(horizontal 1D 4-tap filter)와 표 1과 같은 수직 1D 8-탭 필터(vertical 1D 8-tap filter)를 적용할 수 있다.Table 1 and Table 2 show the filter coefficients used for the luminance component and the chrominance component, respectively. For the luminance components, 8-tap and 4-tap DCT-IF filters are used for chrominance components. For color difference components, filters can be applied differently according to the color format. In the case of 4: 2: 0 of YCbCr, the filter shown in Table 2 can be applied. In the case of 4: 4: 4, the filter shown in Table 1 and other filters can be applied. : In case of 2, a horizontal 1D 4-tap filter as shown in Table 2 and a vertical 1D 8-tap filter as shown in Table 1 can be applied.

도 15는 본 발명의 일실시예에 따른 영상 부호화 방법에서 영상의 a, b, c의 위치(x라고 가정)에 있는 화소에 대해서는 수평 1D 필터를 수행하는 과정을 설명하기 위한 도면이다.FIG. 15 is a diagram for explaining a process of performing a horizontal 1D filter on pixels located at positions a, b, and c of an image (assuming x) in the image encoding method according to an embodiment of the present invention.

도 15에 도시한 바와 같이, 제1 화소(G)와 이에 인접한 제2 화소(H) 사이의 a, b, c의 위치(x라고 가정)에 있는 부화소에 대해서는 horizontal 1D filter를 적용할 수 있다. 이를 수식으로 나타내면 다음과 같다.As shown in FIG. 15, a horizontal 1D filter can be applied to a sub-pixel located at a position (assumed to be x) of a, b, c between the first pixel G and a second pixel H adjacent thereto have. The equation is expressed as follows.

x = ( f1*E + f2*F + f3*G + f4*H + f5*I + f6*J + 32 ) / 64f + f2 * F + f3 * G + f4 * H + f5 * I + f6 * J + 32/64

다음, d, h, n의 위치(y라고 가정)에 있는 부화소에 대해서는 vertical 1D filter를 적용할 수 있다. 이를 수식으로 나타내면 다음과 같다.Next, a vertical 1D filter can be applied to the sub-pixels in positions d, h, and n (assuming y). The equation is expressed as follows.

y = ( f1*A + f2*C + f3*G + f4*M + f5*R + f6*T + 32 ) / 64f / mo> 4 + M + f / mo> 5 R + f / mo> 6 + T / mo> 32 + 64 / mo>

그리고 중앙에 있는 부화소들 e,f,g,i,j,k,p,q,r에 대해서는 2D 분할가능 필터(2D separable filter)를 적용할 수 있다. 부화소 e를 예로 들면, a와 수직 방향에 있는 화소들을 먼저 보간한 후 그 화소들을 이용해 보간한다. 그리고 G 및 H 사이의 a를 보간하듯 horizontal 1D filter를 수행하고, 그로 인해 나온 부화소들을 대상으로 vertical 1D filter를 수행하여 e값을 얻을 수 있다. 그리고 색차 신호에 대해서도 이와 비슷한 동작을 수행할 수 있다.A 2D separable filter can be applied to the center sub-pixels e, f, g, i, j, k, p, q and r. For example, in the case of the sub-pixel e, the pixels in the vertical direction with a are interpolated first, and then interpolated using the pixels. Then, a horizontal 1D filter is performed as interpolating a between G and H, and a vertical 1D filter is performed on the sub-pixels resulting from the horizontal 1D filter, thereby obtaining an e value. Similar operations can be performed on color difference signals.

위의 설명은 보간의 일부 설명일 뿐이다. DCT-IF 이외의 다른 필터 또한 사용이 가능하며 소수단위마다 적용되는 필터 종류 및 탭의 개수를 달리할 수 있다. 예를 들어, 1/2에는 8-tap 칼만 필터, 1/4에는 6-tap 위너 필터, 1/8에는 2-tap 선형 필터를 DCT-IF처럼 고정된 계수 또는 필터 계수를 계산하여 필터 계수를 부호화할 수도 있다. 위와 같이, 픽쳐에 대해 하나의 보간 필터를 사용할 수도 있고, 영상에 특성에 따라 영역마다 다른 보간 필터를 사용할 수도 있으며, 다수의 보간 필터를 적용한 2개 이상의 참조 픽쳐들을 생성하고 그 중에 하나를 선택할 수도 있다.The above description is only a partial explanation of interpolation. Filters other than DCT-IF can also be used, and the number of filters and the number of tabs to be applied per decimal unit can be different. For example, a coefficient or filter coefficient, such as 8-tap Kalman filter for 1/2, 6-tap Wiener filter for 1/4, 2-tap linear filter for 1/8, fixed like DCT-IF, Or may be encoded. As described above, one interpolation filter may be used for a picture, or an interpolation filter which is different for each region according to the characteristics may be used for an image. Alternatively, two or more reference pictures to which a plurality of interpolation filters are applied may be generated, have.

참조 픽쳐의 타입, 시간적 계층, 참조 픽쳐의 상태(예컨대, 현재 픽쳐인지 아닌지) 등의 부호화 정보에 따라 다른 필터가 적용될 수 있다. 위에서 언급한 정보들은 시퀀스, 픽쳐, 슬라이스 등의 단위로 설정이 가능하며, 그 단위로 전송 가능하다.Different filters may be applied according to the encoding information such as the type of the reference picture, the temporal layer, the state of the reference picture (for example, whether it is the current picture) or the like. The above information can be set in units of sequence, picture, slice, etc., and can be transmitted in that unit.

다음으로 본 실시예에 따른 영상 부호화 방법에 채용할 수 있는 움직임 추정(motion estimation), 움직임 보상(motion compensation) 및 움직임 예측(motion prediction)에 대한 개선된 기술을 상세히 설명하기 전에 이들 용어의 기본적인 의미를 정의하면 다음과 같다.Next, before describing in detail the improved techniques for motion estimation, motion compensation, and motion prediction that can be employed in the image encoding method according to the present embodiment, Is defined as follows.

움직임 추정은 부호화하고자 하는 현재 블록의 움직임을 예측하는데 있어서 영상 프레임을 작은 블록으로 분할하여 시간적으로 이전 또는 이후의 기부호화된 프레임(참조 프레임) 상의 어떤 블록으로부터 이동되었는지를 추정하는 과정을 말한다. 즉, 움직임 추정은 압축하려는 현재 블록의 부호화시에 목표 블록과 가장 유사한 블록을 찾아내는 과정이라고 할 수 있다. 블록 기반의 움직임 추정은 비디오 객체 또는 화면처리단위 블록(macro block 등)이 시간상으로 어느 위치로 움직였는지를 추정하는 과정을 말할 수 있다.Motion estimation refers to a process of estimating motion of a current block to be encoded by dividing an image frame into small blocks and estimating which blocks are temporally shifted from previous or later base-delayed frames (reference frames). That is, the motion estimation is a process of finding the block most similar to the target block at the time of coding the current block to be compressed. Block-based motion estimation is a process of estimating the position of a video object or screen processing unit block (macro block, etc.) in time.

움직임 보상은 현재 영상을 부호화하기 위하여 이전에 부호화된 참조 영상의 적어도 일부 영역을 가져와서 현재 영상을 예측하기 위하여 움직임 추정 과정에서 찾은 최적의 예측 블록에 대한 움직임 정보(모션 벡터, 참조 픽쳐 인덱스)를 바탕으로 현재 블록의 예측 블록을 생성하는 것을 의미한다. 즉, 움직임 보상은 부호화하려는 현재 블록과 가장 유사한 블록이라고 찾아낸 참조 블록과의 차이로써 오차 블록을 만드는 과정을 말할 수 있다.The motion compensation includes motion information (motion vector, reference picture index) for the optimal prediction block found in the motion estimation process in order to predict at least a part of the previously encoded reference image to encode the current image and to predict the current image Which means that a prediction block of the current block is generated. That is, the motion compensation is a process of making an error block as a difference between a current block to be encoded and a reference block that is found to be the most similar block.

움직임 예측은 움직임 보상을 위하여 부호화 시에 움직임 벡터를 찾는 것을 의미한다. 움직임 예측의 주요 기술로는 스킵(skip), 시간적 예측, 공간적 예측 등이 있으며, 스킵은 화면의 움직임이 일정하여 영상 부호화 장치에서 예측한 움직임 벡터의 크기가 제로(0)이거나, 잔차가 충분히 작아 무시할 수 있는 경우 해당 영상 블록의 부호화를 생략하고 넘어가는 것을 의미한다. 시간적 예측은 주로 화면 간 예측에 이용될 수 있고, 공간적 예측 또는 시점간 예측은 주로 화면 내 예측에 이용될 수 있다.Motion prediction means finding a motion vector at the time of coding for motion compensation. Skipping, temporal prediction, spatial prediction, and the like are main techniques of motion prediction. Skipping is because the motion of the screen is constant and the size of the motion vector predicted by the image coding apparatus is zero or the residual is small enough If it can be ignored, it means that the coding of the corresponding image block is skipped. Temporal prediction can be mainly used for inter-picture prediction, and spatial prediction or inter-view prediction can be mainly used for intra-picture prediction.

화면 간 예측를 통해 나오는 정보는, 참조 픽쳐 리스트 방향을 구분하는 정보(단방향(L0, L1), 양방향), 참조 픽쳐 리스트 내의 참조 픽쳐를 구분하는 인덱스, 움직임 벡터 등을 포함할 수 있다. 시간적인 상관성을 이용하기 때문에 현재 블록과 이웃하는 블록의 움직임 벡터가 같거나 비슷하게 나타나는 특성을 활용할 경우 효율적으로 움직임 정보를 부호화할 수 있다.Information derived from inter-picture prediction may include information (unidirectional (L0, L1), bidirectional) for distinguishing reference picture list directions, an index for distinguishing reference pictures in the reference picture list, a motion vector, and the like. Since temporal correlation is used, motion information can be efficiently coded when the motion vector of the current block is the same as or similar to the motion vector of the neighboring block.

도 16은 비교예에 따른 현재 블록과 주변 블록에 대한 예시도이다. 도 17은 다른 비교예에 따른 현재 블록과 주변 블록에 대한 예시도이다. 도 18은 또 다른 비교예에 따른 현재 블록과 주변 블록에 대한 예시도이다.16 is an exemplary view of a current block and a neighboring block according to a comparative example. 17 is an exemplary view of a current block and neighboring blocks according to another comparative example. 18 is an exemplary view of a current block and a neighboring block according to yet another comparative example.

도 16에 도시한 바와 같이, 현재 블록(current PU)과 주변 블록(A, B, C, D, E)의 대한 예시이다. 현재 블록의 공간적으로 인접한 블록들 즉, 왼쪽 위 블록(A), 위 블록(B), 오른쪽 위 블록(C), 왼쪽 블록(D) 및 왼쪽 아래 블록(E) 중 최소 1개 이상의 블록을 후보로 삼을 수 있고 그 정보를 활용할 수 있다.As shown in FIG. 16, the current block PU and the neighboring blocks A, B, C, D, and E are examples. At least one block among the spatially adjacent blocks of the current block, that is, the upper left block (A), the upper block (B), the upper right block (C), the left block (D) And can utilize the information.

또한, 선택된 참조 픽쳐에서 현재 블록에 상응하는 위치에 존재하는 참조 블록(co-located PU)내 블록(F)이나 그 주변 블록(G)을 후보로 삼을 수 있고 그 정보를 활용할 수 있다. 도 16에서는 2가지의 후보만 나타내지만 현재 블록과 동일한 위치의 가운데 블록(F) 이외에, 왼쪽 위, 위, 오른쪽 위, 왼쪽, 왼쪽 아래, 아래, 오른쪽 아래, 오른쪽 중 최소 1개 이상의 블록을 후보로 삼을 수 있다. 이때 후보군에 포함되는 위치는 픽쳐 타입에 현재 블록의 크기, 공간적으로 인접한 후보블록들과의 상관관계 등에 따라 결정될 수 있다. 그리고 선택된 참조 픽쳐는 현재 픽쳐의 이전 또는 이후에 존재하는 픽쳐 간의 거리가 1 이상인 픽쳐를 의미할 수 있다.In addition, a block F within a co-located PU located at a position corresponding to the current block in the selected reference picture or its neighboring block G can be used as a candidate, and the information can be utilized. 16 shows only two candidates, but at least one block among the upper left corner, the upper corner, the upper right corner, the left corner, the lower left corner, the lower right corner, and the lower right corner, As shown in Fig. At this time, the position included in the candidate group may be determined according to the picture type, the size of the current block, correlation with spatially adjacent candidate blocks, and the like. And the selected reference picture may mean a picture having a distance of 1 or more between pictures existing before or after the current picture.

또한, 도 17 및 도 18에 도시한 바와 같이, 현재 블록(current PU)의 크기와 위치에 따라 특정한 블록의 정보를 활용하도록 구현될 수도 있다. 용어 예측 유닛(prediction unit, PU)은 예측부의 예측 작업을 수행하는 기본 단위를 지칭할 수 있다.Also, as shown in FIGS. 17 and 18, information of a specific block may be utilized according to the size and position of the current PU. A term prediction unit (PU) may refer to a basic unit for performing the prediction task of the prediction unit.

본 실시예의 영상 부호화 방법에서는 공간적, 시간적으로 인접한 블록의 영역을 다음과 같이 확장할 수 있다.In the image coding method of the present embodiment, the area of a block adjacent spatially and temporally can be expanded as follows.

도 19는 본 발명의 일실시예에 따른 영상 부호화 방법에 채용할 수 있는 현재 블록과 주변 블록에 대한 예시도이다.FIG. 19 is an exemplary view of a current block and neighboring blocks that can be employed in the image encoding method according to an embodiment of the present invention.

도 19를 참조하면, 본 실시예에 따른 영상 부호화 방법은 움직임 정보 예측 후보를 선택하는데 있어서, 현재 블록의 주변 부호화 블록들, 참조 영상에서의 현재 블록과 좌표상 동일하거나 근접한 위치의 블록들(co-located block), 또는 인접하진 않지만 같은 공간에 위치하는 블록들의 움직임 정보를 활용하여 효율적으로 움직임 정보의 후보 블록을 선택할 수 있다. 여기서, 인접하지는 않지만 같은 공간에 위치하는 블록들은 부호화 모드, 참조 픽쳐 인덱스 또는 미리 설정된 좌표 등의 정보를 기반으로 결정되는 현재 블록과 해당 블록 사이에 최소 1개 이상의 다른 블록을 포함하는 블록을 후보로 삼을 수 있다.Referring to FIG. 19, in the method of selecting a motion information prediction candidate according to the present embodiment, neighboring encoding blocks of a current block, blocks co co-located or close to the current block in the reference image, -located block), or motion information of blocks located in the same space that are not adjacent to each other. Here, the blocks located in the same space but not adjacent to each other are candidates for a block including at least one other block between the current block determined based on information such as an encoding mode, a reference picture index, You can do it.

움직임 정보의 양을 줄이기 위하여, 영상 부호화 방법은 모션 벡터 카피(motion vector copy, MVC) 또는 모션 벡터 예측(motion vector prediction, MVP)를 사용하여 움직임 정보를 부호화할 수 있다.In order to reduce the amount of motion information, the image encoding method may encode motion information using a motion vector copy (MVC) or a motion vector prediction (MVP).

모션 벡터 카피는 움직임 벡터를 유도하는 기술로서, 움직임 벡터 차분치(motion vector difference) 또는 참조 픽쳐 인덱스를 보내지 않고, 움직임 벡터 예측값(motion vector predictor)를 그대로 사용한다. 이것은 HEVC의 혼합 모드(merge mode)와 일부 유사지만, 혼합 모드는 공간적으로나 시간적으로 인접한 블록의 모션 벡터(motion vector)를 병합하는 것이라면, 본 실시예의 모션 벡터 카피는 모션 벡터를 공간적 및 시간적으로 인접하지 않는 블록들(일례로, H, I, J)에서도 모션 벡터를 갖다 사용한다는 것을 의미한다. 이러한 의미를 고려할 때, 모션 벡터 카피는 혼합 모드와는 다른 개념이고 더 상위 개념에 있다. 그리고 모션 벡터 예측의 목적은 예측 블록을 생성하는 데 있어서 최소의 모션 벡터 차이를 만드는 것일 수 있다.The motion vector copy is a technique for deriving a motion vector. Instead of using a motion vector difference or a reference picture index, the motion vector predictor is used as it is. This is somewhat similar to the merge mode of the HEVC, but if the mixed mode is to merge the motion vectors of spatially and temporally adjacent blocks, then the motion vector copy of the present embodiment can be used to generate motion vectors that are spatially and temporally adjacent (For example, H, I, J) are used with motion vectors. Considering this meaning, the motion vector copy is a different concept from the mixed mode and is in a higher concept. And the purpose of the motion vector prediction may be to create a minimum motion vector difference in generating the prediction block.

모션 벡터 카피는, 도 19에 도시한 바와 같이, 다양한 후보군의 블록으로부터 참조 방향, 참조 픽쳐 인덱스, 움직임 벡터 예측값을 유도할 수 있다. 다양한 후보군의 블록으로부터 n개의 후보 블록을 선정하고, 그 중 최적인 블록에 대한 인덱스 정보를 부호화하여 움직임 벡터를 전송할 수 있다. 여기서, n이 1일 경우, 모션 벡터 카피는 미리 정해진 기준에 따라 우선순위가 제일 높은 블록의 움직임 정보를 가져다 쓸 수 있다. 또한, n이 2 이상일 경우, 모션 벡터 카피는 각기 후보군에 대해 어느 것이 최적인지를 부호화 비용을 고려하여 결정할 수 있다.The motion vector copy can derive a reference direction, a reference picture index, and a motion vector predicted value from various candidate groups of blocks as shown in Fig. It is possible to select n candidate blocks from the blocks of various candidate groups and transmit the motion vector by encoding the index information of the optimal block among the candidate blocks. Here, when n is 1, the motion vector copy can obtain the motion information of the block having the highest priority according to a predetermined criterion. When n is 2 or more, the motion vector copy can be determined for each candidate group in consideration of encoding cost, which is optimal.

전술한 n에 대한 정보는 부호화기나 복호화기에 고정될 수 있고, 별도의 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다. 일례로, 이웃 블록들의 정보에 기반하여 n이 1인지 2 이상인지가 결정될 수 있다. 그 경우, 후보군의 블록으로부터 얻은 움직임 벡터들이 정해진 기준과 비교하여 비슷하면, 2개 이상의 후보군을 만드는 것은 무의미하다고 판단하고 평균 또는 중간(median)(mvA, mvB, …, mvJ)과 같은 방식을 이용하여 고정된 값으로 움직임 벡터 예측값을 생성할 수 있으며, 무의미하다고 판단되지 않으면 2개 이상의 후보군을 두어 최적의 움직임 벡터 예측값을 생성할 수 있다.The information on the above-described n may be fixed to an encoder or a decoder, and may be transmitted in units of separate sequences, pictures, slices, and the like. For example, it may be determined whether n is 1 or 2 based on information of neighboring blocks. In this case, if the motion vectors obtained from the candidate block are similar to the predetermined reference, it is judged that it is useless to make two or more candidate groups, and a method such as average or median (mvA, mvB, ..., mvJ) is used A motion vector prediction value can be generated with a fixed value, and if it is not determined to be meaningless, it is possible to generate an optimal motion vector prediction value with two or more candidate groups.

모션 벡터 예측도 모션 벡터 카피와 비슷하게 동작할 수 있다. 그러나 우선순위에 대한 기준은 모션 벡터 카피의 것과 같을 수도 있고 다를 수도 있다. 또한, 후보 블록의 개수(n)가 같을 수도 있고 다를 수도 있다. 이에 대한 정보는 부호화기 및/또는 복호화기에 고정될 수도, 따로 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수도 있다.Motion vector prediction can also work similar to motion vector copy. However, the criterion for priority may be the same as or different from that of the motion vector copy. In addition, the number n of candidate blocks may be the same or different. The information on this may be fixed to the encoder and / or the decoder, or may be transmitted in units of a sequence, a picture, a slice, or the like.

후보군에 대한 참조 여부에 대한 설정은 현재 픽쳐의 타입, 시간적 계층 정보(temporal id) 등의 정보에 따라 결정될 수도 있으며 이에 대한 정보는 고정되어 사용되거나 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다. 여기서, 후보군에 대한 참조 여부에 대한 설정은 예컨대 공간적으로 인접한 블록(A, B, C, D, E)만 사용하거나, 공간적으로 인접한 블록(A, B, C, D, E)과 시간적으로 인접한 블록(H, I, J)을 사용하거나, 또는 공간적으로 인접한 블록(A, B, C, D, E)과 공간적으로 떨어져 있는 블록(F, G)를 사용하는 설정을 포함할 수 있다.The setting of reference to the candidate group may be determined according to information such as the type of the current picture, temporal id, etc. Information on the candidate may be fixed or transmitted in units of a sequence, a picture, a slice, or the like . Here, the reference to the candidate group may be set using only spatially adjacent blocks A, B, C, D, and E, or may be set to be temporally adjacent to spatially adjacent blocks A, B, C, D, May include settings using blocks H, I, J or spatially separated blocks F, G from spatially adjacent blocks A, B, C, D,

다음은 "현재 픽쳐에 블록 매칭의 적용이 가능하다"는 설정에 대해 설명하면 다음과 같다.The following is a description of the setting of "block matching is applicable to the current picture".

먼저, I 픽쳐의 경우를 설명하면, 예를 들어, 공간적으로 근접한 블록을 먼저 우선순위에 놓고 그 외의 블록들을 후보군으로 설정할 수 있다. 일례로, 참조 블록들을 E → D → C → B → A → H → I → J의 기재된 순서대로 가용성(availability)을 확인할 수 있다. 가용성은 후보 블록의 부호화 모드, 움직임 정보, 후보 블록의 위치 등으로 판단될 수 있다. 움직임 정보는 움직임 벡터, 참조 방향, 참조 픽쳐 인덱스 등을 포함할 수 있다.First, in the case of an I picture, for example, a spatially adjacent block may be placed in a priority order and other blocks may be set as a candidate group. For example, the availability of reference blocks can be checked in the order of E → D → C → B → A → H → I → J. The availability can be determined by the encoding mode of the candidate block, the motion information, the position of the candidate block, and the like. The motion information may include a motion vector, a reference direction, a reference picture index, and the like.

현재 픽쳐가 I 픽쳐이므로, 부호화 모드가 본 실시예의 화면 내 예측(이하, INTER)으로 되어있을 때만 움직임 정보가 존재한다. 그렇기 때문에 우선순위대로 볼 때 먼저 INTER인지 확인한다. 예를 들어, n이 3이고 E가 INTER로 부호화가 되었다면 E는 후보군에서 제외하고 그 다음의 D를 확인한다. D가 INTER로 부호화가 되었다면 현재 픽쳐에서 블록 매칭을 수행하기 때문에 움직임 정보를 갖고 있으며, 이러한 움직임 정보를 토대로 D를 후보군에 추가한다. 그러면 n은 2개가 남는다. 그런 다음, 영상 부호화 장치는 다시 우선순위를 확인해 볼 수 있다. 그렇게 해서 최종 3개의 후보가 채워지면 후보군 찾는 작업을 중단한다.Since the current picture is an I picture, motion information exists only when the coding mode is intra prediction (hereinafter referred to as INTER) of the present embodiment. Therefore, when you see it in priority order, it is confirmed that it is INTER first. For example, if n is 3 and E is encoded as INTER, E is excluded from the candidate group and D is checked. If D is coded as INTER, it carries motion information because it performs block matching in the current picture, and adds D to the candidate group based on the motion information. Then n remains two. Then, the image encoding apparatus can check the priority again. So when the last three candidates are filled, we stop looking for candidates.

가용성은 부호화 모드로만 이용하는 것이 아니고 픽쳐, 슬라이스, 타일 등의 경계(boudnary)인 경우에도 이용할 수 있다. 경계인 경우, 가용성은 이용하지 않음(not available)으로 체크된다. 그리고 이미 채워진 후보와 같거나 비슷하다는 판단 결과가 나올 경우, 해당 블록은 후보에서 제외되고, 참조 화소 구성부는 그 다음 후보의 가용성을 체크하게 된다.The availability can be used not only in the encoding mode but also in the case of boudnary of pictures, slices, tiles, and the like. If it is a border, availability is checked as not available. If it is determined that the candidate is the same as or similar to the already filled candidate, the corresponding block is excluded from the candidate and the reference pixel unit checks the availability of the next candidate.

여기서 INTER는 기존의 화면 간 예측(inter)과 다르다. 즉, 본 실시예의 INTER 모드는 화면 간 예측(inter) 구조를 활용할 뿐 현재 픽쳐에서 예측 블록을 생성하기 때문에 참조 픽터에서 예측 블록을 생성하는 화면 간 예측과는 차이가 있다. 즉, 본 실시예의 부호화 모드에서는 현재 픽쳐에서 블록 매칭하는 방법을 INTER 모드와 intra(기존 intra와 동일함)로 분류하여 적용할 수 있다.Here, INTER differs from the existing inter-picture prediction (inter). That is, the INTER mode of the present embodiment differs from inter-picture prediction in which a predictive block is generated in a reference picture because a predictive block is generated in the current picture only by utilizing an inter-picture prediction (inter) structure. That is, in the encoding mode of the present embodiment, a method of block matching in the current picture can be classified into INTER mode and intra (same as existing intra).

한편, 처음으로 채워진 후보는 가용성을 체크하지 않을 수 있다. 상황에 따라 체크도 가능하다. 즉, 후보 블록의 움직임 벡터의 범위가 일정 기준 이상이거나 픽쳐, 슬라이스, 타일 등의 경계(boundary)를 넘어가거나 할 때 가용성을 체크하지 않도록 적용할 수 있다.On the other hand, the first filled candidate may not check for availability. It is also possible to check according to the situation. That is, it is possible to apply such that the availability is not checked when the range of the motion vector of the candidate block exceeds a certain reference or exceeds the boundary of a picture, slice, tile, or the like.

이하에서는 전술한 부호화 과정에서 참조 블록들(도 19 참조)에 대하여 E → D → C → B → A → H → I → J의 기재된 순서대로 가용성을 체크하고 미리 정해진 개수(일례로, n=3)의 후보 블록을 얻는 과정에 대한 다양한 실시예를 설명하면 다음과 같다.In the following description, the availability is checked in the order of E? D? C? B? A? H? I? J for reference blocks (see FIG. 19) The following will describe various embodiments of the process of obtaining the candidate block of FIG.

< 실시예 1 >&Lt; Example 1 >

E (not coded) → D → C → B → A → H → I → J : E 제외E (not coded) → D → C → B → A → H → I → J: Exclude E

E (삭제) → D (Inter) → C → B → A → H → I → J : D 포함E (Delete) → D (Inter) → C → B → A → H → I → J: Include D

E (삭제) → D (포함) → C (Inter) → B → A → H → I → J : C 포함E (delete) → D (included) → C (Inter) → B → A → H → I → J: C included

(블록 C는 유사성 체크(similarity check) 후 다르다고 나옴.)(Block C is said to be different after a similarity check.)

E (삭제) → D (포함) → C (포함) → B (Intra) → A → H → I → J : B 제외E (delete) → D (included) → C (included) → B (Intra) → A → H → I → J: B excluded

E (삭제) → D (포함) → C (포함) → B (삭제) → A (Inter) → H → I → J : A 포함 (블록 A는 유사성 체크 후 다르다고 나옴.)E (delete) → D (included) → C (included) → B (delete) → A (Inter) → H → I → J: A (Block A is different after checking similarity)

위와 같이 3개의 블록들(D, C, A)을 선택할 수 있다.The three blocks D, C, and A can be selected as described above.

< 실시예 2 >&Lt; Example 2 >

E (Inter) → D → C → B → A → H → I → J : E 포함E (Inter) → D → C → B → A → H → I → J: E

E (포함) → D (Inter) → C → B → A → H → I → J : D 포함E (included) → D (Inter) → C → B → A → H → I → J: Include D

(블록 D는 유사성 체크 후 현재 블록과 같거나 비슷하지 않다고 나옴.)(Block D is checked for similarity and is not equal or similar to the current block.)

E (포함) → D (포함) → C (Inter) → B → A → H → I → J : C 제외E (included) → D (included) → C (Inter) → B → A → H → I → J: C excluded

(블록 C는 유사성 체크 후 같거나 비슷하다고 나옴.)(Block C is the same or similar after similarity check.)

E (포함) → D (포함) → C (삭제) → B (boundary) → A → H → I → J : B 제외E (included) → D (included) → C (delete) → B (boundary) → A → H → I → J: B excluded

E (포함) → D (포함) → C (삭제) → B (삭제) → A (Intra) → H → I → J : A 제외E (excluded) → D (included) → C (delete) → B (delete) → A (Intra) → H → I → J: A excluded

E (포함) → D (포함) → C (삭제) → B (삭제) → A (삭제) → H (Intra) → I → J : H 포함 (블록 H는 유사성 체크 후 다르다고 나옴.) E (included) D (included) C (delete) B (delete) A (delete) H (Intra) I I J: H (Block H is different after checking similarity)

위와 같이 3개의 블록들(E, D, H)을 선택할 수 있다.The three blocks E, D and H can be selected as described above.

< 실시예 3 >&Lt; Example 3 >

E (Intra) → D → C → B → A → H → I →J : E 제외E (Intra) → D → C → B → A → H → I → J: Exclude E

E (삭제) → D (Intra) → C → B → A → H → I → J : D 제외E (delete) → D (Intra) → C → B → A → H → I → J: D excluded

E (삭제) → D (삭제) → C (Intra) → B → A → H → I → J : C 제외E (Delete) → D (Delete) → C (Intra) → B → A → H → I → J: Exclude C

E (삭제) → D (삭제) → C (삭제) → B (boundary) → A → H → I → J : B 제외E (delete) → D (delete) → C (delete) → B (boundary) → A → H → I → J: B excluded

E (삭제) → D (삭제) → C (삭제) → B (삭제) → A (Intra) → H → I → J : A 제외E (delete) → D (delete) → C (delete) → B (delete) → A (Intra) → H → I → J: A excluded

E (삭제) → D (삭제) → C (삭제) → B (삭제) → A (삭제) → H (Intra) → I → J : H 제외E (delete) → D (delete) → C (delete) → B (delete) → A (delete) → H (Intra) → I → J: H

E (삭제) → D (삭제) → C (삭제) → B (삭제) → A (삭제) → H (삭제) → I (Inter) → J : I 포함E (delete) → D (delete) → C (delete) → B (delete) → A (delete) → H (delete) → I (Inter) → J: I

E (삭제) → D (삭제) → C (삭제) → B (삭제) → A (삭제) → H (삭제) → I (포함) → J (Inter) : J 포함 (블록 J는 유사성 체크 후 다르다고 나옴.)E (delete) → D (delete) → C (delete) → B (delete) → A (delete) → H (delete) → I (included) → J Come out.)

E (삭제) → D (삭제) → C (삭제) → B (삭제) → A (삭제) → H (삭제) → I (포함) → J (포함) : (- a,0 ) 포함E (deletion) → D (delete) → C (deleted) → B (deleted) → A (removed) H → (deleted) → I (included) → J (included): - including (a, 0)

위와 같이 8개의 참조 블록들에 대한 가용성 체크에서 2개의 참조 블록들만이 후보 블록으로 선택되었으므로, 미리 설정된 후보 블록의 개수(n=3)를 채우기 위해 미리 설정된 고정 좌표 (-a, 0)을 후보로 추가할 수 있다.Since only two reference blocks are selected as the candidate blocks in the availability check of the eight reference blocks as described above, the fixed coordinates (-a, 0) set in advance to fill the number (n = 3) Can be added.

< 실시예 4 ><Example 4>

Figure 112016054524461-pat00003
Figure 112016054524461-pat00003

위와 같이 8개의 참조 블록들에 대한 가용성 체크에서 1개의 참조 블록(A)만이 후보 블록으로 선택되었으므로, 미리 설정된 후보 블록의 개수(n=3)를 채우기 위해 미리 설정된 두 고정 좌표들 (-a, 0), (0, -b)를 후보로 추가할 수 있다.Since only one reference block A is selected as the candidate block in the availability check for the eight reference blocks as described above, two preset fixed coordinates (-a, -a, 0), (0, -b) can be added as candidates.

위의 실시예 3과 실시예 4에 대하여 보충 설명하면 다음과 같다.The third embodiment and the fourth embodiment will be described as follows.

실시예 3에서 정해진 후보군에서 n개의 후보를 찾지 못한 경우, 움직임 벡터 후보로 고정 좌표를 갖는 고정(constant) 후보를 추가할 수 있다. 즉, HEVC의 화면 간 예측 모드에서는 영벡터(zero vector)가 추가될 수 있지만, 본 발명에서처럼 현재 픽쳐에서 블록매칭을 하는 경우, 현재 픽쳐에서 (0,0) 벡터는 존재하지 않기 때문에 실시예 3에서와 같이 미리 설정된 가상 영벡터 (-a, 0)를 추가할 수 있다.If n candidates are not found in the candidate group determined in the third embodiment, a constant candidate having fixed coordinates can be added as a motion vector candidate. That is, in the inter-picture prediction mode of the HEVC, a zero vector may be added. However, in the case of block matching in the current picture as in the present invention, since there is no (0,0) vector in the current picture, (-A, 0) can be added as shown in Fig.

또한, 실시예 4는 하나의 가상 영벡터를 추가한 상태에서도 가용성 체크를 통해 움직임 벡터의 후보 개수를 채우지 못한다면, 미리 설정한 다른 가상 영벡터 (0, -b)를 후보군에 더 추가할 수 있음을 나타낸다. 여기서, (-a, 0)의 a나 (0, -b)의 b는 블록의 가로 또는 세로 크기를 고려하여 다양하게 설정될 수 있다.In addition, in the fourth embodiment, even if one virtual zero vector is added, if the candidate number of the motion vector can not be filled through the availability check, another preset virtual zero vector (0, -b) can be added to the candidate group . Here, a of (-a, 0) and b of (0, -b) can be variously set in consideration of the horizontal or vertical size of the block.

또한, 위의 설명에서는 유사성을 체크하여 후보군을 제외하기도 했는데, 이러한 유사성 체크는 수행하지 않도록 설정될 수도 있다. 그 경우, 어느 것을 보낼지에 대한 정보는 보낼 필요가 없기 때문에, n이 2라고 가정할 경우, 두 값의 평균을 사용하는지, 혹은 둘 중에 어느 하나를 사용하는지를 미리 정해진 설정에 따라 자동적으로 결정할 수 있고, 이때 2개 중 어떤 것을 사용할 것인지에 대한 인덱스 정보는 생략될 수 있다. 즉, 움직임 벡터 예측값 인덱스를 생략할 수 있다.In the above description, the similarity is checked and the candidate group is excluded. However, the similarity check may be set not to be performed. In that case, since it is not necessary to send information about which to send, if n is 2, it can be automatically determined according to a predetermined setting whether to use the average of the two values or either of them , The index information on which of the two is to be used may be omitted. That is, the motion vector prediction value index can be omitted.

위의 설명에서는 전체 후보군을 하나의 그룹으로 구성하여 가용성을 확인하지만, 본 발명은 그러한 구성으로 한정되지 않고, 두 개 이상의 그룹으로 나누어 각각의 후보군에서 후보의 가용성을 확인하여 후보를 정할 수 있다. 여기에서 후보 블록의 개수(n)을 2로 가정하면, 각 그룹 내의 최대 후보 수를 동일 또는 개별적으로 정할 수 있다. 일례로, 아래의 실시예에서와 같이, 그룹 1_1에서 1개, 그룹 1_2에서 1개를 각각 정할 수 있다. 물론, 각 그룹의 우선순위도 별도로 존재할 수 있다. 또한, 그룹 1_1과 그룹 1_2에 대해 먼저 가용성 체크를 수행한 후 움직임 벡터의 후보 개수에 대한 기준을 만족하지 못하는 경우, 후보수를 채우기 위해 그룹 2를 적용할 수 있다. 그룹 2는 고정 좌표를 갖는 고정(constant) 후보를 포함할 수 있다.In the above description, all candidates are grouped into one group to check availability. However, the present invention is not limited to such a configuration, and the candidates can be determined by dividing into two or more groups and checking the availability of candidates in each candidate group. Herein, assuming that the number n of candidate blocks is 2, the maximum number of candidates in each group can be determined to be the same or individually. For example, as in the following embodiment, one in group 1_1 and one in group 1_2 can be respectively defined. Of course, the priority of each group can also exist separately. In addition, if the availability check is performed on the group 1_1 and the group 1_2, the group 2 can be applied to fill the number of candidates if the criterion for the number of candidates of the motion vector is not satisfied. Group 2 may include a constant candidate with fixed coordinates.

예를 들면, 그룹 1_1, 그룹 1_2 및 그룹 2의 후보, 각 그룹의 가용성 체크 순서 또는 우선순위, 그리고 그룹 구분 기준을 순서대로 나타내면 다음과 같다.For example, the candidates for group 1_1, group 1_2, and group 2, the availability check order or priority of each group, and the group classification criteria are shown below in order.

그룹 1_1 = {A, B, C, I, J}, ( C → B → A → I → J), 현재 블록 기준으로 위쪽 블록들Group 1_1 = {A, B, C, I, J}, (C? B? A? I? J)

그룹 1_2 = {D, E, H}, (E → D → H), 현재 블록 기준으로 왼쪽 및 왼쪽 아래 블록들Group 1_2 = {D, E, H}, (E? D? H), left and lower blocks

그룹 2 = {고정 후보}, (-a, 0) → (0, -b), (-a, 0)Group 2 = {fixed candidate}, (-a, 0)? (0, -b), (-a, 0)

위의 내용을 정리하면, 본 실시예의 영상 부호화 장치는 모션 벡터 카피 후보 또는 모션 벡터 예측 후보를 공간적으로 탐색하고 탐색 결과에 따라 미리 정해진 고정(constant) 후보 순으로 후보군을 생성할 수 있다.In summary, the image encoding apparatus of the present embodiment can spatially search motion vector copy candidates or motion vector prediction candidates and generate candidate groups in a predetermined fixed candidate order according to the search results.

이하에서는 모션 벡터 카피(MVC)와 모션 벡터 예측(MVP)에 대해서 구분하여 설명하기로 한다. 그 이유는, 스케일링 과정의 포함 여부가 다르기 때문이다.Hereinafter, the motion vector copy (MVC) and the motion vector prediction (MVP) will be separately described. This is because whether or not the scaling process is included is different.

모션 벡터 예측(MVP)에 대해 먼저 설명하면 다음과 같다.The motion vector prediction (MVP) will be described first.

P P 픽쳐나Picture I B  B 픽쳐의Picture 경우 Occation

위에서 언급한 후보들(A, B, C, D, E, F, G, H, I, J)에 더하여 시간적인 후보(F, G)도 포함하여 설명하기로 한다. 본 실시예에서는 후보를 공간적으로 탐색하고, 시간적으로 탐색하고, 혼합 리스트를 구성하여 탐색하고, 고정(constant) 후보를 탐색하는 기재된 순서대로 진행한다고 가정한다.The temporal candidates (F, G) will be described in addition to the above-mentioned candidates (A, B, C, D, E, F, G, H, I and J). In this embodiment, it is assumed that candidates are spatially searched, temporally searched, mixed lists are constructed and searched, and fixed candidates are searched in the described order.

먼저, 후보들의 우선순위를 정하고 그에 따라 가용성(availability)을 체크한다. 움직임 벡터의 후보 개수(n)는 2로 설정하고, 우선순위는 괄호 안에 기재한 바와 같다고 가정한다.First, the candidates are prioritized and the availability is checked accordingly. It is assumed that the number of candidates (n) of the motion vectors is set to 2, and the priority is as described in parentheses.

예를 들면, 공간적으로 탐색할 때 다음과 같은 그룹들로 분류할 수 있다.For example, when searching spatially, you can group them into the following groups.

그룹 1_1 = {A, B, C, I, J}, ( C → B → A → I → J)Group 1_1 = {A, B, C, I, J}, (C? B? A? I? J)

그룹 1_2 = {D, E, H}, (D → E → H)Group 1_2 = {D, E, H}, (D? E? H)

본 실시예에서 두 개의 그룹들 중 그룹 1_1은 현재 블록을 기준으로 바로 위쪽, 왼쪽 위쪽, 그리고 오른쪽 위쪽에 있는 블록들을 포함하고, 그룹 1_2는 현재 블록을 기준으로 바로 인접한 왼쪽, 바로 인접하지 않은 왼쪽, 그리고 왼쪽 아래에 있는 블록들을 포함한다.In this embodiment, the group 1_1 of the two groups includes the blocks immediately above, the upper left, and the upper right with respect to the current block, and the group 1_2 includes blocks immediately adjacent to the current block, , And the lower left blocks.

다른 실시예로서, 세 개의 그룹들로 구분하여 움직임 벡터의 후보 블록을 공간적으로 탐색할 수 있다. 세 개의 그룹은 다음과 같이 분류 가능하다.In another embodiment, candidate blocks of motion vectors can be spatially searched by dividing the motion vectors into three groups. The three groups can be categorized as follows.

그룹 1_1 = {A, B, C}, (C → B → A)Group 1_1 = {A, B, C}, (C? B? A)

그룹 1_2 = {D, E}, (D → E)Group 1_2 = {D, E}, (D? E)

그룹 1_3 = {H, I, J}, (J → I →H)Group 1_3 = {H, I, J}, (J? I? H)

본 실시예에서 세 개의 그룹들 중 그룹 1_1은 현재 블록을 기준으로 바로 인접한 위쪽, 인접한 왼쪽 위쪽, 그리고 인접한 오른쪽 위쪽에 있는 블록들을 포함하고, 그룹 1_2는 현재 블록을 기준으로 바로 인접한 왼쪽과 바로 인접한 왼쪽 아래에 있는 블록들을 포함하며, 그룹 1_3은 현재 블록과 하나 이상의 블록 간격을 둔 인접하지 않은 블록들을 포함한다.In the present embodiment, the group 1_1 includes blocks immediately adjacent to the current block, adjacent upper left, and upper right adjacent to the current block. Group 1_2 includes blocks immediately adjacent to the immediately adjacent block on the basis of the current block And the group 1_3 includes the current block and non-contiguous blocks having one or more block intervals.

또 다른 실시예로서, 또 다른 방식으로 세 개의 그룹들로 구분하여 움직임 벡터의 후보 블록을 공간적으로 탐색할 수 있다. 세 개의 그룹은 다음과 같이 분류 가능하다.In another embodiment, the candidate blocks of the motion vector can be spatially searched by dividing the motion vectors into three groups in another manner. The three groups can be categorized as follows.

그룹 1_1 = {B}Group 1_1 = {B}

그룹 1_2 = {D}Group 1_2 = {D}

그룹 1_3 = {A, C, E}, (E → C → A)Group 1_3 = {A, C, E}, (E? C? A)

본 실시예에서 세 개의 그룹들 중 그룹 1_1은 현재 블록을 기준으로 수직 방향에 위치하는 블록을 포함하고, 그룹 1_2는 현재 블록을 기준으로 수평 방향에 위치하는 인접한 블록을 포함하고, 그룹 1_3은 현재 블록을 기준으로 나머지 인접한 블록들을 포함한다.In this embodiment, the group 1_1 includes blocks located in the vertical direction with respect to the current block, the group 1_2 includes adjacent blocks positioned in the horizontal direction with respect to the current block, And includes the remaining adjacent blocks with respect to the block.

위에서 살핀 바와 같이, P 픽쳐나 B 픽쳐에서는 참조 방향이나 참조 픽쳐 등의 참고 가능한 정보가 많기 때문에 그에 따라 후보군을 설정할 수 있다. 현재 블록을 기준으로 현재 블록과 참조 픽쳐가 다른 후보 블록에 대해서는 후보군에 포함할 수도 있고, 그 반대로 현재 블록의 참조 픽쳐와 후보 블록의 참조 픽쳐와의 시간적 거리(picture of count, POC)를 고려하여 해당 블록의 벡터를 스케일링한 후후보군에 추가할 수도 있다. 또한, 현재 블록의 참조 픽쳐가 어떤 픽쳐인지에 따라 스케일링한 후보군을 추가할 수도 있다. 또한, 현재 블록의 참조 픽쳐와 후보 블록의 참조 픽쳐와의 시간적인 거리가 일정 거리를 넘을 때는 후보군에서 제외하고 그 이하일 때는 스케일링한 블록을 후보군에 포함할 수도 있다.As discussed above, since there are many referenceable information such as a reference direction and a reference picture in the P picture or the B picture, the candidate group can be set accordingly. A candidate block having a current block different from that of a current block may be included in a candidate block having a different reference block from the current block or a picture of count (POC) between a reference block of a current block and a reference block of a candidate block The vector of the corresponding block may be scaled and added to the candidate group. It is also possible to add a scaled candidate group according to which picture the reference picture of the current block is. When the temporal distance between the reference picture of the current block and the reference picture of the candidate block exceeds a predetermined distance, the candidate group is excluded. If the temporal distance is less than the predetermined distance, the scaled block may be included in the candidate group.

전술한 유사성 체크(similarity check)란, 이미 예측 후보군에 포함된 움직임 벡터와 새롭게 추가하고자 하는 움직임 벡터가 얼마나 유사한지를 비교하고 결정하는 과정이다. 정의에 따라서, x, y 성분이 완벽하게 일치할 때, 참(true)이 되도록 설정되거나, 일정 문턱치(theshold value) 범위 이하의 차이를 가질 때 참(true)이 되도록 설정될 수 있다.The similarity check described above is a process of comparing and determining how similar a motion vector already included in a prediction candidate group is and a motion vector to be newly added. Depending on the definition, it can be set to be true when the x and y components are perfectly matched, or to be true when there is a difference below the theshold value range.

도 20은 본 발명의 일실시예에 따른 영상 부호화 방법에서 현재 블록의 참조 픽쳐와 후보 블록의 참조 픽쳐와의 시간적인 거리가 일정 거리 이상일 때는 후보군에서 제외하고 그 거리 미만일 때는 거리에 따라 스케일링한 후 후보군에 포함하는 경우를 설명하기 위한 예시도이다. 도 21은 본 발명의 일실시예에 따른 영상 부호화 방법에서 현재 블록이 참조하는 픽쳐가 현재 픽쳐와 다른 픽쳐일 때 현재 픽쳐를 예측 후보군에 추가하는 경우를 설명하기 위한 예시도이다. 그리고 도 22는 본 발명의 일실시예에 따른 영상 부호화 방법에서 현재 블록이 참조하는 픽쳐가 현재 픽쳐일 때 현재 픽쳐를 예측 후보군에 추가하는 경우를 설명하기 위한 예시도이다.FIG. 20 is a block diagram illustrating a method of encoding an image according to an exemplary embodiment of the present invention. Referring to FIG. 20, when a temporal distance between a reference picture of a current block and a reference picture of a candidate block is greater than a predetermined distance, Candidate group, as shown in Fig. FIG. 21 is an exemplary view for explaining a case where a current picture is added to a prediction candidate group when a picture referred to by a current block is a picture different from the current picture in the image coding method according to an embodiment of the present invention. FIG. 22 is a diagram illustrating an example of adding a current picture to a prediction candidate group when a picture referred to by a current block is a current picture in the image coding method according to an embodiment of the present invention.

본 실시예에 따른 영상 부호화 방법은, 기준 시간(t)의 현재(current) 픽쳐에 대해 시간적으로 일정 시간(t-1, t-2, t-3, t-4, t-5)앞서 부호화된 참조 픽쳐들(rf1, rf2, rf3, rf4, rf5)과 현재 픽쳐의 현재 블록에 앞서 부호화된 현재 픽쳐 내 후보 블록들로부터 현재 블록의 움직임 정보 예측 후보를 선택할 수 있다.The image encoding method according to the present embodiment is characterized in that encoding is performed prior to a predetermined time (t-1, t-2, t-3, t-4, t-5) temporally with respect to a current picture of a reference time The motion information prediction candidate of the current block can be selected from the reference pictures rf1, rf2, rf3, rf4, rf5 and the current intra-picture candidate blocks encoded prior to the current block of the current picture.

도 20을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 현재 픽쳐(current(t))에 대해 시간적으로 앞서 부호화되는 참조 픽쳐들(rf1, rf2, rf3, rf4, rf5)로부터 현재 블록의 움직임 정보 예측 후보를 선택할 수 있다.Referring to FIG. 20, a method of encoding an image according to an embodiment of the present invention includes moving pictures of a current block from reference pictures rf1, rf2, rf3, rf4, and rf5 temporally encoded with respect to a current picture current (t) Information prediction candidates can be selected.

일례로, 현재 블록(B_t)이 제2 참조픽쳐(rf1)를 참조하여 부호화하는 경우, 제2 참조픽쳐(rf1)를 기준으로 시간적인 거리에서 3 이상의 차이가 있는 픽쳐를 참조하고 있는 왼쪽 위쪽 블록(A)의 경우, 스케일링이 허용되지 않아 해당 움직인 벡터(mvA_x', mvA_y')를 후보군에 포함하지 않지만, 그 외의 블록들은 t-2를 중심으로 3 미만의 시간적인 거리의 차이를 두고 있기 때문에 스케일링을 통해 후보군에 포함된다. 후보군에 포함되는 움직임 벡터의 집합(MVS)는 다음과 같다.For example, in the case where the current block B_t is coded with reference to the second reference picture rf1, the left upper block referring to a picture having a difference of 3 or more from the temporal distance with reference to the second reference picture rf1, (A), scaling is not allowed and the corresponding moving vector (mvA_x ', mvA_y') is not included in the candidate group. However, the other blocks have a time difference of less than 3 centered on t-2 So it is included in the candidate group through scaling. The set of motion vectors (MVS) included in the candidate group is as follows.

MVS = {(mvB_x', mvB_y'), (mvC_x',mvC_y'), (mvD_x', mvD_y'), (mvE_x', mvE_y')}MVV = mvB_x ', mvB_y', mvC_x ', mvC_y', mvD_x ', mvD_y', mvE_x ', mvE_y'

즉, 움직임 벡터를 후보군에 포함할 것이지 포함하지 않을 것인지에 대한 기준은 현재 블록이 참조하고 있는 픽쳐가 기준이 될 수도 있고 현재 픽쳐가 중심이 될 수도 있다. 이와 같이, 픽쳐 간의 거리를 통해 후보군에 움직임 벡터의 추가 여부를 결정할 수 있으며, 이에 대한 정보 예컨대 문턱치(threshold) 또는 어떤 픽쳐를 기준으로 하는지 등에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등을 통해 전송될 수 있다. 도 20에서 실선은 각 블록의 움직임 벡터를 의미하고, 점선은 현재 블록이 참조하는 픽쳐에 맞게 스케일링한 것을 의미한다. 이를 수식으로 나타내면 아래의 수학식 1과 같다.In other words, the reference whether the motion vector is included in the candidate group or not includes the reference picture of the current block or the current picture. In this way, it is possible to determine whether to add a motion vector to a candidate group through a distance between pictures, and information on the information, such as a threshold or a certain picture, can be transmitted through a sequence, a picture, a slice, have. In FIG. 20, a solid line indicates a motion vector of each block, and a dotted line indicates a scaling corresponding to a picture referred to by the current block. This can be expressed by the following equation (1).

[수학식 1][Equation 1]

scaled factor = (POCcurr - POCcurr_ref) / (POCcan - POCcan_ref)scaled factor = (POCcurr - POCcurr_ref) / (POCcan - POCcan_ref)

수학식 1에서 POCcurr은 현재 픽쳐의 POC, POCcurr_ref는 현재 블록이 참조하는 픽쳐의 POC, POCcan은 후보 블록의 POC, POCcan_ref는 후보 블록이 참조하는 픽쳐의 POC를 의미한다. 여기서, 후보 블록의 POC는 공간적으로 이웃하는 후보블록이면 현재와 같은 POC, 시간적으로 프레임 내 동일한 위치에 대응되는 블록(co-located block)이면 현재와 다른 POC를 나타낼 수 있다.In Equation (1), POCcurr indicates the POC of the current picture, POCcurr_ref indicates the POC of the picture referred to by the current block, POCcan indicates the POC of the candidate block, and POCcan_ref indicates the POC of the picture referred to by the candidate block. Here, the POC of the candidate block may indicate a POC that is the same as the current candidate if it is a spatially neighboring candidate block, and a POC that is different from the current POC when the candidate block is a co-located block temporally coincident with the same position in the frame.

예를 들면, 도 21에 나타내 바와 같이, 현재 블록(B_t)과 참조하는 픽쳐가 다른 경우에 스케일링을 하게 되면, 해당 움직임 벡터를 스케일링한 움직임 벡터들 예컨대, {(mvA_x', mvA_y'), (mvC_x', mvC_y'), (mvD_x', mvD_y'), (mvE_x', mvE_y')}를 후보군에 포함할 수도 있다. 이것은 HEVC처럼 참조 픽쳐 인덱스가 다르더라도 후보군에 포함하는 일반적인 경우와 달리 참조 픽쳐가 무엇인가에 따라 제약을 둘 수 있음을 나타낸다.For example, as shown in FIG. 21, when scaling is performed when the current block B_t and the reference picture are different, the motion vectors scaled by the motion vector, for example, {(mvA_x ', mvA_y' (mvC_x ', mvC_y'), (mvD_x ', mvD_y'), (mvE_x ', mvE_y')} may be included in the candidate group. This indicates that even if the reference picture index is different, such as the HEVC, the constraint can be made depending on what the reference picture is, unlike the general case of the candidate group.

또한, 도 21에 나타내 바와 같이, 현재 블록(B_t)이 참조하는 픽쳐가 현재 픽쳐(t)와 다른 픽쳐(t-1, t-2, t-3)일 경우, 즉 일반적인 화면 간 예측(Inter)의 경우, 후보군의 픽쳐가 현재 픽쳐(t)를 가리킬 때는 후보군에 제외하고, 현재 픽쳐가 현재 블록(B_t)처럼 현재 픽쳐와 다른 픽쳐일 경우에만 해당 움직임 벡터{(mvA_x, mvA_y), (mvC_x, mvC_y), (mvD_x, mvD_y), (mvE_x, mvE_y)}를 후보군에 포함시킬 수 있다.21, when the picture referred to by the current block B_t is a picture t-1, t-2, or t-3 different from the current picture t, that is, (MvA_x, mvA_y), (mvC_x), and (mvC_x) only when the current picture is a picture different from the current picture as the current block B_t except for the candidate group when the picture of the candidate group indicates the current picture t , mvC_y), (mvD_x, mvD_y), (mvE_x, mvE_y)} can be included in the candidate group.

또한, 도 22에 나타내 바와 같이, 현재 블록(B_t)이 참조하는 픽쳐가 현재 픽쳐(t)일 때만 현재 픽쳐(t) 내 움직임 벡터들{(mvB_x,vB_y), (mvC_x, mvC_y)}이 후보군에 추가될 수 있다. 다른 표현으로는, 같은 참조 픽쳐를 가리킬 때 즉, 참조 픽쳐 인덱스 비교를 통해 동일한 픽쳐를 가리킬 때 해당 움직임 벡터를 후보군에 추가할 수 있다. 그 이유는 현재 픽쳐(t)에서 블록 매칭을 수행하기 때문에 다른 픽쳐를 참조하는 기존의 화면 간 예측(inter)에서의 움직임 정보는 필요가 없기 때문이다. 또한, 현재 픽쳐(t)에서 블록 매칭을 수행하는 경우를 제외하더라도, H.264/AVC에서와 같이 참조 픽쳐 인덱스가 다른 경우는 후보군에서 제외하는 방식으로 구현될 수 있다.22, the motion vectors {(mvB_x, vB_y), (mvC_x, mvC_y)} in the current picture t can be obtained only when the picture referred to by the current block B_t is the current picture t, Lt; / RTI &gt; In other words, when pointing to the same reference picture, that is, when referring to the same picture through comparison of the reference picture indexes, the corresponding motion vector can be added to the candidate group. The reason is that since the block matching is performed in the current picture t, the motion information in the existing intra-picture prediction inter referring to another picture is not necessary. In addition, even when block matching is performed in the current picture t, when the reference picture index is different as in H.264 / AVC, it can be implemented by excluding it from the candidate group.

본 실시예에서는 참조 픽쳐가 현재 픽쳐를 가리킨다는 조건을 예로 들고 있지만 참조 픽쳐가 현재 픽쳐 아닌 경우에로 확장될 수 있다. 예를 들어, '현재 블록이 가리키고 있는 픽쳐보다 더 먼 픽쳐를 사용하는 블록은 제외한다'와 같은 설정을 사용할 수 있다. 도 16에 보면, 일부 블록(A, B, E)는 시간적 거리 t-2보다 더 멀리 있기 때문에 후보군에 제외될 수 있다.In this embodiment, although the condition that the reference picture indicates the current picture is taken as an example, the reference picture can be expanded to the case where the current picture is not the current picture. For example, you can use a setting such as 'Exclude blocks that use pictures that are farther than the current block'. 16, some blocks A, B, and E are excluded from the candidate group because they are farther than the temporal distance t-2.

본 실시예에서는 현재 블록과 참조픽쳐가 다르더라도 스케일링을 통해 후보군에 넣을 수 있다. 움직임 벡터의 후보 개수(n)을 2로 가정한다. 아래의 그룹 1_1과 그룹 1_2는 현재 블록의 참조 픽쳐가 현재 픽쳐가 아닌 경우이다.In the present embodiment, even if the current block and the reference picture are different, they can be included in the candidate group through scaling. Assume that the number of candidates (n) of motion vectors is 2. In the following groups 1_1 and 2_2, the reference picture of the current block is not the current picture.

그룹 1_1은 현재 블록을 기준으로 근접하거나 근접하지 않지만 위쪽에 있는 블록들(A, B, C, I, J)을 포함하고, 이 블록들의 가용성 체크를 위한 우선순위는 아래에 기재한 바와 같다.Group 1_1 includes blocks (A, B, C, I, J) which are not adjacent to or proximate to the current block, and the priorities for the availability check of these blocks are as described below.

우선순위: C → B → A → I → J → C_s → B_s → A_s → I_s → J_sPriority: C → B → A → I → J → C_s → B_s → A_s → I_s → J_s

그룹 1_2는 현재 블록을 기준으로 근접하거나 근접하지 않는 왼쪽과 왼쪽 아래의 블록들(D, E, H)을 포함하고, 이 블록들의 가용성 체크를 위한 우선순위는 아래와 같다.Group 1_2 includes left and lower blocks (D, E, H) that are not adjacent to or proximate to the current block, and the priorities for the availability check of these blocks are as follows.

우선순위: D → E → H → D_s → E_s → H_sPriority: D → E → H → D_s → E_s → H_s

위의 우선순위에서 블록 기호에 첨자(s)를 붙여 나타낸 블록은 스케일링을 수행한 블록을 지칭한다.In the above priority, a block indicated by attaching subscript (s) to a block symbol refers to a block subjected to scaling.

한편, 본 실시예의 변형예에서는, 그룹 1_1의 일부 블록들(A, B, C, I, J)이나 그룹 1_2의 일부 블록들(D, E, H)에 대하여 정해진 우선순위대로 먼저 가용성을 확인한 다음, Inter로 부호화되었지만 현재 블록의 참조 픽쳐와 달라서 후보군에 이용할 수 없음(not available)으로 판단된다면, 현재 픽쳐(t)와 후보 블록의 참조 픽쳐의 거리에 맞춰 스케일링을 수행한 후 스케일링한 블록들(C_s, B_s, A_s, I_s, J_s, D_s, E_s, H_s)에 대하여 미리 정해진 우선순위에 따라 추가적으로 가용성을 확인할 수 있다. 전술한 가용성 체크에 의하면, 영상 부호화 장치는 각각의 그룹에서 1개의 후보씩 총 2개의 후보를 결정할 수 있고, 후보군 중 최적의 후보 블록의 움직임 벡터를 현재 블록의 움직임 벡터 예측값으로 사용할 수 있다.On the other hand, in the modified example of this embodiment, the availability is checked first in a predetermined order with respect to some of the blocks A, B, C, I, J of the group 1_1 and some blocks D, E, H of the group 1_2 Next, if it is judged that it is not available to the candidate group because it is coded as Inter but is different from the reference picture of the current block, the scaling is performed according to the distance between the current picture t and the reference picture of the candidate block, It is possible to additionally check availability in accordance with a predetermined priority order with respect to (C_s, B_s, A_s, I_s, J_s, D_s, E_s, H_s). According to the availability check described above, the video encoding apparatus can determine two candidates in total by one candidate in each group, and use the motion vector of the best candidate block among the candidate groups as the motion vector prediction value of the current block.

한편, 하나의 그룹 예컨대 그룹 1_1에서 하나의 후보 블록도 얻지 못한 경우, 다른 그룹 1_2에서 2개의 후보 블록을 찾는 것도 가능하다. 즉, 공간적으로 인접한 블록으로부터 2개의 후보가 채워지지 않았다면 시간적 후보군에서 후보 블록을 찾을 수 있다.On the other hand, when one candidate block is not obtained in one group, for example, group 1_1, it is also possible to find two candidate blocks in another group 1_2. That is, if two candidates from a spatially adjacent block are not filled, a candidate block can be found in the temporal candidate group.

일례로, 현재 블록의 참조 픽쳐가 현재 픽쳐일 경우, 시간적으로 인접한 참조 픽쳐 내 동일한 위치에 위치하는 블록(co-located block)과 이 블록을 스케일링한 블록들 이용할 수 있다. 이러한 블록들(G, F, G_s, F_s)은 다음과 같은 우선순위 (G → F → G_s → F_s)를 가질 수 있다.For example, when the reference picture of the current block is the current picture, a co-located block located at the same position in temporally adjacent reference pictures and blocks scaled by the block may be used. These blocks G, F, G_s and F_s may have the following priority (G? F? G_s? F_s).

공간적으로 인접한 후보 블록들의 처리 과정과 같이, 우선순위에 맞춰 가용성을 확인한다. 후보 블록의 픽쳐와 후보 블록의 참조 픽쳐의 거리가 현재 픽쳐와 현재 블록의 참조 픽쳐와의 거리가 다른 경우, 스케일링 과정을 거친 후보 블록에 대해서도 가용성을 확인할 수 있다. 현재 블록의 참조 픽쳐가 현재 픽쳐를 가리킬 경우엔 수행하지 않을 수 있다.As with the processing of spatially contiguous candidate blocks, availability is checked to match the priority. When the distance between the reference picture of the candidate block and the reference picture of the candidate block is different from the distance between the current picture and the reference picture of the current block, the availability can be confirmed for the candidate block subjected to the scaling process. It may not be performed if the reference picture of the current block indicates the current picture.

혼합 리스트Mixed list

현재 블록의 양방향 예측을 수행하여 참조 픽쳐 리스트(L0, L1)에 존재하는 참조 픽쳐에 각각의 움직임 정보가 있다고 할 경우. 미리 설정된 후보군의 우선순위에 따라 가용성(availability)을 확인한다. 이 경우 우선순위는 양방향 예측으로 부호화된 것을 먼저 확인한다.It is assumed that bidirectional prediction of the current block is performed and each motion information is present in a reference picture existing in the reference picture list (L0, L1). And checks the availability according to the priority order of the preset candidates. In this case, the priority is first confirmed as being encoded in bidirectional prediction.

만약 각각의 참조 픽쳐가 다를 경우, 스케일링을 수행한다. 앞서 공간적, 시간적으로 탐색하였을 때, 양방향 예측된 블록들만 후보군에 넣었을 때, 그리고 최대 후보수를 넘지 않았을 때에는 앞서 수행한 후보 블록 중 단방향 예측으로 부호화된 블록들을 예비 후보군에 넣은 후에 이들 후보들의 조합으로 양방향 예측을 위한 후보를 만들 수 있다.If each reference picture is different, scaling is performed. In the case where only the bidirectional predicted blocks are included in the candidate group and the maximum number of candidate blocks is not exceeded, the blocks coded by unidirectional prediction among the candidate blocks previously performed are put into the preliminary candidate groups, You can create a candidate for bidirectional prediction.

Figure 112016054524461-pat00004
Figure 112016054524461-pat00004

우선 현재 블록의 양방향 예측의 움직임 정보는, L0에서 1번, L1에서 0번의 참조 픽쳐에서 참조된다고 가정하자. 표 5(a)의 경우 첫 번째로 후보에 들어간 블록의 움직임 정보는 (mvA1, ref1)와 (mvA2, ref0), 그리고 두 번째로 후보에 들어간 블록의 움직임 정보는 (mvB1’, ref1)와 (mvB2’, ref0)라고 하자. 여기에서 아포스트로피(’)의 의미는 스케일링된 벡터이다. 공간적, 시간적 탐색까지 마친 후의 후보수가 2개라고 할 경우, 다만 n은 5라고 가정하면, 앞선 단계에서 단방향 예측된 블록들을 미리 설정된 우선순위에 따라 예비 후보로 넣을 수 있다.First, it is assumed that the motion information of the bidirectional prediction of the current block is referred to in the reference picture at L0 and at the reference picture at L1. In the case of Table 5 (a), the motion information of the first candidate block is (mvA 1 , ref1), (mvA 2 , ref0), and the motion information of the second candidate block is mvB 1 ', ref1 ) And (mvB 2 ', ref0). Where the apostrophe (') is the scaled vector. Assuming that the number of candidates after the spatial and temporal search is two, if n is 5, the unidirectionally predicted blocks can be put into the preliminary candidates according to the preset priority in the preceding step.

표 3(a)에서는 아직까지 최대 후보수만큼 채우지 못했기 때문에 나머지 움직임 벡터들 mvC, mvD, mvE를 이용한 스케일링된 단방향의 후보들을 조합하여 새로운 후보를 추가할 수 있다.In Table 3 (a), since the maximum number of candidates has not been filled yet, new candidates can be added by combining scaled unidirectional candidates using the remaining motion vectors mvC, mvD, and mvE.

표 3(b)에서 각각 단방향 예측된 블록의 움직임 정보가 현재 블록의 참조 픽쳐에 따라 스케일링 된다. 여기에서 단방향의 후보들로 새로운 조합을 만드는 예를 선보였으나, 이미 추가된 양방향의 참조 픽쳐들(L0, L1) 각각의 움직임 정보들로 새로운 후보의 조합이 가능할 수 있다. 이 부분은 단방향의 예측 등의 상황에서는 수행하지 않는다. 또한, 현재 블록의 참조 픽쳐가 현재 픽쳐일 경우에도 수행하지 않는다.In Table 3 (b), the motion information of the unidirectionally predicted block is scaled according to the reference picture of the current block. Here, an example of creating a new combination with unidirectional candidates is presented, but it is possible to combine new candidates with motion information of each of the bidirectional reference pictures L0 and L1 already added. This part is not performed in situations such as unidirectional prediction. It is also not performed when the reference picture of the current block is the current picture.

고정(constant) 후보 Constant candidate

만약 위의 과정을 통해 최대 후보수 n개(본 실시예에서는 2로 가정함)의 후보 블록을 구성하지 못하는 경우, 미리 설정된 고정 좌표를 갖는 고정(constant) 후보를 추가할 수 있다. (0,0), (-a,0), (-2*a,0), (0,-b)와 같은 고정 좌표를 갖는 고정 후보를 사용할 수 있으며, 최대 후보수에 맞춰 고정 후보의 개수를 설정할 수 있다.If a candidate block of n maximum candidates (assumed to be 2 in this embodiment) can not be constructed through the above process, a constant candidate having a preset fixed coordinate may be added. (0, 0), (-a, 0), (-2 * a, 0), (0, -b), and the number of fixed candidates Can be set.

위와 같은 고정 좌표를 설정할 수도 있고, 위의 과정을 통해 현재까지 후보군에 포함된 최소 2개 이상의 움직임 벡터의 평균, 가중치 평균, 중간값 등의 과정을 통해 고정 후보로 추가할 수 있다. 만약 n이 5이고 현재까지 3개가 후보{(mvA_x,mvA_y), (mvB_x, mvB_y), (mvC_x, mvC_y)}로 등록되어 있다면, 남은 2개의 후보를 채우기 위해 미리 정해진 우선순위를 가진 고정 후보들을 포함하는 후보군을 두고 그에 따른 우선순위에 따라 고정 후보를 추가할 수 있다. 고정 후보군은 예를 들면 {(mvA_x + mvB_x)/2, (mvA_y + mvB_y)/2), ((mvA_x + mvB_x + mvC_x)/3, (mvA_y + mvB_y + mvC_y)/3), (median(mvA_x, mvB_x, mvC_x), median(mvA_y, mvB_y, mvC_y)) 등과 같은 고정 후보들을 포함할 수 있다.The above fixed coordinates can be set. Through the above process, it is possible to add as a fixed candidate through processes such as average, weighted average, and median value of at least two motion vectors included in the candidate group. If n is 5 and thus far three are registered as candidates {(mvA_x, mvA_y), (mvB_x, mvB_y), (mvC_x, mvC_y)}, the fixed candidates having a predetermined priority to fill the remaining two candidates You can add a fixed candidate based on the priority of the candidate to be included. (MvA_x + mvB_x) / 2, (mvA_y + mvB_y) / 2), ((mvA_x + mvB_x + mvC_x) / 3, (mvA_y + mvB_y + mvC_y) / 3) , mvB_x, mvC_x), median (mvA_y, mvB_y, mvC_y)), and the like.

또한, 현재 블록의 참조 픽쳐에 따라 고정 후보를 다르게 설정할 수 있다. 예를 들어, 현재 픽쳐가 참조 픽쳐일 때는 (-a,0), (0,-b), (-2*a,0)과 같이 고정 후보를 설정할 수도 있고, 현재 픽쳐가 참조 픽쳐가 아닐 때는 (0,0), (-a,0), (average(mvA_x, …), average(mvA_y, …))과 같이 설정할 수도 있다. 이에 따른 정보는 부호화기나 복호화기에 미리 설정할 수 있고, 또는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송 가능하다.In addition, the fixed candidate can be set differently according to the reference picture of the current block. For example, when the current picture is a reference picture, fixed candidates may be set as (-a, 0), (0, -b), (-2 * a, 0), and when the current picture is not a reference picture (0,0), (-a, 0), (average (mvA_x, ...), average (mvA_y, ...)). The information can be preset in an encoder or a decoder, or can be transmitted in units of a sequence, picture, slice, or the like.

이하에서는 고정 후보를 적용한 실시예들을 예를 들어 설명하기로 한다. 아래의 실시예들에서 n을 3이라고 가정한다.Hereinafter, embodiments using fixed candidates will be described by way of example. In the following embodiments, n is assumed to be 3.

<실시예 1 : n=3>&Lt; Example 1: n = 3 >

현재 블록의 참조 픽쳐는 현재 픽쳐일 때이고, 현재 블록(B_t)의 참조 픽쳐가 두 참조 픽쳐(rf1, rf0)라고 가정한다. 참조 픽쳐와 기타 픽쳐를 나타내는 rf0, rf1, rf2, rf3, rf4, rf5 등에서 숫자 0, 1, 2, 3, 4, 5는 본 실시예에서만 적용되는 예일 뿐 어떤 의미를 특정하지는 않는다.It is assumed that the reference picture of the current block is the current picture and the reference picture of the current block B_t is the two reference pictures rf1 and rf0. The numbers 0, 1, 2, 3, 4, and 5 in rf0, rf1, rf2, rf3, rf4, and rf5 representing the reference picture and the other picture are examples that are applied only to the present embodiment and do not specify any meaning.

(공간적 탐색: E → D → A → B → C → E_s → D_s → A_s → B_s → C_s)(Spatial search: E → D → A → B → C → E_s → D_s → A_s → B_s → C_s)

E (Inter, rf0) → D → A → B → C → E_s → D_s → A_s → B_s → C_s : E 제외 (현재 블록의 참조 픽쳐는 현재 픽쳐이기 때문에)E (Inter, rf0) → D → A → B → C → E_s → D_s → A_s → B_s → C_s: E (the reference picture of the current block is the current picture)

E (삭제) → D (Inter, rf2) → A → B → C → E_s → D_s → A_s → B_s → C_s : D 제외E (deletion) → D (Inter, rf2) → A → B → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (Inter, rf1) → B → C → E_s → D_s → A_s → B_s → C_s : A 포함E (delete) → D (delete) → A (Inter, rf1) → B → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (포함) → B (Inter, rf1) → C → E_s → D_s → A_s → B_s → C_s : B 포함 (유사성 체크 후 다르다고 나왔기 때문에)E (delete) → D (delete) → A (contains) → B (Inter, rf1) → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (포함) → B (포함) → C (Intra) → E_s → D_s → A_s → B_s → C_s : C 제외E (Delete) → D (Delete) → A (Include) → B (Include) → C (Intra) → E_s → D_s → A_s → B_s → C_s: Exclude C

E (삭제) → D (삭제) → A (포함) → B (포함) → C (삭제) → E_s → D_s → A_s → B_s → C_s : E_s 제외 (현재 블록의 참조 픽쳐가 현재 픽쳐이기 때문에 스케일링할 필요도 없이 제외)E (excluded) → D (delete) → A (included) → B (included) → C (delete) → E_s → D_s → A_s → B_s → C_s: E_s Not necessary)

E (삭제) → D (삭제) → A (포함) → B (포함) → C (삭제) → E_s (삭제) → D_s → A_s → B_s → C_s : D_s 포함 (유사성 체크 후 다르다고 나왔기 때문에. 그리고 D에서 참조 픽쳐가 달라서 제외되었고 여기에선 스케일링 되었기 때문에 참조 픽쳐인지를 비교할 필요가 없음)E (delete) → D (delete) → A (contains) → B (contains) → C (delete) → E_s (delete) → D_s → A_s → B_s → C_s: D_s There is no need to compare whether the reference picture is different because the reference picture is excluded because it is scaled in this case)

<실시예 2 : n=3> &Lt; Example 2: n = 3 >

현재 블록의 참조 픽쳐는 현재 픽쳐일 때이고, 현재 블록의 참조 픽쳐는 하나의 참조 픽쳐(rf0)인 경우이다.The reference picture of the current block is the current picture and the reference picture of the current block is one reference picture rf0.

(공간적 탐색: E → D → A → B → C → E_s → D_s → A_s → B_s → C_s)(Spatial search: E → D → A → B → C → E_s → D_s → A_s → B_s → C_s)

E (Inter, rf1) → D → A → B → C → E_s → D_s → A_s → B_s → C_s : E 제외E (Inter, rf1) → D → A → B → C → E_s → D_s → A_s → B_s → C_s: Excluding E

E (삭제) → D (Intra) → A → B → C → E_s → D_s → A_s → B_s → C_s : D 제외E (deletion) → D (Intra) → A → B → C → E_s → D_s → A_s → B_s → C_s: Excluding D

E (삭제) → D (삭제) → A (Inter, rf0) → B → C → E_s → D_s → A_s → B_s → C_s : A 포함E (delete) → D (delete) → A (Inter, rf0) → B → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (포함) → B (Inter, rf0) → C → E_s → D_s → A_s → B_s → C_s : B 포함 (유사성 체크 결과에 따름)E (delete) → D (delete) → A (contains) → B (Inter, rf0) → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (포함) → B (포함) → C (Intra) → E_s → D_s → A_s → B_s → C_s : C 제외E (Delete) → D (Delete) → A (Include) → B (Include) → C (Intra) → E_s → D_s → A_s → B_s → C_s: Exclude C

E (삭제) → D (삭제) → A (포함) → B (포함) → C (삭제) → E_s → D_s → A_s → B_s → C_s : E_s부터 C_s 제외E (Delete) → D (Delete) → A (Include) → B (Include) → C (Delete) → E_s → D_s → A_s → B_s → C_s: Excluding C_s from E_s

아직 3개를 못 채웠으므로 고정 후보를 적용할 수 있고, 혹은 추가적인 후보군 H, I, J 등을 체크할 수 있다.Since there are not yet three, you can apply a fixed candidate, or you can check additional candidates H, I, J, and so on.

<실시예 3 : n=3>&Lt; Example 3: n = 3 >

현재 블록의 참조 픽쳐는 현재 픽쳐가 아닐 때, 현재 블록의 참조 픽쳐는 하나의 참조 픽쳐(rf1)이고, 그리고 현재 블록의 참조 픽쳐와의 거리가 2 이상인 참조 픽쳐는 후보군에 제외하는 조건을 추가한다. 여기에서 참조 픽쳐(rfx-1)의 (t-x)의 숫자 x를 순수하게 현재 픽쳐(t)부터의 거리라고 하면 (t-2)부터는 스케일링을 지원하지 않을 수 있다.When the reference picture of the current block is not the current picture, the reference picture of the current block is one reference picture rf1, and the reference picture whose distance from the reference picture of the current block is 2 or more is added to the candidate group . Assuming that the number x of (t-x) of the reference picture rfx-1 is a distance from the current picture t, scaling may not be supported from (t-2).

(공간적 탐색: E → D → A → B → C → E_s → D_s → A_s → B_s → C_s)(Spatial search: E → D → A → B → C → E_s → D_s → A_s → B_s → C_s)

E (Intra) → D → A → B → C → E_s → D_s → A_s → B_s → C_s : E 제외 E (Intra) → D → A → B → C → E_s → D_s → A_s → B_s → C_s: Excluding E

E (삭제) → D (Inter, rf2) → A → B → C → E_s → D_s → A_s → B_s → C_s : D 제외E (deletion) → D (Inter, rf2) → A → B → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (Inter, rf1) → B → C → E_s → D_s → A_s → B_s → C_s : A 포함 E (delete) → D (delete) → A (Inter, rf1) → B → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (포함) → B (Inter, rf3) → C → E_s → D_s → A_s → B_s → C_s : B 제외E (delete) → D (delete) → A (included) → B (Inter, rf3) → C → E_s → D_s → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (포함) → B (삭제) → C (Inter, rf2) → E_s → D_s → A_s → B_s → C_s : C 제외 E (delete) → D (delete) → A (include) → B (delete) → C (Inter, rf2) → E_s → D_s → A_s → B_s → C_s: C excluded

E (삭제) → D (삭제) → A (포함) → B (삭제) → C (삭제) → E_s (Intra) → D_s → A_s → B_s → C_s : E_s 제외E (delete) → D (delete) → A (include) → B (delete) → C (delete) → E_s (Intra) → D_s → A_s → B_s → C_s: E_s excluded

E (삭제) → D (삭제) → A (포함) → B (삭제) → C (삭제) → E_s (삭제) → D_s → A_s → B_s → C_s : D_s 포함 (유사성 체크, 스케일링한 움직임 벡터를 사용)E (Delete) → D (Delete) → A (Included) → B (Delete) → C (Delete) → E_s (Delete) → D_s → A_s → B_s → C_s: D_s including similarity check and scaled motion vectors )

E (삭제) → D (삭제) → A (포함) → B (삭제) → C (삭제) → E_s (삭제) → D_s (포함) → A_s → B_s → C_s : A_s 제외 (이미 A가 포함)E (delete) → D (delete) → A (include) → B (delete) → C (delete) → E_s (delete) → D_s (included) → A_s → B_s → C_s:

E (삭제) → D (삭제) → A (포함) → B (삭제) → C (삭제) → E_s (삭제) → D_s (포함) → A_s (삭제) → B_s → C_s : B_s 제외 (참조 픽쳐가 2 이상이기 때문에)E (Delete) → D (Delete) → A (Include) → B (Delete) → C (Delete) → E_s (Delete) → D_s (Included) → A_s (Delete) → B_s → C_s: 2 or more)

E (삭제) → D (삭제) → A (포함) → B (삭제) → C (삭제) → E_s (삭제) → D_s (포함) → A_s (삭제) → B_s (삭제) → C_s : C_s 포함 (유사성 체크, 스케일링한 움직임 벡터 사용)E (delete) → D (delete) → A (include) → B (delete) → C (delete) → E_s (delete) → D_s (included) → A_s (delete) → B_s (delete) → C_s : C_s Check similarity, use scaled motion vector)

<실시예 4 : n=3>&Lt; Example 4: n = 3 >

현재 블록의 참조 픽쳐는 현재 픽쳐가 아닐 때, 현재 픽쳐는 특정 참조 픽쳐(rf1)임을 가정한다.When the reference picture of the current block is not the current picture, it is assumed that the current picture is the specific reference picture rf1.

(공간적 탐색 : 공간적 탐색 과정을 통해 2개의 움직임 벡터 후보가 선택됨)(Spatial search: two motion vector candidates are selected through a spatial search process)

(시간적 탐색 : G → F → G_s → F_s)(Temporal search: G? F? G? S? F_s)

G (Intra) → F → G_s → F_s : G 제외G (Intra) → F → G_s → F_s: Except G

G (삭제) → F (Inter, rf3) → G_s → F_s : F 제외 (여기에서 스케일된 팩터(scaled factor)가 1이 아니라고 가정한다. 즉, 현재 픽쳐와 현재 블록의 참조 픽쳐의 거리가 co-located block의 픽쳐와 해당 블록의 참조 픽쳐의 거리가 다르다.)The scaled factor is not 1. Assume that the distance between the current picture and the reference picture of the current block is co- the distance between the picture of the located block and the reference picture of the corresponding block is different.)

G (삭제) → F (삭제) → G_s → F_s : G_s 제외 (G가 Intra 이기 때문에)G (Delete) → F (Delete) → G_s → F_s: Exclude G_s (because G is Intra)

G (삭제) → F (삭제) → G_s (삭제) → F_s : F_s 포함 (유사성 체크 후 다르다고 나왔기 때문이다. 여기에서 움직임 벡터는 스케일링된 벡터이기 때문에 어느 참조 픽쳐인지를 비교할 필요가 없다)G (deletion) → F (delete) → G_s (delete) → F_s: F_s (because it is different after checking the similarity)

이하에서는 모션 벡터 카피(MVC)에 대해서 좀더 상세히 설명하기로 한다.Hereinafter, the motion vector copy (MVC) will be described in more detail.

P P 픽쳐나Picture I B  B 픽쳐에In picture 대한 설명 Explanation for

본 실시예에서는 시간적인 후보(F, G)도 포함한다고 가정한다. 후보군은 A, B, C, D, E, F, G, H, I, J를 포함한다. 탐색 순서가 정해져 있는 건 아니지만 여기에서는 MVC 후보를 공간적으로 탐색하고, 시간적으로 탐색하고, 혼합 리스트를 구성하여 탐색하고, 고정(constant) 후보를 추가하는 순으로 진행한다고 가정한다.In this embodiment, it is assumed that temporal candidates (F, G) are also included. The candidate group includes A, B, C, D, E, F, G, H, I, Although the search order is not fixed, it is assumed that the MVC candidate is searched spatially, temporally searched, a mixed list is searched, and a constant candidate is added.

즉, 앞에 설명한 부분도 이와 같이 탐색 순서를 임의로 정해놓은 것이지 미리 정해진 순서를 사용한다는 것이 아니다. 우선순위를 정해두고 그에 따른 가용성을 체크한다. n을 5, 우선순위는 괄호안과 같다고 가정한다.In other words, the above-described portion arbitrarily sets the search order like this, and does not mean that a predetermined order is used. Priority is set and availability is checked accordingly. Let n be 5, and the priority is assumed to be the same as in parentheses.

이하의 설명에서는 전술한 모션 벡터 예측(MVP)에서의 차이 부분에 대해서만 설명하기로 한다. MVP 부분은 앞 부분에서 스케일링에 대한 부분만 빼고 아래의 내용을 첨부하여 작성할 수 있다. 공간적인 후보에 대해서는 스케일링 과정은 생략한 채 가용성을 확인할 수 있다. 다만, MVC와 비슷하게 참조 픽쳐의 타입, 현재 픽쳐 또는 현재 블록의 참조 픽쳐와의 거리 등을 후보군에서 제외할 수도 있다.In the following description, only differences in the motion vector prediction (MVP) will be described. The MVP part can be written with the following content, with the exception of the part for scaling in the previous section. Spatial candidates can be checked for availability without omitting the scaling process. However, similar to MVC, the type of the reference picture, the distance between the current picture and the reference picture of the current block, and the like may be excluded from the candidate group.

혼합 리스트가 존재하는 경우, 아래의 표 4와 같이 현재까지 추가된 후보들의 조합으로 양방향 예측을 위한 후보를 만들 수 있다.If there is a mixed list, candidates for bidirectional prediction can be created with a combination of the candidates added up to now as shown in Table 4 below.

Figure 112016054524461-pat00005
Figure 112016054524461-pat00005

표 4(a)에 나타낸 바와 같이, 참조 리스트 LO를 사용하는 후보와 참조 리스트 L1 사용하는 후보를 조합하여 새로운 후보를 움직임 벡터 후보군에 추가할 수 있다. 미리 정해진 움직임 벡터 개수인 5개를 채우지 못하는 경우, 표 4(b)에 나타낸 바와 같이, L0의 다음 후보와 L1을 사용하는 후보를 조합하여 새롭게 후보에 추가할 수 있다.As shown in Table 4 (a), a candidate using the reference list LO and a candidate using the reference list L1 can be combined to add a new candidate to the motion vector candidate group. If it is not possible to fill five motion vectors in a predetermined number, as shown in Table 4 (b), the next candidate of L0 and the candidate using L1 may be combined and added to the candidate.

전술한 움직임 벡터 후보 선택 과정을 예를 들어 설명하면 다음과 같다. 아래의 예에서 n은 3이라고 가정한다.The above-described motion vector candidate selection process will be described as an example. In the example below, n is assumed to be 3.

<실시예 5: n=3>&Lt; Example 5: n = 3 >

현재 블록의 참조 픽쳐는 현재 픽쳐가 아닐 때, 현재 블록의 참조 픽쳐 ref = 1이다. (공간적 탐색 : B → D → C → E → A → J → I → H)When the reference picture of the current block is not the current picture, the reference picture ref = 1 of the current block. (Spatial search: B → D → C → E → A → J → I → H)

B (Inter, rf3) → D → C → E → A → J → I → H : B 포함B (Inter, rf3) → D → C → E → A → J → I → H: B included

B (포함) → D (Inter, rf1) → C → E → A → J → I → H : D 포함 (similarity check)B (inclusive) → D (Inter, rf1) → C → E → A → J → I → H: D (similarity check)

B (포함) → D (포함) → C (Intra) → E → A → J → I → H : C 제외B (included) → D (included) → C (Intra) → E → A → J → I → H: Exclude C

B (포함) → D (포함) → C (삭제) → E (Inter, rf0) → A → J → I → H : E 제외B (included) → D (included) → C (delete) → E (Inter, rf0) → A → J → I → H:

B (포함) → D (포함) → C (삭제) → E (삭제) → A (Inter, rf3) → J → I → H : A 포함 (similarity check) B (inclusion) → D (inclusion) → C (delete) → E (delete) → A (Inter, rf3) → J → I → H: A similarity check

<실시예 6: n=3>&Lt; Example 6: n = 3 >

현재 블록의 참조 픽쳐는 현재 픽쳐일 때를 예를 들면 다음과 같다.The reference picture of the current block is the current picture, for example, as follows.

(공간적 탐색 : B → D → C → E → A → J → I → H)(Spatial search: B → D → C → E → A → J → I → H)

B (Inter, rf1) → D → C → E → A → J → I → H : B 제외B (Inter, rf1) → D → C → E → A → J → I → H: Excluding B

B (삭제) → D (Intra) → C → E → A → J → I → H : D 제외B (delete) → D (Intra) → C → E → A → J → I → H: D excluded

B (삭제) → D (삭제) → C (Inter, rf0) → E → A → J → I → H : C 포함 B (delete) → D (delete) → C (Inter, rf0) → E → A → J → I → H: C included

B (삭제) → D (삭제) → C (포함) → E (Inter, rf0) → A → J → I → H : E 포함 (similarity check)B (delete) → D (delete) → C (included) → E (Inter, rf0) → A → J → I → H:

B (삭제) → D (삭제) → C (포함) → E (포함) → A (Inter, rf2) → J → I → H : A 제외B (delete) → D (delete) → C (included) → E (included) → A (Inter, rf2) → J → I → H: A excluded

B (삭제) → D (삭제) → C (포함) → E (포함) → A (삭제) → J (Inter, rf0) → I → H : J 포함 (similarity check)B (delete) → D (delete) → C (contains) → E (contains) → A (delete) → J (Inter, rf0) → I → H: J similarity check

위와 같이 최적의 움직임 정보의 후보를 찾는 MVP, MVC 등의 모드에 따라 부호화할 수 있다.MVP, MVC, and the like, which find candidates of the optimal motion information as described above.

스킵 모드일 경우에는 MVC를 이용하여 부호화할 수 있다. 즉, 스킵 플래그 처리 후에 최적의 움직임 벡터 후보에 대한 정보를 부호화할 수 있다. 후보가 1개일 경우에는 이 부분을 생략할 수 있다. 움직임 벡터 차분치 등을 따로 부호화하지 않고 현재 블록과 예측 블록과의 차분치인 잔차 성분에 대해 변환 및 양자화 등의 과정을 통해 부호화할 수 있다.In the case of the skip mode, encoding can be performed using MVC. That is, information on the optimal motion vector candidate can be encoded after the skip flag process. If there is one candidate, this part can be omitted. It is possible to encode residual components, which are the difference values between the current block and the prediction block, through a process such as transformation and quantization without encoding the motion vector difference values separately.

스킵이 아니면 우선순위로 MVC를 통해 움직임 정보를 처리할지에 대해 먼저 확인과정을 거친 후 맞으면 최적의 움직임 벡터의 후보군에 대한 정보를 부호화할 수 있다. 만약 MVC를 통해 움직임 정보를 처리할 것이 아니면 MVP를 통해 움직임 정보를 처리할 수 있다. MVP의 경우 최적의 움직임 벡터 후보에 대한 정보를 부호화할 수 있다. 여기에서 후보가 1개인 경우 움직임 정보 처리를 생략할 수 있다. 그리고 현재 블록의 움직임 벡터와의 차분치, 참조 방향, 참조 픽쳐 인덱스 등의 정보를 부호화하고 잔차 성분을 얻은 다음 이에 대해 변환 및 양자화 등의 과정을 통해 부호화할 수 있다.If it is not a skip, it is first checked whether to process motion information through MVC with a priority order, and if it is correct, information about a candidate group of an optimal motion vector can be encoded. If MVP does not handle motion information, MVP can handle motion information. In the case of MVP, information on the optimal motion vector candidates can be encoded. Here, if there is one candidate, motion information processing can be omitted. Then, information such as a difference value with respect to a motion vector of the current block, a reference direction, a reference picture index, and the like can be coded and the residual component can be obtained and then encoded through transformation and quantization.

이후의 엔트로피 및 후처리 필터링 등 코덱에 대한 것은 상술한 설명과의 중복을 피하기 위해 생략한다.The subsequent codec such as entropy and post-processing filtering is omitted in order to avoid redundancy with the above description.

전술한 영상 부호화 방법에 이용되는 움직임 벡터 선택 방법을 요약하면 다음과 같다.A motion vector selection method used in the above-described image coding method is summarized as follows.

도 23은 본 발명의 다른 실시예에 따른 영상 부호화 방법에 대한 순서도이다.23 is a flowchart illustrating a method of encoding an image according to another embodiment of the present invention.

도 23을 참조하면, 본 실시예에 따른 영상 부호화 방법의 움직임 벡터 선택 방법은, 기본적으로 공간적 움직임 벡터 후보를 구성하고(S231), 현재 블록(blk)의 참조 픽쳐가 현재 픽쳐 내 존재하는지를 판단하고(S232), 상기 판단 결과가 예(yes, Y)이면, 현재 픽쳐의 공간적 움직임 벡터 후보를 추가(S233)하도록 이루어진다. 상기의 추가하는 단계(S233)는 추가적인 공간적 움직임 벡터 후보를 현재 픽쳐에서 확인하여 추가하는 것을 가리킨다.Referring to FIG. 23, the motion vector selection method of the image encoding method according to the present embodiment basically constructs a spatial motion vector candidate (S231), determines whether a reference picture of the current block blk exists in the current picture (S232). If the determination result is yes (YES), the spatial motion vector candidate of the current picture is added (S233). The adding step S233 indicates that an additional spatial motion vector candidate is confirmed and added to the current picture.

즉, 본 실시예에서 움직임 벡터를 후보군에 추가하는 방법은, 먼저 공간적으로 인접해 있는 블록의 움직임 벡터를 MVC, MVP 등을 통해 후보군으로 구성하고, 현재 블록의 참조 픽쳐가 현재 픽쳐일 때, 같은 현재 픽쳐에 있는 블록의 움직임 정보를 추가하도록 이루어진다. 도 19의 I, J, H와 같은 블록이 이에 해당될 수 있다. 이 블록들의 정의는 현재 블록과 바로 인접하지는 않지만, 최근에 인터(INTER)로 부호화된 블록들을 일컬을 수 있다. 이러한 블록들은 MVC, MVP 등을 통해 얻은 블록과 공간적 위치가 다른 블록으로부터 후보군을 구성하는 것을 의미하므로, '추가' 또는 '추가적'이라고 표현될 수 있다.That is, in the present embodiment, a method of adding a motion vector to a candidate group includes: first, a motion vector of a spatially adjacent block is composed of a candidate group through MVC, MVP, and the like, and when the reference picture of the current block is a current picture, The motion information of the block in the current picture is added. Blocks such as I, J, H in Fig. 19 may correspond to this. The definitions of these blocks are not immediately adjacent to the current block, but may be referred to as blocks recently coded as INTER. These blocks can be expressed as 'additional' or 'additional' since they mean that the candidate blocks are composed of blocks having different spatial positions from the blocks obtained through MVC and MVP.

만약 현재 블록의 참조 픽쳐가 현재 픽쳐가 아닐 경우에는, 시간적으로 인접한 픽쳐의 블록으로부터 후보군을 설정할 수 있다. 그리고 혼합 리스트를 구성하여 현재까지 추가된 후보들의 조합으로 양방향 예측을 위한 후보를 구성할 수 있다. 아울러, 현재 픽쳐의 참조 픽쳐에 따라 고정(constant) 후보를 포함시킬 수 있다. 또한, 현재 픽쳐가 참조 픽쳐일 경우에는 미리 설정된 고정 좌표를 갖는 고정 후보를 추가하고 현재 픽쳐가 참조 픽쳐가 아닌 경우에는 (0, 0) 등의 고정 후보를 움직임 벡터의 후보군에 포함시킬 수 있다.If the reference picture of the current block is not the current picture, a candidate group can be set from a block of temporally adjacent pictures. Then, a mixed list is constructed, and candidates for bidirectional prediction can be configured by a combination of the candidates added so far. In addition, a constant candidate may be included according to the reference picture of the current picture. If the current picture is a reference picture, a fixed candidate having a predetermined fixed coordinate may be added. If the current picture is not a reference picture, a fixed candidate such as (0, 0) may be included in the candidate group of the motion vector.

한편, 상기 판단 단계(S232)에서의 판단 결과가 아니오(no, N)이면, 시간적 움직임 벡터 후보를 탐색하여 추가할 수 있다(S234).On the other hand, if the determination result in step S232 is NO, the temporal motion vector candidate may be searched for and added (S234).

다음, 움직임 벡터 선택 방법을 구현하는 영상 부호화 장치는, 상기의 단계들(S231, S233, S234) 중 적어도 하나 이상에서 구성된 움직임 벡터 후보들을 포함한 혼합 리스트 후보를 구성할 수 있다(S235).Next, the image encoding apparatus implementing the motion vector selection method can construct a mixed list candidate including the motion vector candidates configured in at least one of the above steps (S231, S233, S234) (S235).

다음, 영상 부호화 장치는, 현재 픽쳐가 참조 픽쳐인지를 확인하고(S236), 현재 픽쳐가 참조 픽쳐이고 혼합 리스트 후보의 개수가 미리 설정된 움직임 벡터의 후보 개수보다 작으면, 미리 설정한 고정 좌표의 고정 후보를 후보군에 추가할 수 있다(S237).Next, the image encoding apparatus confirms whether the current picture is a reference picture (S236). If the current picture is a reference picture and the number of mixed list candidates is smaller than the preset number of motion vectors, The candidate can be added to the candidate group (S237).

한편, 상기 확인 단계(S236)의 확인 결과, 현재 픽쳐가 참조 픽쳐가 아니면, 영상 부호화 장치는 (0, 0)을 고정 후보로 후보군에 추가되도록 구성할 수 있다(S238).If it is determined in step S236 that the current picture is not a reference picture, the image encoding apparatus may add (0, 0) to the candidate group as a fixed candidate (S238).

상술한 움직임 벡터 선택 방법에 의해 참조 화소 구성 과정이 완료되면, 도 9의 참조 화소 필터링(reference sample filtering) 과정을 진행할 수 있으나, 이에 한정되지는 않는다. 일례로, 움직임 벡터 선택 방법에 의해 참조 화소가 구성되고 이를 토대로 모션 예측 과정이 완료되면, 도 15의 보간(interpolation) 단계로 진행할 수 있다.When the reference pixel forming process is completed by the motion vector selecting method, the reference pixel filtering process of FIG. 9 may be performed, but the present invention is not limited thereto. For example, when a reference pixel is constructed by a motion vector selection method and the motion prediction process is completed based on the reference pixel, the process can proceed to the interpolation step of FIG.

전술한 실시예에 있어서, 영상 부호화 장치는, 부호화된 영상을 복호화하기 위해 위에서 설명한 '움직임 정보를 유도하기 위한 주변 블록들의 리스트 구성 방법' 즉, '움직임 벡터 후보 선택 방법'을 이용하는 경우, 영상 복호화 장치로 대체될 수 있다. 또한, 영상 부호화 장치는 부호화 및 복호화를 위한 적어도 하나의 수단이나 이러한 수단에 상응하는 기능을 수행하는 구성부를 구비하는 영상 처리 장치 혹은 영상 부호화 및 복호화 장치로 구현될 수 있음은 물론이다.In the above-described embodiment, when the above-described 'method of constructing a list of neighboring blocks for deriving motion information', that is, 'motion vector candidate selection method', is used to decode a coded image, Device. &Lt; / RTI &gt; It is needless to say that the image encoding apparatus may be implemented by an image processing apparatus or an image encoding and decoding apparatus having at least one means for encoding and decoding or a component performing a function corresponding to such means.

전술한 실시예에 의하면, 화면 내 예측 기술이 사용되고 있는 MPEG-2, MPEG-4, H.264 등의 국제 코덱 또는 기타 다른 코덱과 이 코덱들을 사용하는 매체, 그리고 영상 산업에 전반적으로 이용가능한 고성능 고효율의 영상 부호화 복호화 기술을 제공할 수 있다. 또한, 향후에는 현재의 고효율 영상 부호화 기술(HEVC) 및 H.264/AVC와 같은 표준 코덱과 화면 내 예측을 사용하는 영상 처리 분야에 적용이 예상된다.According to the embodiments described above, it is possible to use an international codec such as MPEG-2, MPEG-4, or H.264 or other codecs in which the intra prediction technique is used, a medium using these codecs, A high-efficiency image encoding / decoding technique can be provided. In future, it is expected to be applied to the current high efficiency image coding technology (HEVC) and standard codec such as H.264 / AVC and the image processing field using intra prediction.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

Claims (20)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 현재 블록을 포함하는 현재 픽처가 참조 픽처로 이용될 수 있는지 여부를 나타내는 정보를 픽처 파라미터 세트로부터 복호화하는 단계;
참조 픽처 리스트를 생성하는 단계, 여기서, 상기 참조 픽처 리스트는 상기 현재 픽처에 앞서 복호화된 기 복호화된 픽처를 포함하고, 상기 정보가 상기 현재 픽처가 참조 픽처로 이용될 수 있음을 나타내는 경우, 상기 현재 픽처를 더 포함함;
참조 픽처 인덱스에 기초하여, 상기 참조 픽처 리스트로부터 상기 현재 블록의 참조 픽처를 선택하는 단계; 및
상기 현재 블록의 움직임 벡터를 기초로, 상기 참조 픽처로부터 상기 현재 블록의 예측 샘플을 획득하는 단계를 포함하는, 영상 복호화 방법.
Decoding information from a picture parameter set indicating whether or not a current picture including a current block can be used as a reference picture;
And generating a reference picture list, wherein the reference picture list includes a previously decoded picture decoded prior to the current picture, and when the information indicates that the current picture can be used as a reference picture, Further comprising a picture;
Selecting a reference picture of the current block from the reference picture list based on a reference picture index; And
And obtaining a prediction sample of the current block from the reference picture based on the motion vector of the current block.
청구항 15에 있어서,
상기 참조 픽처 리스트가 포함할 수 있는 최대 참조 픽처 허용 개수는 상기 현재 픽처가 참조 픽처로 이용되는지 여부에 따라 결정되는, 영상 복호화 방법.
16. The method of claim 15,
Wherein the maximum allowable number of reference pictures that the reference picture list can include is determined according to whether or not the current picture is used as a reference picture.
청구항 15에 있어서,
상기 참조 픽처 리스트를 생성하는 단계는, 참조 픽처 리스트 0을 생성하는 단계를 포함하고, 상기 참조 픽처 리스트 0은, 상기 현재 픽처보다 앞선 시간적 순서를 갖는 기 복호화된 픽처, 상기 현재 픽처보다 늦은 시간적 순서를 갖는 기 복호화된 픽처 및 상기 현재 픽처의 순으로 생성되는, 영상 복호화 방법.
16. The method of claim 15,
Wherein the step of generating the reference picture list includes a step of generating a reference picture list 0, wherein the reference picture list 0 includes a base-decoded picture having temporal order earlier than the current picture, And the current picture are generated in the order of the first decoded picture and the second decoded picture.
청구항 15에 있어서,
상기 참조 픽처 리스트를 생성하는 단계는, 참조 픽처 리스트 1을 생성하는 단계를 포함하고, 상기 참조 픽처 리스트 1은, 상기 현재 픽처보다 늦은 시간적 순서를 갖는 기 복호화된 픽처, 상기 현재 픽처보다 앞선 시간적 순서를 갖는 기 복호화된 픽처 및 상기 현재 픽처의 순으로 생성되는, 영상 복호화 방법.
16. The method of claim 15,
Wherein the step of generating the reference picture list includes a step of generating a reference picture list 1, wherein the reference picture list 1 includes a first decoded picture having temporal order later than the current picture, And the current picture are generated in the order of the first decoded picture and the second decoded picture.
삭제delete 삭제delete
KR1020160070356A 2015-06-05 2016-06-07 Method for selecting motion vector candidate and method for encoding/decoding image using the same KR101782153B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170121467A KR102420559B1 (en) 2015-06-05 2017-09-20 Method for selecting motion vector candidate and method for encoding/decoding image using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150079916 2015-06-05
KR1020150079916 2015-06-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020170121467A Division KR102420559B1 (en) 2015-06-05 2017-09-20 Method for selecting motion vector candidate and method for encoding/decoding image using the same

Publications (2)

Publication Number Publication Date
KR20160143583A KR20160143583A (en) 2016-12-14
KR101782153B1 true KR101782153B1 (en) 2017-09-26

Family

ID=57575957

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020160070356A KR101782153B1 (en) 2015-06-05 2016-06-07 Method for selecting motion vector candidate and method for encoding/decoding image using the same
KR1020170121467A KR102420559B1 (en) 2015-06-05 2017-09-20 Method for selecting motion vector candidate and method for encoding/decoding image using the same
KR1020220084538A KR102514392B1 (en) 2015-06-05 2022-07-08 Image encoding/decoding method and image decoding apparatus using motion vector precision
KR1020230037207A KR102628693B1 (en) 2015-06-05 2023-03-22 Image encoding/decoding method and image decoding apparatus using motion vector precision
KR1020240008556A KR20240015700A (en) 2015-06-05 2024-01-19 Image encoding/decoding method and image decoding apparatus using motion vector precision

Family Applications After (4)

Application Number Title Priority Date Filing Date
KR1020170121467A KR102420559B1 (en) 2015-06-05 2017-09-20 Method for selecting motion vector candidate and method for encoding/decoding image using the same
KR1020220084538A KR102514392B1 (en) 2015-06-05 2022-07-08 Image encoding/decoding method and image decoding apparatus using motion vector precision
KR1020230037207A KR102628693B1 (en) 2015-06-05 2023-03-22 Image encoding/decoding method and image decoding apparatus using motion vector precision
KR1020240008556A KR20240015700A (en) 2015-06-05 2024-01-19 Image encoding/decoding method and image decoding apparatus using motion vector precision

Country Status (1)

Country Link
KR (5) KR101782153B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020004979A1 (en) * 2018-06-27 2020-01-02 디지털인사이트주식회사 Image encoding/decoding method and apparatus
WO2020175913A1 (en) * 2019-02-26 2020-09-03 주식회사 엑스리스 Method for encoding/decoding video signal, and apparatus therefor
CN113329225A (en) * 2020-02-28 2021-08-31 北京三星通信技术研究有限公司 Video coding and decoding method and device
US20240098300A1 (en) * 2022-09-21 2024-03-21 Tencent America LLC Method and apparatus for implicitly indicating motion vector predictor precision

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101449696B1 (en) * 2009-08-21 2014-10-20 에스케이텔레콤 주식회사 Motion Vector Coding Method and Apparatus in Consideration of Differential Motion Vector Precision, and Video Processing Apparatus and Method therefor
US9621889B2 (en) * 2012-03-02 2017-04-11 Sun Patent Trust Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, and image coding apparatus

Also Published As

Publication number Publication date
KR102420559B1 (en) 2022-07-13
KR102514392B1 (en) 2023-03-27
KR102628693B1 (en) 2024-01-24
KR20220101595A (en) 2022-07-19
KR20170110555A (en) 2017-10-11
KR20240015700A (en) 2024-02-05
KR20230044158A (en) 2023-04-03
KR20160143583A (en) 2016-12-14

Similar Documents

Publication Publication Date Title
US11368675B2 (en) Method and device for encoding and decoding intra-frame prediction
KR101988888B1 (en) Method and apparartus for encoding/decoding for intra prediction mode
KR102462012B1 (en) Image encoding/decoding method and image decoding apparatus using motion vector precision
KR101809630B1 (en) Method and apparatus of image encoding/decoding using adaptive deblocking filtering
KR102558269B1 (en) Image encoding method and image decoding method and apparatus using adaptive deblocking filtering
KR101966195B1 (en) Method and apparatus of image encoding/decoding using reference pixel composition in intra prediction
KR102514392B1 (en) Image encoding/decoding method and image decoding apparatus using motion vector precision
KR102476230B1 (en) Image encoding/decoding method and image decoding apparatus using motion vector precision
KR20190091217A (en) Method and apparatus for image encoding and image decoding based on temporal motion information
KR20200145780A (en) Method and apparatus for image encoding and image decoding using prediction based on block shape

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant