KR20200141696A - Video signal encoding method and apparatus and video decoding method and apparatus - Google Patents

Video signal encoding method and apparatus and video decoding method and apparatus Download PDF

Info

Publication number
KR20200141696A
KR20200141696A KR1020190068539A KR20190068539A KR20200141696A KR 20200141696 A KR20200141696 A KR 20200141696A KR 1020190068539 A KR1020190068539 A KR 1020190068539A KR 20190068539 A KR20190068539 A KR 20190068539A KR 20200141696 A KR20200141696 A KR 20200141696A
Authority
KR
South Korea
Prior art keywords
block
affine
prediction
sample
sub
Prior art date
Application number
KR1020190068539A
Other languages
Korean (ko)
Inventor
이배근
Original Assignee
주식회사 엑스리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엑스리스 filed Critical 주식회사 엑스리스
Priority to KR1020190068539A priority Critical patent/KR20200141696A/en
Publication of KR20200141696A publication Critical patent/KR20200141696A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Provided are a method and device for encoding a video using affine inter prediction encoding. Therefore, the coding efficiency of a video signal is improved.

Description

비디오 신호 처리 방법 및 장치 {Video signal encoding method and apparatus and video decoding method and apparatus}Video signal processing method and apparatus TECHNICAL FIELD [Video signal encoding method and apparatus and video decoding method and apparatus]

본 발명은 비디오 신호 처리 방법 및 장치에 관한 것이다. The present invention relates to a video signal processing method and apparatus.

비디오 영상은 시공간적 중복성 및 시점 간 중복성을 제거하여 압축 부호화되며, 이는 저장 매체에 적합한 형태로 저장되거나 통신 회선을 통해 전송될 수 있다. Video images are compression-encoded by removing spatio-temporal redundancy and inter-view redundancy, which can be stored in a format suitable for a storage medium or transmitted through a communication line.

본 발명은 비디오 신호의 코딩 효율을 향상시키고자 함에 있다. The present invention is to improve the coding efficiency of a video signal.

상기 과제를 해결하기 위하여 본 발명은 어파인 인터 예측 부호화를 이용한 비디오 부호화 방법 및 장치를 제공한다. In order to solve the above problems, the present invention provides a video encoding method and apparatus using affine inter prediction encoding.

본 발명에 따른 비디오 신호 처리 방법 및 장치는 장치는 어파인 인터 예측 부호화를 통해 비디오 신호 코딩 효율을 향상 시킬 수 있다.The video signal processing method and apparatus according to the present invention may improve video signal coding efficiency through affine inter prediction coding.

1One 기본 코딩 블록 구조Basic coding block structure

픽쳐는 그림 1과 같이 복수개의 기본 코딩 유닛(Coding Tree Unit, 이하, CTU)으로 나누어진다. A picture is divided into a plurality of basic coding units (Coding Tree Units, hereinafter, CTU) as shown in Figure 1 .

Figure pat00001
Figure pat00001

그림 1Picture 1

다른 CTU와 겹치지 않도록 구성되어 있다. 예를 들어, 전체 시퀀스에서 CTU 사이즈를 128x128로 설정할 수 있고, 픽쳐 단위로 128x128 내지 256x256 중 어느 하나를 선택해서 사용할 수도 있다. It is configured not to overlap with other CTUs. For example, in the entire sequence, the CTU size can be set to 128x128, and any one of 128x128 to 256x256 can be selected and used in picture units.

CTU를 계층적으로 분할하여 코딩 블록/코딩 유닛(Coidng Unit, 이하 CU)을 생성할 수 있다. 코딩 유닛 단위로 예측 및 변환을 수행할 수 있으며, 예측 부호화 모드를 결정하는 기본 단위가 된다. 예측 부호화 모드는 예측 영상을 생성하는 복수개의 방법을 나타내며, 화면 내 예측 (intra prediction, 이하, 인트라 예측), 화면 간 예측(inter prediction, 이하, 인터 예측) 또는 복합 예측(combined prediction)등을 예로 들수 있다. 구체적으로 예를 들어, 코딩 유닛 단위로 인트라 예측, 인터 예측 또는 복합 예측 중 적어도 어느 하나의 예측 부호화 모드를 이용하여 예측 블록(prediction block)을 생성할 수 있다. 화면 간 예측 모드에서 참조 픽쳐가 현재 픽쳐를 가리키는 경우에는 이미 복호화된 현재 픽쳐 내 영역에서 예측 블록을 생성할 수 있다. 참조 픽쳐 인덱스와 모션 벡터를 이용하여 예측 블록을 생성하기 때문에 화면 간 예측에 포함할 수 있다. 인트라 예측은 현재 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이고, 인터 예측은 이미 복호화된 다른 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이며, 복합 예측은 인터 예측과 인트라 예측을 혼합하여 사용하는 방법이다. A coding block/coding unit (CU) may be generated by hierarchically dividing the CTU. Prediction and transformation may be performed in units of coding units, and become a basic unit that determines a prediction coding mode. The prediction encoding mode represents a plurality of methods of generating a predicted image, such as intra prediction (intra prediction, hereinafter, intra prediction), inter prediction (hereinafter, inter prediction), or combined prediction. Can be mentioned. Specifically, for example, a prediction block may be generated by using at least one of intra prediction, inter prediction, and composite prediction in a coding unit unit. In the inter prediction mode, when the reference picture indicates the current picture, a prediction block may be generated in an area within the current picture that has already been decoded. Because a prediction block is generated using a reference picture index and a motion vector, it can be included in inter prediction. Intra prediction is a method of generating a prediction block using information of the current picture, inter prediction is a method of generating a prediction block using information of another picture that has already been decoded, and composite prediction is a method of mixing inter prediction and intra prediction. This is how to use.

CTU는 그림 2와 같이 쿼드 트리 ,바이너리 트리 또는 트리플 트리 형태로 분할 (파티셔닝)될 수 있다. 분할된 블록은 다시 쿼드 트리, 바이너리 트리 또는 트리플 트리 형태로 추가 분할 될수 있다. 현재 블록을 4개의 정방 형태 파티션으로 나누는 방법을 쿼드 트리 파티셔닝이라고 부르고, 현재 블록을 2개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부르며, 현재 블록을 3개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 정의 한다. The CTU can be divided (partitioned) into a quad tree, binary tree or triple tree as shown in Figure 2 . The divided block can be further divided into a quad tree, binary tree, or triple tree. The method of dividing the current block into 4 square partitions is called quad tree partitioning, the method of dividing the current block into 2 irregular partitions is called binary tree partitioning, and the method of dividing the current block into 3 irregular partitions It is defined as binary tree partitioning.

수직 방향으로 바이너리 파티셔닝(그림 2의 SPLIT_BT_VER)을 수직 바이너리 트리 파티셔닝이라고 부르며, 수평 방향으로 바이너리 트리 파티셔닝 (그림 2의 SPLIT_BT_HOR)을 수평 바이너리 트리 파티셔닝이라고 정의 한다. Binary partitioning in the vertical direction (SPLIT_BT_VER in Figure 2 ) is called vertical binary tree partitioning, and binary tree partitioning in the horizontal direction (SPLIT_BT_HOR in Figure 2 ) is defined as horizontal binary tree partitioning.

수직 방향으로 트리플 파티셔닝 (그림 2의 SPLIT_TT_VER)을 수직 트리플 트리 파티셔닝이라고 부르며, 수평 방향으로 트리플 트리 파티셔닝 (그림 2의 SPLIT_TT_HOR)을 수평 트리플 트리 파티셔닝이라고 정의 한다. Triple-tree partitioning in the vertical direction (SPLIT_TT_VER in Figure 2 ) is called vertical triple-tree partitioning, and triple-tree partitioning in the horizontal direction (SPLIT_TT_HOR in Figure 2 ) is defined as horizontal triple-tree partitioning.

추가 분할 횟수를 파티셔닝 뎁스(partitioning depth)라고 부르며, 시퀀스 내지 픽쳐/타일 세트 별로 파티셔닝 뎁스가 최대치를 서로 다르게 설정할 수도 있으며, 파티셔닝 트리 형태(쿼드 트리/바이너리 트리/트리플 트리)에 따라 서로 다른 파티셔닝 뎁스를 가지도록 설정할 수 있으며, 이를 나타내는 신택스를 시그날링할 수도 있다. The number of additional divisions is called partitioning depth, and the maximum value of the partitioning depth for each sequence or picture/tile set can be set differently, and different partitioning depths according to the partitioning tree type (quad tree/binary tree/triple tree) It can be set to have, and a syntax indicating this can be signaled.

Figure pat00002
Figure pat00002

그림 2Picture 2

분할된 코딩 블록은 쿼드 파티셔닝, 바이너리 파니셔닝 또는 멀티 파티셔닝과 같은 방법으로 추가로 분할하여 코딩 유닛을 구성하거나 추가 분할 없이 코딩 유닛을 구성할 수도 있다.The divided coding block may be further divided by a method such as quad partitioning, binary partitioning, or multi-partitioning to configure a coding unit, or may configure a coding unit without further partitioning.

Figure pat00003
Figure pat00003

그림 3Figure 3

그림 3 과 같이 하나의 CTU를 계층적으로 코딩 유닛을 설정할 수 있으며, 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝을 이용하여 코딩 유닛을 중 적어도 어느 하나를 이용하여 코딩 유닛을 분할할 수 있다. 이와 같은 방법을 멀티 트리 파티셔닝(Multi tree partitioning)이라고 정의 한다. As shown in Figure 3 , a coding unit can be hierarchically configured for one CTU, and a coding unit can be partitioned using at least one of a coding unit using binary tree partitioning, quad tree partitioning/triple tree partitioning. This method is defined as multi tree partitioning.

파티셔닝 뎁스가 k인 임의의 코딩 유닛을 분할하여 생성된 코딩 유닛을 하위 코딩 유닛이라하며, 파티셔닝 뎁스는 k+1이 된다. 파티셔닝 뎁스 k+1인 하위 코딩 유닛을 포함하고 있는 파티셔닝 뎁스 k인 코딩 유닛을 상위 코딩 유닛이라 한다. A coding unit generated by dividing an arbitrary coding unit having a partitioning depth of k is referred to as a lower coding unit, and the partitioning depth is k+1. A coding unit having a partitioning depth k including a lower coding unit having a partitioning depth k+1 is referred to as an upper coding unit.

상위 코딩 유닛의 파티셔닝 타입 및/또는 현재 코딩 유닛의 주변에 있는 코딩 유닛의 파티셔닝 타입에 따라 현재 코딩 유닛의 파티셔닝 타입이 제한될 수도 있다. The partitioning type of the current coding unit may be limited according to the partitioning type of the upper coding unit and/or the partitioning type of the coding units surrounding the current coding unit.

여기서, 파티셔닝 타입은 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝 중 어느 파티셔닝을 사용했는지를 알려주는 지시자를 나타낸다. Here, the partitioning type represents an indicator indicating which partitioning is used among binary tree partitioning, quad tree partitioning/triple tree partitioning.

22 예측 영상 생성 방법How to generate predictive image

비디오 부호화에서 예측 영상은 복수 개의 방법으로 생성할 수 있으며, 예측 영상을 생성하는 방법을 예측 부호화 모드라고 한다. In video encoding, a prediction image can be generated by a plurality of methods, and a method of generating a prediction image is called a prediction encoding mode.

예측 부호화 모드는 인트라 예측 부호화 모드, 인터 예측 부호화 모드, 현재 픽쳐 레퍼런스 부호화 모드 또는 결합 부호화 모드 (combined prediction)등으로 구성될 수 있다. The prediction encoding mode may include an intra prediction encoding mode, an inter prediction encoding mode, a current picture reference encoding mode, or a combined prediction mode.

인터 예측 부호화 모드는 이전 픽쳐의 정보를 이용하여 현재 블록의 예측 블록(예측 영상)을 생성하는 예측 부호화 모드라고 하고, 인트라 예측 부호화 모드는 현재 블록과 이웃한 샘플을 이용하여 예측 블록을 생성하는 예측 부호화 모드라 한다. 현재 픽쳐의 이미 복원된 영상을 이용하여 예측 블록을 생성할 수도 있으며, 이를 현재 픽쳐 레퍼런스 모드 또는 인트라 블록 카피 모드라고 정의 한다. The inter prediction coding mode is a prediction coding mode that generates a prediction block (prediction image) of the current block using information of a previous picture, and the intra prediction coding mode is a prediction that generates a prediction block using samples adjacent to the current block. It is called an encoding mode. A prediction block may be generated using an image that has already been reconstructed of the current picture, and this is defined as a current picture reference mode or an intra block copy mode.

인터 예측 부호화 모드, 인트라 예측 부호화 모드 또는 현재 픽쳐 레퍼런스 부호화 모드 중 적어도 2개 이상의 예측 부호화 모드를 사용하여 예측 블록을 생성할 수도 있으며, 이를 결합 부호화 모드(Combined prediction)이라고 정의 한다. A prediction block may be generated using at least two or more of an inter prediction encoding mode, an intra prediction encoding mode, or a current picture reference encoding mode, which is referred to as a combined prediction mode.

2.12.1 인트라 예측 부호화 방법 Intra prediction coding method

인트라 예측은 그림 4와 같이 현재 블록 주변에 있는 이미 부호화된 경계 샘플을 인트라 예측을 생성하는데 사용하며, 이를 인트라 레퍼런스 샘플이라고 정의 한다. In intra prediction, as shown in Fig. 4 , an already coded boundary sample around the current block is used to generate intra prediction, and this is defined as an intra reference sample.

인트라 레퍼런스 샘플의 평균값을 예측 블록 전체 샘플의 값을 설정하거나 (DC 모드), 수평 방향 레퍼런스 가중 예측을 수행하여 생성한 수평 방향 예측 샘플과 수직 방향 레퍼런스 샘플을 가중 예측하여 생성한 수직 방향 예측 샘플을 생성한 후, 수평 방향 예측 샘플과 수직 방향 예측 샘플을 가중 예측하여 예측 샘플을 생성하거나(Planar 모드), 방향성 인트라 예측 모드등을 이용하여 인트라 예측을 수행할 수 있다. The average value of the intra reference samples is predicted by setting the value of all samples in the prediction block (DC mode), or the vertical direction prediction sample generated by weighted prediction of the horizontal direction prediction sample and the vertical direction reference sample generated by performing horizontal reference weighted prediction After generation, a prediction sample may be generated by weighted prediction of a horizontal direction prediction sample and a vertical direction prediction sample (Planar mode), or intra prediction may be performed using a directional intra prediction mode.

Figure pat00004
Figure pat00004

그림 4Figure 4

그림 5의 왼쪽 그림과 같이 33개의 방향을 사용(총 35개 인트라 예측 모드)하여 인트라 예측을 수행할 수 있고, 그림 5의 오른쪽 그림과 같이 65개의 방향을 사용(총 67개 인트라 예측 모드)할 수도 있다. 방향성 인트라 예측을 사용하는 경우에는 인트라 예측 모드의 방향성을 고려하여 인트라 레퍼런스 샘플(레퍼런스 참조 샘플)을 생성하고, 이로 부터 인트라 예측을 수행할 수 있다. As shown in the left figure of Figure 5 , intra prediction can be performed using 33 directions (a total of 35 intra prediction modes), and 65 directions (a total of 67 intra prediction modes) as shown in the right figure of Figure 5 May be. When directional intra prediction is used, an intra reference sample (reference reference sample) may be generated in consideration of the direction of the intra prediction mode, and intra prediction may be performed therefrom.

코딩 유닛의 좌측에 있는 인트라 레퍼런스 샘플을 좌측 인트라 레퍼런스 샘플이라하고, 코딩 유닛의 상측에 있는 인트라 레퍼런스 샘플을 상측 인트라 레퍼런스 샘플이라 한다. An intra reference sample on the left side of the coding unit is called a left intra reference sample, and an intra reference sample on the upper side of the coding unit is called an upper intra reference sample.

방향성 인트라 예측을 수행하는 경우에는 표 1과 같이 인트라 예측 모드에 따라 예측 방향(또는 예측 각도)을 나타내는 파라미터인 인트라 방향 파라미터 (intraPredAng)를 설정할 수 있다. 아래 표 1은 35개 인트라 예측 모드를 사용할 때 2 내지 34의 값을 가지는 방향성 인트라 예측 모드를 기반으로 하는 일예에 불과하다. 방향성 인트라 예측 모드의 예측 방향(또는 예측 각도)은 더 세분화되어 33개보다 많은 개수의 방향성 인트라 예측 모드가 이용될 수 있음은 물론이다. When directional intra prediction is performed, as shown in Table 1, an intra direction parameter (intraPredAng), which is a parameter indicating a prediction direction (or a prediction angle), may be set according to the intra prediction mode. Table 1 below is only an example based on a directional intra prediction mode having a value of 2 to 34 when 35 intra prediction modes are used. It goes without saying that the prediction directions (or prediction angles) of the directional intra prediction modes are further subdivided, so that more than 33 directional intra prediction modes can be used.

Figure pat00005
Figure pat00005

그림 5Picture 5

표 1Table 1

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

그림 6Figure 6

intraPredAng이 음수인 경우 (예를 들어, 인트라 예측 모드 인덱스가 11과 25 사이인 경우)에는 그림 6과 같이 현재 블록에 좌측 인트라 레퍼런스 샘플과 상측 인트라 레퍼런스 샘플을 인트라 예측 모드의 각도에 따라 1D로 구성된 일차원 레퍼런스 샘플 (Ref_1D)로 재구성할 수 있다. When intraPredAng is negative (for example, when the intra prediction mode index is between 11 and 25), as shown in Figure 6 , the left intra reference sample and the upper intra reference sample are configured in 1D according to the angle of the intra prediction mode. It can be reconstructed as a one-dimensional reference sample (Ref_1D).

Figure pat00008
Figure pat00008

그림 7Figure 7

인트라 예측 모드 인덱스가 11과 18 사이인 경우에는 그림 7과 같이 현재 블록의 상변 우측에 위치한 인트라 레퍼런스 샘플부터 좌변 하단에 위치한 인트라 레퍼런스 샘플까지 반 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 11 and 18, a one-dimensional reference sample can be generated in a counterclockwise direction from an intra reference sample located on the upper right side of the current block to an intra reference sample located on the lower left side as shown in Figure 7 .

그 외의 모드에서는 상변 인트라 레퍼런스 샘플 또는 좌변 인트라 레퍼런스 샘플만 이용하여 일차원 레퍼런스 샘플을 생성할 수 있다.In other modes, a one-dimensional reference sample may be generated using only the upper side intra reference sample or the left side intra reference sample.

Figure pat00009
Figure pat00009

그림 8Figure 8

인트라 예측 모드 인덱스가 19 와 25 사이인 경우에는 그림 8과 같이 현재 블록의 좌변 하단에 위치한 인트라 레퍼런스 샘플부터 상변 우측에 위치한 인트라 레퍼런스 샘플까지 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 19 and 25, a one-dimensional reference sample can be generated in a clockwise direction from an intra reference sample located at the lower left side of the current block to an intra reference sample located at the right side of the current block, as shown in Figure 8 .

참조 샘플 결정 인덱스 iIdx와 iIdx에 기초하여 결정되는 적어도 하나의 참조 샘플에 적용되는 가중치 관련 파라미터 ifact를 다음 식 (1) 내지 (2)와 같이 유도할 수 있다. iIdx와 ifact는 방향성 인트라 예측 모드의 기울기에 따라 가변적으로 결정되며, iIdx에 의해 특정되는 참조 샘플은 정수 펠(integer pel)에 해당할 수 있다.A weight-related parameter ifact applied to at least one reference sample determined based on the reference sample determination index iIdx and iIdx may be derived as in Equations (1) to (2) below. iIdx and i fact are variably determined according to the slope of the directional intra prediction mode, and a reference sample specified by iIdx may correspond to an integer pel.

iIdx = (y+1) * PiIdx = (y+1) * P angang /32 /32 (1)(One)

ii factfact = [ (y+1) * P = [(y+1) * P angang ] & 31] & 31 (2)(2)

예측 샘플 별로 적어도 하나 이상의 일차원 레퍼런스 샘플을 특정하여 예측 영상을 유도 할 수도 있다. 예를 들어, 방향성 인트라 예측 모드의 기울기 값을 고려하여 예측 샘플 생성에 사용할 수 있는 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. 예측 샘플 별로 상이한 방향성 인트라 예측 모드를 가질 수도 있다. 하나의 예측 블록에 대해 복수의 인트라 예측 모드가 이용될 수도 있다. 복수의 인트라 예측 모드는 복수의 비방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 하나의 비방향성 인트라 예측 모드와 적어도 하나의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 또는 복수의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있다. 하나의 예측 블록 내의 소정의 샘플 그룹 별로 상이한 인트라 예측 모드가 적용될 수 있다. 소정의 샘플 그룹은 적어도 하나의 샘플로 구성될 수 있다. 샘플 그룹의 개수는 현재 예측 블록의 크기/샘플 개수에 따라 가변적으로 결정될 수도 있고, 예측 블록의 크기/샘플 개수와는 독립적으로 부호화기/복호화기에 기-설정된 고정된 개수일 수도 있다. The prediction image may be derived by specifying at least one one-dimensional reference sample for each prediction sample. For example, a position of a one-dimensional reference sample that can be used to generate a prediction sample may be specified in consideration of a slope value of a directional intra prediction mode. Each prediction sample may have a different directional intra prediction mode. A plurality of intra prediction modes may be used for one prediction block. The plurality of intra prediction modes may be represented by a combination of a plurality of non-directional intra prediction modes, a combination of one non-directional intra prediction mode and at least one directional intra prediction mode, or a plurality of directional intra prediction modes. It can also be expressed as a combination of modes. A different intra prediction mode may be applied for each predetermined sample group in one prediction block. A predetermined sample group may consist of at least one sample. The number of sample groups may be variably determined according to the size/number of samples of the current prediction block, or may be a fixed number pre-set in the encoder/decoder independently of the size/number of samples of the prediction block.

구체적으로 예를 들어, 참조 샘플 결정 인덱스 iIdx를 이용하여 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. Specifically, for example, the position of the one-dimensional reference sample may be specified using the reference sample determination index iIdx.

인트라 예측 모드의 기울기에 따라 하나의 일차원 레퍼런스 샘플만으로는 인트라 예측 모드의 기울기를 표현할 수 없을 때는 식 (3)와 같이 인접한 일차원 레퍼런스 샘플을 보간하여 제 1 예측 영상을 생성할 수 있다. 인트라 예측 모드의 기울기/각도에 따른 angular line이 정수 펠에 위치한 레퍼런스 샘플을 지나가지 않는 경우, 해당 angular line에 좌/우 또는 상/하에 인접한 레퍼런스 샘플을 보간하여 제1 예측 영상을 생성할 수 있다. 이때 이용되는 보간 필터의 필터 계수는 ifact에 기초하여 결정될 수 있다. 예를 들어, 보간 필터의 필터 계수는 angular line 상에 위치한 소수 펠과 상기 정수 펠에 위치한 레퍼런스 샘플 간의 거리에 기초하여 유도될 수 있다. When the slope of the intra prediction mode cannot be expressed using only one one-dimensional reference sample according to the slope of the intra prediction mode, a first prediction image may be generated by interpolating adjacent one-dimensional reference samples as shown in Equation (3). When the angular line according to the slope/angle of the intra prediction mode does not pass the reference sample located in the integer pel, the first prediction image may be generated by interpolating the reference sample adjacent to the left/right or above/below the corresponding angular line. . The filter coefficient of the interpolation filter used at this time may be determined based on i fact . For example, the filter coefficient of the interpolation filter may be derived based on a distance between a fractional pel located on an angular line and a reference sample located on the integer pel.

P(x,y) = ((32-iP(x,y) = ((32-i factfact )/32)* Ref_1D(x+iIdx+1) + (i)/32)* Ref_1D(x+iIdx+1) + (i factfact /32)* Ref_1D(x+iIdx+2)/32)* Ref_1D(x+iIdx+2) (3)(3)

하나의 일차원 레퍼런스 샘플만으로 인트라 예측 모드의 기울기를 표현할 수 있을 때 (ifact 값이 0 일때) 는 다음 식 (4)와 같이 제 1 예측 영상을 생성할 수 있다. When the slope of the intra prediction mode can be expressed with only one one-dimensional reference sample (when i fact is 0), the first prediction image can be generated as shown in Equation (4) below.

P(x,y) = Ref_1D(x+iIdx+1)P(x,y) = Ref_1D(x+iIdx+1) (4)(4)

2.22.2 와이드 앵글 인트라 예측 부호화 방법Wide-angle intra prediction coding method

방향성 인트라 예측 모드의 예측 각도는 그림 9와 같이 45 내지 -135 사이로 설정될 수 있다. The prediction angle of the directional intra prediction mode may be set between 45 and -135 as shown in Figure 9 .

Figure pat00010
Figure pat00010

그림 9Figure 9

비정방 형태 코딩 유닛에서 인트라 예측 모드를 수행하는 경우 기 정의된 예측 각도 때문에 현재 샘플과 가까운 인트라 레퍼런스 샘플 대신 현재 샘플과 거리가 먼 인트라 레퍼런스 샘플에서 현재 샘플을 예측하는 단점이 발생할 수 있다. When the intra prediction mode is performed in the amorphous coding unit, a disadvantage of predicting a current sample from an intra reference sample far from the current sample instead of an intra reference sample close to the current sample may occur due to a predefined prediction angle.

예를 들어, 그림 10의 왼쪽 그림과 같이 코딩 유닛의 너비가 코딩 유닛의 높이보다 큰 코딩 유닛(이하, 수평 방향 코딩 유닛)에서는 거리가 가까운 샘플 T 대신에 거리가 먼 L에서 인트라 예측을 수행할 수 있다. 또 다른 예를 들어, 그림 10의 오른쪽 그림과 같이 코딩 유닛의 높이가 코딩 유닛의 너비보다 큰 코딩 유닛(이하, 수직 방향 코딩 유닛)에서는 거리가 가까운 샘플 L 대신에 거리가 먼 샘플 T로 부터 인트라 예측을 수행할 수 있다. For example, as shown in the left figure of Figure 10 , in a coding unit whose width is larger than the height of the coding unit (hereinafter, a horizontal coding unit), intra prediction is performed at a far distance L instead of a close sample T. I can. As another example, as shown in the right figure of Figure 10, in a coding unit whose height is greater than the width of the coding unit (hereinafter, the vertical coding unit), the intra-distance sample T from the distant sample T is You can make predictions.

Figure pat00011
Figure pat00011

그림 10Figure 10

비정방 형태 코딩 유닛에서는 기 정의된 예측 각도보다 더 넓은 예측 각도에서 인트라 예측을 수행할 수도 있으며, 이를 와이드 앵글 인트라 예측 모드라고 정의 한다. In the amorphous coding unit, intra prediction may be performed at a prediction angle wider than a predefined prediction angle, and this is defined as a wide angle intra prediction mode.

와이드 앵글 인트라 예측 모드는

Figure pat00012
내지
Figure pat00013
의 예측 각도를 가질 수 있으며, 기존 인트라 예측 모드에서 사용된 각도를 벗어나는 예측 각도를 와이드 앵글 각도라고 정의 한다. The wide angle intra prediction mode
Figure pat00012
To
Figure pat00013
It can have a prediction angle of, and a prediction angle that deviates from the angle used in the existing intra prediction mode is defined as a wide angle angle.

그림 10의 좌측 그림에서 수평 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 T로 부터 예측할 수 있다. In the left figure of Fig. 10 , sample A in the horizontal direction coding unit can be predicted from the intra reference sample T using the wide-angle intra prediction mode.

그림 10의 우측 그림에서 수직 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 L로 부터 예측할 수 있다. In the right figure of Fig. 10 , sample A in the vertical direction coding unit can be predicted from the intra reference sample L using the wide-angle intra prediction mode.

기존 인트라 예측 모드 N개에 M개의 와이드 앵글 각도를 더해 N+M 개의 인트라 예측 모드가 정의될 수 있다. 구체적으로 예를 들어, 표 2와 같이 67개 인트라 모드에 28개 와이드 앵글 각도를 더해 총 95개 인트라 예측 모드가 정의될 수 있다. N+M intra prediction modes may be defined by adding M wide angle angles to N existing intra prediction modes. Specifically, as shown in Table 2, a total of 95 intra prediction modes may be defined by adding 28 wide angle angles to 67 intra modes.

현재 블록이 이용할 수 있는 인트라 예측 모드는 현재 블록의 형태에 따라 결정될 수 있다. 일 예로, 현재 블록의 크기, 종횡비(예컨대, 너비와 높이의 비율), 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여, 95개의 방향성 인트라 예측 모드 중 65개의 방향성 인트라 예측 모드를 선택할 수 있다. The intra prediction mode that the current block can use may be determined according to the shape of the current block. For example, 65 directional intra prediction modes may be selected from among 95 directional intra prediction modes based on at least one of a size of a current block, an aspect ratio (eg, a ratio of width and height), and a reference line index.

표 2Table 2

Figure pat00014
Figure pat00014

표 2에 나타난 인트라 예측 모드 각도는, 현재 블록의 형태, 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여 적응적으로 결정될 수 있다. 일 예로, Mode 15의 intraPredAngle은 현재 블록이 비정방형인 경우보다 현재 블록이 정방형인 경우에 더 큰 값을 갖도록 설정될 수 있다. 또는, Mode 75의 intraPredAngle은 인접 레퍼런스 라인이 선택된 경우보다 비인접 레퍼런스 라인이 선택된 경우 더 큰 값을 갖도록 설정될 수 있다.The intra prediction mode angle shown in Table 2 may be adaptively determined based on at least one of a shape of a current block and a reference line index. For example, the intraPredAngle of Mode 15 may be set to have a larger value when the current block is a square than when the current block is an amorphous. Alternatively, the intraPredAngle of Mode 75 may be set to have a larger value when a non-adjacent reference line is selected than when an adjacent reference line is selected.

와이드 앵글 인트라 예측 모드를 사용하는 경우 그림 11과 같이 상측 인트라 레퍼런스 샘플의 길이를 2W+1로 설정하고, 좌측 인트라 레퍼런스 샘플의 길이를 2H+1로 설정할 수 있다. When using the wide-angle intra prediction mode, the length of the upper intra reference sample can be set to 2W+1 and the length of the left intra reference sample can be set to 2H+1, as shown in Figure 11 .

Figure pat00015
Figure pat00015

그림 11Figure 11

와이드 앵글 인트라 예측을 사용하는 경우에 와이드 앵글 인트라 예측 모드의 인트라 예측 모드를 부호화 하는 경우에는 인트라 예측 모드의 개수가 많아져서 부호화 효율이 낮아 질수 있다. 와이드 앵글 인트라 예측 모드는 와이드 앵글 인트라에서 사용되지 않는 기존 인트라 예측 모드로 대체하여 부호화 할 수 있으며, 대체되는 예측 모드를 와이드 앵글 대체 모드라고 한다. 와이드 앵글 대체 모드는 와이드 앵글 인트라 예측 모드와 반대 방향인 인트라 예측 모드일 수 있다.In the case of using wide-angle intra prediction, when the intra prediction mode of the wide-angle intra prediction mode is encoded, the number of intra prediction modes increases, and thus encoding efficiency may be lowered. The wide-angle intra prediction mode can be encoded by replacing the existing intra prediction mode that is not used in the wide-angle intra prediction mode, and the replaced prediction mode is called a wide-angle replacement mode. The wide angle replacement mode may be an intra prediction mode in a direction opposite to the wide angle intra prediction mode.

구체적으로 예를 들어, 그림 12와 같이 35개 인트라 예측을 사용하는 경우 와이드 앵글 인트라 예측 모드 35는 와이드 앵글 대체 모드인 인트라 예측 모드 2로 부호화할 수 있고, 와이드 앵글 인트라 예측 모드 36은 와이드 앵글 대체 모드인 인트라 예측 모드 3으로 부호화 할 수 있다. Specifically, for example, when 35 intra predictions are used as shown in Figure 12 , wide-angle intra prediction mode 35 can be encoded using intra prediction mode 2, which is a wide-angle replacement mode, and wide-angle intra prediction mode 36 is used for wide-angle replacement. It can be encoded in intra prediction mode 3, which is a mode.

Figure pat00016
Figure pat00016

그림 12Figure 12

코딩 블록의 형태 또는 코딩 블록 높이대 너비의 비에 따라 대체하는 모드와 개수를 다르게 설정할 수 있다. 구체적으로 예를 들어, 표 3은 코딩 블록의 너비와 높이의 비에 따라 사용되는 인트라 예측 모드를 나타낸다. The replacement mode and number may be differently set according to the shape of the coding block or the ratio of the height to the width of the coding block. Specifically, for example, Table 3 shows intra prediction modes used according to the ratio of the width and height of a coding block.

3 Table 3

Figure pat00017
Figure pat00017

인트라 예측 영상을 생성 한 후, 샘플 포지션에 기초하여 각 샘플 별로 인트라 예측 영상을 업데이트 할수 있으며, 이를 샘플 포지션 기반 인트라 가중 예측 방법 (Position dependent prediction combination, PDPC)라고 정의한다.After generating the intra prediction image, the intra prediction image may be updated for each sample based on the sample position, and this is defined as a sample position-based intra-weighted prediction method (Position dependent prediction combination, PDPC).

2.32.3 멀티 라인 인트라 예측 부호화 방법 Multi-line intra prediction coding method

다음 그림 13과 같이 복수 개의 인트라 레퍼런스 라인에서 인트라 예측을 수행할 수도 있으며, 이를 멀티 라인 인트라 예측 부호화 방법이라고 한다.

Figure pat00018
As shown in Figure 13 below, intra prediction may be performed on a plurality of intra reference lines, which is called a multi-line intra prediction coding method.
Figure pat00018

그림 13Fig. 13

인접한 인트라 페러런스 라인과 비인접 인트라 레퍼런스 라인으로 구성된 복수개의 인트라 레퍼런스 라인 중 어느 하나를 선택해서 인트라 예측을 수행할 수 있으며, 이를 복수 라인 인트라 예측 방법이라고 한다. 비인접 인트라 레퍼런스 라인은 제 1 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 1), 제 2 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 2), 제 3 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 3)으로 구성할 수 있다. 비인접 인트라 레퍼런스 라인 중 일부만 사용할 수도 있다. 일 예로, 제 1 비인접 인트라 레퍼런스 라인 과 제 2 비인접 인트라 레퍼런스 라인만 사용할 수도 있고, 제 1비인접 인트라 레퍼런스 라인과 제 3 비인접 인트라 레퍼런스 라인만 사용할 수도 있다. Intra prediction may be performed by selecting any one of a plurality of intra reference lines composed of an adjacent intra parallel line and a non-adjacent intra reference line, and this is called a multi-line intra prediction method. The non-adjacent intra reference line is a first non-adjacent intra reference line (non-adjacent reference line index 1), a second non-adjacent intra reference line (non-adjacent reference line index 2), and a third non-adjacent intra reference line (non-adjacent reference line). It can be composed of index 3). Only some of the non-adjacent intra reference lines may be used. For example, only a first non-adjacent intra reference line and a second non-adjacent intra reference line may be used, or only a first non-adjacent intra reference line and a third non-adjacent intra reference line may be used.

인트라 예측에 사용된 레퍼런스 라인을 특정하는 신택스인 인트라 레퍼런스 라인 인덱스(intra_luma_ref_idx)를 코딩 유닛 단위로 시그날링 할 수 있다. An intra reference line index (intra_luma_ref_idx), a syntax specifying a reference line used for intra prediction, may be signaled in units of coding units.

구체적으로 인접 인트라 레퍼런스 라인, 제 1 비인접 인트라 레퍼런스 라인, 제 3 비인접 인트라 레퍼런스 라인을 사용하는 경우에 다음 표 4와 같이 intra_luma_ref_idx를 정의할 수도 있다. Specifically, when using the adjacent intra reference line, the first non-adjacent intra reference line, and the third non-adjacent intra reference line, intra_luma_ref_idx may be defined as shown in Table 4 below.

표 4Table 4

Figure pat00019
Figure pat00019

비인접 인트라 레퍼런스 라인을 사용하는 경우에는 비방향성 인트라 예측 모들를 사용하지 않도록 설정할 수도 있다. 즉, 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 DC 모드 내지 플래너 모드 (Planar mode)를 사용하지 않도록 제한 할 수도 있다. When a non-adjacent intra reference line is used, it may be set not to use a non-directional intra prediction mode. That is, when a non-adjacent intra reference line is used, it may be limited not to use the DC mode or the planar mode.

비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 인접 인트라 페러런스 라인의 샘플 개수보다 크게 설정할 수 있다. 또한 제 i 비인접 인트라 레퍼런스 라인의 샘플 개수보다 제 i+1 비인접 인트라 레퍼런스 라인의 샘플 개수가 더 많게 설정할 수도 있다. 제 i 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 제 i-1 비인접 인트라 레퍼런스 라인의 상측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetX[i]로 나타낼 수 있다. The number of samples belonging to the non-adjacent intra reference line may be set to be larger than the number of samples of the adjacent intra parallel line. Also, the number of samples of the i+1th non-adjacent intra reference line may be set to be greater than the number of samples of the ith non-adjacent intra reference line. The difference between the number of upper samples of the i-th non-adjacent intra reference line and the number of upper samples of the i-1th non-adjacent intra reference line may be expressed as a reference sample number offset offsetX[i].

offsetX[1]은 제 1 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 인접 인트라 레퍼런스 라인의 상측 샘플 개수의 차분 값을 나타낸다. 제 i 비인접 인트라 레퍼런스 라인의 좌측샘플 개수와 제 i-1 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetY[i]로 나타낼 수 있다. offsetY[1]은 제 1 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수와 인접 인트라 레퍼런스 라인의 좌측 샘플 개수의 차분 값을 나타낸다.offsetX[1] represents a difference value between the number of upper samples of the first non-adjacent intra reference line and the number of upper samples of the adjacent intra reference line. The difference between the number of left samples of the i-th non-adjacent intra reference line and the number of left samples of the i-1th non-adjacent intra reference line may be expressed as a reference sample number offset offsetY[i]. OffsetY[1] represents a difference between the number of left samples of the first non-adjacent intra reference line and the number of left samples of the adjacent intra reference line.

인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 refW + offsetX[i] 와 좌측 비인접 레퍼런스 라인 refH+ offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 refW + refH + offsetX[i] + offsetY[i] +1 로 구성될 수 있다. A non-adjacent intra reference line with an intra reference line index of i may be composed of an upper non-adjacent reference line refW + offsetX[i], a left non-adjacent reference line refH+ offsetY[i], and an upper left sample. The non-adjacent intra reference line The number of included samples may consist of refW + refH + offsetX[i] + offsetY[i] +1.

refW =2* nTbWrefW =2* nTbW (5)(5)

refH =2* *nTbHrefH =2* *nTbH (6)(6)

식 (5) 내지 (6)에서 nTbW는 코딩 유닛의 너비를 나타내고, nTbH는 코딩 유닛의 높이를 나타내며, whRatio는 다음 식 (7)과 같이 정의 할 수 있다. In equations (5) to (6), nTbW represents the width of the coding unit, nTbH represents the height of the coding unit, and whRatio can be defined as in the following equation (7).

whRatio = log2(nTbW/nTbH)whRatio = log2(nTbW/nTbH) (7)(7)

멀티 라인 인트라 예측 부호화 방법에서는 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 와이드 앵글 인트라 모드는 사용하지 않도록 설정할 수도 있다. 또는 현재 코딩 유닛의 MPM 모드가 와이드 앵글 인트라 모드이면 멀티 라인 인트라 예측 부호화 방법을 사용하지 않도록 설정할 수도 있다. In the multi-line intra prediction coding method, when a non-adjacent intra reference line is used, the wide-angle intra mode may be set not to be used. Alternatively, if the MPM mode of the current coding unit is a wide-angle intra mode, the multi-line intra prediction coding method may be set not to be used.

이 경우 인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 W + H + offsetX[i] 와 좌측 비인접 레퍼런스 라인 H + W + offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 2W + 2H + offsetX[i] + offsetY[i] +1 로 구성될 수 있으며, whRatio 값에 따라서 offsetX[i]와 offsetY[i] 값이 달라질 수 있다. In this case, a non-adjacent intra reference line with an intra reference line index of i may consist of an upper non-adjacent reference line W + H + offsetX[i], a left non-adjacent reference line H + W + offsetY[i], and an upper left sample. , The number of samples belonging to the non-adjacent intra reference line may be composed of 2W + 2H + offsetX[i] + offsetY[i] +1, and the values of offsetX[i] and offsetY[i] may vary depending on the whRatio value. have.

예를 들어, whRatio 값이 1 보다 큰 경우에는 offsetX[i] 값을 1, offsetY[i] 값을 0 으로 설정할 수 있고, whRatio 값이 1 보다 작은 경우에는 offsetX[i] 값을 0, offsetY[i] 값을 1로 설정할 수도 있다. For example, if the whRatio value is greater than 1, the offsetX[i] value can be set to 1 and the offsetY[i] value can be set to 0. If the whRatio value is less than 1, the offsetX[i] value can be set to 0, offsetY[ i] You can also set the value to 1.

2.52.5 인터 예측 부호화 및 복호화 방법Inter prediction coding and decoding method

이전 픽쳐의 정보를 이용하여 현재 픽쳐에 있는 블록의 예측 블록(예측 영상)을 생성하는 방법을 인터 예측 부호화 모드라고 한다. A method of generating a prediction block (prediction image) of a block in a current picture using information of a previous picture is called an inter prediction encoding mode.

현재 블록의 이전 픽쳐 내에 있는 특정 블록으로 부터 예측 블록을 생성할 수도 있다. A prediction block may be generated from a specific block in a previous picture of the current block.

부호화 단계에서 이전 픽쳐 내 블록 중 복원 에러가 가장 작은 블록을 콜 블록( collocated block)을 중심으로 탐색하여 선택할 수 있으며, 현재 블록의 좌상단 샘플과 선택된 블록의 좌상단 샘플 사이의 x축 차분 및 y축 차분을 모션 벡터(motion vector)라 정의하고, 이를 비트스트림에 전송하여 시그날링할 수 있다. 모션 벡터가 특정하는 참조 픽쳐의 특정 블록에서 인터폴레이션 등을 통해 생성한 블록을 움직임 보상 예측 블록(motion compensated predictor block)이라 한다. In the encoding step, the block with the smallest reconstruction error among the blocks in the previous picture can be selected by searching around a collocated block, and the x-axis difference and y-axis difference between the upper left sample of the current block and the upper left sample of the selected block Is defined as a motion vector, and can be signaled by transmitting it to a bitstream. A block generated through interpolation from a specific block of a reference picture specified by a motion vector is called a motion compensated predictor block.

콜 블록은 그림 14와 같이 현재 블록과 좌상단 샘플의 위치 및 크기가 같은 해당 픽쳐의 블록을 나타낸다. 해당 픽쳐는 참조 픽쳐 레퍼런스와 같은 신택스로 부터 특정 될 수 있다. As shown in Figure 14 , the collocated block represents the block of the picture with the same location and size of the current block and the upper left sample. The corresponding picture may be specified from the same syntax as the reference picture reference.

Figure pat00020
Figure pat00020

그림 14Figure 14

인터 예측 부호화 모드에서는 오브젝트의 움직임을 고려하여 예측 블록을 생성할 수 있다. In the inter prediction encoding mode, a prediction block may be generated in consideration of the motion of an object.

예를 들어, 이전 픽쳐에 있는 오브젝트가 현재 픽쳐에서 어느 방향으로 어느 정도 움직였는지 알면 현재 블록에서 움직임을 고려한 블록을 차분하여 예측 블록(예측 영상)을 생성할 수 있으며, 이를 움직임 예측 블록이라고 정의한다. For example, if you know how and in which direction an object in the previous picture has moved in the current picture, a prediction block (prediction image) can be generated by differentiating a block considering motion from the current block, and this is defined as a motion prediction block. .

현재 블록에서 움직임 예측 블록 또는 해당 예측 블록을 차분하여 잔차 블록을 생성할 수 있다. A residual block may be generated by differentiating a motion prediction block or a corresponding prediction block from the current block.

오브젝트에 움직임이 발생하면, 해당 예측 블록보다 움직임 예측 블록을 사용하면 잔차 블록의 에너지가 작아져서 압축 성능이 좋아질 수 있다. When motion occurs in an object, if a motion prediction block is used rather than a corresponding prediction block, the energy of the residual block decreases, and compression performance may be improved.

이와 같이 움직임 예측 블록을 이용하는 방법을 움직임 보상 예측이라고 부르며, 대부분의 인터 예측 부호화에서는 움직임 보상 예측을 사용한다. This method of using a motion prediction block is called motion compensation prediction, and most inter prediction coding uses motion compensation prediction.

이전 픽쳐에 있는 오브젝트가 현재 픽쳐에서 어느 방향으로, 어느 정도 움직였는지를 나타내는 값을 모션 벡터라고 한다. 모션 벡터는 시퀀스 단위 또는 타일 그룹 단위 또는 블록 단위로 서로 다른 화소 정밀도를 갖는 모션벡터를 사용할 수 있다. 예를 들어, 특정 블록에서 모션 벡터의 화소 정밀도는 octor-pel,Quarter-Pel, Half-Pel, Integer pel, 4 Integer pel 중 적어도 어느 하나 일수 있다. A value indicating in which direction and to what extent the object in the previous picture has moved in the current picture is called a motion vector. As the motion vector, motion vectors having different pixel precisions may be used in units of sequences, groups of tiles, or blocks. For example, the pixel precision of a motion vector in a specific block may be at least one of octor-pel, quarter-pel, half-pel, integer pel, and 4 integer pel.

인터 예측 모드는 translaton 모션을 이용한 인터 예측 방법과 affine 모션을 이용한 affine 인터 예측 방법이 선택적으로 사용될 수도 있다.As the inter prediction mode, an inter prediction method using translaton motion and an affine inter prediction method using affine motion may be selectively used.

2.4.12.4.1 어파인 인터 예측 부호화 및 복호화 방법Afine inter prediction coding and decoding method

비디오에서 특정 물체(object)의 움직임이 선형적으로 나타나지 않는 경우가 많이 발생한다. 예를 들어, 그림 15와 같이 카메라 줌인 (Zoom-in), 줌 아웃(Zoom-out), 회전(roation), 임의 형태로 변환을 가능하게 하는 affine 변환 등의 affine motion이 사용된 영상에서는 오브젝트의 움직임을 translation 움직임 벡터만 사용하는 경우 물체의 움직임을 효과적으로 표현할 수 없으며, 부호화 성능이 낮아질 수 있다. There are many cases in which the motion of a specific object does not appear linearly in a video. For example, as shown in Figure 15 , in an image using affine motion such as zoom-in, zoom-out, rotation, and affine transformation that enables transformation into arbitrary shapes, the object's If only translation motion vectors are used for motion, the motion of an object cannot be effectively expressed, and coding performance may be degraded.

Figure pat00021
Figure pat00021

그림 15Figure 15

어파인 모션은 다음 식 (8)과 같이 표현할 수 있다. Affine motion can be expressed as the following equation (8).

Figure pat00022
(8)
Figure pat00022
(8)

어파인 모션을 총 6개의 파라미터를 사용하여 표현하는 것은 복잡한 움직임이 있는 영상에 효과적이지만, 어파인 모션 파라미터를 부호화하는데 사용하는 비트가 많아서 부호화 효율이 떨어질 수도 있다. Expressing affine motion using a total of six parameters is effective for images with complex motion, but encoding efficiency may be degraded due to the large number of bits used to encode affine motion parameters.

이에, 4개의 파라미터로 어파인 모션을 간략화하여 표현할 수 있으며,, 이를 4 파라미터 어파인 모션 모델이라고 정의한다. 식 (9)는 4개의 파라미터로 어파인 모션을 표현한 것이다.Accordingly, affine motion can be simplified and expressed with four parameters, and this is defined as a four-parameter afine motion model. Equation (9) expresses afine motion with four parameters.

Figure pat00023
(9)
Figure pat00023
(9)

4 파라미터 어파인 모션 모델은 현재 블록의 두 컨트롤 포인트에서의 움직임 벡터를 포함할 수 있다. 컨트롤 포인트는 현재 블록의 좌상단 코너, 우상단 코너 및 좌하단 코너를 포함할 수 있다. 일 예로, 4파라미터 어파인 모션 모델은 그림 16의 좌측 그림과 같이 코딩 유닛의 좌상단 샘플 (x0,y0)에서의 모션 벡터 sv0 와 코딩 유닛의 우상단 샘플 (x1,y1)에서의 모션 벡터 sv1에 의해서 결정 될 수 있으며, sv0와 sv1을 어파인 시드 벡터라고 정의한다. 이하, 좌상단에 위치한 어파인 시드 벡터 sv0를 제 1 어파인 시드 벡터라 가정하고, 우상단에 위치한 어파인 시드 벡터 sv1를 제 2 어파인 시드 벡터라 가정하기로 한다. 4파라미터 어파인 모션 모델에서 제1/2 어파인 시드 벡터 중 하나를 좌하단에 위치한 어파인 시드 벡터로 교체하여 사용하는 것도 가능하다. The four-parameter affine motion model may include motion vectors at two control points of the current block. The control point may include an upper left corner, an upper right corner, and a lower left corner of the current block. As an example, as shown in the left figure of Figure 16 , the 4-parameter affine motion model is determined by the motion vector sv0 at the upper left sample (x0,y0) of the coding unit and the motion vector sv1 at the upper right sample (x1,y1) of the coding unit. Can be determined, and sv 0 and sv 1 are defined as affine seed vectors. Hereinafter, it is assumed that an affine seed vector sv 0 located in the upper left corner is a first affine seed vector, and an affine seed vector sv 1 located in the upper right corner is a second affine seed vector. In the 4-parameter affine motion model, it is possible to replace one of the 1/2 affine seed vectors with the affine seed vector located in the lower left corner.

Figure pat00024
Figure pat00024

그림 16Fig 16

6 파라미터 어파인 모션 모델은 그림 16의 우측 그림과 같이 4 파라미터 어파인 모션 모델에 잔여 컨트롤 포인트(예컨대, 좌하단에 샘플 (x2,y2))의 모션 벡터 sv2가 추가된 어파인 모션 모델이다. 이하, 좌상단에 위치한 어파인 시드 벡터 sv0를 제 1 어파인 시드 벡터라 가정하고, 우상단에 위치한 어파인 시드 벡터 sv1를 제 2 어파인 시드 벡터라 가정하고, 좌하단에 위치한 어파인 시드 벡터 sv2를 제3 어파인 시드 벡터라 가정한다.The 6-parameter affine motion model is an afine motion model in which the motion vector sv 2 of the residual control point (e.g., sample (x2,y2) in the lower left corner) is added to the 4-parameter affine motion model as shown in the right figure of Figure 16 . . Hereinafter, assuming that the affine seed vector sv 0 located at the top left is the first affine seed vector, the affine seed vector sv 1 located at the top right is the second affine seed vector, and the affine seed vector located at the bottom left Assume that sv 2 is the third affine seed vector.

어파인 모션을 표현하기 위한 파라미터의 개수에 관한 정보가 비트스트림에 부호화될 수 있다. 예컨대, 6 파라미터의 사용 여부를 나타내는 플래그, 4 파라미터의 사용 여부를 나타내는 플래그가 타일 그룹, 타일, 코딩 유닛 또는 CTU 단위로 부호화될 수 있다. 이에 따라, 타일 그룹, 코딩 유닛 또는 CTU 단위로 4 파라미터 어파인 모션 모델 내지 6 파라미터 어파인 모션 모델을 선택적으로 사용할 수도 있다. Information on the number of parameters for expressing affine motion may be encoded in the bitstream. For example, a flag indicating whether 6 parameters are used and a flag indicating whether 4 parameters are used may be encoded in a tile group, a tile, a coding unit, or a CTU unit. Accordingly, a 4-parameter affine motion model to a 6-parameter affine motion model may be selectively used in units of tile groups, coding units, or CTUs.

어파인 시드 벡터를 이용하여 그림 17과 같이 코딩 유닛의 서브 블록 별로 모션 벡터를 유도할 수 있으며, 이를 어파인 서브 블록 벡터라고 정의한다. _A motion vector can be derived for each sub-block of the coding unit using the affine seed vector as shown in Figure 17, and this is defined as an affine sub-block vector. _

Figure pat00025
Figure pat00025

그림 17Figure 17

어파인 서브 블록 벡터는 다음 식 (10)과 같이 유도할 수도 있다. 여기서 서브 블록의 기준 샘플 위치(x,y)는 블록의 코너에 위치한 샘플(예컨대, 좌상단 샘플)일 수도 있고, x축 또는 y축 중 적어도 하나가 중앙인 샘플(예컨대, 중앙 샘플)일 수도 있다. The affine sub-block vector can also be derived as in Equation (10) below. Here, the reference sample position (x,y) of the sub-block may be a sample located at a corner of the block (eg, an upper left sample), or a sample (eg, a center sample) in which at least one of the x-axis or y-axis is centered. .

Figure pat00026
(10)
Figure pat00026
(10)

어파인 서브 블록 벡터를 이용하여 코딩 유닛 단위 내지 코딩 유닛 내 서브 블록 단위로 움직임 보상을 수행할 수 있으며, 이를 어파인 인터 예측 모드라고 정의한다. 식 (10)에서 (x1-x0)는 코딩 유닛의 너비와 유닛의 너비 w와 같은 값이거나, w/2 또는 w/4로 설정할 수도 있다. Motion compensation may be performed in units of coding units or sub-blocks within the coding unit using the afine sub-block vector, and this is defined as an afine inter prediction mode. In Equation (10), (x 1 -x 0 ) may be the same as the width of the coding unit and the unit width w, or may be set to w/2 or w/4.

현재 코딩 유닛의 주변 블록의 어파인 모션 벡터(어파인 서브 블록 벡터 내지 어파인 시드 벡터)를 이용하여 현재 코딩 유닛의 어파인 시드 벡터 및 참조 픽쳐 리스트를 를 유도할 수 있으며, 이를 어파인 머지 모드라고 부른다. The affine seed vector and the reference picture list of the current coding unit can be derived by using the afine motion vector (afine subblock vector or afine seed vector) of the neighboring block of the current coding unit, and this is an afine merge mode. Is called.

Figure pat00027
Figure pat00027

그림 18Fig. 18

어파인 머지 모드는 현재 코딩 유닛의 주변 블록 (예를 들어, 그림 18의 A, B, C, D, E) 중 적어도 어느 하나가 어파인 모드(어파인 인터 예측 모드 내지 어파인 머지 모드)로 부호화 된 경우에 주변 블록의 어파인 모션 벡터로 부터 현재 블록의 어파인 시드 벡터를 유도할 수 있다. 주변 블록 중 어파인 모드로 부호화 된 블록을 어파인 주변 블록이라고 부른다. In the afine merge mode, at least one of the neighboring blocks of the current coding unit (e.g., A, B, C, D, E in Fig. 18) is an afine mode (afine inter prediction mode or afine merge mode). In the case of encoding, the affine seed vector of the current block can be derived from the affine motion vector of the neighboring block. A block encoded in the affine mode among neighboring blocks is called an affine neighboring block.

주변 블록의 탐색 순서는 A --> B --> C --> D --> E와 같이 기 정의된 순서를 따르며, 탐색 순서 중 가장 첫 번째 오는 어파인 주변 블록에서 현재 블록의 어파인 시드 벡터를 유도할 수 있다 또는 주변 블록 중 어느 하나의 어파인 주변 블록을 선택하고, 선택된 주변 블록의 인덱스를 부호화할 수도 있다. The search order of the neighboring blocks follows a predefined order such as A --> B --> C --> D --> E, and the affine seed of the current block from the neighboring block, which is the first affine in the search order. A vector may be derived or a neighboring block, which is an affine of one of the neighboring blocks, may be selected, and the index of the selected neighboring block may be encoded.

Figure pat00028
Figure pat00028

그림 19Figure 19

또는 현재 코딩 유닛의 주변 블록 A0, A1, B0, B1, B2 에서 최대 2개의 어파인 시드 벡터를 유도할 수도 있다. 일 예로, 그림 19의 주변 블록 중 {A0,A1 }중어느 하나의 주변 블록에서 어파인 시드 벡터를 유도하고, {B0, B1, B2 } 중에서 또 하나의 어파인 시드 벡터를 유도할 수 있으며, 이를 어파인 머지 모드라고 한다. Alternatively, up to two affine seed vectors may be derived from neighboring blocks A0, A1, B0, B1, and B2 of the current coding unit. As an example, an affine seed vector can be derived from one of {A0,A1} among the neighboring blocks in Figure 19, and another affine seed vector can be derived from {B0, B1, B2}. This is called affine merge mode.

그림 20과 같이 어파인 주변 블록의 시드 벡터 nv0 = (nv0x, nv0y) 및 nv1 = (nv1x, nv1y)에서 제 3 시드 벡터 nv2= (nv2x, nv2y) 를 유도할 수 있다. As shown in Figure 20, from the seed vectors nv 0 = (nv 0x , nv 0y ) and nv 1 = (nv 1x , nv 1y ) of the affine surrounding blocks, the third seed vector nv 2 = (nv 2x , nv 2y ) can be derived. I can.

Figure pat00029
Figure pat00029

그림 20Figure 20

다음 식 (11)과 같이 어파인 주변 블록의 제 3 시드 벡터를 유도할 수 있다. The third seed vector of the neighboring block of the affine can be derived as shown in Equation (11) below.

Figure pat00030
(11)
Figure pat00030
(11)

다음 식 (12) 내지 (13)과 같이 주변 블록의 제1 어파인 시드 벡터, 제 2 어파인 시드 벡터 및 제 3 시드 벡터를 이용하여 현재 블록의 시드 벡터를 유도할 수 있다. The seed vector of the current block can be derived using the first affine seed vector, the second affine seed vector, and the third seed vector of the neighboring block as shown in Equations (12) to (13) below.

Figure pat00031
(12)
Figure pat00031
(12)

Figure pat00032
(13)
Figure pat00032
(13)

또는, 주변 블록의 제1 어파인 시드 벡터, 제 2 어파인 시드 벡터 및 제 3 시드 벡터 중 2개를 이용하여 현재 블록의 시드 벡터를 유도할 수도 있다. Alternatively, the seed vector of the current block may be derived using two of the first affine seed vector, the second affine seed vector, and the third seed vector of the neighboring block.

Figure pat00033
Figure pat00033

그림 21Fig. 21

주변 블록의 제1 시드 벡터, 제2 시드 벡터 또는 제3 시드 벡터 중 적어도 하나를 어파인 주변 블록의 서브 블록 중 최하단에 위치한 서브 블록의 움직임 벡터로 치환할 수 있다. 일 예로, 그림 21와 같이 어파인 주변 블록 중 좌하단 서브 블록 또는 하단 중앙 서브 블록 (이하, 제 4 어파인 서브 블록 )과 어파인 주변 블록 중 우하단 서브 블록 또는 하단 중앙 서브 블록(이하, 제 5 어파인 서브 블록)을 기준으로 특정 샘플 위치를 특정할 수 있고, 특정 샘플 위치를 이용하여 어파인 시드 벡터를 유도할 수도 있다. 이 특정 샘플위치를 어파인 기준 샘플의 위치라고 부른다. At least one of the first seed vector, the second seed vector, and the third seed vector of the neighboring block may be replaced with a motion vector of a sub-block located at the bottom of the sub-block of the affine neighboring block. As an example, as shown in Figure 21, the lower left sub-block or the lower center sub-block (hereinafter, the fourth affine sub-block) among blocks surrounding the affine, and the lower-right sub-block or the lower center sub-block (hereinafter, 5 Affine sub-block) can be used to specify a specific sample location, and an affine seed vector can be derived using a specific sample location. This specific sample position is called the position of the affine reference sample.

제 4 어파인 서브 블록 및 제 5 어파인 서브 블록의 위치는 대상 블록이 현재 블록의 상위 CTU에 존재하는지 여부에 따라 서로 다르게 설정할 수도 있다. 예를 들어, 대상 블록이 현재 블록의 상위 CTU(현재 블록이 속한 CTU의 상측 CTU)에 존재하면, 그림 22와 같이 제 4 어파인 서브 블록은 하단 중앙 서브 블록으로 설정하고, 제 5 어파인 서브 블록은 우하단 서브 블록으로 설정할 수도 있다. 이 때 제 4 어파인 기준 샘플 (제 4 어파인 서브 블록의 기준 샘플)과 제 5 어파인 기준 샘플(제 5 어파인 서브 블록의 기준 샘플)의 차이는 멱급수(2n)이 되도록 설정할 수 있다.예컨대, nbW/2이 되도록 설정할 수도 있다. 여기서 nbW는 주변 블록의 너비로 설정할 수도 있다. The positions of the fourth affine sub-block and the fifth affine sub-block may be set differently depending on whether the target block is in an upper CTU of the current block. For example, if the target block exists in the upper CTU of the current block (the upper CTU of the CTU to which the current block belongs), the 4th affine subblock is set as the lower center subblock, and the 5th affine sub The block can also be set as a lower-right sub-block. At this time, the difference between the fourth affine reference sample (the reference sample of the fourth affine sub-block) and the fifth affine reference sample (the reference sample of the fifth affine sub-block) may be set to be a power series (2 n ). For example, it can be set to be nbW/2. Here, nbW can also be set as the width of the surrounding block.

주변 블록의 제1 시드 벡터, 제2 시드 벡터 또는 제3 시드 벡터 중 적어도 하나를 어파인 주변 블록의 서브 블록 중 최하단에 위치한 서브 블록의 움직임 벡터로 치환할 수 있다. 일 예로, 그림 21와 같이 어파인 주변 블록 중 좌하단 서브 블록 또는 하단 중앙 서브 블록 (이하, 제 4 어파인 서브 블록 )과 어파인 주변 블록 중 우하단 서브 블록 또는 하단 중앙 서브 블록(이하, 제 5 어파인 서브 블록)을 기준으로 특정 샘플 위치를 특정할 수 있고, 특정 샘플 위치를 이용하여 어파인 시드 벡터를 유도할 수도 있다. 이 특정 샘플위치를 어파인 기준 샘플의 위치라고 부른다. At least one of the first seed vector, the second seed vector, and the third seed vector of the neighboring block may be replaced with a motion vector of a sub-block located at the bottom of the sub-block of the affine neighboring block. As an example, as shown in Figure 21, the lower left sub-block or the lower center sub-block (hereinafter, the fourth affine sub-block) among blocks surrounding the affine, and the lower-right sub-block or the lower center sub-block (hereinafter, 5 Affine sub-block) can be used to specify a specific sample location, and an affine seed vector can be derived using a specific sample location. This specific sample position is called the position of the affine reference sample.

제 4 어파인 서브 블록 및 제 5 어파인 서브 블록의 위치는 대상 블록이 현재 블록의 상위 CTU에 존재하는지 여부에 따라 서로 다르게 설정할 수도 있다. 예를 들어, 대상 블록이 현재 블록의 상위 CTU(현재 블록이 속한 CTU의 상측 CTU)에 존재하면, 그림 22와 같이 제 4 어파인 서브 블록은 하단 중앙 서브 블록으로 설정하고, 제 5 어파인 서브 블록은 우하단 서브 블록으로 설정할 수도 있다. 이 때 제 4 어파인 기준 샘플 (제 4 어파인 서브 블록의 기준 샘플)과 제 5 어파인 기준 샘플(제 5 어파인 서브 블록의 기준 샘플)의 차이는 멱급수(2n)이 되도록 설정할 수 있다.예컨대, nbW/2이 되도록 설정할 수도 있다. 여기서 nbW는 주변 블록의 너비로 설정할 수도 있다. The positions of the fourth affine sub-block and the fifth affine sub-block may be set differently depending on whether the target block is in an upper CTU of the current block. For example, if the target block exists in the upper CTU of the current block (the upper CTU of the CTU to which the current block belongs), the 4th affine subblock is set as the lower center subblock, and the 5th affine sub The block can also be set as a lower-right sub-block. At this time, the difference between the fourth affine reference sample (the reference sample of the fourth affine sub-block) and the fifth affine reference sample (the reference sample of the fifth affine sub-block) may be set to be a power series (2 n ). For example, it can be set to be nbW/2. Here, nbW can also be set as the width of the surrounding block.

Figure pat00034
Figure pat00034

그림 22Figure 22

대상 블록이 현재 블록의 좌측 CTU에 존재하면(현재 블록이 속한 CTU의 좌측 CTU), 제 4 어파인 서브 블록은 좌하단 서브 블록으로 설정하고, 제 5 어파인 서브 블록은 우하단 서브 블록으로 설정할 수도 있다. If the target block exists in the left CTU of the current block (the CTU to the left of the CTU to which the current block belongs), the fourth affine subblock is set as the lower left subblock, and the fifth affine subblock is set as the lower right subblock. May be.

Figure pat00035
Figure pat00035

그림 23Figure 23

또 다른 예를 들어, 대상 블록이 현재 블록의 상위 CTU(현재 블록이 속한 CTU의 상측 CTU)에 존재하면, 그림 23과 같이 제 4 어파인 서브 블록은 좌하단 서브 블록으로 설정하고, 제 5 어파인 서브 블록은 하단 중앙 서브 블록으로 설정할 수도 있다. 이 때 제 4 어파인 기준 샘플 (제 4 어파인 서브 블록의 기준 샘플)과 제 5 어파인 기준 샘플(제 5 어파인 서브 블록의 기준 샘플)의 차이는 멱급수(2n)이 되도록 설정할 수 있다.예컨대, nbW/2이 되도록 설정할 수도 있다. 여기서 nbW는 주변 블록의 너비로 설정할 수도 있다. For another example, if the target block exists in the upper CTU of the current block (the upper CTU of the CTU to which the current block belongs), the fourth affine sub-block is set as the lower left sub-block, as shown in Figure 23, and The in sub-block can also be set as the lower center sub-block. At this time, the difference between the fourth affine reference sample (the reference sample of the fourth affine sub-block) and the fifth affine reference sample (the reference sample of the fifth affine sub-block) may be set to be a power series (2 n ). For example, it can be set to be nbW/2. Here, nbW can also be set as the width of the surrounding block.

어파인 기준 샘플 위치는 서브 블록의 좌상단 블록이나 우하단 블록으로 설정하거나, 중앙에 위치한 샘플로 설정할 수도 있다. 또는 제 4 어파인 서브 블록과 제 5 어파인 서브 블록이 서로 다른 어파인 기준 샘플 위치를 갖도록 설정할 수도 있다. 구체적으로 예를 들어, 그림 24의 왼쪽 그림과 같이 제 4 어파인 서브 블록의 어파인 기준 샘플 위치(이하, 제 4 어파인 기준 샘플 위치) 는 서브 블록 내 좌상단 샘플로 설정할 수 있고, 제5 어파인 서브 블록의 어파인 기준 샘플 위치(이하, 제 5 어파인 기준 샘플 위치)는 서브 블록내 우상단 샘플 (xi, yi)의 우측 샘플 (xi+1, yi)로 설정할 수 있다. The affine reference sample position may be set to the upper left block or the lower right block of the sub-block, or may be set to a sample located at the center. Alternatively, the fourth affine sub-block and the fifth affine sub-block may be set to have different affine reference sample positions. Specifically, for example, as shown in the left figure of Figure 24, the affine reference sample position of the fourth affine sub-block (hereinafter, the fourth affine reference sample position) can be set as the upper left sample within the sub-block, and the fifth affine The affine reference sample position (hereinafter, the fifth affine reference sample position) of the in sub-block may be set as the right sample (x i +1, y i ) of the upper right sample (x i , y i ) in the sub-block.

이때, 제5 어파인 서브 블록의 기준 위치는 우상단 샘플의 우측 샘플을 사용하되, 제5 어파인 서브 블록의 움직임 벡터는 우상단 샘플의 움직임 벡터로 설정될 수 있다. 또는, 우상단 샘플의 우측 샘플의 움직임 벡터를 제5 어파인 서브 블록의 움직임 벡터로 설정할 수 있다.In this case, the reference position of the fifth affine sub-block may be set to a right sample of the upper-right sample, and the motion vector of the fifth affine sub-block may be set as a motion vector of the upper-right sample. Alternatively, the motion vector of the right sample of the upper right sample may be set as the motion vector of the fifth affine sub-block.

또 다른 예를 들어, 그림 24의 오른쪽 그림과 같이 제 4 어파인 기준 샘플 위치는 제 4 어파인 서브 블록 내 우상단 샘플 (xi,yi)의 좌측 샘플 (xi-1,yi)로 설정할 수 있다. 이 때, 제 4 어파인 서브 블록의 기준 위치는 좌상단 샘플의 좌측 샘플을 사용하되, 제 4 어파인 서브 블록의 움직임 벡터는 좌상단 샘플의움직임 벡터로 설정될 수 있다. 또는, 좌상단 샘플의 좌측 샘플의 움직임 벡터를 제 4 어파인 서브 블록의 움직임 벡터로 설정할 수 있다. For another example, as shown in the right figure of Figure 24, the 4th affine reference sample position is the left sample (x i -1,y i ) of the upper right sample (x i ,y i ) in the 4th affine subblock. Can be set. In this case, the reference position of the fourth affine sub-block may be set to a left sample of the upper left sample, and the motion vector of the fourth affine sub-block may be set as a motion vector of the upper left sample. Alternatively, the motion vector of the left sample of the upper left sample may be set as the motion vector of the fourth affine sub-block.

Figure pat00036
Figure pat00036

그림 24Figure 24

다른 예를 들어, 그림 25의 좌측 그림과 같이 제 4 어파인 기준 샘플 위치는 서브 블록 내 좌하단 샘플로 설정할 수 있고, 제 5 어파인 기준 샘플 위치는 서브 블록내 우하단 샘플 (xj, yj)의 우측 샘플 (xj+1, yj)로 설정할 수 있다. 이때, 제5 어파인 서브 블록의 기준 위치는 우하단 샘플의 우측 샘플을 사용하되, 제5 어파인 서브 블록의 움직임 벡터는 우하단 샘플의 움직임 벡터로 설정될 수 있다. 또는, 우하단 샘플의 우측 샘플의 움직임 벡터를 제5 어파인 서브 블록의 움직임 벡터로 설정할 수 있다.For another example, as shown in the left figure of Figure 25, the fourth affine reference sample position can be set as the lower left sample in the sub-block, and the fifth affine reference sample position is the lower right sample in the sub-block (x j , y It can be set to the right sample (x j +1, y j ) of j ). In this case, the reference position of the fifth affine sub-block is a right sample of the lower-right sample, but the motion vector of the fifth affine sub-block may be set as a motion vector of the lower-right sample. Alternatively, the motion vector of the right sample of the lower right sample may be set as the motion vector of the fifth affine sub-block.

또 다른 예를 들어, 그림 25의 좌측 그림과 같이 제 4 어파인 기준 샘플 위치는 서브 블록 내 좌하단 샘플 (xj, yj)의 좌측 샘플 (xj-1, yj)로 설정할 수 있고, 제 5 어파인 기준 샘플 위치는 서브 블록내 우하단 샘플로 설정할 수 있다. For another example, as shown in the left figure of Figure 25, the reference sample position of the fourth affine can be set as the left sample (x j -1, y j ) of the lower left sample (x j , y j ) in the subblock. , The fifth affine reference sample position may be set as the lower right sample within the sub-block.

이때, 제5 어파인 서브 블록의 기준 위치는 좌하단 샘플의 좌측 샘플을 사용하되, 제5 어파인 서브 블록의 움직임 벡터는 좌하단 샘플의 움직임 벡터로 설정될 수 있다. 또는, 좌하단 샘플의 좌측 샘플의 움직임 벡터를 제5 어파인 서브 블록의 움직임 벡터로 설정할 수 있다.In this case, the reference position of the fifth affine sub-block may be a left sample of the lower left sample, and the motion vector of the fifth affine sub-block may be set as a motion vector of the lower left sample. Alternatively, the motion vector of the left sample of the lower left sample may be set as the motion vector of the fifth affine sub-block.

Figure pat00037
Figure pat00037

그림 25Figure 25

다른 예를 들어, 그림 26의 좌측 그림과 같이 제 4 어파인 기준 샘플 위치는 서브 블록 내 좌상단 샘플과 좌하단 샘플 사이에 있는 샘플(이하, 좌 중간 샘플) 로 설정할 수 있고, 제 5 어파인 기준 샘플 위치는 서브 블록내 우상단 샘플과 우하단 샘플 사이에 있는 샘플 (이하, 우 중간 샘플) (xk, yk)의 우측 샘플 (xk+1, yk)로 설정할 수 있다. 이때, 제5 어파인 서브 블록의 기준 위치는 우 중간 샘플의 우측 샘플을 사용하되, 제5 어파인 서브 블록의 움직임 벡터는 우 중간 샘플의 움직임 벡터로 설정될 수 있다. 또는, 우 중간 샘플의 우측 샘플의 움직임 벡터를 제5 어파인 서브 블록의 움직임 벡터로 설정할 수 있다.For another example, as shown in the left figure of Figure 26, the 4th affine reference sample position can be set to a sample between the upper left sample and the lower left sample (hereinafter, left middle sample) in the subblock, and the 5th affine reference The sample position may be set as a right sample (xk+1, yk) of a sample (hereinafter, right middle sample) (x k , y k ) between the upper right sample and the lower right sample in the sub-block. In this case, the reference position of the fifth affine sub-block may be a right sample of the right middle sample, and the motion vector of the fifth affine sub-block may be set as a motion vector of the right middle sample. Alternatively, the motion vector of the right sample of the right middle sample may be set as the motion vector of the fifth affine sub-block.

또 다른 예를 들어, 그림 26의 우측 그림과 같이 제 4 어파인 기준 샘플 위치는 좌 중간 샘플 (xk, yk)의 좌측 샘플 (xk-1, yk)로 설정할 수 있고, 제 5 어파인 기준 샘플 위치는 우 중간 샘플로 설정할 수 있다. For another example, as shown in the right figure of Figure 26, the fourth affine reference sample position can be set to the left sample (x k -1, y k ) of the left middle sample (x k , y k ), and the fifth The affine reference sample position can be set to the right middle sample.

Figure pat00038
Figure pat00038

그림 26Fig. 26

또는 식 (14) 내지 (15)와 같이 어파인 주변 블록의 제 1 시드 벡터와 제 2 시드 벡터로 부터 제 4 어파인 서브 블록/제 5 어파인 서브 블록의 어파인 모션 벡터를 유도할 수 있으며, 이를 각각 제 4 어파인 시드 벡터 nv3=(nv3x, nv3y) 및 제 5 어파인 시드 벡터 nv4=(nv4x, nv4y)라 부른다. Alternatively, as shown in equations (14) to (15), the affine motion vector of the fourth affine sub-block/the fifth affine sub-block can be derived from the first seed vector and the second seed vector of the affine neighboring block. , This is called a fourth affine seed vector nv 3 = (nv 3x , nv 3y ) and a fifth affine seed vector nv 4 = (nv 4x , nv 4y ), respectively.

Figure pat00039
(14)
Figure pat00039
(14)

Figure pat00040
(15)
Figure pat00040
(15)

제 4 어파인 시드 벡터 및 제 5 어파인 시드 벡터를 이용하여 식 (16) 내지 (17)과 같이 현재 블록의 제 1 어파인 시드 벡터 및 제 2 어파인 시드 벡터를 유도할 수 있다. The first affine seed vector and the second affine seed vector of the current block may be derived as shown in Equations (16) to (17) using the fourth affine seed vector and the fifth affine seed vector.

Figure pat00041
(16)
Figure pat00041
(16)

Figure pat00042
(17)
Figure pat00042
(17)

식 (16)내지 (17)에서 xn4-xn3을 Wseed로 설정할 수 있다. Wseed 를 서브 시드 벡터 너비라고 부른다. 서브 시드 벡터 너비 Wseed는 2의 멱급수(2n)가 되도록 설정할 수 있다. In equations (16) to (17), x n4 -x n3 can be set to Wseed. Wseed is called the subseed vector width. The subseed vector width Wseed can be set to be a power series of 2 (2 n ).

서브 시드 벡터 너비 Wseed가 2의 멱급수(2n)가 아닌 경우에는 Wseed가 2의 멱급수가 되도록 특정 오프셋을 더한 후에 식 (16)내지 (17)을 적용할 수도 있고, 나누기 연산 대신에 비트 쉬프트 연산으로 대체할 수도 있다. If the subseed vector width Wseed is not a power series of 2 (2 n ), equations (16) to (17) can be applied after adding a specific offset so that Wseed is the power series of 2, or a bit shift operation instead of a division operation. Can also be replaced with

LCU boundary에 존재하는 경우에 식 (14) 내지 (15)와 같이 어파인 시드 벡터를 유도하지 않고, 제 4 어파인 기준 샘플 위치에 있는 translation모션 벡터 정보를 제 4 어파인 시드 벡터로 설정하고, 제 5어파인 기준 샘플 위치에 있는 translation 모션 벡터 정보를 제 5 어파인 시드 벡터로 설정할 수도 있다. When present in the LCU boundary, the affine seed vector is not derived as in Equations (14) to (15), and the translation motion vector information at the position of the fourth affine reference sample is set as the fourth affine seed vector, The translation motion vector information at the position of the fifth affine reference sample may be set as the fifth affine seed vector.

LCU boundary에 존재하는지 여부에 관계없이 제 i 어파인 기준 샘플 위치에 있는 translation 모션 벡터 정보를 제 i 어파인 시드 벡터로 설정할 수 있다. 여기서 i의 범위는 1 내지 5로 설정할 수 있다. Regardless of whether it exists in the LCU boundary, translation motion vector information at the i-th affine reference sample position may be set as the i-th affine seed vector. Here, the range of i can be set to 1 to 5.

또는 제 4 어파인 기준 샘플 위치에 있는 translation 모션 벡터 정보를 제 1 어파인 시드 벡터로 설정할 수도 있고, 제 5 어파인 기준 샘플 위치에 있는 translation 모션 벡터 정보를 제 2 어파인 시드 벡터로 설정할 수도 있다. Alternatively, the translation motion vector information at the fourth affine reference sample position may be set as the first affine seed vector, and the translation motion vector information at the fifth affine reference sample position may be set as the second affine seed vector. .

Figure pat00043
Figure pat00043

그림 27Fig. 27

또는 어파인 기준 샘플이 어파인 주변 블록에 속하지 않는 경우에는 어파인 기준 샘플과 가장 가까운 어파인 주변 블록의 샘플에서 모션 벡터 정보를 유도할 수도 있으며, 이를 변형 어파인 머지 벡터 유도 방법 이라고 부른다. Alternatively, if the affine reference sample does not belong to the affine neighboring block, motion vector information may be derived from the sample of the affine neighboring block closest to the affine reference sample, and this is called a modified affine merge vector derivation method.

구체적으로 예를 들어, 그림 27 과 같이 제 5 어파인 기준 샘플 (Xn4, yn4)이 어파인 주변 블록에 속하지 않는 경우에는 제 5 어파인 기준 샘플의 좌측 경계 샘플 (즉, (Xn4-1, yn4) )을 포함하는 블록의 translation 모션 벡터 정보를 제 5 어파인 시드 벡터로 설정할 수도 있다. Specifically, for example, as shown in Figure 27, when the fifth affine reference sample (X n4 , y n4 ) does not belong to the affine neighboring block, the left boundary sample of the fifth affine reference sample (that is, (X n4- The translation motion vector information of the block including 1, y n4 )) may be set as the fifth affine seed vector.

2.4.22.4.2 가중 어파인 예측 부호화 방법Weighted affine prediction coding method

Figure pat00044
Figure pat00044

그림 28Fig. 28

하나의 코딩 블록에 대해 복수개의 분할 패턴을 적용할 수 있다. 일 예로, 그림 28과 같이 코딩 블록을 복수개의 서브 블록들로 분할할 때, 2개의 패턴을 적용할 수 있다. 그림 28의 pattern0과 같은 패턴으로 서브 블록을 나눈 코딩 블록을 제 1 패턴 코딩 블록이라하고, 그림 28의 pattern1과 같은 패턴으로 서브 블록을 나눈 코딩 블록을 제 2 패턴 코딩 블록이라 한다. pattern N 과 pattern N+1은 코딩 블록을 분할하는 수평선의 개수, 수직선의 개수, 수평선간의 높이차, 수직선간의 너비차, 최초 수평선의 위치, 최초 수직선의 위치, 분할 결과로 생성되는 서브 블록의 크기/형태, 서브 블록의 개수 중 적어도 하나가 상이할 수 있다. A plurality of division patterns can be applied to one coding block. For example, when dividing the coding block into a plurality of sub-blocks as shown in Figure 28, two patterns can be applied. A coding block obtained by dividing a sub-block by a pattern like pattern0 in Figure 28 is called a first pattern coding block, and a coding block by dividing a sub-block by pattern like pattern1 in Figure 28 is called a second pattern coding block. Pattern N and pattern N+1 are the number of horizontal lines dividing the coding block, the number of vertical lines, the height difference between the horizontal lines, the width difference between the vertical lines, the location of the first horizontal line, the location of the first vertical line, and the size of the sub-block created as a result of the division. / At least one of the shape and the number of sub-blocks may be different.

제1 패턴 코딩 블록에 적용되는 분할 패턴과 제2 패턴 코딩 블록에 적용되는 분할 패턴은 부호화기 및 복호화기에서 기 정의된 것일 수 있다. 또는, 제1 패턴 코딩 블록 및/또는 제2 패턴 코딩 블록에 적용되는 분할 패턴에 관한 정보가 비트스트림을 통해 시그날링될 수 있다. 또는, 제1 패턴 코딩 블록에 적용되는 분할 패턴에 기초하여 제2 패턴 코딩 블록에 적용되는 분할 패턴을 결정할 수 있다.The split pattern applied to the first pattern coding block and the split pattern applied to the second pattern coding block may be predefined by an encoder and a decoder. Alternatively, information on a division pattern applied to the first pattern coding block and/or the second pattern coding block may be signaled through a bitstream. Alternatively, a division pattern applied to the second pattern coding block may be determined based on a division pattern applied to the first pattern coding block.

어파인 인터 예측 부호화 방법을 이용하여 제 1 패턴 코딩 블록에 대한 어파인 예측 영상 P0(이하, 제 1 패턴 어파인 예측 영상) 및 제 1 패턴 코딩 블록에 대한 어파인 예측 영상 P1(이하, 제 2 패턴 어파인 예측 영상)을 유도할 수 있다. Using the afine inter prediction encoding method, the affine prediction image P0 for the first pattern coding block (hereinafter, the first pattern affine prediction image) and the afine prediction image P1 for the first pattern coding block (hereinafter, the second Pattern affine prediction image) can be derived.

제1 패턴 어파인 예측 영상과 제2 패턴 어파인 예측 영상을 유도하는데 사용되는 움직임 정보는 동일하다. 일 예로, 동일한 CPMVs에 기초하여 각 패턴 코딩 블록에 포함된 서브 블록들의 모션 벡터를 유도할 수 있다. The motion information used to derive the first pattern affine prediction image and the second pattern affine prediction image are the same. For example, motion vectors of sub-blocks included in each pattern coding block may be derived based on the same CPMVs.

또는, 제1 패턴 어파인 예측 영상을 유도하기 위한 움직임 정보와 제2 패턴 어파인 예측 영상을 유도하기 위한 움직임 정보가 상이할 수 있다. 일 예로, 제1 패턴 어파인 예측 영상을 유도하기 위한 CPMV는 제1 움직임 벡터 후보를 기초로 유도하고, 제2 패턴 어파인 예측 영상을 유도하기 위한 CPMV는 제2 움직임 벡터 후보를 기초로 유도할 수 있다. Alternatively, motion information for inducing the first pattern affine prediction image and motion information for inducing the second pattern affine prediction image may be different. As an example, CPMV for inducing a first pattern affine prediction image is derived based on a first motion vector candidate, and CPMV for inducing a second pattern affine prediction image is derived based on a second motion vector candidate. I can.

코딩 블록의 예측 샘플은 제 1 패턴 어파인 예측 영상과 제 2 패턴 어파인 예측 영상을 가중 예측하여 획득될 수 있다. 이를 가중 어파인 예측 부호화 모드라 정의 한다. 가중 예측에 사용되는 가중치를 가중 어파인 예측치라 한다. The prediction sample of the coding block may be obtained by weighted prediction of the first pattern affine prediction image and the second pattern affine prediction image. This is defined as a weighted affine prediction coding mode. The weights used for weighted prediction are called weighted affine predictions.

가중 어파인 예측 부호화 모드는 코딩 블록이 단방향 예측인 경우에만 허용될 수도 있다. The weighted affine prediction coding mode may be allowed only when the coding block is unidirectional prediction.

가중 어파인 예측 부호화 모드로 부호화된 코딩 블록은 어파인 머지 벡터 유도 방법 또는 변형 어파인 머지 벡터 유도 방법을 사용하지 않도록 설정할 수도 있다. The coding block encoded in the weighted affine prediction coding mode may be set not to use the affine merge vector derivation method or the modified affine merge vector derivation method.

가중 어파인 예측 부호화 모드에서 어파인 머지 벡터 유도 방법 또는 변형 어파인 머지 벡터 유도 방법을 사용할 수도 있다. In the weighted affine prediction encoding mode, an affine merge vector derivation method or a modified affine merge vector derivation method may be used.

가중 어파인 예측치는 현재 코딩 블록에 인접한 주변 블록으로부터 유도할 수 있다. 일 예로, 주변 블록이 가중 어파인 예측 부호화 모드로 부호화 된 경우에는 주변 블록의 가중 어파인 예측치를 현재 코딩 블록의 가중 어파인 예측치로 설정할 수도 있다. 또는, 주변 블록의 gbi_idx를 기초로 현재 코딩 블록의 가중 어파인 예측치를 결정할 수 있다.The weighted affine prediction value can be derived from neighboring blocks adjacent to the current coding block. As an example, when a neighboring block is encoded in a weighted affine prediction coding mode, a weighted affine prediction value of the neighboring block may be set as a weighted affine prediction value of the current coding block. Alternatively, the weighted affine prediction value of the current coding block may be determined based on the gbi_idx of the neighboring block.

또는, 가중 어파인 예측치를 결정하기 위한 정보가 비트스트림을 통해 시그날링될 수 있다. 상기 정보는 복수의 가중치 세트 중 어느 하나를 가리키는 인덱스일 수 있다. Alternatively, information for determining the weighted affine prediction value may be signaled through the bitstream. The information may be an index indicating any one of a plurality of weight sets.

2.4.32.4.3 머지 모드 부호화 방법 Merge mode coding method

현재 코딩 유닛의 모션 정보(모션 벡터, 참조 픽쳐 인덱스 등)를 부호화 하지 않고, 주변 블록의 모션 정보로 부터 유도할 수 있다. 주변 블록 중 어느 하나의 모션 정보를 현재 코딩 유닛의 모션 정보로 설정할 수 있으며, 이를 머지 모드(merge mode)라고 정의 한다. Motion information (motion vector, reference picture index, etc.) of the current coding unit is not encoded, and can be derived from motion information of neighboring blocks. Motion information of any one of the neighboring blocks can be set as motion information of the current coding unit, and this is defined as a merge mode.

머지 모드에 사용되는 주변 블록은 그림 29의 머지 후보 인덱스 0 내지 4 와 같이 현재 코딩 유닛과 인접한 블록 (현재 코딩 유닛의 경계와 맞닿은 블록)일 수도 있고, 그림 29의 머지 후보 인덱스 5 내지 26과 같이 인접하지 않은 블록일 수도 있다. Neighboring blocks used for the remaining mode may be a picture 29 remaining candidate indices from 0 to 4 and the block are adjacent to the coding unit as the (current boundary with the abutting block of the coded unit), as shown in Figure 29, the remaining candidate index from 5 to 26 of the It may be a non-adjacent block.

Figure pat00045
Figure pat00045

그림 29Fig. 29

머지 후보가 현재 블록과의 거리가 기정의된 임계값을 넘어가면 가용(available)하지 않은 것으로 설정할 수 있다. If the distance of the merge candidate to the current block exceeds a predefined threshold, it may be set as not available.

예를 들어, 기 정의된 임계값을 CTU의 높이(ctu_height) 또는 ctu_height+N으로 설정할 수도 있으며, 이를 머지 후보 가용 임계값이라고 정의 한다. 즉 머지 후보의 y축 좌표(yi)와 현재 코딩 유닛의 좌상단 샘플(이하, 현재 코딩 유닛 기준 샘플)의 y축 좌표 차분 (y0) (즉, yi - y0)이 머지 후보 가용 임계값 보다 큰 경우에는 머지 후보를 가용(Available)하지 않은 것으로 설정할 수 있다. 여기서 N은 기 정의된 오프셋 값이다. 구체적으로 예를 들어, N을 16으로 설정할 수도 있고, ctu_height으로 설정할 수도 있다. For example, a predefined threshold may be set to the height of the CTU (ctu_height) or ctu_height+N, and this is defined as a merge candidate available threshold. That is, the y-axis coordinate (y i ) of the merge candidate and the y-axis coordinate difference (y 0 ) (i.e., y i- y 0 ) of the upper left sample of the current coding unit (hereinafter, the reference sample of the current coding unit) are the merge candidate available threshold If it is larger than the value, the merge candidate may be set as not available. Here, N is a predefined offset value. Specifically, for example, N may be set to 16 or ctu_height may be set.

Figure pat00046
Figure pat00046

그림 30Fig. 30

CTU 경계 (CTU boundary)를 넘어가는 머지 후보가 많은 경우에는 비가용 머지 후보가 많이 발생하여, 부호화 효율이 낮아질 수도 있다. 코딩 유닛의 위쪽에 존재하는 머지 후보(이하, 상측 머지 후보) 는 가능한 작게 설정하고, 코딩 유닛의 좌측 및 하단(이하, 좌하단 머지 후보)에 존재하는 머지 후보는 가능한 많게 설정할 수도 있다. When there are many merge candidates crossing the CTU boundary, many unusable merge candidates occur, and encoding efficiency may be lowered. Merge candidates existing above the coding unit (hereinafter, upper merge candidates) may be set as small as possible, and merge candidates existing at the left and lower sides of the coding unit (hereinafter, lower left merge candidates) may be set as many as possible.

그림 30과 같이 현재 코딩 유닛 기준 샘플의 y축 좌표와 상측 머지 후보의 y축 좌표의 차가 코딩 유닛 높이의 2배가 넘지 않도록 설정할 수도 있다. As shown in Fig. 30, the difference between the y-axis coordinate of the current coding unit reference sample and the y-axis coordinate of the upper merge candidate may not exceed twice the height of the coding unit.

그림 30과 현재 코딩 유닛 기준 샘플의 x축 좌표와 좌하단 머지 후보의 x축 좌표의 차가 코딩 유닛 너비의 2배가 넘지 않도록 설정할 수도 있다. It is also possible to set so that the difference between the x-axis coordinates of the reference sample of the current coding unit and the x-axis coordinates of the lower left merge candidate as shown in Figure 30 does not exceed twice the width of the coding unit.

현재 코딩 유닛과 인접한 머지 후보를 인접 머지 후보라고 부르고, 현재 코딩 유닛과 인접하지 않은 머지 후보를 비인접 머지 후보라고 정의 한다. A merge candidate adjacent to the current coding unit is called an adjacent merge candidate, and a merge candidate that is not adjacent to the current coding unit is defined as a non-adjacent merge candidate.

현재 코딩 유닛의 머지 후보가 인접 머지 후보인지 여부를 나타내는 플래그 isAdjacentMergeflag을 시그날링할 수 있다. A flag isAdjacentMergeflag indicating whether a merge candidate of the current coding unit is an adjacent merge candidate may be signaled.

isAdjacentMergeflag값이 1 이면 현재 코딩 유닛의 모션 정보는 인접 머지 후보에서 유도할 수 있음을 나타내고, isAdjacentMergeflag값이 0 이면 현재 코딩 유닛의 모션 정보는 비인접 머지 후보에서 유도할 수 있음을 나타낸다. If the isAdjacentMergeflag value is 1, it indicates that motion information of the current coding unit can be derived from an adjacent merge candidate, and if the isAdjacentMergeflag value is 0, it indicates that the motion information of the current coding unit can be derived from a non-adjacent merge candidate.

2.4.4 인터 복호화 영역 머지 방법 2.4.4 Inter decoding area merge method

현재 픽쳐에서 이미 인터 예측으로 부호화된 코딩 유닛의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 기 정의된 크기의 리스트에 저장할 수 있으며, 이를 인터 영역 모션 정보 리스트이라고 정의한다. Motion information (motion vector and reference picture index) of a coding unit already encoded by inter prediction in the current picture can be stored in a list having a predefined size, and this is defined as an inter-region motion information list.

인터 영역 모션 정보 리스트에 있는 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 인터 복호화 영역 머지 후보라고 한다. Motion information (motion vector and reference picture index) in the inter-region motion information list is called an inter-decoding region merge candidate.

인터 복호화 영역 머지 후보를 현재 코딩 유닛의 머지 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 머지 방법이라고 정의한다. The inter decoding region merge candidate may be used as a merge candidate of the current coding unit, and this method is defined as an inter decoding region merge method.

타일 그룹이 초기화 되면 인터 영역 모션 정보 리스트는 비어 있으며, 픽쳐의 일부 영역을 부호화/복호화되면 인터 영역 모션 정보 리스트에 추가할 수 있다. 타일 그룹 헤더를 통해 인터 영역 모션 정보 리스트의 초기 인터 복호화 영역 머지 후보를 시그널링할 수도 있다. When the tile group is initialized, the inter-region motion information list is empty, and when a partial region of a picture is encoded/decoded, it can be added to the inter-region motion information list. The initial inter decoding region merge candidate of the inter region motion information list may be signaled through the tile group header.

코딩 유닛이 인터 예측으로 부호화/복호화 되면 그림 31과 같이 상기 코딩 유닛의 움직임 정보를 인터 영역 모션 정보 리스트에 업데이트 할 수 있다. 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보의 개수가 최대값인 경우에는, 인터 영역 모션 정보 리스트 인덱스가 가장 작은 값 (가장 먼저 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보)을 제거하고, 가장 최근에 부호화/복호화된 인터 영역의 모션 벡터를 인터 복호화 영역 머지 후보로 추가할 수 있다. When the coding unit is encoded/decoded by inter prediction, motion information of the coding unit may be updated in the inter-region motion information list as shown in Fig. 31 . If the number of inter-decoding region merge candidates in the inter-region motion information list is the maximum value, the value with the smallest inter-region motion information list index (first, the inter-decoding region merge candidate in the inter-region motion information list) is removed. , The motion vector of the most recently encoded/decoded inter-region may be added as an inter-decoding region merge candidate.

Figure pat00047
Figure pat00047

그림 31Fig. 31

디코딩 된 코딩 유닛의 모션 벡터 mvCand를 인터 영역 모션 정보 리스트 HmvpCandList에 업데이트 할수 있다. 이 때 디코딩 된 코딩 유닛의 모션 정보가 인터 영역 모션 정보 리스트에 있는 모션 정보 중 어느 하나와 같은 경우(모션 벡터와 레퍼런스 인덱스가 모두 같은 경우)에는 인터 영역 모션 정보 리스트를 업데이트 하지 않거나, 그림 33과 같이 디코딩 된 코딩 유닛의 모션 벡터 mvCand을 인터 영역 모션 정보 리스트의 제일 마지막에 저장할 수 있다. 이 때 mvCand과 같은 모션 정보를 가지고 있는 HmvpCandList의 인덱스를 hIdx이면, 그림 33과 같이 hIdx 보다 큰 모든 i에 대해 HMVPCandList [i]를 HVMPCandList[i-1]로 설정할 수도 있다. 현재 디코딩된 코딩 유닛에서 서브 블록 머지 후보 (sub-block merge candidates)가 사용된 경우에는 코딩 유닛 내 대표 서브 블록의 모션 정보를 인터 영역 모션 정보 리스트에 저장할 수도 있다. The motion vector mvCand of the decoded coding unit may be updated in the inter-region motion information list HmvpCandList. At this time, if the motion information of the decoded coding unit is the same as any one of the motion information in the inter-domain motion information list (in the case of all the motion vector and the reference index) there does not update the list of inter-area motion information, and figure 33 The motion vector mvCand of the coding unit decoded together may be stored at the end of the inter-region motion information list. At this time, if the index of HmvpCandList that has the same motion information as mvCand is hIdx, HMVPCandList [i] can be set to HVMPCandList[i-1] for all i larger than hIdx as shown in Figure 33 . When sub-block merge candidates are used in the currently decoded coding unit, motion information of the representative sub-block in the coding unit may be stored in the inter-region motion information list.

일 예로, 코딩 유닛 내 대표 서블 블록은 그림 32 같이 코딩 유닛 내 좌상단 서브 블록으로 설정하거나, 코딩 유닛 내 중간 서브 블록으로 설정할 수도 있다. As an example, the representative subblock in the coding unit is shown in Figure 32 . Likewise, it may be set as the upper left sub-block in the coding unit or as the middle sub-block in the coding unit.

Figure pat00048
Figure pat00048

그림 32Fig. 32

Figure pat00049
Figure pat00049

그림 33Fig. 33

인터 영역 모션 정보 리스트에 총 NumHmvp 개의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스) 를 저장할 수 있으며, NumHmvp을 인터 영역 모션 정보 리스트 크기라고 정의한다. A total of NumHmvp motion information (motion vector and reference picture index) can be stored in the inter-region motion information list, and NumHmvp is defined as the size of the inter-region motion information list.

인터 영역 모션 정보 리스트 크기는 기 정의된 값을 사용할 수 있다. 타일 그룹 헤더에 인터 영역 모션 정보 리스트 크기를 시그날링할 수도 있다. 일 예로, 인터 영역 모션 정보 리스트 크기는 16으로 정의할 수도 있고, 6으로 정의하거나 5로 정의할 수도 있다. The size of the inter-region motion information list may use a predefined value. The inter-region motion information list size may be signaled in the tile group header. For example, the size of the inter-region motion information list may be defined as 16, may be defined as 6, or may be defined as 5.

인터 예측이면서 어파인 모션 벡터를 갖는 코딩 유닛에서는 인터 영역 모션 정보 리스트를 갖지 않도록 한정할 수도 있다. In a coding unit that is inter prediction and has an affine motion vector, it may be limited not to have an inter-region motion information list.

또는 인터 예측이면서 어파인 모션 벡터를 갖는 경우에는 어파인 서브 블록 벡터를 인터 영역 모션 정보 리스트에 추가할 수도 있다. 이 때 서브 블록의 위치는 좌상단 또는 우상단, 또는 중앙 서브 블록 등으로 설정할 수도 있다. Alternatively, in the case of inter prediction and having an affine motion vector, the affine sub-block vector may be added to the inter-region motion information list. In this case, the position of the sub-block may be set to the upper left or upper right, or the center sub-block.

또는, 각 컨트롤 포인트의 모션 벡터 평균값을 인터 영역 머지 후보 리스트에 추가할 수도 있다.Alternatively, the average motion vector value of each control point may be added to the inter-region merge candidate list.

특정 코딩 유닛을 부호화/복호화를 수행해서 유도한 움직임 벡터 MV0가 인터 복호화 영역 머지 후보 중 어느 하나와 동일한 경우에는 MV0를 인터 영역 모션 정보 리스트에 추가하지 않을 수 있다. 또는, MV0와 동일한 움직임 벡터를 갖는 기존의 인터 복호화 영역 머지 후보를 삭제하고, MV0를 새롭게 복호화 영역 머지 후보에 포함시켜, MV0에 할당되는 인덱스를 갱신할 수 있다.When the motion vector MV0 derived by encoding/decoding a specific coding unit is the same as any one of the inter-decoding region merge candidates, MV0 may not be added to the inter-region motion information list. Alternatively, an existing inter-decoding region merge candidate having the same motion vector as MV0 may be deleted, and the index allocated to MV0 may be updated by newly including MV0 in the decoding region merge candidate.

인터 영역 모션 정보 리스트 이외에 인터 영역 모션 정보 롱텀 리스트 HmvpLTList를 구성할 수도 있다. 인터 영역 모션 정보 롱텀 리스트 크기는 인터 영역 모션 정보 리스트 크기와 같게 설정하거나, 상이한 값으로 설정할 수 있다. In addition to the inter-region motion information list, an inter-region motion information long term list HmvpLTList may be configured. The inter-region motion information long term list size may be set to be the same as the inter-region motion information list size, or may be set to a different value.

인터 영역 모션 정보 롱텀 리스트는 타일 그룹 시작 위치에 처음 추가한 인터 복호화 영역 머지 후보로 구성될 수 있다. 인터 영역 모션 정보 롱텀 리스트가 모두 가용한 값으로 구성된 이후에 인터 영역 모션 정보 리스트를 구성하거나, 인터 영역 모션 정보 리스트 내 모션 정보를 인터 영역 모션 정보 롱텀 리스트의 모션 정보로 설정할 수도 있다. The inter-region motion information long term list may be composed of an inter-decoding region merge candidate initially added to the tile group start position. After the inter-region motion information long term list is configured with all available values, the inter-region motion information list may be configured, or motion information in the inter-region motion information list may be set as motion information of the inter-region motion information long term list.

이 때 한 번 구성된 인터 영역 모션 정보 롱텀 리스트는 업데이트를 수행하지 않거나, 타일 그룹 중 복호화된 영역이 전체 타일 그룹의 반 이상일 때 다시 업데이트 하거나, m개 CTU 라인마다 업데이트 하도록 설정할 수도 있다. 인터 영역 모션 정보 리스트는 인터 영역으로 복호화될 때마다 업데이트 하거나, CTU 라인 단위로 업데이트 하도록 설정할 수 있다. In this case, the inter-region motion information long-term list configured once may be updated again when no update is performed, a decoded region of the tile group is more than half of the entire tile group, or may be set to be updated every m CTU lines. The inter-region motion information list may be updated whenever the inter-region is decoded, or may be set to be updated in units of CTU lines.

인터 영역 모션 정보 리스트에 모션 정보와 코딩 유닛의 파티션 정보 또는 형태를 저장할 수도 있다. 현재 코딩 유닛과 파티션 정보 및 형태가 유사한 인터 영역 머지 후보만 사용하여 인터 복호화 영역 머지 방법을 수행할 수도 있다. The motion information and partition information or type of the coding unit may be stored in the inter-region motion information list. The inter-decoding region merging method may be performed using only inter-region merge candidates having a similar partition information and shape as the current coding unit.

또는, 블록 형태에 따라 개별적으로 인터 영역 머지 후보 리스트을 구성할 수도 있다. 이 경우, 현재 블록의 형태에 따라, 복수의 인터 영역 머지 후보 리스트 중 하나를 선택하여 사용할 수 있다.Alternatively, an inter-region merge candidate list may be individually configured according to the block type. In this case, one of a plurality of inter-region merge candidate lists may be selected and used according to the shape of the current block.

Figure pat00050
Figure pat00050

그림 34Fig. 34

그림 34와 같이 인터 영역 어파인 모션 정보 리스트와 인터 영역 모션 정보 리스트로 구성할 수도 있다. 복호화된 코딩 유닛이 어파인 인터 또는 어파인 머지 모드인 경우에는 인터 영역 어파인 모션 정보 리스트 HmvpAfCandList에 제1 어파인 시드 벡터와 제 2 어파인 시드 벡터를 저장할 수도 있다. 인터 영역 어파인 머지 후보 리스트에 있는 모션 정보를 인터 복호화 영역 어파인 머지 후보라고 한다. As shown in Figure 34 , it can be composed of an inter-area affine motion information list and an inter-area motion information list. When the decoded coding unit is in affine inter or afine merge mode, the first affine seed vector and the second affine seed vector may be stored in the inter-region afine motion information list HmvpAfCandList. Motion information in the inter-region affine merge candidate list is called an inter-decoding region affine merge candidate.

현재 코딩 유닛에서 사용 가능한 머지 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. The merge candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 머지 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보)1. Spatial merge candidate (coding block adjacent merge candidate and coding block non-adjacent merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 머지 후보)2. Temporal merge candidate (merge candidate derived from previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter-decoding domain merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter decoding domain affine merge candidate

5. Zero motion 머지 후보5. Zero motion merge candidate

먼저 머지 후보 리스트는 mergeCandList는 공간적 머지 후보 및 시간적 머지 후보로 구성할 수 있다. 가용한 공간적 머지 후보 및 시간적 머지 후보의 개수를 가용 머지 후보 개수 (NumMergeCand)라고 정의한다. 가용 머지 후보 개수가 머지 최대 허용 개수보다 작은 경우에는 인터 복호화 영역 머지 후보를 머지 후보 리스트 mergeCandList에 추가할 수 있다. First, the merge candidate list mergeCandList may be composed of a spatial merge candidate and a temporal merge candidate. The number of available spatial merge candidates and temporal merge candidates is defined as the number of available merge candidates (NumMergeCand). When the number of available merge candidates is less than the maximum allowable merge number, an inter-decoding region merge candidate may be added to the merge candidate list mergeCandList.

인터 영역 모션 정보 리스트 HmvpCandList를 머지 후보 리스트 mergeCandList에 추가할 때는 인터 영역 모션 정보 리스트 내 인터 복호화 영역 머지 후보의 모션 정보가 기존 머지 리스트 mergeCandList의 모션 정보와 동일한지 여부를 체크할 수 있다. 모션 정보가 동일한 경우에는 머지 리스트 mergeCandList에 추가하지 않고, 모션 정보가 동일하지 않은 경우에는 머지 리스트 mergeCandList에 인터 복호화 영역 머지 후보를 추가할 수 있다.When adding the inter-region motion information list HmvpCandList to the merge candidate list mergeCandList, it may be checked whether motion information of the inter-decoding region merge candidate in the inter-region motion information list is the same as the motion information of the existing merge list mergeCandList. If the motion information is the same, it is not added to the merge list mergeCandList, and if the motion information is not the same, the inter-decoding region merge candidate may be added to the merge list mergeCandList.

인터 복호화 영역 머지 후보 중 인덱스가 큰 것 부터 머지 후보 리스트 mergeCandList에 추가하거나 인덱스가 작은 것 부터 머지 후보 리스트 mergeCandList에 추가할 수 있다. Among the merge candidates of the inter-decoding area, a large index may be added to the merge candidate list mergeCandList, or a small index may be added to the merge candidate list mergeCandList.

서브 블록 단위 머지 후보는 다음 프로세스와 같이 유도할 수 있다. The sub-block unit merge candidate can be derived as follows.

1. 현재 블록의 주변 머지 후보 블록의 모션 벡터로 부터 초기 쉬프트 벡터 (shVector)를 유도할 수 있다. 1. An initial shift vector (shVector) can be derived from a motion vector of a merge candidate block adjacent to the current block.

2. 식 (18)과 같이 코딩 유닛 내 서브 블록의 좌상단 샘플 (xSb,ySb)에 초기 쉬프트 벡터를 가산하여 좌상단 샘플의 위치가 (xColSb, yColSb)인 쉬프트 서브 블록을 유도할 수 있다. 2. As shown in Equation (18), an initial shift vector can be added to the upper left sample (xSb,ySb) of the subblock in the coding unit to derive the shifted subblock having the upper left sample position (xColSb, yColSb).

(xColSb, yColSb) = (xSb + shVector[0]>> 4,ySb+shVector[1]>> 4)(xColSb, yColSb) = (xSb + shVector[0]>> 4,ySb+shVector[1]>> 4) (18)(18)

3. (xColSb, yColSb)를 포함하고 있는 서브 블록의 센터 포지션과 대응되는 collocated block의 모션 벡터를 좌상단 샘플 (xSb,ySb)를 포함하고 있는 서브 블록의 모션 벡터로 유도할 수 있다. 3. The motion vector of the collocated block corresponding to the center position of the sub-block containing (xColSb, yColSb) can be derived as the motion vector of the sub-block containing the upper left sample (xSb,ySb).

Figure pat00051
Figure pat00051

그림 35Fig. 35

또는 현재 디코딩된 코딩 유닛에서 서브 블록 머지 후보 (sub-block merge candidates)가 사용된 경우에는 코딩 유닛 내 복수 개의 대표 서브 블록의 모션 정보를 인터 영역 서브 블록 모션 정보 리스트 HSubMVPCandList에 저장할 수도 있다. 예를 들어, 복수개의 대표 서브 블록은 그림 35와 같이 코딩 유닛의 좌상단 서브 블록(이하,제 1 대표 서브 블록), 우상단 서브 블록(이하,제 2 대표 서브 블록), 그리고 좌하단 서브 블록(이하,제 3 대표 서브 블록)으로 구성할 수도 있다. 인터 영역 서브 블록 모션 정보 리스트의 개수는 기 정의된 값으로 설정할 수 있으며, 통상 인터 영역 모션 정보 리스트의 개수보다 적게 설정할 수 있다. 제 1 대표 서브 블록의 모션 벡터를 제 1 대표 서브 블록 모션 벡터라 하고, 제 2 대표 서브 블록의 모션 벡터를 제 2 대표 서브 블록 모션 벡터라 하며, 제 3 대표 서브 블록의 모션 벡터를 제 3 대표 서브 블록 모션 벡터라 한다. Alternatively, when sub-block merge candidates are used in the currently decoded coding unit, motion information of a plurality of representative sub-blocks in the coding unit may be stored in the inter-region sub-block motion information list HSubMVPCandList. For example, a plurality of representative sub-blocks are the upper left sub-block of the coding unit (hereinafter, the first representative sub-block), the upper-right sub-block (hereinafter, the second representative sub-block), and the lower left sub-block (hereinafter, referred to as Figure 35 ). , May be configured as a third representative sub-block). The number of inter-region sub-block motion information lists may be set to a predefined value, and may generally be set less than the number of inter-region motion information lists. The motion vector of the first representative sub-block is referred to as the first representative sub-block motion vector, the motion vector of the second representative sub-block is referred to as the second representative sub-block motion vector, and the motion vector of the third representative sub-block is referred to as the third representative. It is called a sub-block motion vector.

인터 영역 서브 블록 모션 정보 리스트 HSubMVPList에 있는 서브 블록 모션 벡터를 어파인 시드 벡터로 사용할 수도 있다. 구체적으로 예를 들어, 인터 영역 서브 블록 모션 정보 리스트 HSubMVPList에 있는 서브 블록 모션 후보의 제 1 대표 서브 블록 모션 벡터를 제 1 어파인 시드 벡터, 제 2 대표 서브 블록 모션 벡터를 제 2 어파인 시드 벡터, 그리고 제 3 대표 서브 블록 모션 벡터를 제 3 어파인 시드 벡터로 설정할 수도 있다. 또 다른 예를 들어, 인터 영역 서브 블록 모션 정보 리스트 HSubMVPList에 있는 제 1 대표 서브 블록 모션 벡터를 제 4 어파인 시드 벡터, 제 2 대표 서브 블록 모션 벡터는 제 5 어파인 시드 벡터로 사용할 수도 있다. A sub-block motion vector in the inter-region sub-block motion information list HSubMVPList may be used as an affine seed vector. Specifically, for example, the first representative sub-block motion vector of the sub-block motion candidate in the inter-region sub-block motion information list HSubMVPList is the first affine seed vector, and the second representative sub-block motion vector is the second affine seed vector. , And the third representative sub-block motion vector may be set as a third affine seed vector. As another example, the first representative sub-block motion vector in the inter-region sub-block motion information list HSubMVPList may be used as a fourth affine seed vector, and the second representative sub-block motion vector may be used as a fifth affine seed vector.

인터 영역 모션 정보 리스트 HMvpCandList에 있는 모션 벡터를 어파인 시드 벡터 중 어느 하나로 사용할 수도 있다. 예를 들어, HMvpCandList에 있는 모션 벡터를 제 1 어파인 시드 벡터 내지 제 5 어파인 시드 벡터 중 어느 하나의 값으로 사용할 수 있다. The motion vector in the inter-region motion information list HMvpCandList may be used as one of the affine seed vectors. For example, the motion vector in HMvpCandList may be used as a value of any one of a first affine seed vector to a fifth affine seed vector.

인터 복호화 영역 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 예측 방법이라고 정의한다. The inter decoding region motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is defined as an inter decoding region motion information prediction method.

인터 복호화 영역 어파인 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 어파인 예측 방법이라고 정의한다. An inter-decoding region affine motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is defined as an inter-decoding region motion information affine prediction method.

현재 코딩 유닛에서 사용 가능한 움직임 정보 예측자 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. Motion information predictor candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 움직임 예측자 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보와 동일)1. Spatial motion predictor candidate (same as the coding block adjacent merge candidate and the coding block non-adjacent merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 움직임 예측자 후보)2. Temporal merge candidate (motion predictor candidate derived from previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter-decoding domain merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter decoding domain affine merge candidate

5. Zero motion 움직임 예측자 후보5. Zero motion motion predictor candidate

2.52.5 대칭 MVD (Symmetric MVD) 부호화방법 Symmetric MVD (Symmetric MVD) coding method

Figure pat00052
Figure pat00052

그림 36Fig. 36

그림 36과 같이 L0에서 사용한 모션 벡터의 MVD (Motion vector difference) 의 symmetric MVD(벡터의 크기는 같고, 방향이 반대인 MVD)를 L1의 MVD로 설정할 수도 있으며, 이를 symmetric MVD 부호화 방법이라 한다. Symmetric MVD 부호화를 사용하는 경우 다음 식 (19) 내지 (20)과 같이 MV를 유도할 수 있다. As shown in Figure 36 , the symmetric MVD of the motion vector difference (MVD) of the motion vector used in L0 (the MVD with the same vector size and opposite direction) can be set as the MVD of L1, which is called the symmetric MVD encoding method. When using symmetric MVD coding, the MV can be derived as shown in the following equations (19) to (20).

(mvx0, mvy0) (mvp_x0 + mvd_x0 , mvpy0 + mvdy0)(mvx0, mvy0) (mvp_x0 + mvd_x0, mvpy0 + mvdy0) (19)(19)

(mvx0, mvy0) (mvp_x0 - mvd_x0 , mvpy0 - mvdy0)(mvx0, mvy0) (mvp_x0-mvd_x0, mvpy0-mvdy0) (20)(20)

즉, LIST1의 움직임 예측 정보는 mvThat is, the motion prediction information of LIST1 is mv

코딩 유닛 단위로 symmetric MVD를 사용하는지 여부를 나타내는 플래그 sym_mvd_flag를 비트스트림을 통해 시그날링할 수 있다. sym_mvd_flag 값이 1 이면, 코딩 유닛에서 symmetric MVD 부호화 방법을 사용함을 나타낸다. A flag sym_mvd_flag indicating whether symmetric MVD is used for each coding unit may be signaled through a bitstream. If the value of sym_mvd_flag is 1, it indicates that the coding unit uses the symmetric MVD coding method.

Symmetric MVD 부호화를 사용하는 경우, 제 1 단방향 참조 픽쳐는 제 1 단방향 참조 픽쳐 리스트(RefPicList0) 중 현재 픽쳐보다 POC(Picture order count, 픽쳐 아웃풋 순서)가 작으면서, 현재 픽쳐와 가장 가까운 픽쳐(이하, 좌측 최소 거리 픽쳐)로 설정할 수 있으며, 제 1 단방향 참조 픽쳐 인덱스(RefPicList0)는 좌측 최소 거리 픽쳐의 참조 픽쳐 인덱스로 설정할 수 있다. 여기서 가장 가까운 픽쳐라 함은 현재 픽쳐의 POC와 참조 픽쳐의 POC 차분이 가장 작은 참조 픽쳐를 의미 한다. When using symmetric MVD encoding, the first unidirectional reference picture has a smaller POC (Picture Order Count, picture output order) than the current picture in the first unidirectional reference picture list (RefPicList0), and the picture closest to the current picture (hereinafter, The left minimum distance picture) can be set, and the first unidirectional reference picture index RefPicList0 can be set as the reference picture index of the left minimum distance picture. Here, the nearest picture means a reference picture having the smallest difference between the POC of the current picture and the reference picture.

또는 제 1 단방향 참조 픽쳐는 RefPicList0[0]로 설정할 수도 있다. Alternatively, the first unidirectional reference picture may be set to RefPicList0[0].

Symmetric MVD 부호화를 사용하는 경우, 제 2 단방향 참조 픽쳐는 제 2 단방향 참조 픽쳐 리스트(RefPicList1) 중 현재 픽쳐보다 POC가 크면서, 현재 픽쳐와 가장 가까운 픽쳐(이하, 우측 최소 거리 픽쳐)로 설정할 수 있으며, 제 2 단방향 참조 픽쳐 인덱스(RefPicList1)는 우측 최소 거리 픽쳐의 참조 픽쳐 인덱스로 설정할 수 있다. In the case of using symmetric MVD coding, the second unidirectional reference picture can be set as a picture having a larger POC than the current picture in the second unidirectional reference picture list (RefPicList1), and the closest picture to the current picture (hereinafter, the right minimum distance picture). , The second unidirectional reference picture index RefPicList1 may be set as a reference picture index of the right minimum distance picture.

또는 제 2 단방향 참조 픽쳐는 RefPicList1[1]로 설정할 수도 있다. Alternatively, the second unidirectional reference picture may be set to RefPicList1[1].

제 1 단방향 참조 픽쳐 리스트에서 현재 픽쳐보다 POC가 작은 픽쳐가 존재하지 않는 경우, 제 1 단방향 참조 픽쳐 리스트 중 현재 픽쳐보다 POC가 크고 현재 픽쳐와 가장 가까운 픽쳐를 제 1 단방향 참조 픽쳐로 설정할 수도 있다. /When there is no picture with a smaller POC than the current picture in the first unidirectional reference picture list, a picture having a larger POC than the current picture in the first unidirectional reference picture list and closest to the current picture may be set as the first unidirectional reference picture. /

제 2 단방향 참조 픽쳐 리스트에서 현재 픽쳐보다 POC가 큰 픽쳐가 존재하지 않는 경우, 제 2 단방향 참조 픽쳐 리스트 중 현재 픽쳐보다 POC가 작고 현재 픽쳐와 가장 가까운 픽쳐를 제 2 단방향 참조 픽쳐로 설정할 수도 있다. When there is no picture with a larger POC than the current picture in the second unidirectional reference picture list, a picture with a smaller POC than the current picture in the second unidirectional reference picture list and the closest to the current picture may be set as the second unidirectional reference picture.

제 1 단방향 참조 픽쳐의 POC와 제 2 단방향 참조 픽쳐의 POC가 현재 픽쳐의 POC 보다 작고, 제 1 단방향 참조 픽쳐의 POC와 제 2 단방향 참조 픽쳐의 POC가 같은 경우에는 symmetric mvd 부호화를 사용하지 않도록 설정할 수도 있다. 구체적으로 표 5와 같은 신택스 테이블을 사용할 수도 있다. When the POC of the first unidirectional reference picture and the POC of the second unidirectional reference picture are smaller than the POC of the current picture, and the POC of the first unidirectional reference picture and the POC of the second unidirectional reference picture are the same, symmetric mvd encoding is not used. May be. Specifically, a syntax table as shown in Table 5 may be used.

표 5Table 5

Figure pat00053
Figure pat00053

제 1 단방향 참조 픽쳐와 제 2 단방향 참조 픽쳐가 현재 픽쳐를 기준으로 모두 좌측에 있거나, 모두 우측에 있는 경우, symmetric MVD 대신에 다음식 (21) 내지 (22)와 같이 L1의 MVD를 스케일링하여 사용할 수도 있다. When the first unidirectional reference picture and the second unidirectional reference picture are both on the left or on the right based on the current picture, the MVD of L1 is scaled and used as shown in the following equations (21) to (22) instead of symmetric MVD. May be.

(mvx0, mvy0) (mvp_x0 + mvd_x0 , mvpy0 + mvdy0)(mvx0, mvy0) (mvp_x0 + mvd_x0, mvpy0 + mvdy0) (21)(21)

(mvx0, mvy0) (mvp_x0 + scale*mvd_x0 , mvpy0 - mvdy0)(mvx0, mvy0) (mvp_x0 + scale*mvd_x0, mvpy0-mvdy0) (22)(22)

다음식 (21) 내지 (22)에서 scale값은 식 (23) 내지 (24)와 같이 정의 할 수 있다. In the following equations (21) to (22), the scale value can be defined as in equations (23) to (24).

scale = abs(POC_Curr - POC_L0) / abs(POC_Curr - POC_L1)scale = abs(POC_Curr-POC_L0) / abs(POC_Curr-POC_L1) (23)(23)

scale = abs(POC_Curr - POC_L1) / abs(POC_Curr - POC_L0)scale = abs(POC_Curr-POC_L1) / abs(POC_Curr-POC_L0) (24)(24)

식 (23) 내지 (24)에서 POC_Curr은 현재 픽쳐의 POC 값을 나타내고, POC_L0은 제 1 단방향 참조 픽쳐의 POC 값을 나타내며, POC_L1은 제 2 단방향 참조 픽쳐의 POC 값을 나타낸다. In Equations (23) to (24), POC_Curr represents the POC value of the current picture, POC_L0 represents the POC value of the first unidirectional reference picture, and POC_L1 represents the POC value of the second unidirectional reference picture.

제 2 단방향 참조 픽쳐 리스트 중 현재 픽쳐보다 POC 값이 큰 참조 픽쳐가 존재하고, 제 1 단방향 참조 픽쳐 리스트 중 현재 픽쳐보다 POC 값이 작은 픽쳐가 적어도 하나 이상 존재하는 경우, symmetric MVD 부호화 방법을 사용하지 않을 수 있다. If there is a reference picture having a greater POC value than the current picture in the second unidirectional reference picture list, and at least one picture having a smaller POC value than the current picture in the first unidirectional reference picture list exists, the symmetric MVD encoding method is not used. May not.

또는 제 1 단방향 참조 픽쳐 리스트 중 현재 픽쳐보다 POC 값이 작은 참조 픽쳐가 존재하지 않고, 제 2 단방향 참조 픽쳐 리스트 중 현재 픽쳐보다 POC 값이 큰 참조 픽쳐가 적어도 하나 이상 존재하는 경우, symmetric MVD 부호화 방법을 사용하지 않을 수 있다. Alternatively, when there is no reference picture having a lower POC value than the current picture in the first unidirectional reference picture list, and at least one reference picture having a larger POC value than the current picture in the second unidirectional reference picture list exists, the symmetric MVD encoding method May not be used.

33 변환 및 양자화Transform and quantization

원본 영상에서 예측 영상을 차분한 영상을 잔차 영상(residual)이라 한다. An image obtained by subtracting the predicted image from the original image is called a residual image.

잔차 영상에 DCT(Discrete cosine transform)와 같은 2차원 변환(Transform)을 통하여 2원 주파수 성분으로 분해할 수 있다. 영상에서 고주파 성분을 제거해도 시각적으로 왜곡이 크게 발생하지 않는 특성이 있다. 고주파에 해당하는 값을 작게 하거나 0으로 설정하면 시각적 왜곡이 크지 않으면서도 압축 효율을 크게 할 수 있다. The residual image can be decomposed into binary frequency components through a two-dimensional transform such as a discrete cosine transform (DCT). Even if high-frequency components are removed from an image, there is a characteristic that significant distortion does not occur visually. If the value corresponding to the high frequency is decreased or set to 0, the compression efficiency can be increased while the visual distortion is not large.

예측 블록의 크기나 예측 모드에 따라 DST (Discrete sine transform)을 사용할 수도 있다. 구체적으로 예를 들어, 인트라 예측 모드이고, 예측 블록/코딩 블록의 크기가 NxN 보다 작은 크기인 경우에는 DST 변환을 사용하도록 설정하고, 그 외의 예측 블록/코딩 블록에서는 DCT를 사용하도록 설정할 수도 있다. Discrete sine transform (DST) may be used according to the size of the prediction block or the prediction mode. Specifically, for example, when the prediction block/coding block is in an intra prediction mode and the size of the prediction block/coding block is smaller than NxN, the DST transform may be used, and other prediction blocks/coding blocks may be set to use DCT.

DCT는 영상을 코사인 (cosine) 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리이고, 그 때의 주파수 성분들은 기저 영상으로 표현된다. 예를 들어, NxN 블록에서 DCT 변환을 수행하면 N2 개의 기본 패턴 성분을 얻을 수 있다. DCT 변환을 수행한다는 것은 원화소 블록에 포함된 기본 패턴 성분들 각각의 크기를 구하는 것이다. 각 기본 패턴 성분들의 크기는 DCT 계수라고 정의 한다. DCT is a process that decomposes (transforms) an image into 2D frequency components using a cosine transform, and the frequency components at that time are expressed as a base image. For example, if DCT transformation is performed in an NxN block, N 2 basic pattern components can be obtained. Performing DCT transformation is to obtain the size of each of the basic pattern components included in the original pixel block. The size of each basic pattern component is defined as a DCT coefficient.

대체적으로 저주파에 0이 아닌 성분들이 많이 분포하는 영상에서는 이산 여현 변환(Discrete Cosine Transform, DCT)을 주로 사용하고, 고주파 성분이 많이 분포하는 영상에서는 DST (Discrete Sine Transform)을 사용할 수도 있다. In general, a discrete cosine transform (DCT) is mainly used for an image in which many non-zero components are distributed in a low frequency, and a Discrete Sine Transform (DST) may be used for an image in which a large number of high-frequency components are distributed.

DST는 영상을 sin 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리를 나타낸다. DCT 또는 DST 변환 이외의 변환 방법을 사용하여 2차원 영상을 2차원 주파수 성분으로 분해(변환)할 수 있으며, 이를 2차원 영상 변환이라고 정의 한다. DST represents a process of decomposing (converting) an image into 2D frequency components using sin transformation. A 2D image can be decomposed (transformed) into 2D frequency components using a transformation method other than DCT or DST transformation, and this is defined as 2D image transformation.

잔차 영상 중 특정 블록에서는 2차원 영상 변환을 수행하지 않을 수 있으며, 이를 변환 스킵(transform skip)이라고 정의 한다. 변환 스킵 이후에 양자화를 적용할 수 있다. 변환 스킵의 허용 여부는, 코딩 유닛의 크기 또는 형태 중 적어도 하나에 기초하여 결정될 수 있다. 일 예로, 변환 스킵은 특정 크기 이하의 코딩 유닛에서만 사용하도록 제한할 수도 있다. 예를 들어, 32x32보다 작은 블록에서만 변환 스킵을 사용하도록 설정할 수도 있다. 또는, 정방형태 블록에서만 변환 스킵을 사용하도록 제한할 수도 있다. 구체적으로 예를 들어, 32x32, 16x16, 8x8, 4x4 블록 단위로 변환 스킵을 적용할 수도 있다. Among the residual images, a 2D image transformation may not be performed in a specific block, and this is defined as transform skip. Quantization can be applied after the transform skip. Whether to allow the transform skip may be determined based on at least one of the size or shape of the coding unit. As an example, the transform skip may be limited to be used only in coding units of a specific size or less. For example, it is possible to set the transform skip to be used only in blocks smaller than 32x32. Alternatively, it is also possible to restrict the use of transform skip to only a square block. Specifically, for example, transformation skip may be applied in units of 32x32, 16x16, 8x8, and 4x4 blocks.

또는 서브 파티션 인트라 부호화 방법을 사용하는 경우 서브 파티션 단위로 변환 스킵을 선택적으로 적용할 수도 있다. 구체적으로 예를 들어, 그림 37과 같이 상측 서브 파티션에서는 변환 스킵을 사용할 수도 있고, 하측 서브 파티션에서는 수평 방향으로 DST7, 수직 방향으로 DCT8(tu_mts_idx 3)을 수행할 수도 있다. Alternatively, when the sub-partition intra coding method is used, transformation skip may be selectively applied in units of sub-partitions. Specifically, as shown in Figure 37 , transform skip may be used in the upper sub-partition, DST7 in the horizontal direction and DCT8 (tu_mts_idx 3) in the vertical direction may be performed in the lower sub-partition.

Figure pat00054
Figure pat00054

그림 37Fig. 37

2차원 영상 내에 있는 임의의 블록을 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 1 변환이라고 정의 한다. 제 1 변환을 수행 후 변환 블록의 일부 영역에서 변환을 다시 수행할 수 있으며, 이를 제 2 변환이라고 정의 한다. DCT, DST, or 2D image transformation may be applied to an arbitrary block in the 2D image, and the transformation used in this case is defined as a first transformation. After performing the first transformation, transformation may be performed again in a partial region of the transformation block, and this is defined as a second transformation.

제 1 변환은 복수개의 변환 코어 중 하나를 사용할 수 있다. 구체적으로 예를 들어, 변환 블록에서 DCT2 , DCT8 또는 DST7 중 어느 하나를 선택하여 사용할 수 있다. 또는 변환 블록의 수평 방향 변환과 수직 방향 변환의 변환 코어를 개별적으로 결정할 수 있다. 이에 따라, 수평 방향 변환 및 수직 방향 변환은 상호 동일할 수도 있고, 상이할 수도 있다. 수평 방향 변환과 수직 방향 변환에서 서로 다른 변환 코어를 사용할 수도 있으며, 이를 복수 변환 코어 부호화 방법(Multiple Transform Selection, MTS)이라 정의 한다. The first transformation may use one of a plurality of transformation cores. Specifically, for example, one of DCT2, DCT8, or DST7 may be selected and used in the transform block. Alternatively, the transform cores of the horizontal direction transformation and the vertical direction transformation of the transformation block may be individually determined. Accordingly, the horizontal direction transformation and the vertical direction transformation may be the same or different. Different transform cores may be used in horizontal and vertical transforms, and this is defined as a multiple transform core encoding method (Multiple Transform Selection, MTS).

제 1변환과 제 2 변환을 수행하는 블록 단위가 서로 다르게 설정할 수도 있다. 구체적으로 예를 들어, 잔차 영상의 8x8 블록에서 제 1 변환을 수행한 후, 4x4 서브 블록 별로 제 2 변환을 각각 수행할 수도 있다. 또 다른 예를 들어, 각 4x4 블록에서 제 1 변환을 수행한 후, 8x8 크기의 블록에서 제 2 변환을 각각 수행할 수도 있다. Block units for performing the first transformation and the second transformation may be set differently. Specifically, for example, after performing the first transform in an 8x8 block of the residual image, the second transform may be performed for each 4x4 sub-block. For another example, after performing the first transformation in each 4x4 block, the second transformation may be performed in each 8x8 size block.

제 1 변환이 적용된 잔차 영상을 제 1 변환 잔차 영상이라고 정의한다. The residual image to which the first transform is applied is defined as a first transform residual image.

제 1 변환 잔차 영상에 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 2 변환이라고 정의한다. 제 2 변환이 적용된 2차원 영상을 제 2 변환 잔차 영상이라고 정의한다. DCT, DST, or 2D image transformation may be applied to the first transform residual image, and the transform used in this case is defined as a second transform. The 2D image to which the second transformation is applied is defined as a second transformation residual image.

제 1 변환 및/또는 제 2 변환을 수행한 후의 블록 내 샘플 값 또는 변환 스킵을 수행한 후 블록 내 샘플 값을 변환 계수라고 정의한다. 양자화는 블록의 에너지를 줄이기 위해 변환 계수를 기 정의된 값으로 나누는 과정을 말한다. 변환 계수에 양자화를 적용하기 위해 정의된 값을 양자화 파라미터라고 정의한다. A sample value in the block after performing the first transformation and/or the second transformation or the sample value in the block after performing the transformation skip is defined as a transform coefficient. Quantization refers to the process of dividing a transform coefficient by a predefined value to reduce the energy of a block. A value defined to apply quantization to a transform coefficient is defined as a quantization parameter.

시퀀스 단위 또는 블록 단위로 기 정의된 양자화 파라미터를 적용할 수 있다. 통상적으로 1에서 63 사이의 값으로 양자화 파라미터를 정의할 수 있다. A predefined quantization parameter may be applied in units of sequences or blocks. Typically, a quantization parameter can be defined with a value between 1 and 63.

변환 및 양자화를 수행한 후에, 역양자화 및 역변환을 수행하여 잔차 복원 영상을 생성 할 수 있다. 잔차 복원 영상에 예측 영상을 더해서 제 1 복원 영상을 생성할 수 있다. After performing transformation and quantization, inverse quantization and inverse transformation may be performed to generate a residual reconstructed image. A first reconstructed image may be generated by adding a prediction image to the residual reconstructed image.

현재 블록의 변환 타입을 나타내는 인덱스 정보 'tu_mts_idx'를 비트스트림을 통해 시그날링할 수 있다. tu_mts_idx는 수직 방향 변환 타입 및 수평 방향 변환 변환 타입의 조합 예를 나타내는 복수의 변환 타입 후보 중 하나를 가리킬 수 있다. tu_mts_idx에 의해 특정되는 변환 타입 후보에 기초하여, 수직 방향 변환 및 수평 방향 변환의 스킵 여부, 및 수직 방향 변환 코어 및 수평 방향 변환 코어가 결정될 수 있다. 변환 코어는, DCT2, DCT8, 또는 DST7 중 적어도 하나를 포함할 수 있다. 표 5와 같이 tu_mts_idx 별로 transform type 후보를 설정할 수 있다. 구체적으로 예를 들어, 표 6과 같이 tu_mts_idx가 0이면, 수평 방향 변환과 수직 방향 변환 모두 DCT-II를 적용할 수 있으며, tu_mts_idx가 2이면 수평 방향 변환에 DCT-VIII를 적용하고, 수직 방향 변환에 DST-VII을 적용할 수 있다. Index information'tu_mts_idx' indicating the transformation type of the current block may be signaled through a bitstream. tu_mts_idx may refer to one of a plurality of transformation type candidates representing an example of a combination of a vertical direction transformation type and a horizontal direction transformation type. On the basis of the transformation type candidate specified by tu_mts_idx, whether to skip the vertical direction transformation and the horizontal direction transformation, and the vertical direction transformation core and the horizontal direction transformation core may be determined. The conversion core may include at least one of DCT2, DCT8, and DST7. As shown in Table 5, a transform type candidate may be set for each tu_mts_idx. Specifically, as shown in Table 6, if tu_mts_idx is 0, DCT-II can be applied to both horizontal and vertical direction conversion, and if tu_mts_idx is 2, DCT-VIII is applied to horizontal direction conversion, and vertical direction conversion DST-VII can be applied.

표 6Table 6

Figure pat00055
Figure pat00055

서브 파티션 부호화 방법을 사용하는 경우 각 서브 파티션 별로 서로 다른 변환 코어 세트를 사용할 수도 있고, 코딩 유닛 단위로 서로 같은 변환 코어 세트를 사용하도록 설정할 수도 있다. 이 때, 첫번째 서브 파티션에서만 tu_mts_idx를 비트스트림을 통해 시그날링할 수 있다. In the case of using the sub-partition encoding method, a different set of transform cores may be used for each sub-partition, or the same set of transform cores may be used for each coding unit. In this case, only the first sub-partition may signal tu_mts_idx through the bitstream.

구체적으로 예를 들어, 그림 38의 좌측 그림과 같이 코딩 유닛 내에 있는 모든 서브 파티션에서 수평 방향 변환 코어로 DST7을 사용하고, 수직 방향 변환 코어로 DCT8을 사용할 수도 있다. 또 다른 예를 들어, 그림 38의 우측 그림과 같이 코딩 유닛 내에 있는 모든 서브 파티션에서 수평 방향 변환 코어로 DCT8을 사용하고, 수직 방향 변환 코어로 DST8을 사용할 수도 있다.Specifically, for example, as shown in the left figure of Figure 38 , DST7 may be used as the horizontal direction transform core and DCT8 may be used as the vertical direction transform core in all sub-partitions in the coding unit. For another example, as shown in the right figure of Figure 38 , DCT8 may be used as the horizontal direction transform core and DST8 may be used as the vertical direction transform core in all sub-partitions in the coding unit.

Figure pat00056
Figure pat00056

그림 38Fig. 38

55 인루프 필터링 (In-loop filtering)In-loop filtering

인루프 필터링(In-loop filtering)은 양자화 및 부호화 과정에서 발생하는 정보의 손실을 줄이기 위해 복호화 된 영상에 적응적으로 필터링을 수행하는 기술이다. 디블록킹 필터(Deblocking filter), 샘플 적응적 오프셋 필터(sample adaptive offset filter, SAO), 적응적 루프 필터(adaptive loop filter, ALF)는 인루프 필터링의 한 예이다. In-loop filtering is a technique that adaptively performs filtering on a decoded image in order to reduce the loss of information that occurs during quantization and encoding. A deblocking filter, a sample adaptive offset filter (SAO), and an adaptive loop filter (ALF) are examples of in-loop filtering.

제 1 복원 영상에 디블록킹 필터 , 샘플 적응적 오프셋(Sample Adaptive Offset, SAO) 또는 적응적 루프 필터(adaptive loop filter, ALF) 중 적어도 어느 하나를 수행하여 제 2 복원 영상을 생성할 수 있다. A second reconstructed image may be generated by performing at least one of a deblocking filter, a sample adaptive offset (SAO), or an adaptive loop filter (ALF) on the first reconstructed image.

복원 영상에 디블록킹 필터를 적용한 후, SAO 및 ALF를 적용할 수 있다. After applying the deblocking filter to the reconstructed image, SAO and ALF may be applied.

비디오 부호화 과정에서 블록 단위로 변환과 양자화를 수행한다. 양자화 과정에서 발생한 손실이 발생하고, 이를 복원한 영상의 경계에서는 불연속이 발생한다. 블록 경계에 나타난 불연속 영상을 블록 화질 열화(blocking artifact)라고 정의 한다. In the video encoding process, transformation and quantization are performed in units of blocks. A loss occurs during the quantization process, and a discontinuity occurs at the boundary of the reconstructed image. Discontinuous images appearing at the boundary of a block are defined as blocking artifacts.

Deblocking filter는 제 1 영상의 블록 경계에서 발생하는 블록 화질 열화(blocking artifact)를 완화시키고, 부호화 성능을 높여주는 방법이다. The deblocking filter is a method of mitigating block quality deterioration (blocking artifact) occurring at a block boundary of a first image and enhancing encoding performance.

Figure pat00057
Figure pat00057

그림 39Fig. 39

블록 경계에서 필터링을 수행하여 블록 화질 열화를 완화 시킬수 있으며, 그림 39와 같이 블록이 인트라 예측 모드로 부호화 되었는지 여부, 또는 이웃한 블록의 모션 벡터 절대값의 차이가 기 정의된 소정의 문턱값 보다 큰지 여부, 이웃한 블록의 참조 픽쳐가 서로 동일한 지 여부 중 적어도 어느 하나에 기초하여 블록 필터 강도 (blocking strength, 이하 BS) 값을 결정할 수 있다. BS 값이 0이면 필터링을 수행하지 않으며, BS 값이 1 또는 2인 경우에 블록 경계에서 필터링을 수행할 수 있다. Block quality deterioration can be alleviated by performing filtering at the block boundary, and whether the block is coded in intra prediction mode as shown in Figure 39 , or whether the difference between the absolute values of motion vectors of neighboring blocks is greater than a predefined threshold. A block filter strength (BS) value may be determined based on at least one of whether or not reference pictures of neighboring blocks are identical to each other. When the BS value is 0, filtering is not performed, and when the BS value is 1 or 2, filtering may be performed at a block boundary.

변환 계수에 양자화를 수행하므로 주파수 영역에서 양자화를 수행하기 때문에, 물체 가장 자리에 링이 현상 (ringing artifact)를 발생시키거나, 화소 값이 원본에 비해 일정한 값만큼 커지거나 작아기게 된다. SAO는 제 1 복원 영상의 패턴을 고려하여 블록 단위로 특정 오프셋을 더하거나 빼는 방법으로 링잉 현상을 효과적으로 줄일 수 있다. SAO는 복원 영상의 특징에 따라 에지 오프셋(Edge offset, 이하 EO)과 밴드 오프셋(Band offset, BO)으로 구성된다. 에지 오프셋은 주변 화소 샘플 패턴에 따라 현재 샘플에 오프셋을 다르게 더해주는 방법이다. 밴드 오프셋은 영역 안의 비슷한 화소 밝기 값을 가진 화소 집합에 대해 일정 값을 더해 부호화 오류를 줄이는 것이다. 화소 밝기를 32개의 균일한 밴드로 나눠 비슷한 밝기 값을 가지는 화소를 하나의 집합이 되도록 할 수 있다. 예를 들어, 인접한 4개의 밴드를 하나의 범주로 묶을 수 있다. 하나의 범주에서는 동일한 오프셋 값을 사용하도록 설정할 수 있다. Since quantization is performed on a transform coefficient, a ringing artifact occurs at the edge of an object, or a pixel value increases or decreases by a certain value compared to the original because quantization is performed in the frequency domain. The SAO can effectively reduce the ringing phenomenon by adding or subtracting a specific offset in units of blocks in consideration of the pattern of the first reconstructed image. SAO is composed of an edge offset (hereinafter referred to as EO) and a band offset (BO) according to characteristics of a reconstructed image. The edge offset is a method of adding an offset to the current sample differently according to the surrounding pixel sample pattern. Band offset is to reduce coding errors by adding a certain value to a set of pixels with similar pixel brightness values in a region. By dividing the pixel brightness into 32 uniform bands, pixels having similar brightness values can be made into one set. For example, four adjacent bands can be grouped into one category. One category can be set to use the same offset value.

ALF (Adaptive Loop Filter)는 식 (25)와 같이 제 1 복원 영상 또는 제 1 복원 영상에 deblocking filtering을 수행한 복원 영상에 기 정의된 필터 중 어느 하나를 사용하여 제 2 복원 영상을 생성하는 방법이다. ALF (Adaptive Loop Filter) is a method of generating a second reconstructed image using any one of predefined filters for a first reconstructed image or a reconstructed image that has subjected deblocking filtering to the first reconstructed image as shown in Equation (25). .

Figure pat00058
(25)
Figure pat00058
(25)

Figure pat00059
Figure pat00059

그림 40Figure 40

이 때 필터는 픽쳐 단위 또는 CTU 단위로 선택할 수 있다. In this case, the filter can be selected in units of pictures or units of CTU.

Luma 성분에서는 다음 그림 40과 같이 5x5, 7x7 또는 9x9 다이아몬드 형태 중 어느 하나를 선택할 수 있다. Chroma 성분에서는 5x5 다이아몬드 형태만 사용할 수 있도록 제한할 수도 있다. In the Luma component, you can select any of the 5x5, 7x7 or 9x9 diamond shapes as shown in Figure 40 below. In the chroma component, it may be limited to use only the 5x5 diamond shape.

55 비디오 부호화 구조Video coding structure

Figure pat00060
Figure pat00060

그림 41Fig. 41

그림 41은 비디오 부호화 구조를 나타내는 다이아그램이다. 입력 비디오 신호는 Rate distortion 값이 가장 작은 소정의 코딩 유닛으로 나눌수 있다. 코딩 유닛 별로 인터 예측 또는 인트라 예측 또는 복합 예측 중 적어도 어느 하나를 수행하여 예측 영상을 생성할 수 있다. 부호화 단계에서 인터 예측을 수행하기 위해서는 움직임 추정 (Motion estimaition)을 수행할 수도 있다. 원본 영상에서 예측 영상을 차분하여 잔차 영상을 생성할 수 있다. Figure 41 is a diagram showing the video coding structure. The input video signal can be divided into a predetermined coding unit with the smallest rate distortion value. A prediction image may be generated by performing at least one of inter prediction, intra prediction, or complex prediction for each coding unit. In order to perform inter prediction in the encoding step, motion estimation may be performed. A residual image may be generated by differentiating the predicted image from the original image.

잔차 영상을 제 1 변환 및/또는 제 2 변환을 수행하여 변환 계수를 생성하거나 변환 스킵을 수행하여 변환 스킵 계수를 생성할 수 있다. 변환 계수 또는 변환 스킵 계수에 양자화를 수행하여 양자화된 변환 계수 내지 양자화된 변환 스킵 계수를 생성할 수 있다. A transform coefficient may be generated by performing a first transform and/or a second transform on the residual image, or a transform skip coefficient may be generated by performing a transform skip. Quantization may be performed on a transform coefficient or a transform skip coefficient to generate a quantized transform coefficient or a quantized transform skip coefficient.

양자화된 변환 계수 내지 양자화된 변환 스킵 계수를 역양자화 및 역 변환을 수행하여 복원 영상을 생성할 수 있다. 이 복원 영상에 인루프 필터링을 수행하여 필터링 복원 영상을 생성할 수 있다. 이 필터링 복원 영상이 인코딩 단계에서 최종 아웃풋 (output) 영상이 된다. 필터링 복원 영상은 참조 픽쳐 버퍼 (Decoded picture buffer)로 저장되어 다른 픽쳐에서 참조 픽쳐로 사용할 수 있다.A reconstructed image may be generated by performing inverse quantization and inverse transformation on the quantized transform coefficient or the quantized transform skip coefficient. In-loop filtering may be performed on the reconstructed image to generate a filtered reconstructed image. This filtered reconstructed image becomes the final output image in the encoding step. The filtered reconstructed image is stored as a reference picture buffer and can be used as a reference picture in another picture.

Claims (1)

어파인 인터 예측 부호화를 이용한 비디오 부호화 및 복호화 방법



Video coding and decoding method using affine inter prediction coding



KR1020190068539A 2019-06-11 2019-06-11 Video signal encoding method and apparatus and video decoding method and apparatus KR20200141696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190068539A KR20200141696A (en) 2019-06-11 2019-06-11 Video signal encoding method and apparatus and video decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190068539A KR20200141696A (en) 2019-06-11 2019-06-11 Video signal encoding method and apparatus and video decoding method and apparatus

Publications (1)

Publication Number Publication Date
KR20200141696A true KR20200141696A (en) 2020-12-21

Family

ID=74090466

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190068539A KR20200141696A (en) 2019-06-11 2019-06-11 Video signal encoding method and apparatus and video decoding method and apparatus

Country Status (1)

Country Link
KR (1) KR20200141696A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024016844A1 (en) * 2022-07-19 2024-01-25 Mediatek Inc. Method and apparatus using affine motion estimation with control-point motion vector refinement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024016844A1 (en) * 2022-07-19 2024-01-25 Mediatek Inc. Method and apparatus using affine motion estimation with control-point motion vector refinement

Similar Documents

Publication Publication Date Title
KR20200141696A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200145998A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200113346A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141703A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141896A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200078252A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107265A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132393A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210060109A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141691A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132395A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107262A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132397A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107697A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200108613A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200109059A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200124077A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200145415A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200145250A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210008783A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210000979A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200133538A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210024747A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210035677A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200105036A (en) Video signal encoding method and apparatus and video decoding method and apparatus