KR20210027838A - Video signal encoding method and apparatus and video decoding method and apparatus - Google Patents

Video signal encoding method and apparatus and video decoding method and apparatus Download PDF

Info

Publication number
KR20210027838A
KR20210027838A KR1020190108810A KR20190108810A KR20210027838A KR 20210027838 A KR20210027838 A KR 20210027838A KR 1020190108810 A KR1020190108810 A KR 1020190108810A KR 20190108810 A KR20190108810 A KR 20190108810A KR 20210027838 A KR20210027838 A KR 20210027838A
Authority
KR
South Korea
Prior art keywords
prediction
block
intra
mode
coding unit
Prior art date
Application number
KR1020190108810A
Other languages
Korean (ko)
Inventor
이배근
Original Assignee
주식회사 엑스리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엑스리스 filed Critical 주식회사 엑스리스
Priority to KR1020190108810A priority Critical patent/KR20210027838A/en
Publication of KR20210027838A publication Critical patent/KR20210027838A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Provided are a video encoding method and a device using a multi-triangular prediction block encoding method are provided. An object of the present invention is to improve the coding efficiency of a video signal.

Description

비디오 신호 처리 방법 및 장치 {Video signal encoding method and apparatus and video decoding method and apparatus}Video signal processing method and apparatus TECHNICAL FIELD [Video signal encoding method and apparatus and video decoding method and apparatus]

본 발명은 비디오 신호 처리 방법 및 장치에 관한 것이다. The present invention relates to a video signal processing method and apparatus.

비디오 영상은 시공간적 중복성 및 시점 간 중복성을 제거하여 압축 부호화되며, 이는 저장 매체에 적합한 형태로 저장되거나 통신 회선을 통해 전송될 수 있다. Video images are compression-encoded by removing spatio-temporal redundancy and inter-view redundancy, which can be stored in a format suitable for a storage medium or transmitted through a communication line.

본 발명은 비디오 신호의 코딩 효율을 향상시키고자 함에 있다. The present invention is to improve the coding efficiency of a video signal.

상기 과제를 해결하기 위하여 본 발명은 다중 삼각 예측 블록 부호화 방법을 이용한 비디오 부호화 방법 및 장치를 제공한다. In order to solve the above problems, the present invention provides a video encoding method and apparatus using a multi-triangular prediction block encoding method.

본 발명에 따른 비디오 신호 처리 방법 및 장치는 장치는 다중 삼각 예측 블록 부호화 방법을 통해 비디오 신호 코딩 효율을 향상 시킬 수 있다.The video signal processing method and apparatus according to the present invention can improve video signal coding efficiency through a multi-triangular prediction block coding method.

1One 기본 코딩 블록 구조Basic coding block structure

픽쳐는 그림 1과 같이 복수개의 기본 코딩 유닛(Coding Tree Unit, 이하, CTU)으로 나누어진다. A picture is divided into a plurality of basic coding units (Coding Tree Unit, hereinafter, CTU) as shown in Figure 1.

Figure pat00001
Figure pat00001

그림 1Picture 1

다른 CTU와 겹치지 않도록 구성되어 있다. 예를 들어, 전체 시퀀스에서 CTU 사이즈를 128x128로 설정할 수 있고, 픽쳐 단위로 128x128 내지 256x256 중 어느 하나를 선택해서 사용할 수도 있다. It is configured so that it does not overlap with other CTUs. For example, the CTU size may be set to 128x128 in the entire sequence, and any one of 128x128 to 256x256 may be selected and used in picture units.

CTU를 계층적으로 분할하여 코딩 블록/코딩 유닛(Coidng Unit, 이하 CU)을 생성할 수 있다. 코딩 유닛 단위로 예측 및 변환을 수행할 수 있으며, 예측 부호화 모드를 결정하는 기본 단위가 된다. 예측 부호화 모드는 예측 영상을 생성하는 복수개의 방법을 나타내며, 화면 내 예측 (intra prediction, 이하, 인트라 예측), 화면 간 예측(inter prediction, 이하, 인터 예측) 또는 복합 예측(combined prediction)등을 예로 들수 있다. 구체적으로 예를 들어, 코딩 유닛 단위로 인트라 예측, 인터 예측 또는 복합 예측 중 적어도 어느 하나의 예측 부호화 모드를 이용하여 예측 블록(prediction block)을 생성할 수 있다. 화면 간 예측 모드에서 참조 픽쳐가 현재 픽쳐를 가리키는 경우에는 이미 복호화된 현재 픽쳐 내 영역에서 예측 블록을 생성할 수 있다. 참조 픽쳐 인덱스와 모션 벡터를 이용하여 예측 블록을 생성하기 때문에 화면 간 예측에 포함할 수 있다. 인트라 예측은 현재 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이고, 인터 예측은 이미 복호화된 다른 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이며, 복합 예측은 인터 예측과 인트라 예측을 혼합하여 사용하는 방법이다. A coding block/coding unit (CU) may be generated by hierarchically dividing the CTU. Prediction and transformation may be performed in units of coding units, and become a basic unit for determining a prediction coding mode. The prediction encoding mode refers to a plurality of methods of generating a predicted image, such as intra prediction (intra prediction, hereinafter, intra prediction), inter prediction (hereinafter, inter prediction), or combined prediction. It can be mentioned. In more detail, for example, a prediction block may be generated by using at least one of intra prediction, inter prediction, and complex prediction in a coding unit unit. In the inter prediction mode, when the reference picture indicates the current picture, a prediction block may be generated in an area within the current picture that has already been decoded. Since a prediction block is generated using a reference picture index and a motion vector, it can be included in inter prediction. Intra prediction is a method of generating a prediction block using information of the current picture, inter prediction is a method of generating a prediction block using information of another picture that has already been decoded, and composite prediction is a method of mixing inter prediction and intra prediction. This is how you use it.

CTU는 그림 2와 같이 쿼드 트리 ,바이너리 트리 또는 트리플 트리 형태로 분할 (파티셔닝)될 수 있다. 분할된 블록은 다시 쿼드 트리, 바이너리 트리 또는 트리플 트리 형태로 추가 분할 될수 있다. 현재 블록을 4개의 정방 형태 파티션으로 나누는 방법을 쿼드 트리 파티셔닝이라고 부르고, 현재 블록을 2개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부르며, 현재 블록을 3개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 정의 한다. The CTU can be divided (partitioned) into a quad tree, binary tree or triple tree, as shown in Figure 2. The divided block can be further divided into a quad tree, binary tree, or triple tree. The method of dividing the current block into four square partitions is called quad-tree partitioning, the method of dividing the current block into two non-square partitions is called binary tree partitioning, and the method of dividing the current block into three non-square partitions is called quad-tree partitioning. It is defined as binary tree partitioning.

수직 방향으로 바이너리 파티셔닝(그림 2의 SPLIT_BT_VER)을 수직 바이너리 트리 파티셔닝이라고 부르며, 수평 방향으로 바이너리 트리 파티셔닝 (그림 2의 SPLIT_BT_HOR)을 수평 바이너리 트리 파티셔닝이라고 정의 한다. Binary partitioning in the vertical direction ( SPLIT_BT_VER in Figure 2 ) is called vertical binary tree partitioning, and binary tree partitioning in the horizontal direction ( SPLIT_BT_HOR in Figure 2 ) is defined as horizontal binary tree partitioning.

수직 방향으로 트리플 파티셔닝 (그림 2의 SPLIT_TT_VER)을 수직 트리플 트리 파티셔닝이라고 부르며, 수평 방향으로 트리플 트리 파티셔닝 (그림 2의 SPLIT_TT_HOR)을 수평 트리플 트리 파티셔닝이라고 정의 한다. Triple-tree partitioning in the vertical direction ( SPLIT_TT_VER in Fig. 2 ) is called vertical triple-tree partitioning, and triple-tree partitioning in the horizontal direction ( SPLIT_TT_HOR in Fig. 2 ) is defined as horizontal triple-tree partitioning.

추가 분할 횟수를 파티셔닝 뎁스(partitioning depth)라고 부르며, 시퀀스 내지 픽쳐/타일 세트 별로 파티셔닝 뎁스가 최대치를 서로 다르게 설정할 수도 있으며, 파티셔닝 트리 형태(쿼드 트리/바이너리 트리/트리플 트리)에 따라 서로 다른 파티셔닝 뎁스를 가지도록 설정할 수 있으며, 이를 나타내는 신택스를 시그날링할 수도 있다. The number of additional divisions is called partitioning depth, and the maximum value of the partitioning depth can be set differently for each sequence or picture/tile set, and different partitioning depths according to the partitioning tree type (quad tree/binary tree/triple tree) It can be set to have, and a syntax indicating this can be signaled.

Figure pat00002
Figure pat00002

그림 2Picture 2

분할된 코딩 블록은 쿼드 파티셔닝, 바이너리 파니셔닝 또는 멀티 파티셔닝과 같은 방법으로 추가로 분할하여 코딩 유닛을 구성하거나 추가 분할 없이 코딩 유닛을 구성할 수도 있다.The divided coding block may be further divided by a method such as quad partitioning, binary partitioning, or multi-partitioning to configure a coding unit, or may configure a coding unit without further partitioning.

Figure pat00003
Figure pat00003

그림 3Figure 3

그림 3 과 같이 하나의 CTU를 계층적으로 코딩 유닛을 설정할 수 있으며, 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝을 이용하여 코딩 유닛을 중 적어도 어느 하나를 이용하여 코딩 유닛을 분할할 수 있다. 이와 같은 방법을 멀티 트리 파티셔닝(Multi tree partitioning)이라고 정의 한다. As shown in Figure 3 , a coding unit can be hierarchically set for one CTU, and a coding unit can be partitioned using at least one of coding units using binary tree partitioning, quad tree partitioning/triple tree partitioning. This method is defined as multi tree partitioning.

파티셔닝 뎁스가 k인 임의의 코딩 유닛을 분할하여 생성된 코딩 유닛을 하위 코딩 유닛이라하며, 파티셔닝 뎁스는 k+1이 된다. 파티셔닝 뎁스 k+1인 하위 코딩 유닛을 포함하고 있는 파티셔닝 뎁스 k인 코딩 유닛을 상위 코딩 유닛이라 한다. A coding unit generated by dividing an arbitrary coding unit having a partitioning depth of k is referred to as a lower coding unit, and the partitioning depth is k+1. A coding unit having a partitioning depth k including a lower coding unit having a partitioning depth k+1 is referred to as an upper coding unit.

상위 코딩 유닛의 파티셔닝 타입 및/또는 현재 코딩 유닛의 주변에 있는 코딩 유닛의 파티셔닝 타입에 따라 현재 코딩 유닛의 파티셔닝 타입이 제한될 수도 있다. The partitioning type of the current coding unit may be limited according to the partitioning type of the upper coding unit and/or the partitioning type of the coding units surrounding the current coding unit.

여기서, 파티셔닝 타입은 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝 중 어느 파티셔닝을 사용했는지를 알려주는 지시자를 나타낸다. Here, the partitioning type represents an indicator indicating which partitioning of binary tree partitioning, quad tree partitioning/triple tree partitioning is used.

22 예측 영상 생성 방법How to generate predictive image

비디오 부호화에서 예측 영상은 복수 개의 방법으로 생성할 수 있으며, 예측 영상을 생성하는 방법을 예측 부호화 모드라고 한다. In video encoding, a predicted image can be generated by a plurality of methods, and a method of generating a predicted image is referred to as a predictive encoding mode.

예측 부호화 모드는 인트라 예측 부호화 모드, 인터 예측 부호화 모드, 현재 픽쳐 레퍼런스 부호화 모드 또는 결합 부호화 모드 (combined prediction)등으로 구성될 수 있다. The prediction encoding mode may include an intra prediction encoding mode, an inter prediction encoding mode, a current picture reference encoding mode, or a combined prediction mode.

인터 예측 부호화 모드는 이전 픽쳐의 정보를 이용하여 현재 블록의 예측 블록(예측 영상)을 생성하는 예측 부호화 모드라고 하고, 인트라 예측 부호화 모드는 현재 블록과 이웃한 샘플을 이용하여 예측 블록을 생성하는 예측 부호화 모드라 한다. 현재 픽쳐의 이미 복원된 영상을 이용하여 예측 블록을 생성할 수도 있으며, 이를 현재 픽쳐 레퍼런스 모드 또는 인트라 블록 카피 모드라고 정의 한다. The inter prediction coding mode is a prediction coding mode that generates a prediction block (prediction image) of the current block using information of a previous picture, and the intra prediction coding mode is a prediction that generates a prediction block using samples adjacent to the current block. It is called an encoding mode. A prediction block may be generated using an image that has already been reconstructed of the current picture, and this is defined as a current picture reference mode or an intra block copy mode.

인터 예측 부호화 모드, 인트라 예측 부호화 모드 또는 현재 픽쳐 레퍼런스 부호화 모드 중 적어도 2개 이상의 예측 부호화 모드를 사용하여 예측 블록을 생성할 수도 있으며, 이를 결합 부호화 모드(Combined prediction)이라고 정의 한다. A prediction block may be generated by using at least two or more of an inter prediction encoding mode, an intra prediction encoding mode, or a current picture reference encoding mode, which is referred to as a combined prediction mode.

2.12.1 인트라 예측 부호화 방법 Intra prediction coding method

인트라 예측은 그림 4와 같이 현재 블록 주변에 있는 이미 부호화된 경계 샘플을 인트라 예측을 생성하는데 사용하며, 이를 인트라 레퍼런스 샘플이라고 정의 한다. In intra prediction , as shown in Fig. 4 , an already coded boundary sample around the current block is used to generate intra prediction, and this is defined as an intra reference sample.

인트라 레퍼런스 샘플의 평균값을 예측 블록 전체 샘플의 값을 설정하거나 (DC 모드), 수평 방향 레퍼런스 가중 예측을 수행하여 생성한 수평 방향 예측 샘플과 수직 방향 레퍼런스 샘플을 가중 예측하여 생성한 수직 방향 예측 샘플을 생성한 후, 수평 방향 예측 샘플과 수직 방향 예측 샘플을 가중 예측하여 예측 샘플을 생성하거나(Planar 모드), 방향성 인트라 예측 모드등을 이용하여 인트라 예측을 수행할 수 있다. The average value of the intra reference samples is predicted by setting the value of all samples in the prediction block (DC mode), or the vertical direction prediction sample generated by weighted prediction of the horizontal direction prediction sample and the vertical direction reference sample generated by performing horizontal reference weighted prediction. After generation, a prediction sample may be generated by weighted prediction of a horizontal direction prediction sample and a vertical direction prediction sample (Planar mode), or intra prediction may be performed using a directional intra prediction mode.

Figure pat00004
Figure pat00004

그림 4Figure 4

그림 5의 왼쪽 그림과 같이 33개의 방향을 사용(총 35개 인트라 예측 모드)하여 인트라 예측을 수행할 수 있고, 그림 5의 오른쪽 그림과 같이 65개의 방향을 사용(총 67개 인트라 예측 모드)할 수도 있다. 방향성 인트라 예측을 사용하는 경우에는 인트라 예측 모드의 방향성을 고려하여 인트라 레퍼런스 샘플(레퍼런스 참조 샘플)을 생성하고, 이로 부터 인트라 예측을 수행할 수 있다. As shown in the left figure of Figure 5, intra prediction can be performed using 33 directions (total of 35 intra prediction modes), and 65 directions (total of 67 intra prediction modes) as shown in the right figure of Figure 5 May be. In the case of using directional intra prediction, an intra reference sample (reference reference sample) may be generated in consideration of the direction of the intra prediction mode, and intra prediction may be performed therefrom.

코딩 유닛의 좌측에 있는 인트라 레퍼런스 샘플을 좌측 인트라 레퍼런스 샘플이라하고, 코딩 유닛의 상측에 있는 인트라 레퍼런스 샘플을 상측 인트라 레퍼런스 샘플이라 한다. An intra reference sample on the left side of the coding unit is referred to as a left intra reference sample, and an intra reference sample on the upper side of the coding unit is referred to as an upper intra reference sample.

방향성 인트라 예측을 수행하는 경우에는 표 1과 같이 인트라 예측 모드에 따라 예측 방향(또는 예측 각도)을 나타내는 파라미터인 인트라 방향 파라미터 (intraPredAng)를 설정할 수 있다. 아래 표 3은 35개 인트라 예측 모드를 사용할 때 2 내지 34의 값을 가지는 방향성 인트라 예측 모드를 기반으로 하는 일예에 불과하다. 방향성 인트라 예측 모드의 예측 방향(또는 예측 각도)은 더 세분화되어 33개보다 많은 개수의 방향성 인트라 예측 모드가 이용될 수 있음은 물론이다. When directional intra prediction is performed, as shown in Table 1, an intra direction parameter (intraPredAng), which is a parameter indicating a prediction direction (or a prediction angle), may be set according to the intra prediction mode. Table 3 below is only an example based on a directional intra prediction mode having a value of 2 to 34 when 35 intra prediction modes are used. It goes without saying that the prediction directions (or prediction angles) of the directional intra prediction modes are further subdivided so that more than 33 directional intra prediction modes can be used.

Figure pat00005
Figure pat00005

그림 5Picture 5

표 1Table 1

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

그림 6Figure 6

intraPredAng이 음수인 경우 (예를 들어, 인트라 예측 모드 인덱스가 11과 25 사이인 경우)에는 그림 6과 같이 현재 블록에 좌측 인트라 레퍼런스 샘플과 상측 인트라 레퍼런스 샘플을 인트라 예측 모드의 각도에 따라 1D로 구성된 일차원 레퍼런스 샘플 (Ref_1D)로 재구성할 수 있다. When intraPredAng is negative (for example, when the intra prediction mode index is between 11 and 25), as shown in Figure 6 , the left intra reference sample and the upper intra reference sample are configured in 1D according to the angle of the intra prediction mode. It can be reconstructed as a one-dimensional reference sample (Ref_1D).

Figure pat00008
Figure pat00008

그림 7Figure 7

인트라 예측 모드 인덱스가 11과 18 사이인 경우에는 그림 7과 같이 현재 블록의 상변 우측에 위치한 인트라 레퍼런스 샘플부터 좌변 하단에 위치한 인트라 레퍼런스 샘플까지 반 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 11 and 18, a one-dimensional reference sample can be generated in a counterclockwise direction from an intra reference sample located on the upper right side of the current block to an intra reference sample located on the lower left side, as shown in Figure 7.

그 외의 모드에서는 상변 인트라 레퍼런스 샘플 또는 좌변 인트라 레퍼런스 샘플만 이용하여 일차원 레퍼런스 샘플을 생성할 수 있다.In other modes, a one-dimensional reference sample may be generated using only an upper side intra reference sample or a left side intra reference sample.

Figure pat00009
Figure pat00009

그림 8Figure 8

인트라 예측 모드 인덱스가 19 와 25 사이인 경우에는 그림 8과 같이 현재 블록의 좌변 하단에 위치한 인트라 레퍼런스 샘플부터 상변 우측에 위치한 인트라 레퍼런스 샘플까지 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 19 and 25, a one-dimensional reference sample can be generated in a clockwise direction from an intra reference sample located at the lower left side of the current block to an intra reference sample located at the right side of the current block as shown in Figure 8.

참조 샘플 결정 인덱스 iIdx와 iIdx에 기초하여 결정되는 적어도 하나의 참조 샘플에 적용되는 가중치 관련 파라미터 ifact를 다음 식 (1) 내지 (2)와 같이 유도할 수 있다. iIdx와 ifact는 방향성 인트라 예측 모드의 기울기에 따라 가변적으로 결정되며, iIdx에 의해 특정되는 참조 샘플은 정수 펠(integer pel)에 해당할 수 있다.A weight-related parameter ifact applied to at least one reference sample determined based on the reference sample determination index iIdx and iIdx may be derived as in Equations (1) to (2) below. iIdx and i fact are variably determined according to the slope of the directional intra prediction mode, and a reference sample specified by iIdx may correspond to an integer pel.

iIdx = (y+1) * PiIdx = (y+1) * P angang /32 /32 (1)(One)

ii factfact = [ (y+1) * P = [(y+1) * P angang ] & 31] & 31 (2)(2)

예측 샘플 별로 적어도 하나 이상의 일차원 레퍼런스 샘플을 특정하여 예측 영상을 유도 할 수도 있다. 예를 들어, 방향성 인트라 예측 모드의 기울기 값을 고려하여 예측 샘플 생성에 사용할 수 있는 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. 예측 샘플 별로 상이한 방향성 인트라 예측 모드를 가질 수도 있다. 하나의 예측 블록에 대해 복수의 인트라 예측 모드가 이용될 수도 있다. 복수의 인트라 예측 모드는 복수의 비방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 하나의 비방향성 인트라 예측 모드와 적어도 하나의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 또는 복수의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있다. 하나의 예측 블록 내의 소정의 샘플 그룹 별로 상이한 인트라 예측 모드가 적용될 수 있다. 소정의 샘플 그룹은 적어도 하나의 샘플로 구성될 수 있다. 샘플 그룹의 개수는 현재 예측 블록의 크기/샘플 개수에 따라 가변적으로 결정될 수도 있고, 예측 블록의 크기/샘플 개수와는 독립적으로 부호화기/복호화기에 기-설정된 고정된 개수일 수도 있다. A prediction image may be derived by specifying at least one one-dimensional reference sample for each prediction sample. For example, a position of a one-dimensional reference sample that can be used to generate a prediction sample may be specified in consideration of a slope value of a directional intra prediction mode. Each prediction sample may have a different directional intra prediction mode. A plurality of intra prediction modes may be used for one prediction block. The plurality of intra prediction modes may be expressed as a combination of a plurality of non-directional intra prediction modes, a combination of one non-directional intra prediction mode and at least one directional intra prediction mode, or a plurality of directional intra prediction modes. It can also be expressed as a combination of modes. Different intra prediction modes may be applied for each predetermined sample group in one prediction block. A predetermined sample group may consist of at least one sample. The number of sample groups may be variably determined according to the size/number of samples of the current prediction block, or may be a fixed number pre-set in the encoder/decoder independently of the size/number of samples of the prediction block.

구체적으로 예를 들어, 참조 샘플 결정 인덱스 iIdx를 이용하여 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. Specifically, for example, the position of the one-dimensional reference sample may be specified using the reference sample determination index iIdx.

인트라 예측 모드의 기울기에 따라 하나의 일차원 레퍼런스 샘플만으로는 인트라 예측 모드의 기울기를 표현할 수 없을 때는 식 (3)와 같이 인접한 일차원 레퍼런스 샘플을 보간하여 제 1 예측 영상을 생성할 수 있다. 인트라 예측 모드의 기울기/각도에 따른 angular line이 정수 펠에 위치한 레퍼런스 샘플을 지나가지 않는 경우, 해당 angular line에 좌/우 또는 상/하에 인접한 레퍼런스 샘플을 보간하여 제1 예측 영상을 생성할 수 있다. 이때 이용되는 보간 필터의 필터 계수는 ifact에 기초하여 결정될 수 있다. 예를 들어, 보간 필터의 필터 계수는 angular line 상에 위치한 소수 펠과 상기 정수 펠에 위치한 레퍼런스 샘플 간의 거리에 기초하여 유도될 수 있다. When the slope of the intra prediction mode cannot be expressed with only one one-dimensional reference sample according to the slope of the intra prediction mode, a first prediction image may be generated by interpolating adjacent one-dimensional reference samples as shown in Equation (3). When the angular line according to the slope/angle of the intra prediction mode does not pass the reference sample located in the integer pel, the first prediction image may be generated by interpolating the reference sample adjacent to the left/right or above/below the corresponding angular line. . The filter coefficient of the interpolation filter used at this time may be determined based on i fact. For example, the filter coefficient of the interpolation filter may be derived based on a distance between a fractional pel located on an angular line and a reference sample located on the integer pel.

P(x,y) = ((32-iP(x,y) = ((32-i factfact )/32)* Ref_1D(x+iIdx+1) + (i)/32)* Ref_1D(x+iIdx+1) + (i factfact /32)* Ref_1D(x+iIdx+2)/32)* Ref_1D(x+iIdx+2) (3)(3)

하나의 일차원 레퍼런스 샘플만으로 인트라 예측 모드의 기울기를 표현할 수 있을 때 (ifact 값이 0 일때) 는 다음 식 (4)와 같이 제 1 예측 영상을 생성할 수 있다. When the slope of the intra prediction mode can be expressed with only one one-dimensional reference sample (when the i fact value is 0), the first prediction image can be generated as shown in Equation (4) below.

P(x,y) = Ref_1D(x+iIdx+1)P(x,y) = Ref_1D(x+iIdx+1) (4)(4)

2.22.2 와이드 앵글 인트라 예측 부호화 방법Wide-angle intra prediction coding method

방향성 인트라 예측 모드의 예측 각도는 그림 9와 같이 45 내지 -135 사이로 설정될 수 있다. The prediction angle of the directional intra prediction mode may be set between 45 and -135 as shown in Figure 9.

Figure pat00010
Figure pat00010

그림 9Figure 9

비정방 형태 코딩 유닛에서 인트라 예측 모드를 수행하는 경우 기 정의된 예측 각도 때문에 현재 샘플과 가까운 인트라 레퍼런스 샘플 대신 현재 샘플과 거리가 먼 인트라 레퍼런스 샘플에서 현재 샘플을 예측하는 단점이 발생할 수 있다. When the intra prediction mode is performed in the amorphous coding unit, there may be a disadvantage of predicting a current sample from an intra reference sample far from the current sample instead of an intra reference sample close to the current sample due to a predefined prediction angle.

예를 들어, 그림 10의 왼쪽 그림과 같이 코딩 유닛의 너비가 코딩 유닛의 높이보다 큰 코딩 유닛(이하, 수평 방향 코딩 유닛)에서는 거리가 가까운 샘플 T 대신에 거리가 먼 L에서 인트라 예측을 수행할 수 있다. 또 다른 예를 들어, 그림 10의 오른쪽 그림과 같이 코딩 유닛의 높이가 코딩 유닛의 너비보다 큰 코딩 유닛(이하, 수직 방향 코딩 유닛)에서는 거리가 가까운 샘플 L 대신에 거리가 먼 샘플 T로 부터 인트라 예측을 수행할 수 있다. For example, as shown in the left figure of Fig. 10 , in a coding unit whose width is larger than the height of the coding unit (hereinafter, horizontal coding unit), intra prediction is performed at a far distance L instead of a close sample T. I can. As another example, as shown in the right figure of Figure 10, in a coding unit whose height is larger than the width of the coding unit (hereinafter, the vertical coding unit), the intra-distance sample T from the distant sample T instead of the close sample L You can make predictions.

Figure pat00011
Figure pat00011

그림 10Figure 10

비정방 형태 코딩 유닛에서는 기 정의된 예측 각도보다 더 넓은 예측 각도에서 인트라 예측을 수행할 수도 있으며, 이를 와이드 앵글 인트라 예측 모드라고 정의 한다. In the amorphous coding unit, intra prediction may be performed at a prediction angle wider than a predefined prediction angle, and this is defined as a wide angle intra prediction mode.

와이드 앵글 인트라 예측 모드는

Figure pat00012
내지
Figure pat00013
의 예측 각도를 가질 수 있으며, 기존 인트라 예측 모드에서 사용된 각도를 벗어나는 예측 각도를 와이드 앵글 각도라고 정의 한다. Wide angle intra prediction mode
Figure pat00012
To
Figure pat00013
It can have a prediction angle of, and a prediction angle that deviates from the angle used in the existing intra prediction mode is defined as a wide angle angle.

그림 10의 좌측 그림에서 수평 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 T로 부터 예측할 수 있다. In the left figure of Figure 10 , sample A in the horizontal direction coding unit can be predicted from the intra reference sample T using the wide-angle intra prediction mode.

그림 10의 우측 그림에서 수직 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 L로 부터 예측할 수 있다. In the right figure of Figure 10 , sample A in the vertical direction coding unit can be predicted from the intra reference sample L using the wide-angle intra prediction mode.

기존 인트라 예측 모드 N개에 M개의 와이드 앵글 각도를 더해 N+M 개의 인트라 예측 모드가 정의될 수 있다. 구체적으로 예를 들어, 표 2와 같이 67개 인트라 모드에 28개 와이드 앵글 각도를 더해 총 95개 인트라 예측 모드가 정의될 수 있다. N+M intra prediction modes may be defined by adding M wide angle angles to N existing intra prediction modes. Specifically, for example, as shown in Table 2, a total of 95 intra prediction modes may be defined by adding 28 wide angle angles to 67 intra modes.

현재 블록이 이용할 수 있는 인트라 예측 모드는 현재 블록의 형태에 따라 결정될 수 있다. 일 예로, 현재 블록의 크기, 종횡비(예컨대, 너비와 높이의 비율), 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여, 95개의 방향성 인트라 예측 모드 중 65개의 방향성 인트라 예측 모드를 선택할 수 있다. The intra prediction mode that the current block can use may be determined according to the shape of the current block. For example, 65 directional intra prediction modes may be selected from among 95 directional intra prediction modes based on at least one of a size of a current block, an aspect ratio (eg, a ratio of width and height), and a reference line index.

표 2Table 2

Figure pat00014
Figure pat00014

표 2에 나타난 인트라 예측 모드 각도는, 현재 블록의 형태, 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여 적응적으로 결정될 수 있다. 일 예로, Mode 15의 intraPredAngle은 현재 블록이 비정방형인 경우보다 현재 블록이 정방형인 경우에 더 큰 값을 갖도록 설정될 수 있다. 또는, Mode 75의 intraPredAngle은 인접 레퍼런스 라인이 선택된 경우보다 비인접 레퍼런스 라인이 선택된 경우 더 큰 값을 갖도록 설정될 수 있다.The intra prediction mode angle shown in Table 2 may be adaptively determined based on at least one of a shape of a current block and a reference line index. For example, the intraPredAngle of Mode 15 may be set to have a larger value when the current block is a square than when the current block is an amorphous. Alternatively, the intraPredAngle of Mode 75 may be set to have a larger value when a non-adjacent reference line is selected than when an adjacent reference line is selected.

와이드 앵글 인트라 예측 모드를 사용하는 경우 그림 11과 같이 상측 인트라 레퍼런스 샘플의 길이를 2W+1로 설정하고, 좌측 인트라 레퍼런스 샘플의 길이를 2H+1로 설정할 수 있다. When using the wide-angle intra prediction mode, the length of the upper intra reference sample can be set to 2W+1, and the length of the left intra reference sample can be set to 2H+1, as shown in Figure 11.

Figure pat00015
Figure pat00015

그림 11Figure 11

와이드 앵글 인트라 예측을 사용하는 경우에 와이드 앵글 인트라 예측 모드의 인트라 예측 모드를 부호화 하는 경우에는 인트라 예측 모드의 개수가 많아져서 부호화 효율이 낮아 질수 있다. 와이드 앵글 인트라 예측 모드는 와이드 앵글 인트라에서 사용되지 않는 기존 인트라 예측 모드로 대체하여 부호화 할 수 있으며, 대체되는 예측 모드를 와이드 앵글 대체 모드라고 한다. 와이드 앵글 대체 모드는 와이드 앵글 인트라 예측 모드와 반대 방향인 인트라 예측 모드일 수 있다.In the case of using wide-angle intra prediction, when the intra prediction mode of the wide-angle intra prediction mode is encoded, the number of intra prediction modes increases, and thus encoding efficiency may be lowered. The wide-angle intra prediction mode can be encoded by replacing the existing intra prediction mode that is not used in the wide-angle intra prediction mode, and the replaced prediction mode is called a wide-angle replacement mode. The wide angle replacement mode may be an intra prediction mode in a direction opposite to the wide angle intra prediction mode.

구체적으로 예를 들어, 그림 12와 같이 35개 인트라 예측을 사용하는 경우 와이드 앵글 인트라 예측 모드 35는 와이드 앵글 대체 모드인 인트라 예측 모드 2로 부호화할 수 있고, 와이드 앵글 인트라 예측 모드 36은 와이드 앵글 대체 모드인 인트라 예측 모드 3으로 부호화 할 수 있다. Specifically, for example, when 35 intra predictions are used as shown in Figure 12 , wide-angle intra prediction mode 35 can be encoded with intra prediction mode 2, which is a wide-angle replacement mode, and wide-angle intra prediction mode 36 is used for wide-angle replacement. It can be encoded in intra prediction mode 3, which is a mode.

Figure pat00016
Figure pat00016

그림 12Figure 12

코딩 블록의 형태 또는 코딩 블록 높이대 너비의 비에 따라 대체하는 모드와 개수를 다르게 설정할 수 있다. 구체적으로 예를 들어, 표 3은 코딩 블록의 너비와 높이의 비에 따라 사용되는 인트라 예측 모드를 나타낸다. The replacement mode and number may be differently set according to the shape of the coding block or the ratio of the height to the width of the coding block. Specifically, for example, Table 3 shows intra prediction modes used according to the ratio of the width and height of a coding block.

3 Table 3

Figure pat00017
Figure pat00017

2.32.3 멀티 라인 인트라 예측 부호화 방법 Multi-line intra prediction coding method

다음 그림 13과 같이 복수 개의 인트라 레퍼런스 라인에서 인트라 예측을 수행할 수도 있으며, 이를 멀티 라인 인트라 예측 부호화 방법이라고 한다.

Figure pat00018
As shown in Figure 13 below, intra prediction may be performed on a plurality of intra reference lines, which is referred to as a multi-line intra prediction coding method.
Figure pat00018

그림 13Fig. 13

인접한 인트라 페러런스 라인과 비인접 인트라 레퍼런스 라인으로 구성된 복수개의 인트라 레퍼런스 라인 중 어느 하나를 선택해서 인트라 예측을 수행할 수 있으며, 이를 복수 라인 인트라 예측 방법이라고 한다. 비인접 인트라 레퍼런스 라인은 제 1 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 1), 제 2 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 2), 제 3 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 3)으로 구성할 수 있다. 비인접 인트라 레퍼런스 라인 중 일부만 사용할 수도 있다. 일 예로, 제 1 비인접 인트라 레퍼런스 라인 과 제 2 비인접 인트라 레퍼런스 라인만 사용할 수도 있고, 제 1비인접 인트라 레퍼런스 라인과 제 3 비인접 인트라 레퍼런스 라인만 사용할 수도 있다. Intra prediction may be performed by selecting any one of a plurality of intra reference lines composed of an adjacent intra parallel line and a non-adjacent intra reference line, and this is referred to as a multi-line intra prediction method. Non-adjacent intra reference lines include a first non-adjacent intra reference line (non-adjacent reference line index 1), a second non-adjacent intra reference line (non-adjacent reference line index 2), and a third non-adjacent intra reference line (non-adjacent reference line). It can be composed of index 3). Only some of the non-adjacent intra reference lines may be used. For example, only a first non-adjacent intra reference line and a second non-adjacent intra reference line may be used, or only a first non-adjacent intra reference line and a third non-adjacent intra reference line may be used.

인트라 예측에 사용된 레퍼런스 라인을 특정하는 신택스인 인트라 레퍼런스 라인 인덱스(intra_luma_ref_idx)를 코딩 유닛 단위로 시그날링 할 수 있다. An intra reference line index (intra_luma_ref_idx), a syntax specifying a reference line used for intra prediction, may be signaled in units of coding units.

구체적으로 인접 인트라 레퍼런스 라인, 제 1 비인접 인트라 레퍼런스 라인, 제 3 비인접 인트라 레퍼런스 라인을 사용하는 경우에 다음 표 4와 같이 intra_luma_ref_idx를 정의할 수도 있다. Specifically, when using an adjacent intra reference line, a first non-adjacent intra reference line, and a third non-adjacent intra reference line, intra_luma_ref_idx may be defined as shown in Table 4 below.

표 4Table 4

Figure pat00019
Figure pat00019

비인접 인트라 레퍼런스 라인을 사용하는 경우에는 비방향성 인트라 예측 모들를 사용하지 않도록 설정할 수도 있다. 즉, 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 DC 모드 내지 플래너 모드 (Planar mode)를 사용하지 않도록 제한 할 수도 있다. When a non-adjacent intra reference line is used, it may be set not to use a non-directional intra prediction mode. That is, when a non-adjacent intra reference line is used, it may be restricted not to use the DC mode or the planar mode.

비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 인접 인트라 페러런스 라인의 샘플 개수보다 크게 설정할 수 있다. 또한 제 i 비인접 인트라 레퍼런스 라인의 샘플 개수보다 제 i+1 비인접 인트라 레퍼런스 라인의 샘플 개수가 더 많게 설정할 수도 있다. 제 i 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 제 i-1 비인접 인트라 레퍼런스 라인의 상측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetX[i]로 나타낼 수 있다. The number of samples belonging to the non-adjacent intra reference line may be set to be larger than the number of samples of the adjacent intra parallel line. Also, the number of samples of the i+1th non-adjacent intra reference line may be set to be greater than the number of samples of the ith non-adjacent intra reference line. The difference between the number of upper samples of the i-th non-adjacent intra reference line and the number of upper samples of the i-1th non-adjacent intra reference line may be represented by the reference sample number offset offsetX[i].

offsetX[1]은 제 1 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 인접 인트라 레퍼런스 라인의 상측 샘플 개수의 차분 값을 나타낸다. 제 i 비인접 인트라 레퍼런스 라인의 좌측샘플 개수와 제 i-1 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetY[i]로 나타낼 수 있다. offsetY[1]은 제 1 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수와 인접 인트라 레퍼런스 라인의 좌측 샘플 개수의 차분 값을 나타낸다.offsetX[1] represents a difference between the number of upper samples of the first non-adjacent intra reference line and the number of upper samples of the adjacent intra reference line. The difference between the number of left samples of the i-th non-adjacent intra reference line and the number of left samples of the i-1th non-adjacent intra reference line may be expressed as a reference sample number offset offsetY[i]. offsetY[1] represents a difference value between the number of left samples of the first non-adjacent intra reference line and the number of left samples of the adjacent intra reference line.

인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 refW + offsetX[i] 와 좌측 비인접 레퍼런스 라인 refH+ offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 refW + refH + offsetX[i] + offsetY[i] +1 로 구성될 수 있다. A non-adjacent intra reference line with an intra reference line index of i may be composed of an upper non-adjacent reference line refW + offsetX[i], a left non-adjacent reference line refH+ offsetY[i], and an upper left sample. The number of included samples may consist of refW + refH + offsetX[i] + offsetY[i] +1.

refW =2* nTbWrefW =2* nTbW (5)(5)

refH =2* *nTbHrefH =2* *nTbH (6)(6)

식 (5) 내지 (6)에서 nTbW는 코딩 유닛의 너비를 나타내고, nTbH는 코딩 유닛의 높이를 나타내며, whRatio는 다음 식 (7)과 같이 정의 할 수 있다. In equations (5) to (6), nTbW represents the width of the coding unit, nTbH represents the height of the coding unit, and whRatio can be defined as in the following equation (7).

whRatio = Min(log2(nTbW/nTbH),2)whRatio = Min(log2(nTbW/nTbH),2) (7)(7)

멀티 라인 인트라 예측 부호화 방법에서는 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 와이드 앵글 인트라 모드는 사용하지 않도록 설정할 수도 있다. 또는 현재 코딩 유닛의 MPM 모드가 와이드 앵글 인트라 모드이면 멀티 라인 인트라 예측 부호화 방법을 사용하지 않도록 설정할 수도 있다. In the multi-line intra prediction coding method, when a non-adjacent intra reference line is used, the wide-angle intra mode may be set not to be used. Alternatively, if the MPM mode of the current coding unit is a wide-angle intra mode, the multi-line intra prediction coding method may be set not to be used.

이 경우 인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 W + H + offsetX[i] 와 좌측 비인접 레퍼런스 라인 H + W + offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 2W + 2H + offsetX[i] + offsetY[i] +1 로 구성될 수 있으며, whRatio 값에 따라서 offsetX[i]와 offsetY[i] 값이 달라질 수 있다. In this case, a non-adjacent intra reference line with an intra reference line index of i may consist of an upper non-adjacent reference line W + H + offsetX[i], a left non-adjacent reference line H + W + offsetY[i], and an upper left sample. , The number of samples belonging to the non-adjacent intra reference line may be composed of 2W + 2H + offsetX[i] + offsetY[i] +1, and the values of offsetX[i] and offsetY[i] may vary according to the whRatio value. have.

예를 들어, whRatio 값이 1 보다 큰 경우에는 offsetX[i] 값을 1, offsetY[i] 값을 0 으로 설정할 수 있고, whRatio 값이 1 보다 작은 경우에는 offsetX[i] 값을 0, offsetY[i] 값을 1로 설정할 수도 있다. For example, if the whRatio value is greater than 1, you can set the offsetX[i] value to 1 and the offsetY[i] value to 0. If the whRatio value is less than 1, you can set the offsetX[i] value to 0, and offsetY[ i] You can also set the value to 1.

2.42.4 인터 예측 부호화 및 복호화 방법Inter prediction coding and decoding method

이전 픽쳐의 정보를 이용하여 현재 픽쳐에 있는 블록의 예측 블록(예측 영상)을 생성하는 방법을 인터 예측 부호화 모드라고 한다. A method of generating a prediction block (prediction image) of a block in a current picture using information of a previous picture is referred to as an inter prediction encoding mode.

현재 블록의 이전 픽쳐 내에 있는 특정 블록으로 부터 예측 블록을 생성할 수도 있다. A prediction block may be generated from a specific block in a previous picture of the current block.

부호화 단계에서 이전 픽쳐 내 블록 중 복원 에러가 가장 작은 블록을 콜 블록( collocated block)을 중심으로 탐색하여 선택할 수 있으며, 현재 블록의 좌상단 샘플과 선택된 블록의 좌상단 샘플 사이의 x축 차분 및 y축 차분을 모션 벡터(motion vector)라 정의하고, 이를 비트스트림에 전송하여 시그날링할 수 있다. 모션 벡터가 특정하는 참조 픽쳐의 특정 블록에서 인터폴레이션 등을 통해 생성한 블록을 움직임 보상 예측 블록(motion compensated predictor block)이라 한다. In the encoding step, the block with the smallest reconstruction error among the blocks in the previous picture can be selected by searching around the collocated block, and the x-axis difference and y-axis difference between the upper left sample of the current block and the upper left sample of the selected block Is defined as a motion vector, and can be signaled by transmitting it to a bitstream. A block generated through interpolation from a specific block of a reference picture specified by a motion vector is called a motion compensated predictor block.

콜 블록은 그림 14와 같이 현재 블록과 좌상단 샘플의 위치 및 크기가 같은 해당 픽쳐의 블록을 나타낸다. 해당 픽쳐는 참조 픽쳐 레퍼런스와 같은 신택스로 부터 특정 될 수 있다. As shown in Fig. 14 , the collocated block represents the block of the picture with the same location and size of the current block and the upper left sample. The corresponding picture may be specified from the same syntax as the reference picture reference.

Figure pat00020
Figure pat00020

그림 14Fig. 14

인터 예측 부호화 모드에서는 오브젝트의 움직임을 고려하여 예측 블록을 생성할 수 있다. In the inter prediction encoding mode, a prediction block may be generated in consideration of the motion of an object.

예를 들어, 이전 픽쳐에 있는 오브젝트가 현재 픽쳐에서 어느 방향으로 어느 정도 움직였는지 알면 현재 블록에서 움직임을 고려한 블록을 차분하여 예측 블록(예측 영상)을 생성할 수 있으며, 이를 움직임 예측 블록이라고 정의한다. For example, if you know how and in which direction an object in the previous picture has moved in the current picture, a prediction block (prediction image) can be generated by differentiating a block considering motion in the current block, and this is defined as a motion prediction block. .

현재 블록에서 움직임 예측 블록 또는 해당 예측 블록을 차분하여 잔차 블록을 생성할 수 있다. A residual block may be generated by differentiating a motion prediction block or a corresponding prediction block from the current block.

오브젝트에 움직임이 발생하면, 해당 예측 블록보다 움직임 예측 블록을 사용하면 잔차 블록의 에너지가 작아져서 압축 성능이 좋아질 수 있다. When motion occurs in an object, if the motion prediction block is used rather than the corresponding prediction block, the energy of the residual block decreases, and compression performance may be improved.

이와 같이 움직임 예측 블록을 이용하는 방법을 움직임 보상 예측이라고 부르며, 대부분의 인터 예측 부호화에서는 움직임 보상 예측을 사용한다. This method of using a motion prediction block is called motion compensation prediction, and most inter prediction coding uses motion compensation prediction.

이전 픽쳐에 있는 오브젝트가 현재 픽쳐에서 어느 방향으로, 어느 정도 움직였는지를 나타내는 값을 모션 벡터라고 한다. 모션 벡터는 시퀀스 단위 또는 타일 그룹 단위 또는 블록 단위로 서로 다른 화소 정밀도를 갖는 모션벡터를 사용할 수 있다. 예를 들어, 특정 블록에서 모션 벡터의 화소 정밀도는 octor-pel,Quarter-Pel, Half-Pel, Integer pel, 4 Integer pel 중 적어도 어느 하나 일수 있다. A value indicating in which direction and to what extent the object in the previous picture has moved in the current picture is called a motion vector. As the motion vector, motion vectors having different pixel precisions may be used in units of sequences, groups of tiles, or blocks. For example, the pixel precision of a motion vector in a specific block may be at least one of octor-pel, quarter-pel, half-pel, integer pel, and 4 integer pel.

인터 예측 모드는 translaton 모션을 이용한 인터 예측 방법과 affine 모션을 이용한 affine 인터 예측 방법이 선택적으로 사용될 수도 있다. In the inter prediction mode, an inter prediction method using translaton motion and an affine inter prediction method using affine motion may be selectively used.

2.4.12.4.1 어파인 서브 블록 리파인 먼트 부호화 방법 Afine sub-block refinement coding method

Figure pat00021
Figure pat00021

그림 15Fig. 15

그림 15와 같이 어파인 인터 예측에서 서브 블록 단위 어파인 예측을 생성한 후에, optical flow를 적용하여 서브 브록 단위 어파인 예측을 리파인먼트 할 수 있으며, 이와 같은 방법을 어파인 서브 블록 리파인먼트 부호화 방법(Prediction refinement with optical flow)이라 정의한다. As shown in Figure 15, after generating affine prediction in units of sub-blocks in affine inter prediction, affine prediction in units of sub-blocks can be refined by applying an optical flow. It is defined as (Prediction refinement with optical flow).

다음과 같은 프로세스를 사용하여 어파인 서브 블록 리파인먼트(이하, PROF)를 수행할 수 있다. Afine sub-block refinement (hereinafter, PROF) may be performed using the following process.

1. 서브 블록 단위 어파인 움직임 예측을 수행하여 어파인 서브 예측 영상 p(i,j)를 생성 One. Affine sub-prediction image p(i,j) is generated by performing affine motion prediction in units of sub-blocks

2. 수평 방향 gradient gx(i,j) 및 수직 방향 gradient gy(i,j)를 유도 2. Induce horizontal gradient g x (i,j) and vertical gradient g y (i,j)

gx(i,j) = P(i+1, j) - P(i-1, j) g x (i,j) = P(i+1, j)-P(i-1, j)

gy(i,j) = P(i, j+1) - P(i, j-1) g y (i,j) = P(i, j+1)-P(i, j-1)

3. 다음과 같이 Optical flow 식을 이용하여 prediction refinement Pref(i,j)를 유도 3. The prediction refinement P ref (i,j) is derived using the optical flow equation as follows.

ref(i,j) = gx(i,j) * DiffMVx(i,j) + gy(i,j) * DiffMVy(i,j) ref (i,j) = g x (i,j) * DiffMV x (i,j) + g y (i,j) * DiffMV y (i,j)

iffMVx(i,j) = c*i + d* j iffMV x (i,j) = c*i + d* j

iffMVy(i,j) = e*i + f* j iffMV y (i,j) = e*i + f* j

c= f = v1x - v0x / width c= f = v1x-v0x / width

e =-d = v1y-v0y/ width e =-d = v1y-v0y/ width

4. 최종 예측 샘플 P'(i,j) 생성 4. Generate final prediction sample P'(i,j)

P'(i,j) + P(I,j) + Pref(i,j)P'(i,j) + P(I,j) + P ref (i,j)

2.4.22.4.2 머지 모드 부호화 방법 Merge mode coding method

현재 코딩 유닛의 모션 정보(모션 벡터, 참조 픽쳐 인덱스 등)를 부호화 하지 않고, 주변 블록의 모션 정보로 부터 유도할 수 있다. 주변 블록 중 어느 하나의 모션 정보를 현재 코딩 유닛의 모션 정보로 설정할 수 있으며, 이를 머지 모드(merge mode)라고 정의 한다. Motion information (motion vector, reference picture index, etc.) of the current coding unit is not encoded, and can be derived from motion information of neighboring blocks. Motion information of any one of the neighboring blocks can be set as motion information of the current coding unit, and this is defined as a merge mode.

머지 모드에 사용되는 주변 블록은 그림 16의 머지 후보 인덱스 0 내지 4 와 같이 현재 코딩 유닛과 인접한 블록 (현재 코딩 유닛의 경계와 맞닿은 블록)일 수도 있고, 그림 16의 머지 후보 인덱스 5 내지 26과 같이 인접하지 않은 블록일 수도 있다. Neighboring blocks used for the remaining mode may be a picture 16 remaining candidate indices from 0 to 4 and the block are adjacent to the coding unit as the (boundary with the abutting block of the current coding unit), as shown in Figure 16, the remaining candidate index from 5 to 26 of the It may be a non-adjacent block.

Figure pat00022
Figure pat00022

그림 16Fig 16

머지 후보가 현재 블록과의 거리가 기정의된 임계값을 넘어가면 가용(available)하지 않은 것으로 설정할 수 있다. When the distance of the merge candidate to the current block exceeds a predefined threshold, it may be set as not available.

예를 들어, 기 정의된 임계값을 CTU의 높이(ctu_height) 또는 ctu_height+N으로 설정할 수도 있으며, 이를 머지 후보 가용 임계값이라고 정의 한다. 즉 머지 후보의 y축 좌표(yi)와 현재 코딩 유닛의 좌상단 샘플(이하, 현재 코딩 유닛 기준 샘플)의 y축 좌표 차분 (y0) (즉, yi - y0)이 머지 후보 가용 임계값 보다 큰 경우에는 머지 후보를 가용(Available)하지 않은 것으로 설정할 수 있다. 여기서 N은 기 정의된 오프셋 값이다. 구체적으로 예를 들어, N을 16으로 설정할 수도 있고, ctu_height으로 설정할 수도 있다. For example, a predefined threshold may be set to the height of the CTU (ctu_height) or ctu_height+N, and this is defined as a merge candidate usable threshold. That is, the difference between the y-axis coordinates (y i ) of the merge candidate and the y-axis coordinates of the upper left sample of the current coding unit (hereinafter, referred to as the current coding unit reference sample) (y 0 ) (i.e., y i- y 0 ) is the merge candidate availability threshold. If it is greater than the value, the merge candidate may be set as not available. Here, N is a predefined offset value. Specifically, for example, N may be set to 16 or ctu_height may be set.

Figure pat00023
Figure pat00023

그림 17Figure 17

CTU 경계 (CTU boundary)를 넘어가는 머지 후보가 많은 경우에는 비가용 머지 후보가 많이 발생하여, 부호화 효율이 낮아질 수도 있다. 코딩 유닛의 위쪽에 존재하는 머지 후보(이하, 상측 머지 후보) 는 가능한 작게 설정하고, 코딩 유닛의 좌측 및 하단(이하, 좌하단 머지 후보)에 존재하는 머지 후보는 가능한 많게 설정할 수도 있다. When there are many merge candidates crossing the CTU boundary, many unusable merge candidates occur, and encoding efficiency may be lowered. Merge candidates existing above the coding unit (hereinafter, upper merge candidates) may be set as small as possible, and merge candidates existing at the left and lower portions of the coding unit (hereinafter, lower left merge candidates) may be set as many as possible.

그림 17과 같이 현재 코딩 유닛 기준 샘플의 y축 좌표와 상측 머지 후보의 y축 좌표의 차가 코딩 유닛 높이의 2배가 넘지 않도록 설정할 수도 있다. As shown in Fig. 17, the difference between the y-axis coordinate of the current coding unit reference sample and the y-axis coordinate of the upper merge candidate may not exceed twice the height of the coding unit.

그림 17과 현재 코딩 유닛 기준 샘플의 x축 좌표와 좌하단 머지 후보의 x축 좌표의 차가 코딩 유닛 너비의 2배가 넘지 않도록 설정할 수도 있다. It is also possible to set so that the difference between the x-axis coordinates of the reference sample of the current coding unit and the x-axis coordinates of the lower left merge candidate as shown in Figure 17 does not exceed twice the width of the coding unit.

2.4.3 인터 복호화 영역 머지 방법 2.4.3 Inter-decoding area merge method

현재 픽쳐에서 이미 인터 예측으로 부호화된 코딩 유닛의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 기 정의된 크기의 리스트에 저장할 수 있으며, 이를 인터 영역 모션 정보 리스트이라고 정의한다. Motion information (motion vector and reference picture index) of a coding unit that is already encoded by inter prediction in the current picture can be stored in a list having a predefined size, which is defined as an inter-region motion information list.

인터 영역 모션 정보 리스트에 있는 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 인터 복호화 영역 머지 후보라고 한다. Motion information (motion vector and reference picture index) in the inter-region motion information list is called an inter-decoding region merge candidate.

인터 복호화 영역 머지 후보를 현재 코딩 유닛의 머지 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 머지 방법이라고 정의한다. The inter decoding region merge candidate can be used as a merge candidate of the current coding unit, and this method is defined as an inter decoding region merge method.

타일 그룹이 초기화 되면 인터 영역 모션 정보 리스트는 비어 있으며, 픽쳐의 일부 영역을 부호화/복호화되면 인터 영역 모션 정보 리스트에 추가할 수 있다. 타일 그룹 헤더를 통해 인터 영역 모션 정보 리스트의 초기 인터 복호화 영역 머지 후보를 시그널링할 수도 있다. When the tile group is initialized, the inter-region motion information list is empty, and when a partial region of a picture is encoded/decoded, it can be added to the inter-region motion information list. The initial inter decoding region merge candidate of the inter region motion information list may be signaled through the tile group header.

코딩 유닛이 인터 예측으로 부호화/복호화 되면 그림 18과 같이 상기 코딩 유닛의 움직임 정보를 인터 영역 모션 정보 리스트에 업데이트 할 수 있다. 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보의 개수가 최대값인 경우에는, 인터 영역 모션 정보 리스트 인덱스가 가장 작은 값 (가장 먼저 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보)을 제거하고, 가장 최근에 부호화/복호화된 인터 영역의 모션 벡터를 인터 복호화 영역 머지 후보로 추가할 수 있다. When the coding unit is encoded/decoded by inter prediction, motion information of the coding unit may be updated in the inter-region motion information list as shown in Fig. 18. When the number of inter-decoding region merge candidates in the inter-region motion information list is the maximum value, the value with the smallest inter-region motion information list index (firstly, the inter-decoding region merge candidate in the inter-region motion information list) is removed. , A motion vector of the most recently encoded/decoded inter-region may be added as an inter-decoding region merge candidate.

Figure pat00024
Figure pat00024

그림 18Fig. 18

디코딩 된 코딩 유닛의 모션 정보 mvCand를 인터 영역 모션 정보 리스트 HmvpCandList에 업데이트 할수 있다. 이 때 디코딩 된 코딩 유닛의 모션 정보가 인터 영역 모션 정보 리스트에 있는 모션 정보 중 어느 하나와 같은 경우(모션 벡터와 레퍼런스 인덱스가 모두 같은 경우)에는 인터 영역 모션 정보 리스트를 업데이트 하지 않거나, 그림 19와 같이 디코딩 된 코딩 유닛의 모션 정보 mvCand을 인터 영역 모션 정보 리스트의 제일 마지막에 저장할 수 있다. 이 때 mvCand과 같은 모션 정보를 가지고 있는 HmvpCandList의 인덱스를 hIdx이면, 그림 19와 같이 hIdx 보다 큰 모든 i에 대해 HMVPCandList [i]를 HVMPCandList[i-1]로 설정할 수도 있다.

Figure pat00025
The motion information mvCand of the decoded coding unit may be updated in the inter-region motion information list HmvpCandList. At this time, if the motion information of the decoded coding unit is the same as any one of the motion information in the inter-region motion information list (when both the motion vector and the reference index are the same), the inter-region motion information list is not updated, or as shown in Figure 19. The motion information mvCand of the coding unit decoded together may be stored at the end of the inter-region motion information list. At this time, if the index of HmvpCandList that has the same motion information as mvCand is hIdx, HMVPCandList [i] can be set to HVMPCandList[i-1] for all i larger than hIdx as shown in Figure 19.
Figure pat00025

그림 19Figure 19

인터 영역 모션 정보 리스트에 총 NumHmvp 개의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스) 를 저장할 수 있으며, NumHmvp을 인터 영역 모션 정보 리스트 크기라고 정의한다. A total of NumHmvp motion information (motion vector and reference picture index) can be stored in the inter-region motion information list, and NumHmvp is defined as the size of the inter-region motion information list.

인터 영역 모션 정보 리스트 크기는 기 정의된 값을 사용할 수 있다. 타일 그룹 헤더에 인터 영역 모션 정보 리스트 크기를 시그날링할 수도 있다. 일 예로, 인터 영역 모션 정보 리스트 크기는 16으로 정의할 수도 있고, 6으로 정의할 수도 있다. The size of the inter-region motion information list may use a predefined value. The inter-region motion information list size may be signaled in the tile group header. For example, the size of the inter-region motion information list may be defined as 16 or 6.

인터 예측이면서 어파인 모션 벡터를 갖는 코딩 유닛에서는 인터 영역 모션 정보 리스트를 갖지 않도록 한정할 수도 있다. In a coding unit that is inter prediction and has an affine motion vector, it may be limited not to have an inter-region motion information list.

또는 인터 예측이면서 어파인 모션 벡터를 갖는 경우에는 어파인 서브 블록 벡터를 인터 영역 모션 정보 리스트에 추가할 수도 있다. 이 때 서브 블록의 위치는 좌상단 또는 우상단, 또는 중앙 서브 블록 등으로 설정할 수도 있다. Alternatively, in the case of inter prediction and an affine motion vector, the affine subblock vector may be added to the inter-region motion information list. In this case, the position of the sub-block may be set to the upper left or upper right, or the center sub-block.

또는, 각 컨트롤 포인트의 모션 벡터 평균값을 인터 영역 머지 후보 리스트에 추가할 수도 있다.Alternatively, the average motion vector value of each control point may be added to the inter-region merge candidate list.

특정 코딩 유닛을 부호화/복호화를 수행해서 유도한 움직임 벡터 MV0가 인터 복호화 영역 머지 후보 중 어느 하나와 동일한 경우에는 MV0를 인터 영역 모션 정보 리스트에 추가하지 않을 수 있다. 또는, MV0와 동일한 움직임 벡터를 갖는 기존의 인터 복호화 영역 머지 후보를 삭제하고, MV0를 새롭게 복호화 영역 머지 후보에 포함시켜, MV0에 할당되는 인덱스를 갱신할 수 있다.If the motion vector MV0 derived by encoding/decoding a specific coding unit is the same as any one of the inter-decoding region merge candidates, MV0 may not be added to the inter-region motion information list. Alternatively, an existing inter-decoding region merge candidate having the same motion vector as MV0 may be deleted, and the index allocated to MV0 may be updated by newly including MV0 in the decoding region merge candidate.

인터 영역 모션 정보 리스트 이외에 인터 영역 모션 정보 롱텀 리스트 HmvpLTList를 구성할 수도 있다. 인터 영역 모션 정보 롱텀 리스트 크기는 인터 영역 모션 정보 리스트 크기와 같게 설정하거나, 상이한 값으로 설정할 수 있다. In addition to the inter-region motion information list, an inter-region motion information long term list HmvpLTList may be configured. The size of the inter-region motion information long term list may be set equal to the size of the inter-region motion information list, or may be set to a different value.

인터 영역 모션 정보 롱텀 리스트는 타일 그룹 시작 위치에 처음 추가한 인터 복호화 영역 머지 후보로 구성될 수 있다. 인터 영역 모션 정보 롱텀 리스트가 모두 가용한 값으로 구성된 이후에 인터 영역 모션 정보 리스트를 구성하거나, 인터 영역 모션 정보 리스트 내 모션 정보를 인터 영역 모션 정보 롱텀 리스트의 모션 정보로 설정할 수도 있다. The inter-region motion information long term list may be composed of an inter-decoding region merge candidate initially added to the tile group start position. After the inter-region motion information long term list is configured with all available values, the inter-region motion information list may be configured, or motion information in the inter-region motion information list may be set as motion information of the inter-region motion information long term list.

이 때 한 번 구성된 인터 영역 모션 정보 롱텀 리스트는 업데이트를 수행하지 않거나, 타일 그룹 중 복호화된 영역이 전체 타일 그룹의 반 이상일 때 다시 업데이트 하거나, m개 CTU 라인마다 업데이트 하도록 설정할 수도 있다. 인터 영역 모션 정보 리스트는 인터 영역으로 복호화될 때마다 업데이트 하거나, CTU 라인 단위로 업데이트 하도록 설정할 수 있다. At this time, the inter-region motion information long-term list configured once may be updated again when no update is performed, a decoded region of the tile group is more than half of the entire tile group, or may be set to be updated every m CTU lines. The inter-region motion information list may be updated whenever the inter-region is decoded, or may be set to be updated in units of CTU lines.

현재 코딩 유닛에서 사용 가능한 머지 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. The merge candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 머지 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보)1. Spatial merge candidate (coding block adjacent merge candidate and coding block non-adjacent merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 머지 후보)2. Temporal merge candidate (merge candidate derived from previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter-decoding domain merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter-decoding domain affine merge candidate

5. Zero motion 머지 후보5. Zero motion merge candidate

먼저 머지 후보 리스트는 mergeCandList는 공간적 머지 후보 및 시간적 머지 후보로 구성할 수 있다. 가용한 공간적 머지 후보 및 시간적 머지 후보의 개수를 가용 머지 후보 개수 (NumMergeCand)라고 정의한다. 가용 머지 후보 개수가 머지 최대 허용 개수보다 작은 경우에는 인터 복호화 영역 머지 후보를 머지 후보 리스트 mergeCandList에 추가할 수 있다. First, the merge candidate list may be composed of a spatial merge candidate and a temporal merge candidate mergeCandList. The number of available spatial merge candidates and temporal merge candidates is defined as the number of available merge candidates (NumMergeCand). When the number of available merge candidates is less than the maximum allowable merge number, an inter-decoding region merge candidate may be added to the merge candidate list mergeCandList.

인터 영역 모션 정보 리스트 HmvpCandList를 머지 후보 리스트 mergeCandList에 추가할 때는 인터 영역 모션 정보 리스트 내 인터 복호화 영역 머지 후보의 모션 정보가 기존 머지 리스트 mergeCandList의 모션 정보와 동일한지 여부를 체크할 수 있다. 모션 정보가 동일한 경우에는 머지 리스트 mergeCandList에 추가하지 않고, 모션 정보가 동일하지 않은 경우에는 머지 리스트 mergeCandList에 인터 복호화 영역 머지 후보를 추가할 수 있다.When adding the inter-region motion information list HmvpCandList to the merge candidate list mergeCandList, it may be checked whether motion information of the inter-decoding region merge candidate in the inter-region motion information list is the same as the motion information of the existing merge list mergeCandList. If the motion information is the same, the merge list may not be added to the mergeCandList, and if the motion information is not the same, the inter-decoding region merge candidate may be added to the merge list mergeCandList.

인터 복호화 영역 머지 후보 중 인덱스가 큰 것 부터 머지 후보 리스트 mergeCandList에 추가하거나 인덱스가 작은 것 부터 머지 후보 리스트 mergeCandList에 추가할 수 있다. Among the merge candidates in the inter-decoding area, one with a large index can be added to the merge candidate list mergeCandList, or one with a small index can be added to the merge candidate list mergeCandList.

인터 복호화 영역 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 예측 방법이라고 정의한다. The inter-decoding region motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is defined as an inter-decoding region motion information prediction method.

인터 복호화 영역 어파인 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 어파인 예측 방법이라고 정의한다. An inter-decoding region affine motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is defined as an inter-decoding region motion information affine prediction method.

현재 코딩 유닛에서 사용 가능한 움직임 정보 예측자 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. Motion information predictor candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 움직임 예측자 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보와 동일)1. Spatial motion predictor candidate (same as a coding block adjacent merge candidate and a coding block non-adjacent merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 움직임 예측자 후보)2. Temporal merge candidate (motion predictor candidate derived from previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter-decoding domain merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter-decoding domain affine merge candidate

5. Zero motion 움직임 예측자 후보5. Zero motion motion predictor candidate

2.52.5 인터-인트라 결합 예측 플래그 부호화 방법 Inter-Intra Combined Prediction Flag Coding Method

결합 예측 부호화 모드 중 머지 모드로 부터 생성한 예측 영상(이하, 머지 예측 영상)에 인트라 예측 방법을 통해 생성한 예측(이하, 인트라 예측 영상)을 가중 예측하여 최종 예측 영상을 생성할 수 있으며, 이를 머지-인트라 결합 예측이라 정의한다. 머지-인트라 결합 예측을 사용했는지를 나타내는 플래그 머지-인트라 결합 예측 플래그 (ciip_flag)을 비트스트림을 통해 시그날링 할 수 있다. ciip_flag 값이 1이면, merge_idx에서 특정한 모션 정보를 기초로 획득된 머지 예측 영상과 인트라 예측 모드에 기초하여 획득된 인트라 예측 영상을 가중 예측하여 머지-인트라 예측 영상을 생성할 수 있다. Among the combined prediction encoding modes, a final prediction image may be generated by weighted prediction of a prediction image (hereinafter referred to as a merge prediction image) generated through an intra prediction method on a prediction image (hereinafter referred to as a merge prediction image) generated from the merge mode. It is defined as merge-intra coupling prediction. A flag indicating whether merge-intra-combination prediction has been used A merge-intra-combination prediction flag (ciip_flag) may be signaled through a bitstream. If the ciip_flag value is 1, a merge-intra prediction image may be generated by weighted prediction of a merge prediction image acquired based on specific motion information in merge_idx and an intra prediction image acquired based on an intra prediction mode.

ciip_luma_mpm_flag 값이 1이면, MPM 후보로부터 머지-인트라 결합 예측 모드의 인트라 예측 모드를 유도할 수 있다. ciip_luma_mpm_flag 값이 0이면, MPM 후보가 아닌 기 정의된 인트라 예측 모드(이하, 머지-인트라 디폴트 모드)로 부터 인트라 예측 모드를 유도할 수 있다.If the ciip_luma_mpm_flag value is 1, the intra prediction mode of the merge-intra combined prediction mode can be derived from the MPM candidate. If the ciip_luma_mpm_flag value is 0, the intra prediction mode may be derived from a predefined intra prediction mode (hereinafter, merge-intra default mode) that is not an MPM candidate.

예를 들어, 머지-인트라 디폴트 모드는, 플래너 모드, DC 모드, 수평 방향 예측 모드 또는 수직 방향 예측 모드 중 적어도 하나를 포함할 수 있다. 일 예로, ciip_luma_mpm_flag의 값이 0인 경우, 현재 블록의 크기 및/또는 형태에 기초하여 복수 머지-인트라 디폴트 모드들 중 어느 하나가 현재 블록의 인트라 예측 모드로 결정될 수 있다. 또는, ciip_luma_mpm_flag의 값이 0인 경우, 복수 머지-인트라 디폭ㄹ트 모드들 중 어느 하나를 특정하기 위한 인덱스 ciip_luma_default_idx가 시그날링될 수 있다. 또는, ciip_luma_mpm_flag의 값이 0인 경우, 플래너 모드, DC 모드, 수평 방향 예측 모드 또는 수직 방향 예측 모드가 디폴트로 현재 블록의 인트라 예측 모드로 결정될 수 있다.For example, the merge-intra default mode may include at least one of a planar mode, a DC mode, a horizontal direction prediction mode, and a vertical direction prediction mode. For example, when the value of ciip_luma_mpm_flag is 0, one of the plurality of merge-intra default modes may be determined as the intra prediction mode of the current block based on the size and/or shape of the current block. Alternatively, when the value of ciip_luma_mpm_flag is 0, an index ciip_luma_default_idx for specifying any one of the multiple merge-intra depth modes may be signaled. Alternatively, when the value of ciip_luma_mpm_flag is 0, a planar mode, a DC mode, a horizontal direction prediction mode, or a vertical direction prediction mode may be determined as an intra prediction mode of the current block by default.

또 다른 예를 들어, 플래너 모드를 머지-인트라 디폴트 모드로 설정할 수도 있다. As another example, the planner mode may be set as the merge-intra default mode.

표 5Table 5

Figure pat00026
Figure pat00026

머지-인트라 결합 예측을 사용하는 경우, 표 5와 같이 결합 인트라 예측 모드가 비방향성 예측 모드인지를 나타내는 결합 인트라 비방향성 지시 플래그 (ciip_intra_nondir_mode_flag)을 시그날링 할 수 있다. 비방향성 예측 모드는 DC 모드 또는 Planar 모드 중 적어도 하나를 포함할 수 있다.In the case of using merge-intra combined prediction, as shown in Table 5, a combined intra non-directional indication flag (ciip_intra_nondir_mode_flag) indicating whether the combined intra prediction mode is a non-directional prediction mode may be signaled. The non-directional prediction mode may include at least one of a DC mode and a planar mode.

ciip_intra_nondir_mode_flag 값이 1 이면, 결합 인트라 예측 모드가 DC 모드 또는 planar 모드임을 나타낸다. ciip_intra_nondir_mode_flag 값이 0 이면, 결합 인트라 예측 모드가 DC 모드 또는 planar 모드가 아님을 나타낸다. If the value of ciip_intra_nondir_mode_flag is 1, it indicates that the combined intra prediction mode is a DC mode or a planar mode. If the ciip_intra_nondir_mode_flag value is 0, it indicates that the combined intra prediction mode is not the DC mode or the planar mode.

ciip_intra_nondir_mode_flag 값이 1인 경우, 결합 인트라 예측 모드가 DC 모드 및 planar 모드 중 하나를 특정하기 위한 플래그 ciip_luma_nonDir_idx를 시르날링할 수 있다. ciip_luma_nonDir_idx값이 0이면 planar 모드임을 나타내고, ciip_luma_nonDir_idx값이 1이면 DC 모드임을 나타낸다. When the ciip_intra_nondir_mode_flag value is 1, the combined intra prediction mode may signal a flag ciip_luma_nonDir_idx for specifying one of a DC mode and a planar mode. A ciip_luma_nonDir_idx value of 0 indicates planar mode, and a ciip_luma_nonDir_idx value of 1 indicates DC mode.

ciip_intra_nondir_mode_flag 값이 0인 경우, 현재 블록의 인트라 예측 모드는 MPM 후보들로부터 유도될 수 있다. ciip_intra_nondir_mode_flag 값이 0인 경우, MPM 후보들 중 하나를 특정하기 위한 ciip_luma_mpm_idx가 시그날링될 수 있다.When the ciip_intra_nondir_mode_flag value is 0, the intra prediction mode of the current block may be derived from MPM candidates. When the ciip_intra_nondir_mode_flag value is 0, ciip_luma_mpm_idx for specifying one of the MPM candidates may be signaled.

또는, ciip_intra_nondir_mode_flag 값이 0인 경우, 현재 블록의 인트라 예측 모드는 디폴트 모드(들)로부터 유도될 수 있다. 디폴트 모드는 수직 방향 예측 모드, 수평 방향 예측 모드 또는 대각 방향 예측 모드 중 적어도 하나를 포함할 수 있다. Alternatively, when the ciip_intra_nondir_mode_flag value is 0, the intra prediction mode of the current block may be derived from the default mode(s). The default mode may include at least one of a vertical direction prediction mode, a horizontal direction prediction mode, and a diagonal direction prediction mode.

비방향성 지시 플래그 (ciip_intra_nondir_mode_flag) 대신 플래너 지시 플래그 (ciip_intra_planar_mode_flag) 또는 DC 지시 플래그 (ciip_intra_DC_mode_flag)를 이용할 수 있다. 플래너 시지 플래그는 현재 블록의 인트라 예측 모드가 플래너 모드인지 여부를 나타낸다. DC 지시 플래그는 현재 블록의 인트라 예측 모드가 DC 모드인지 여부를 나타낸다. 플래너 지시 플래그 또는 DC 지시 플래그가 0인 경우, 디폴트 모드(들) 또는 MPM 후보들로부터 현재 블록의 인트라 예측 모드를 결정할 수 있다. Instead of the non-directional indication flag (ciip_intra_nondir_mode_flag), a planner indication flag (ciip_intra_planar_mode_flag) or a DC indication flag (ciip_intra_DC_mode_flag) may be used. The planar message flag indicates whether the intra prediction mode of the current block is the planar mode. The DC indication flag indicates whether the intra prediction mode of the current block is a DC mode. When the planar indication flag or the DC indication flag is 0, the intra prediction mode of the current block may be determined from the default mode(s) or MPM candidates.

플래너 지시 플래그를 이용하는 경우, 디폴트 모드는 DC 모드, 수직 방향 예측 모드, 수평 방향 예측 모드 또는 대각 방향 예측 모드 중 적어도 하나를 포함할 수 있다.When the planner indication flag is used, the default mode may include at least one of a DC mode, a vertical direction prediction mode, a horizontal direction prediction mode, and a diagonal direction prediction mode.

DC 지시 플래그를 이용하는 경우, 디폴트 모드는 플래너 모드, 수직 방향 예측 모드, 수평 방향 예측 모드 또는 대각 방향 예측 모드 중 적어도 하나를 포함할 수 있다.When the DC indication flag is used, the default mode may include at least one of a planar mode, a vertical direction prediction mode, a horizontal direction prediction mode, and a diagonal direction prediction mode.

Figure pat00027
Figure pat00027

그림 21Fig. 21

Ciip가 적용되는 경우, 현재 블록의 예측 샘플은 인트라 예측에 의해 획득된 예측 영상과 머지 모드를 기초로 획득된 예측 영상을 가중 예측하여 획득될 수 있다. 일 예로, 다음 식 (21)와 같이 예측 샘플을 유도할 수 있다.When Ciip is applied, a prediction sample of the current block may be obtained by weighted prediction of a prediction image obtained by intra prediction and a prediction image obtained based on a merge mode. For example, a prediction sample can be derived as shown in Equation (21) below.

PredSamplesComb[x][y] = (w* PredSamplesIntra[x][y] + (4-w)*PredSamplesInter + 2 ) >> 2 PredSamplesComb[x][y] = (w* PredSamplesIntra[x][y] + (4-w)*PredSamplesInter + 2) >> 2 (21)(21)

식 (21)에서 PredSamplesIntra는 인트라 예측 샘플을 나타내고, PredSamplesInter는 인터 예측 샘플을 나타낸다. In Equation (21), PredSamplesIntra represents an intra prediction sample, and PredSamplesInter represents an inter prediction sample.

이때, 인트라 예측 샘플과 인터 예측 샘플에 적용되는 가중치는, 현재 블록의 주변 블록의 예측 정보에 기초하여 결정될 수 있다. 여기서, 현재 블록의 주변 블록은, 상단 이웃 블록, 좌측 이웃 블록, 좌측 상단 이웃 블록, 우측 상단 이웃 블록, 좌측 하단 이웃 블록 중 적어도 하나를 포함할 수 있다. In this case, a weight applied to the intra prediction sample and the inter prediction sample may be determined based on prediction information of neighboring blocks of the current block. Here, the neighboring block of the current block may include at least one of an upper neighboring block, a left neighboring block, an upper left neighboring block, an upper right neighboring block, and a lower left neighboring block.

그림 21과 같이 좌측 블록과 상측 블록의 예측 모드 정보에 기초하여 ciip의 가중 예측치 w 를 설정할 수 있다. 구체적으로 인트라 예측 모드로 부호화된 이웃 블록들의 개수 및/또는 인터 예측 모드로 부호화된 이웃 블록들의 개수에 따라, 가중 예측치 w가 결정될 수 있다. 일 예로, 좌측 블록과 상측 블록이 모두 인트라 예측 모드이면 가중 예측치 w를 3으로 설정할 수 있고, 좌측 블록과 상측 블록이 모두 인트라 예측 모드가 아니면, 가중 예측치 w를 1로 설정할 수 있으며, 그 외의 경우에는 가중 예측치 w를 2로 설정할 수 있다. As shown in Figure 21, the weighted prediction value w of ciip can be set based on the prediction mode information of the left block and the upper block. Specifically, the weighted prediction value w may be determined according to the number of neighboring blocks encoded in the intra prediction mode and/or the number of neighboring blocks encoded in the inter prediction mode. For example, if both the left block and the upper block are in intra prediction mode, the weighted prediction value w may be set to 3, and if both the left block and the upper block are not in intra prediction mode, the weighted prediction value w may be set to 1, otherwise The weighted predicted value w can be set to 2.

또는, 이웃 블록이 ciip로 부호화된 경우, 이웃 블록에 적용된 가중치를 현재 블록의 가중치로 결정할 수 있다. 일 예로, 좌측 블록 및 상측 블록이 모두 ciip로 부호화된 코딩 블록인 경우, 좌측 블록 및 상측 블록의 ciip 가중 예측치 중 어느 하나에 기초하여 현재 블록의 ciip 가중 예측치를 결정할 수 있다. 일 예로, 좌측 블록 및/또는 상측 블록의 ciip 가중 예측치 중 큰 값을 현재 블록의 ciip 가중 예측치로 결정할 수 있다. 또는, 좌측 블록 및/또는 상측 블록의 ciip 가중 예측치 중 작은 값을 현재 블록의 ciip 가중 예측치로 결정할 수 있다. 또는, 좌측 블록 및 상측 블록의 ciip 가중 예측치의 평균값을 현재 블록의 ciip 가중 예측치로 결정할 수 있다. 또는, 현재 블록의 크기/형태에 따라, 좌측 블록 및 상측 블록 중 어느 하나의 ciip 가중 예측치를 선택할 수 있다. Alternatively, when the neighboring block is coded with ciip, a weight applied to the neighboring block may be determined as the weight of the current block. For example, when both the left block and the upper block are ciip-coded coding blocks, a ciip weighted prediction value of the current block may be determined based on any one of ciip weighted prediction values of the left block and the upper block. For example, a larger value among the ciip weighted predictors of the left block and/or the upper block may be determined as the ciip weighted predictive value of the current block. Alternatively, a smaller value of the ciip weighted predicted value of the left block and/or the upper block may be determined as the ciip weighted predicted value of the current block. Alternatively, the average value of the ciip weighted predicted value of the left block and the upper block may be determined as the ciip weighted predicted value of the current block. Alternatively, according to the size/shape of the current block, a ciip weighted prediction value of one of a left block and an upper block may be selected.

좌측 블록 내지 상측 블록 중 어느 하나의 코딩 블록이 ciip로 부호화된 경우, ciip로 코딩된 주변 블록의 ciip 가중 예측치를 현재 블록의 가중 예측치로 사용할 수도 있다 When any one of the left block and the upper block is coded with ciip, the ciip weighted prediction value of the neighboring block coded with ciip may be used as the weighted prediction value of the current block.

ciip모드 하에서 허용되는 머지 후보의 개수는 N개 이하로 제한될 수 있다. N은, 1 또는 2와 같은 자연수일 수 있다. CIIP 모드 하에서 머지 후보 리스트에 포함된 머지 후보들 중 인덱스가 N-1 이하인 머지 후보들을 이용할 수 있다. 또는, 좌측 이웃 블록들 중 어느 하나로부터 유도된 머지 후보와 상단 이웃 블록들 중 어느 하나로부터 유도된 머지 후보만을 이용하도록 설정될 수 있다. N은 부호화기 및 복호화기에서 기 정의된 값일 수 있다. 또는, ciip 모드 하에서 허용되는 머지 후보의 개수를 나타내는 정보가 비트스트림을 통해 시그날링될 수 있다. 상기 정보는 머지 모드에서 허용되는 최대 머지 후보의 개수와 ciip 모드에서 허용되는 최대 머지 후보의 개수 사이의 차분값을 나타낼 수도 있다.The number of merge candidates allowed under ciip mode may be limited to N or less. N may be a natural number such as 1 or 2. Among the merge candidates included in the merge candidate list under the CIIP mode, merge candidates having an index of N-1 or less may be used. Alternatively, it may be set to use only a merge candidate derived from any one of the left neighboring blocks and a merge candidate derived from any one of the upper neighboring blocks. N may be a value predefined by an encoder and a decoder. Alternatively, information indicating the number of merge candidates allowed under the ciip mode may be signaled through a bitstream. The information may indicate a difference value between the maximum number of merge candidates allowed in the merge mode and the maximum number of merge candidates allowed in the ciip mode.

2개의 머지 후보들이 이용되는 경우, ciip_flag 값이 1이면, merge_idx는 0 또는 1의 값을 가질 수 있다. 이 경우, merge_idx_flag를 기초로, merge_idx를 결정할 수 있다. 상기 flag가 0인 것은 merge_idx가 0인 것을 나타내고, 상기 flag가 1인 것은 merge_idx가 1인 것을 나타낸다.1개의 머지 후보들이 이용되는 경우, ciip_flag 값이 1이면, merge_idx는 0 값만 가질 수 있다. 이 경우, 다음 표 6과 같이 merge_idx를 시그날링하지 않을 수도 있다. When two merge candidates are used, if the ciip_flag value is 1, merge_idx may have a value of 0 or 1. In this case, the merge_idx may be determined based on the merge_idx_flag. A flag of 0 indicates that merge_idx is 0, and a flag of 1 indicates that merge_idx is 1. When one merge candidate is used, when a ciip_flag value is 1, merge_idx may have only a value of 0. In this case, the merge_idx may not be signaled as shown in Table 6 below.

표 6Table 6

Figure pat00028
Figure pat00028

Figure pat00029
Figure pat00029

또는 mmvd_merge_flag 값이 1인 경우에도, 머지-인트라 결합 예측을 사용할 수 있도록 설정할 수 있다.Alternatively, even when the mmvd_merge_flag value is 1, merge-intra combination prediction may be used.

일 예로, 다음 표 7과 같이 mmvd_merge_flag 값이 1 인 경우에, ciip_flag을 비트스트림을 통해 전송할 수 있으며, mmvd에서 유도한 예측 영상을 머지-인트라 결합 예측에 사용할 수 있다. For example, as shown in Table 7 below, when the mmvd_merge_flag value is 1, ciip_flag may be transmitted through a bitstream, and a predicted image derived from mmvd may be used for merge-intra combination prediction.

표 7Table 7

Figure pat00030
Figure pat00030

Figure pat00031
Figure pat00031

ciip_flag 값이 1인 경우, PROF를 사용하지 않도록 설정할 수도 있다. If the ciip_flag value is 1, it may be set not to use PROF.

2.5.12.5.1 삼각 예측 블록 부호화 방법Triangular prediction block coding method

현재 부/복호화 되는 코딩 유닛을 정사각형 및/또는 직사각형 형태 (shape)를 가지지 않는 적어도 하나 이상의 예측 블록으로 분할한 후, 부/복호화를 수행 할 수 있다. 구체적으로, 수직선, 수평선 또는 대각선 등 적어도 하나 이상의 라인을 이용하여, 코딩 유닛을 적어도 하나 이상의 예측 블록으로 부/복호화할 수 있다. 이때 코딩 유닛을 분할하는 라인의 시작점, 끝점, 라인 개수, 분할에 요구되는 각도, 분할된 예측 블록 개수, 임의의 형태를 가지는 예측 블록 형태에 대한 정보 중 적어도 하나 이상의 정보가 비트스트림을 통해 시그널링 될 수 있다. 또는, 코딩 유닛의 인트라 예측 모드, 인터 예측 모드, 이용 가능한 머지 후보의 위치 등에 따라, 코딩 유닛을 분할하는 라인의 시작점, 끝점, 개수, 분할에 요구되는 각도, 분할된 예측 블록 개수, 임의의 형태를 가지는 예측 블록 형태에 대한 정보 중 적어도 하나가 묵시적으로 유도 될 수 있다. 코딩 유닛을 정사각형 및/또는 직사각형 형태의 예측 블록과는 다른 형태를 가지는 적어도 하나 이상의 예측 블록으로 분할하고, 분할된 예측 블록 단위로, 인트라 예측 및/또는 인터 예측을 수행할 수 있다.After dividing the currently encoded/decoded coding unit into at least one prediction block that does not have a square and/or rectangular shape, encoding/decoding may be performed. Specifically, the coding unit may be encoded/decoded into at least one prediction block using at least one or more lines such as a vertical line, a horizontal line, or a diagonal line. At this time, at least one of the information on the start point, the end point, the number of lines, the angle required for the division, the number of divided prediction blocks, and the shape of a prediction block having an arbitrary shape will be signaled through the bitstream. I can. Alternatively, depending on the intra prediction mode, the inter prediction mode, the position of the available merge candidate, etc. of the coding unit, the starting point, the end point, the number of lines for dividing the coding unit, the angle required for the division, the number of divided prediction blocks, and any shape At least one of information on the shape of a prediction block having a may be implicitly derived. The coding unit may be divided into at least one prediction block having a shape different from that of a square and/or rectangular prediction block, and intra prediction and/or inter prediction may be performed in units of the divided prediction blocks.

그림 21은 대각선을 이용하여 코딩 유닛을 2개의 예측 블록으로 분할한 예를 나타낸다. 대각선을 이용하여 코딩 유닛을 2개의 예측 블록으로 분할하는 것을 대칭 대각 파티셔닝이라 정의할 수 있다. 그림 21에서는 코딩 유닛이 크기가 같은 2개의 삼각 형태 예측 블록으로 분할된 것으로 도시되었다. Fig. 21 shows an example of dividing a coding unit into two prediction blocks using a diagonal line. Dividing the coding unit into two prediction blocks using a diagonal line may be defined as symmetric diagonal partitioning. In Figure 21, it is shown that the coding unit is divided into two triangular prediction blocks of the same size.

그림 21의 좌측 그림을 좌삼각 파티셔닝이라고 부르고, 그림 21의 오른쪽 그림을 우삼각 파티셔닝이라고 정의할 수 있다. 코딩 유닛의 좌상단 또는 좌하단 샘플이 속한 예측 블록을 좌삼각 예측 블록이라고 정의할 수 있고, 코딩 유닛의 우상단 또는 우하단 샘플이 속한 예측 블록을 우삼각 예측 블록이라고 정의할 수 있으며, 우삼각 예측 블록 또는 좌삼각 예측 블록을 통칭하여 삼각 예측 블록이라고 정의할 수 있다. The left figure in Figure 21 can be called left triangular partitioning, and the right figure in Figure 21 can be defined as right triangular partitioning. The prediction block to which the upper left or lower left sample of the coding unit belongs can be defined as a left triangular prediction block, the prediction block to which the upper right or lower right sample of the coding unit belongs can be defined as a right triangular prediction block, and Alternatively, the left triangular prediction block may be collectively defined as a triangular prediction block.

Figure pat00032
Figure pat00032

그림 21Fig. 21

현재 코딩 유닛의 주변 블록이 대각 파티셔닝으로 부호화 된 경우에는, 공간적 머지 후보의 위치에 따라 좌삼각 예측 블록 또는 우삼각 예측 블록 중 어느 하나의 모션 벡터를 머지 후보로 사용할 수 있다. 일 예로, 그림 22와 같이 코딩 유닛과 인접한 삼각 예측 블록의 모션 벡터를 머지 후보로 사용할 수 있다. 그림 22의 좌측 그림에서 A1이 머지 후보로 선택된 경우, 현재 코딩 유닛과 인접한 우삼각 예측 블록 P2의 모션 벡터를 머지 후보로 사용할 수 있고, 그림 22의 좌측 그림에서 B1이 머지 후보로 선택된 경우, 현재 코딩 유닛과 인접한 좌삼각 예측 블록 P1의 모션 벡터를 머지 후보로 사용할 수 있다. 또 다른 예를 들어, 그림 22의 우측 그림에서 A1이 머지 후보로 선택된 경우, 현재 코딩 유닛과 인접한 우삼각 예측 블록 P2의 모션 벡터를 머지 후보 사용할 수 있고, 그림 22의 우측 그림에서 B1이 머지 후보로 선택된 경우, 현재 코딩 유닛과 인접한 우삼각 예측 블록 P2의 모션 벡터를 머지 후보로 사용할 수 있다. When a neighboring block of the current coding unit is coded by diagonal partitioning, a motion vector of either a left triangular prediction block or a right triangular prediction block may be used as a merge candidate according to the position of the spatial merge candidate. For example, as shown in Figure 22, a motion vector of a triangular prediction block adjacent to the coding unit may be used as a merge candidate. If A1 is selected as the merge candidate in the left figure of Figure 22, the motion vector of the right triangular prediction block P2 adjacent to the current coding unit can be used as the merge candidate, and if B1 is selected as the merge candidate in the left figure of Figure 22, the current The motion vector of the left triangular prediction block P1 adjacent to the coding unit may be used as a merge candidate. For another example, if A1 is selected as the merge candidate in the right figure of Figure 22, the motion vector of the right triangular prediction block P2 adjacent to the current coding unit can be used, and B1 is the merge candidate in the right figure of Figure 22. If selected as, the motion vector of the right triangular prediction block P2 adjacent to the current coding unit may be used as a merge candidate.

Figure pat00033
Figure pat00033

그림 22Fig. 22

현재 코딩 유닛의 주변 블록 또는 co-located 블록이 대각 파티셔닝으로 부호화 된 경우에는, 머지 후보가 가용하지 않은 것으로 설정할 수도 있다. When a neighboring block or a co-located block of the current coding unit is coded by diagonal partitioning, a merge candidate may be set as not available.

코딩 유닛에 대각 파티셔닝을 적용할 것인지 여부를 나타내는 정보가 비트스트림을 통해 시그널링 될 수 있다. 예컨대, 코딩 유닛에 대각 파티셔닝이 적용되는지 여부를 나타내는 신택스인 트라이앵글 파티션 플래그(triangle_partition_flag)를 CU 단위로 시그널링할 수 있다.Information indicating whether to apply diagonal partitioning to the coding unit may be signaled through a bitstream. For example, a triangle partition flag (triangle_partition_flag), which is a syntax indicating whether diagonal partitioning is applied to the coding unit, may be signaled in units of CU.

또한, 대각 파티셔닝의 방향을 나타내는 정보가 비트스트림을 통해 시그널링될 수 있다. 예컨대, CU 단위로 좌삼각 파티셔닝을 사용했는지 우삼각 파티셔닝을 사용했는지를 나타내는 신택스인 트라이앵글 파티션 타입 플래그 (triangle_partition_type_flag)를 CU 단위로 시그날링 할 수 있다. triangle_partion_type_flag 값이 0 이면, 좌삼각 파티션을 나타내고, triangle_partition_type_flag 값이 1 이면, 우삼각 파티션을 나타낸다. 또는, 코딩 트리 유닛 단위, 타일 단위, 타일 세트(타일 그룹), 슬라이스 단위 중 적어도 하나 이상의 단위로 대각 파티셔닝의 방향을 나타내는 정보가 시그널링 될 수 있다. 이 경우, 상기 정보가 시그널링되는 레벨에 포함된 코딩 유닛들 중 대각 파티셔닝이 적용되는 코딩 유닛들은 동일한 파티션 형태를 가질 수 있다.In addition, information indicating the direction of diagonal partitioning may be signaled through a bitstream. For example, a triangle partition type flag (triangle_partition_type_flag), which is a syntax indicating whether left triangular partitioning or right triangular partitioning is used in CU units, may be signaled in CU units. If the triangle_partion_type_flag value is 0, it indicates the left triangular partition, and if the triangle_partition_type_flag value is 1, it indicates the right triangular partition. Alternatively, information indicating the direction of diagonal partitioning may be signaled in at least one unit of a coding tree unit unit, a tile unit, a tile set (tile group), and a slice unit. In this case, among the coding units included in the level at which the information is signaled, the coding units to which the diagonal partitioning is applied may have the same partition shape.

다른 예로, 코딩 유닛의 삼각 파티셔닝 타입은, 코딩 유닛에 이웃하는 이웃 코딩 유닛의 삼각 파티셔닝 타입을 기초로 결정될 수 있다. 일 예로, 코딩 유닛의 삼각 파티셔닝 타입은 이웃 코딩 유닛의 삼각 파티셔닝 타입과 동일하게 결정될 수 있다. 여기서, 이웃 코딩 유닛은, 현재 코딩 유닛의 대각 방향에 인접 위치하는 이웃 블록, 현재 코딩 유닛의 상단 또는 좌측에 인접 위치하는 이웃 블록, 또는 co-located 블록 및 co-located 블록 주변 블록 중 적어도 하나 이상의 블록으로 정의될 수 있다. As another example, the triangular partitioning type of the coding unit may be determined based on the triangular partitioning type of a neighboring coding unit adjacent to the coding unit. As an example, the triangular partitioning type of the coding unit may be determined to be the same as the triangular partitioning type of the neighboring coding unit. Here, the neighboring coding unit is at least one of a neighboring block located adjacent to a diagonal direction of the current coding unit, a neighboring block located adjacent to the top or left of the current coding unit, or a co-located block and a co-located block neighboring block. It can be defined as a block.

CTU 내 첫번째 삼각 파티셔닝이 적용되는 코딩 유닛에 대해서는 대각 파티셔닝의 방향을 나타내는 정보를 시그널링하는 한편, 삼각 파티셔닝이 적용되는 두번째 이후 코딩 유닛에는 첫번째 코딩 유닛과 동일한 대각 파티셔닝 방향을 적용할 수 있다. Information indicating the direction of the diagonal partitioning is signaled to the coding unit to which the first triangular partitioning is applied in the CTU, while the same diagonal partitioning direction as the first coding unit may be applied to the second and subsequent coding units to which the triangular partitioning is applied.

좌삼각 예측 블록과 우삼각 예측 블록은 각각 별도의 움직임 벡터와 참조 픽쳐 인덱스를 가질 수 있다. 삼각 예측 블록의 움직임 벡터는 그림 23와 같이 공간적 머지 후보 리스트와 시간적 머지 후보 리스트로 구성된 삼각 머지 후보 리스트에서 유도할 수 있다. 현재 예측 블록에 대해 허용되는 삼각 머지 후보 개수의 최대값은 임의로 설정할 수 있다. Each of the left triangular prediction block and the right triangular prediction block may have separate motion vectors and reference picture indexes. The motion vector of the triangular prediction block can be derived from a triangular merge candidate list consisting of a spatial merge candidate list and a temporal merge candidate list as shown in Figure 23. The maximum number of triangular merge candidates allowed for the current prediction block can be arbitrarily set.

삼각 예측 블록들은 상이한 머지 후보 리스트를 이용할 수 있다. 일 예로, 우삼각 예측 블록의 머지 후보 리스트는, 좌삼각 예측 블록의 머지 후보들 중 좌삼각 예측 블록의 머지 후보 인덱스가 가리키는 머지 후보를 제외한 나머지 머지 후보들을 이용하여 구성될 수 있다. 좌삼각 예측 블록과 우삼각 예측 블록의 삼각 머지 후보 최대값을 상이하게 설정할 수 있다. 일 예로, 좌삼각 예측 블록은 M개의 삼각 머지 후보를 갖는 한편, 우삼각 예측 블록은 좌삼각 예측 블록의 머지 후보 인덱스가 가리키는 머지 후보를 제외한 M-1개의 삼각 머지 후보를 가질 수 있다.Triangular prediction blocks may use different merge candidate lists. As an example, the merge candidate list of the right triangular prediction block may be constructed using the remaining merge candidates excluding the merge candidate indicated by the merge candidate index of the left triangular prediction block among the merge candidates of the left triangular prediction block. The maximum values of the triangular merge candidates of the left triangular prediction block and the right triangular prediction block may be set differently. As an example, the left triangular prediction block may have M triangular merge candidates, while the right triangular prediction block may have M-1 triangular merge candidates excluding merge candidates indicated by the merge candidate index of the left triangular prediction block.

다른 예로, 삼각 예측 블록들은 하나의 머지 후보 리스트를 공유할 수 있다.As another example, triangular prediction blocks may share one merge candidate list.

삼각 머지 후보는 기 정의된 순서로 머지 후보 리스트에 추가될 수 있다. 일 예로 그림 23의 머지 후보 중 다음 순서를 사용할 수도 있다. The triangular merge candidates may be added to the merge candidate list in a predefined order. As an example, the following order among the merge candidates in Figure 23 may be used.

0 --> 1 --> 2 --> 3 --> 7 --> 4 --> 6 0 --> 1 --> 2 --> 3 --> 7 --> 4 --> 6

삼각 머지 후보 리스트에서 선택된 후보 블록은 삼각 머지 후보 인덱스(merge_triangle_idx)로 나타낼 수 있다. The candidate block selected from the triangular merge candidate list may be represented by a triangular merge candidate index (merge_triangle_idx).

Figure pat00034
Figure pat00034

그림 23Fig. 23

좌삼각 예측 블록 또는 우삼각 예측 블록의 머지 후보 인덱스만 시그날링하고, 나머지 예측 블록의 머지 후보 인덱스는 시그날링된 머지 후보 인덱스로부터 유도할 수 있다.Only the merge candidate index of the left triangular prediction block or the right triangular prediction block may be signaled, and the merge candidate index of the remaining prediction blocks may be derived from the signaled merge candidate index.

일 예로, 좌삼각 예측 블록의 머지 후보 인덱스만 시그널링하고, 좌삼각 예측 블록 머지 후보 인덱스와 이웃한 머지 후보 인덱스를 우삼각 예측 블록의 머지 후보 인덱스로 유도할 수 있다. As an example, only the merge candidate index of the left triangular prediction block may be signaled, and a merge candidate index adjacent to the left triangular prediction block merge candidate index may be derived as a merge candidate index of the right triangular prediction block.

구체적으로 예를 들어, 좌삼각 예측 블록 머지 후보 인덱스가 N이면, 우삼각 예측 블록 머지 후보 인덱스를 N+1로 유도할 수 있다. 좌삼각 예측 블록 머지 후보 인덱스만 부호화할 수 있고, 우삼각 예측 블록 머지 후보 인덱스는 부호화 하지 않고, 좌삼각 예측 블록 머지 후보 인덱스에서 유도할 수 있다. Specifically, for example, if the left triangular prediction block merge candidate index is N, the right triangular prediction block merge candidate index may be derived as N+1. Only the left triangular prediction block merge candidate index may be encoded, the right triangular prediction block merge candidate index may not be encoded, and may be derived from the left triangular prediction block merge candidate index.

좌삼각 예측 블록 머지 후보 인덱스 N이 삼각 머지 후보 최대 값인 경우에는, 우삼각 예측 블록 머지 후보 인덱스는 N-1로 유도하거나, 0으로 유도할 수도 있다. When the left triangular prediction block merge candidate index N is the triangular merge candidate maximum value, the right triangular prediction block merge candidate index may be derived as N-1 or 0.

또는, 좌삼각 예측 블록 머지 후보 인덱스가 가리키는 머지 후보와 동일한 참조 픽처를 갖는 머지 후보로부터 우삼각 예측 블록의 움직임 정보를 유도할 수 있다. 여기서, 동일한 참조 픽처는 L0 참조 픽처 또는 L1 참조 픽처 중 적어도 하나가 동일한 머지 후보를 나타낼 수 있다. 참조 픽처가 동일한 머지 후보가 복수개인 경우, 양방향 예측 여부 또는 좌삼각 예측 블록의 머지 후보 인덱스가 가리키는 머지 후보와의 인덱스 차분값을 기초로 어느 하나를 선택할 수 있다.Alternatively, motion information of the right triangular prediction block may be derived from a merge candidate having the same reference picture as the merge candidate indicated by the left triangular prediction block merge candidate index. Here, the same reference picture may represent a merge candidate in which at least one of the L0 reference picture and the L1 reference picture is the same. When there are a plurality of merge candidates having the same reference picture, either one may be selected based on whether bi-directional prediction or an index difference value with a merge candidate indicated by the merge candidate index of the left triangular prediction block.

좌삼각 예측 블록 및 우삼각 예측 블록 각각에 대해 머지 후보 인덱스를 시그널링할 수도 있다. 일 예로, 좌삼각 예측 블록에 대해 제1 머지 후보 인덱스를 시그널링하고, 우삼각 예측 블록에 대해 제2 머지 후보 인덱스를 시그널링할 수 있다. 좌삼각 예측 블록이 움직임 정보는 제1 머지 후보 인덱스에 의해 시그널링되는 머지 후보로부터 유도되고, 우삼각 예측 블록의 움직임 정보는 제2 머지 후보 인덱스에 의해 시그널링되는 머지 후보로부터 유도될 수 있다. A merge candidate index may be signaled for each of the left triangular prediction block and the right triangular prediction block. For example, a first merge candidate index may be signaled for a left triangular prediction block, and a second merge candidate index may be signaled for a right triangular prediction block. The motion information of the left triangular prediction block may be derived from a merge candidate signaled by the first merge candidate index, and the motion information of the right triangular prediction block may be derived from a merge candidate signaled by the second merge candidate index.

이때, 좌삼각 예측 블록의 제1 머지 후보 인덱스가 가리키는 머지 후보는 우삼각 예측 블록의 머지 후보로 이용 가능하지 않도록 설정될 수 있다. 이에 따라, 제2 머지 후보 인덱스는 제1 머지 후보 인덱스가 가리키는 머지 후보를 제외한 잔여 머지 후보들 중 어느 하나를 가리킬 수 있다. 일 예로, 제2 머지 후보 인덱스의 값이 제1 머지 후보 인덱스의 값보다 작은 경우, 우삼각 예측 블록의 움직임 정보는 머지 후보 리스트에 포함된 머지 후보들 중 제2 머지 후보 인덱스와 동일한 인덱스를 갖는 머지 후보로부터 유도될 수 있다. 반면, 제2 머지 후보 인덱스의 값이 제1 머지 후보 인덱스의 값과 동일하거나, 제1 머지 후보 인덱스보다 큰 경우, 우삼각 예측 블록의 움직임 정보는 머지 후보 리스트에 포함된 머지 후보들 중 제2 머지 후보 인덱스보다 1이 큰 인덱스를 갖는 머지 후보로부터 유도될 수 있다.In this case, the merge candidate indicated by the first merge candidate index of the left triangular prediction block may be set not to be usable as a merge candidate of the right triangular prediction block. Accordingly, the second merge candidate index may indicate any one of the remaining merge candidates excluding the merge candidate indicated by the first merge candidate index. As an example, when the value of the second merge candidate index is smaller than the value of the first merge candidate index, the motion information of the right triangular prediction block is a merge having the same index as the second merge candidate index among merge candidates included in the merge candidate list. Can be derived from candidates. On the other hand, when the value of the second merge candidate index is the same as the value of the first merge candidate index or is greater than the first merge candidate index, the motion information of the right triangular prediction block is the second merge candidate among merge candidates included in the merge candidate list. It can be derived from a merge candidate having an index of 1 greater than the candidate index.

좌삼각 예측 블록 및 우삼각 예측 블록이 이용할 수 있는 머지 후보의 범위를 상이하게 설정할 수 있다. 일 예로, 좌측 예측 블록의 움직임 정보는 좌측 예측 블록에 인접하는 머지 후보 중 적어도 하나로부터 유도되는 한편, 우측 예측 블록의 움직임 정보는 우측 예측 블록에 인접하는 머지 후보 중 적어도 하나로부터 유도될 수 있다. A range of merge candidates that can be used by the left triangular prediction block and the right triangular prediction block may be differently set. For example, motion information of the left prediction block may be derived from at least one of merge candidates adjacent to the left prediction block, while motion information of the right prediction block may be derived from at least one of merge candidates adjacent to the right prediction block.

코딩 유닛을 크기가 상이한 2개 이상의 예측 블록으로 분할할 수도 있다. 예컨대, 코딩 유닛을 분할하는 대각선의 좌상단이 코딩 블록의 좌상단 코너가 아닌 코딩 유닛의 좌측 경계 또는 상단 경계를 만나도록 설정하거나, 대각선의 좌상단이 코딩 블록의 우하단 코너가 아닌 코딩 유닛의 우측 경계 또는 하단 경계를 지나도록 설정할 수 있다. 예를 들어, 그림 24과 같이 대각선이 코딩 유닛의 4개의 코너 중 어느 하나(이하, 대각 코너 샘플)와 코딩 유닛 경계의 중앙(이하, 대각 중앙 샘플)을 지나도록 파티셔닝할 수도 있으며, 이를 비대칭 대각 파티셔닝이라 하고, 비대칭 대각 파티셔닝으로 생성된 예측 블록을 비대칭 삼각 예측 블록이라 정의할 수 있다.The coding unit may be divided into two or more prediction blocks having different sizes. For example, the upper left edge of the diagonal dividing the coding unit is set to meet the left boundary or the upper boundary of the coding unit other than the upper left corner of the coding block, or the upper left edge of the diagonal line is the right boundary of the coding unit other than the lower right corner of the coding block or It can be set to cross the lower boundary. For example, as shown in Figure 24, the diagonal can be partitioned so that it passes through any one of the four corners of the coding unit (hereinafter, a diagonal corner sample) and the center of the coding unit boundary (hereinafter, a diagonal center sample). It is referred to as partitioning, and a prediction block generated by asymmetric diagonal partitioning may be defined as an asymmetric triangular prediction block.

Figure pat00035
Figure pat00035

그림 24Fig. 24

대칭 파티셔닝을 사용하여 삼각 예측 블록을 생성할지를 나타내는 플래그 isSymTriangle_flag을 시그날링 할 수 있다. isSymTriangle_flag 값이 1이면, 대칭 파티셔닝을 이용하여 삼각 예측 블록을 생성하고, isSymTriangle_flag 값이 0 이면, 비대칭 파티셔닝을 이용하여 삼각 예측 블록을 생성할 수 있다. A flag isSymTriangle_flag indicating whether to generate a triangular prediction block using symmetric partitioning can be signaled. If the isSymTriangle_flag value is 1, a triangular prediction block may be generated using symmetric partitioning, and if the isSymTriangle_flag value is 0, a triangular prediction block may be generated using asymmetric partitioning.

Asym_traingle_index은 그림 24과 같이 비대칭 삼각 예측 블록을 특정하기 위한 인덱스를 나타낸다. 다음 표 8과 같은 신택스 테이블을 사용하여, 삼각 예측 블록을 생성할 수도 있다. Asym_traingle_index represents an index for specifying an asymmetric triangular prediction block, as shown in Figure 24. A triangular prediction block may be generated using the syntax table shown in Table 8 below.

표 8 Table 8

Figure pat00036
Figure pat00036

Figure pat00037
Figure pat00037

Figure pat00038
Figure pat00038

그림 25Fig. 25

그림 25과 같이 대각 중앙 샘플이 코딩 유닛의 상단 경계, 하단 경계, 우측 경계 또는 하단 경계중 어느 위치에 있는지를 나타내는 플래그 triangle_partition_type_flag을 사용할 수 있다. As shown in Figure 25, a flag triangle_partition_type_flag indicating whether the diagonal center sample is at the upper boundary, lower boundary, right boundary, or lower boundary of the coding unit can be used.

triangle_partition_type_flag 값이 0 이면, 대각 중앙 샘플이 코딩 유닛 상단 경계에 있음을 나타내고, triangle_partition_type_flag 값이 1 이면, 대각 중앙 샘플이 코딩 유닛 하단 경계에 있음을 나타낸다. triangle_partition_type_flag 값이 2 이면, 대각 중앙 샘플이 코딩 유닛 우측 경계에 있음을 나타내고, triangle_partition_type_flag 값이 3 이면, 대각 중앙 샘플이 코딩 유닛 좌측 경계에 있음을 나타낸다.When the triangle_partition_type_flag value is 0, it indicates that the diagonal center sample is at the upper boundary of the coding unit, and when the triangle_partition_type_flag value is 1, it indicates that the diagonal center sample is at the lower boundary of the coding unit. When the triangle_partition_type_flag value is 2, it indicates that the diagonal center sample is on the right boundary of the coding unit, and when the triangle_partition_type_flag value is 3, it indicates that the diagonal center sample is on the left boundary of the coding unit.

좌삼각 예측 블록의 너비가 우삼각 예측 블록의 너비보다 큰 지를 나타내는 플래그 left_diag_flag 을 시그날링할 수 있다. left_diag_flag 값이 0이면, 좌삼각 예측 블록의 너비가 우삼각 예측 블록의 너비보다 작다는 것을 나타내고, left_diag_flag 값이 1이면, 좌삼각 예측 블록의 너비가 우삼각 예측 블록의 너비보다 크다는 것을 나타낸다. triangle_partition_type_flag과 left_diag_flag을 이용하여 삼각 예측 블록의 파티셔닝을 유도할 수 있으며, 다음 표 9와 같은 신택스 테이블을 사용하여, 삼각 예측 블록을 생성할 수도 있다.A flag left_diag_flag indicating whether the width of the left triangular prediction block is greater than the width of the right triangular prediction block may be signaled. When the value of left_diag_flag is 0, it indicates that the width of the left triangular prediction block is smaller than the width of the right triangular prediction block, and when the value of left_diag_flag is 1, it indicates that the width of the left triangular prediction block is greater than the width of the right triangular prediction block. Partitioning of a triangular prediction block may be derived using triangle_partition_type_flag and left_diag_flag, and a triangular prediction block may be generated using a syntax table as shown in Table 9 below.

표 9 Table 9

Figure pat00039
Figure pat00039

Figure pat00040
Figure pat00040

Figure pat00041
Figure pat00041

좌삼각 예측 블록과 우삼각 예측 블록에서 서로 다른 예측 방법을 사용할 수 도 있으며, 이를 다중 삼각 예측 블록 부호화 방법이라 한다. 일 예로, 좌삼각 예측 블록에서는 머지 후보를 이용하고 우삼각 예측 블록에서는 인트라 예측을 이용하여 예측 영상을 생성할 수 있다. 반대로 좌삼각 예측 블록에서는 인트라 예측을 이용하고 우삼각 예측 블록에서는 머지 후보를 이용하여 예측 영상을 생성할 수 도 있다. Different prediction methods may be used in the left triangular prediction block and the right triangular prediction block, and this is referred to as a multi-triangular prediction block coding method. For example, a merge candidate may be used in a left triangular prediction block, and intra prediction may be used in a right triangular prediction block to generate a prediction image. Conversely, a prediction image may be generated using intra prediction in the left triangular prediction block and merge candidate in the right triangular prediction block.

다중 삼각 예측 블록 부호화 방법에서 사용되는 인트라 예측 모드는 MPM 모드로 제한할 수도 있다. 즉, 주변 블록에서 유도한 N개의 MPM 모드만 다중 삼각 예측 블록 부호화 방법의 인트라 예측 모드로 사용될 수 있도록 제한할 수도 있다. The intra prediction mode used in the multi-triangular prediction block coding method may be limited to the MPM mode. That is, only N MPM modes derived from neighboring blocks may be limited to be used as intra prediction modes of the multi-triangular prediction block coding method.

또는 첫 번째 MPM 후보만 다중 삼각 예측 블록 방법의 인트라 예측 모드로 사용될 수 있도록 제한할 수도 있다. Alternatively, only the first MPM candidate may be limited to be used as an intra prediction mode of the multi-triangular prediction block method.

MPM 후보 유도시 다중 삼각 예측 블록 방법이면서 인트라 모드가 사용된 코딩 유닛(이하, 인트라 삼각 예측 블록) 은 주변 인트라 모드가 가용한 것으로 설정하고, 주변 코딩 유닛이 다중 삼각 예측 블록 방법이 아니면서 인트라 모드가 사용된 코딩 유닛(이하, 표준 인트라 모드)은 주변 인트라 모드가 비가용한 것으로 설정할 수 있다. When the MPM candidate is derived, the coding unit (hereinafter, referred to as intra-triangular prediction block) in which the intra-mode is used as the multi-triangular prediction block method is set as available, and the neighboring coding unit is not the multi-triangular prediction block method and the intra mode A coding unit in which is used (hereinafter, a standard intra mode) may be set as the peripheral intra mode is not available.

또는 비방향성 인트라 예측 모드 (플래너 모드 내지 DC 모드) 중 적어도 어느 하나만 다중 삼각 예측 블록 방법의 인트라 예측 모드로 사용할수 있도록 제한할 수도 있다. Alternatively, it is possible to limit the use of at least one of the non-directional intra prediction modes (planar mode to DC mode) as the intra prediction mode of the multi-triangular prediction block method.

또 다른 예를 이용하여, 좌삼각 예측 블록과 우삼각 예측 블록 모두 인트라 예측 모드를 사용할 수 있다. 이 때 좌삼각 예측 블록(이하,제 1 인트라 삼각 예측 블록 )과 우삼각 예측 블록(이하, 제 2 인트라 삼각 예측 블록)의 인트라 예측 모드는 서로 다르게 설정할 수 있다. Using another example, both the left triangular prediction block and the right triangular prediction block may use the intra prediction mode. In this case, the intra prediction modes of the left triangular prediction block (hereinafter, the first intra triangular prediction block) and the right triangular prediction block (hereinafter, the second intra triangular prediction block) may be set differently.

Figure pat00042
Figure pat00042

그림 26Fig. 26

다중 삼각 예측 부호화 방법을 수행하는 경우 다음 그림 26과 같이 4개의 파티션(이하, 다중 삼각 예측 파티션)을 허용할 수도 있다. 그림 26에 도시되어 있는 다중 삼각 예측 파티션 중 일부만 사용하여 다중 삼각 예측 부호화 방법을 사용할 수도 있다. 구체적으로 예를 들어, 다중 삼각 예측 파티션 중 Part_mode 2, Part_mode 3, Part_mode4 만 사용하여 다중 삼각 예측 부호화 방법을 수행할 수 있다. When performing the multi-triangular prediction coding method, four partitions (hereinafter, multi-triangular prediction partitions) may be allowed as shown in Figure 26 below. It is also possible to use the multi-triangular prediction coding method using only some of the multi-triangular prediction partitions shown in Figure 26. Specifically, for example, among the multiple triangular prediction partitions, only Part_mode 2, Part_mode 3, and Part_mode4 may be used to perform the multi-triangular prediction encoding method.

주변 블록의 예측 모드 (인트라 모드, 인터 예측 모드, ciip 모드)에 기초하여 다중 삼각 예측 파티션을 유도할 수도 있다. Multiple triangular prediction partitions may be derived based on prediction modes (intra mode, inter prediction mode, ciip mode) of neighboring blocks.

주변 블록의 예측 모드가 모두 인터 예측 모드인 경우에는 다중 삼각 예측 파티션 중 Part_mode 1, Part_mode 3, Part_mode4를 사용하고, 그 외의 경우에는 Part_mode 2, Part_mode 3, Part_mode4를 사용하도록 설정할 수도 있다. When all of the prediction modes of neighboring blocks are inter prediction modes, Part_mode 1, Part_mode 3, and Part_mode4 among multiple triangular prediction partitions are used, and in other cases, Part_mode 2, Part_mode 3, and Part_mode4 may be used.

또는 인접한 주변 블록의 예측 모드에 기초하여 현재 블록의 다중 삼각 예측 파티션을 유도할 수도 있다. Alternatively, multiple triangular prediction partitions of the current block may be derived based on prediction modes of adjacent neighboring blocks.

구체적으로 예를 들어, 좌측 인접 블록이 인트라 모드인 경우에는 다중 삼각 예측 파티션 중 Part_mode2, Part_mode4만 사용하도록 설정할 수 있다. Specifically, for example, when the left neighboring block is in the intra mode, it may be set to use only Part_mode2 and Part_mode4 among multiple triangular prediction partitions.

또 다른 예를 들어, 좌측 인접 블록이 인터 예측 모드인 경우에는 다중 삼각 예측 파티션 중 Part_mode1, Part_mode3만 사용하도록 설정할 수 있다. For another example, when the left neighboring block is in the inter prediction mode, it may be set to use only Part_mode1 and Part_mode3 among multiple triangular prediction partitions.

또 다른 예를 들어, 상측 인접 블록이 인트라 모드인 경우에는 다중 삼각 예측 파티션 중 Part_mode2, Part_mode3만 사용하도록 설정할 수 있다. For another example, when an upper neighboring block is an intra mode, it may be set to use only Part_mode2 and Part_mode3 among multiple triangular prediction partitions.

또 다른 예를 들어, 상측 인접 블록이 인트라 모드인 경우에는 다중 삼각 예측 파티션 중 Part_mode1, Part_mode4만 사용하도록 설정할 수 있다. For another example, when the upper neighboring block is in the intra mode, it may be set to use only Part_mode1 and Part_mode4 among multiple triangular prediction partitions.

좌삼각 예측 블록과 우삼각 예측 블록의 경계 부분(이하, 대각 경계 영역)에서 화질 열화가 발생하거나, 에지(edge) 주변으로 화질의 연속성이 나빠질 수 있다. 대각 경계 영역에 스무딩 필터 또는 가중 예측과 같은 프로세스를 수행하여 화질 열화를 감소 시킬 수 있다. Image quality deterioration may occur at a boundary portion between the left triangular prediction block and the right triangular prediction block (hereinafter, a diagonal boundary region), or the continuity of image quality may deteriorate around an edge. Deterioration of image quality can be reduced by performing a process such as a smoothing filter or weighted prediction on the diagonal boundary area.

그림 27과 같이 좌삼각 예측 블록과 우삼각 예측 블록의 경계에서 가중 예측을 수행할 수 있다. 대각 경계 영역 내 샘플 P_Diag(x,y)는 식 (2)와 같이 좌삼각 예측 블록 P1 과 우삼각 예측 블록 P2를 가중 예측하여 경계 영역 예측 샘플을 생성할 수 있다. As shown in Figure 27, weighted prediction can be performed at the boundary between the left triangular prediction block and the right triangular prediction block. The sample P_Diag(x,y) in the diagonal boundary region may generate a boundary region prediction sample by weighted prediction of the left triangular prediction block P1 and the right triangular prediction block P2 as shown in Equation (2).

P_Diag(x,y) = w1 * P1(x,y) + (1-w1)* P2 (x,y) (1)P_Diag(x,y) = w1 * P1(x,y) + (1-w1)* P2 (x,y) (1)

좌삼각 예측 블록에 속한 대각 경계 영역에서는 좌삼각 예측에 큰 가중치를 설정하고, 우삼각 예측 블록에 속한 대각 경계 영역에서는 우삼각 예측에 큰 가중치를 설정할 수 있다. A large weight may be set for the left triangular prediction in the diagonal boundary region belonging to the left triangular prediction block, and a large weight may be set for the right triangular prediction in the diagonal boundary region belonging to the right triangular prediction block.

가중 예측이 적용되는 대각 경계 영역의 크기는 코딩 유닛의 크기, 삼각 예측 블록들의 움직임 벡터 차분값, 참조 픽처의 POC, 삼각 예측 블록 경계에서의 예측 샘플들의 차분값에 기초하여 결정할 수 있다. The size of the diagonal boundary region to which the weighted prediction is applied may be determined based on the size of a coding unit, a difference value of a motion vector of triangular prediction blocks, a POC of a reference picture, and a difference value of prediction samples at a boundary of a triangular prediction block.

Figure pat00043
Figure pat00043

그림 27Fig. 27

33 변환 및 양자화Transform and quantization

원본 영상에서 예측 영상을 차분한 영상을 잔차 영상(residual)이라 한다. An image obtained by subtracting the predicted image from the original image is called a residual image.

잔차 영상에 DCT(Discrete cosine transform)와 같은 2차원 변환(Transform)을 통하여 2원 주파수 성분으로 분해할 수 있다. 영상에서 고주파 성분을 제거해도 시각적으로 왜곡이 크게 발생하지 않는 특성이 있다. 고주파에 해당하는 값을 작게 하거나 0으로 설정하면 시각적 왜곡이 크지 않으면서도 압축 효율을 크게 할 수 있다. The residual image may be decomposed into binary frequency components through a two-dimensional transform such as a discrete cosine transform (DCT). Even if high-frequency components are removed from an image, there is a characteristic that significant distortion does not occur visually. If the value corresponding to the high frequency is decreased or set to 0, the compression efficiency can be increased while the visual distortion is not large.

예측 블록의 크기나 예측 모드에 따라 DST (Discrete sine transform)을 사용할 수도 있다. 구체적으로 예를 들어, 인트라 예측 모드이고, 예측 블록/코딩 블록의 크기가 NxN 보다 작은 크기인 경우에는 DST 변환을 사용하도록 설정하고, 그 외의 예측 블록/코딩 블록에서는 DCT를 사용하도록 설정할 수도 있다. Discrete sine transform (DST) may be used according to the size of the prediction block or the prediction mode. Specifically, for example, when the prediction block/coding block is in the intra prediction mode and the size of the prediction block/coding block is smaller than NxN, the DST transform may be used, and other prediction blocks/coding blocks may be set to use the DCT.

DCT는 영상을 코사인 (cosine) 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리이고, 그 때의 주파수 성분들은 기저 영상으로 표현된다. 예를 들어, NxN 블록에서 DCT 변환을 수행하면 N2 개의 기본 패턴 성분을 얻을 수 있다. DCT 변환을 수행한다는 것은 원화소 블록에 포함된 기본 패턴 성분들 각각의 크기를 구하는 것이다. 각 기본 패턴 성분들의 크기는 DCT 계수라고 정의 한다. DCT is a process that decomposes (transforms) an image into 2D frequency components using a cosine transform, and the frequency components at that time are expressed as a base image. For example, if DCT transformation is performed in an NxN block, N 2 basic pattern components can be obtained. Performing DCT transformation is to obtain the size of each of the basic pattern components included in the original pixel block. The size of each basic pattern component is defined as a DCT coefficient.

대체적으로 저주파에 0이 아닌 성분들이 많이 분포하는 영상에서는 이산 여현 변환(Discrete Cosine Transform, DCT)을 주로 사용하고, 고주파 성분이 많이 분포하는 영상에서는 DST (Discrete Sine Transform)을 사용할 수도 있다. In general, a discrete cosine transform (DCT) is mainly used in an image in which many non-zero components are distributed in a low frequency, and a Discrete Sine Transform (DST) may be used in an image in which a large number of high-frequency components are distributed.

DST는 영상을 sin 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리를 나타낸다. DCT 또는 DST 변환 이외의 변환 방법을 사용하여 2차원 영상을 2차원 주파수 성분으로 분해(변환)할 수 있으며, 이를 2차원 영상 변환이라고 정의 한다. DST represents a process of decomposing (converting) an image into 2D frequency components using sin transformation. A 2D image can be decomposed (transformed) into a 2D frequency component using a transformation method other than DCT or DST transformation, and this is defined as 2D image transformation.

잔차 영상 중 특정 블록에서는 2차원 영상 변환을 수행하지 않을 수 있으며, 이를 변환 스킵(transform skip)이라고 정의 한다. 변환 스킵 이후에 양자화를 적용할 수 있다. 변환 스킵의 허용 여부는, 코딩 유닛의 크기 또는 형태 중 적어도 하나에 기초하여 결정될 수 있다. 일 예로, 변환 스킵은 특정 크기 이하의 코딩 유닛에서만 사용하도록 제한할 수도 있다. 예를 들어, 32x32보다 작은 블록에서만 변환 스킵을 사용하도록 설정할 수도 있다. 또는, 정방형태 블록에서만 변환 스킵을 사용하도록 제한할 수도 있다. 구체적으로 예를 들어, 32x32, 16x16, 8x8, 4x4 블록 단위로 변환 스킵을 적용할 수도 있다. Among the residual images, a 2D image transformation may not be performed in a specific block, and this is defined as transform skip. Quantization can be applied after the transform skip. Whether to allow the transform skip may be determined based on at least one of the size or shape of the coding unit. As an example, the transform skip may be limited to be used only in coding units of a specific size or less. For example, it is possible to set the transform skip to be used only in blocks smaller than 32x32. Alternatively, it is possible to restrict the use of transform skip to only a square block. Specifically, for example, transformation skip may be applied in units of 32x32, 16x16, 8x8, and 4x4 blocks.

2차원 영상 내에 있는 임의의 블록을 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 1 변환이라고 정의 한다. 제 1 변환을 수행 후 변환 블록의 일부 영역에서 변환을 다시 수행할 수 있으며, 이를 제 2 변환이라고 정의 한다. DCT, DST, or 2D image transformation may be applied to an arbitrary block in the 2D image, and the transformation used in this case is defined as a first transformation. After performing the first transformation, transformation may be performed again in a partial region of the transformation block, and this is defined as a second transformation.

제 1 변환은 복수개의 변환 코어 중 하나를 사용할 수 있다. 구체적으로 예를 들어, 변환 블록에서 DCT2 , DCT8 또는 DST7 중 어느 하나를 선택하여 사용할 수 있다. 또는 변환 블록의 수평 방향 변환과 수직 방향 변환의 변환 코어를 개별적으로 결정할 수 있다. 이에 따라, 수평 방향 변환 및 수직 방향 변환은 상호 동일할 수도 있고, 상이할 수도 있다. 수평 방향 변환과 수직 방향 변환에서 서로 다른 변환 코어를 사용할 수도 있으며, 이를 복수 변환 코어 부호화 방법(Multiple Transform Selection, MTS)이라 정의 한다. The first transformation may use one of a plurality of transformation cores. Specifically, for example, one of DCT2, DCT8, or DST7 may be selected and used in the transform block. Alternatively, the transform cores of the horizontal direction transformation and the vertical direction transformation of the transformation block may be individually determined. Accordingly, the horizontal direction transformation and the vertical direction transformation may be the same or different. Different transform cores may be used in the horizontal direction transformation and the vertical direction transformation, and this is defined as a multiple transformation core encoding method (Multiple Transform Selection (MTS)).

제 1변환과 제 2 변환을 수행하는 블록 단위가 서로 다르게 설정할 수도 있다. 구체적으로 예를 들어, 잔차 영상의 8x8 블록에서 제 1 변환을 수행한 후, 4x4 서브 블록 별로 제 2 변환을 각각 수행할 수도 있다. 또 다른 예를 들어, 각 4x4 블록에서 제 1 변환을 수행한 후, 8x8 크기의 블록에서 제 2 변환을 각각 수행할 수도 있다. Block units for performing the first transformation and the second transformation may be set differently from each other. Specifically, for example, after performing the first transform in an 8x8 block of the residual image, the second transform may be performed for each 4x4 sub-block. For another example, after performing the first transform in each 4x4 block, the second transform may be performed in each 8x8 block.

제 1 변환이 적용된 잔차 영상을 제 1 변환 잔차 영상이라고 정의한다. The residual image to which the first transform is applied is defined as a first transform residual image.

제 1 변환 잔차 영상에 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 2 변환이라고 정의한다. 제 2 변환이 적용된 2차원 영상을 제 2 변환 잔차 영상이라고 정의한다. DCT, DST, or 2D image transformation may be applied to the first transform residual image, and the transform used in this case is defined as a second transform. The 2D image to which the second transformation is applied is defined as a second transformation residual image.

제 1 변환 및/또는 제 2 변환을 수행한 후의 블록 내 샘플 값 또는 변환 스킵을 수행한 후 블록 내 샘플 값을 변환 계수라고 정의한다. 양자화는 블록의 에너지를 줄이기 위해 변환 계수를 기 정의된 값으로 나누는 과정을 말한다. 변환 계수에 양자화를 적용하기 위해 정의된 값을 양자화 파라미터라고 정의한다. A sample value in the block after performing the first transformation and/or the second transformation or the sample value in the block after performing the transformation skip is defined as a transform coefficient. Quantization refers to the process of dividing a transform coefficient by a predefined value to reduce the energy of a block. A value defined to apply quantization to a transform coefficient is defined as a quantization parameter.

시퀀스 단위 또는 블록 단위로 기 정의된 양자화 파라미터를 적용할 수 있다. 통상적으로 1에서 64 사이의 값으로 양자화 파라미터를 정의할 수 있다. A predefined quantization parameter may be applied in units of sequences or blocks. Typically, a quantization parameter can be defined with a value between 1 and 64.

변환 및 양자화를 수행한 후에, 역양자화 및 역변환을 수행하여 잔차 복원 영상을 생성 할 수 있다. 잔차 복원 영상에 예측 영상을 더해서 제 1 복원 영상을 생성할 수 있다. After performing transformation and quantization, inverse quantization and inverse transformation may be performed to generate a residual reconstructed image. A first reconstructed image may be generated by adding a predicted image to the residual reconstructed image.

55 인루프 필터링 (In-loop filtering)In-loop filtering

인루프 필터링(In-loop filtering)은 양자화 및 부호화 과정에서 발생하는 정보의 손실을 줄이기 위해 복호화 된 영상에 적응적으로 필터링을 수행하는 기술이다. 디블록킹 필터(Deblocking filter), 샘플 적응적 오프셋 필터(sample adaptive offset filter, SAO), 적응적 루프 필터(adaptive loop filter, ALF)는 인루프 필터링의 한 예이다. In-loop filtering is a technique that adaptively performs filtering on a decoded image in order to reduce the loss of information that occurs during quantization and encoding. A deblocking filter, a sample adaptive offset filter (SAO), and an adaptive loop filter (ALF) are examples of in-loop filtering.

제 1 복원 영상에 디블록킹 필터 , 샘플 적응적 오프셋(Sample Adaptive Offset, SAO) 또는 적응적 루프 필터(adaptive loop filter, ALF) 중 적어도 어느 하나를 수행하여 제 2 복원 영상을 생성할 수 있다. A second reconstructed image may be generated by performing at least one of a deblocking filter, a sample adaptive offset (SAO), or an adaptive loop filter (ALF) on the first reconstructed image.

복원 영상에 디블록킹 필터를 적용한 후, SAO 및 ALF를 적용할 수 있다. After applying the deblocking filter to the reconstructed image, SAO and ALF may be applied.

비디오 부호화 과정에서 블록 단위로 변환과 양자화를 수행한다. 양자화 과정에서 발생한 손실이 발생하고, 이를 복원한 영상의 경계에서는 불연속이 발생한다. 블록 경계에 나타난 불연속 영상을 블록 화질 열화(blocking artifact)라고 정의 한다. In the video encoding process, transformation and quantization are performed in units of blocks. A loss occurs during the quantization process, and a discontinuity occurs at the boundary of the reconstructed image. Discontinuous images appearing at the block boundary are defined as block quality deterioration (blocking artifact).

Deblocking filter는 제 1 영상의 블록 경계에서 발생하는 블록 화질 열화(blocking artifact)를 완화시키고, 부호화 성능을 높여주는 방법이다. The deblocking filter is a method of mitigating block quality deterioration (blocking artifact) occurring at a block boundary of a first image and improving encoding performance.

Figure pat00044
Figure pat00044

그림 22Fig. 22

블록 경계에서 필터링을 수행하여 블록 화질 열화를 완화 시킬수 있으며, 그림 22와 같이 블록이 인트라 예측 모드로 부호화 되었는지 여부, 또는 이웃한 블록의 모션 벡터 절대값의 차이가 기 정의된 소정의 문턱값 보다 큰지 여부, 이웃한 블록의 참조 픽쳐가 서로 동일한 지 여부 중 적어도 어느 하나에 기초하여 블록 필터 강도 (blocking strength, 이하 BS) 값을 결정할 수 있다. BS 값이 0이면 필터링을 수행하지 않으며, BS 값이 1 또는 2인 경우에 블록 경계에서 필터링을 수행할 수 있다. Block quality deterioration can be alleviated by performing filtering at the block boundary, and as shown in Figure 22 , whether the block is encoded in intra prediction mode, or whether the difference between the absolute values of the motion vectors of the neighboring blocks is greater than a predefined threshold. A block filter strength (BS) value may be determined based on at least one of whether or not reference pictures of neighboring blocks are identical to each other. When the BS value is 0, filtering is not performed, and when the BS value is 1 or 2, filtering may be performed at a block boundary.

변환 계수에 양자화를 수행하므로 주파수 영역에서 양자화를 수행하기 때문에, 물체 가장 자리에 링이 현상 (ringing artifact)를 발생시키거나, 화소 값이 원본에 비해 일정한 값만큼 커지거나 작아기게 된다. SAO는 제 1 복원 영상의 패턴을 고려하여 블록 단위로 특정 오프셋을 더하거나 빼는 방법으로 링잉 현상을 효과적으로 줄일 수 있다. SAO는 복원 영상의 특징에 따라 에지 오프셋(Edge offset, 이하 EO)과 밴드 오프셋(Band offset, BO)으로 구성된다. 에지 오프셋은 주변 화소 샘플 패턴에 따라 현재 샘플에 오프셋을 다르게 더해주는 방법이다. 밴드 오프셋은 영역 안의 비슷한 화소 밝기 값을 가진 화소 집합에 대해 일정 값을 더해 부호화 오류를 줄이는 것이다. 화소 밝기를 32개의 균일한 밴드로 나눠 비슷한 밝기 값을 가지는 화소를 하나의 집합이 되도록 할 수 있다. 예를 들어, 인접한 4개의 밴드를 하나의 범주로 묶을 수 있다. 하나의 범주에서는 동일한 오프셋 값을 사용하도록 설정할 수 있다. Since quantization is performed on a transform coefficient, a ringing artifact occurs at the edge of an object, or a pixel value increases or decreases by a certain value compared to the original because quantization is performed in the frequency domain. The SAO can effectively reduce the ringing phenomenon by adding or subtracting a specific offset in units of blocks in consideration of the pattern of the first reconstructed image. SAO is composed of an edge offset (hereinafter referred to as EO) and a band offset (BO) according to characteristics of a reconstructed image. Edge offset is a method of adding an offset to a current sample differently according to a sample pattern of surrounding pixels. Band offset is to reduce coding errors by adding a certain value to a set of pixels with similar pixel brightness values in a region. By dividing the pixel brightness into 32 uniform bands, pixels having similar brightness values can be made into one set. For example, four adjacent bands can be grouped into one category. One category can be set to use the same offset value.

ALF (Adaptive Loop Filter)는 식 (22)와 같이 제 1 복원 영상 또는 제 1 복원 영상에 deblocking filtering을 수행한 복원 영상에 기 정의된 필터 중 어느 하나를 사용하여 제 2 복원 영상을 생성하는 방법이다. ALF (Adaptive Loop Filter) is a method of generating a second reconstructed image using one of predefined filters for a first reconstructed image or a reconstructed image that has subjected deblocking filtering to the first reconstructed image as shown in Equation (22). .

Figure pat00045
(22)
Figure pat00045
(22)

Figure pat00046
Figure pat00046

그림 23Fig. 23

이 때 필터는 픽쳐 단위 또는 CTU 단위로 선택할 수 있다. In this case, the filter can be selected in units of pictures or units of CTU.

Luma 성분에서는 다음 그림 23과 같이 5x5, 7x7 또는 9x9 다이아몬드 형태 중 어느 하나를 선택할 수 있다. Chroma 성분에서는 5x5 다이아몬드 형태만 사용할 수 있도록 제한할 수도 있다. In the Luma component, you can choose one of the 5x5, 7x7 or 9x9 diamond shapes as shown in Figure 23 below. In the chroma component, it may be limited to use only the 5x5 diamond shape.

55 비디오 부호화 구조Video coding structure

Figure pat00047
Figure pat00047

그림 24Fig. 24

그림 24은 비디오 부호화 구조를 나타내는 다이아그램이다. 입력 비디오 신호는 Rate distortion 값이 가장 작은 소정의 코딩 유닛으로 나눌수 있다. 코딩 유닛 별로 인터 예측 또는 인트라 예측 또는 복합 예측 중 적어도 어느 하나를 수행하여 예측 영상을 생성할 수 있다. 부호화 단계에서 인터 예측을 수행하기 위해서는 움직임 추정 (Motion estimaition)을 수행할 수도 있다. 원본 영상에서 예측 영상을 차분하여 잔차 영상을 생성할 수 있다. Fig. 24 is a diagram showing the video coding structure. The input video signal can be divided into a predetermined coding unit with the smallest rate distortion value. A prediction image may be generated by performing at least one of inter prediction, intra prediction, or complex prediction for each coding unit. In order to perform inter prediction in the encoding step, motion estimation may be performed. A residual image may be generated by differentiating the predicted image from the original image.

잔차 영상을 제 1 변환 및/또는 제 2 변환을 수행하여 변환 계수를 생성하거나 변환 스킵을 수행하여 변환 스킵 계수를 생성할 수 있다. 변환 계수 또는 변환 스킵 계수에 양자화를 수행하여 양자화된 변환 계수 내지 양자화된 변환 스킵 계수를 생성할 수 있다. A transform coefficient may be generated by performing a first transform and/or a second transform on the residual image, or a transform skip coefficient may be generated by performing a transform skip. Quantization may be performed on a transform coefficient or a transform skip coefficient to generate a quantized transform coefficient or a quantized transform skip coefficient.

양자화된 변환 계수 내지 양자화된 변환 스킵 계수를 역양자화 및 역 변환을 수행하여 복원 영상을 생성할 수 있다. 이 복원 영상에 인루프 필터링을 수행하여 필터링 복원 영상을 생성할 수 있다. 이 필터링 복원 영상이 인코딩 단계에서 최종 아웃풋 (output) 영상이 된다. 필터링 복원 영상은 참조 픽쳐 버퍼 (Decoded picture buffer)로 저장되어 다른 픽쳐에서 참조 픽쳐로 사용할 수 있다.A reconstructed image may be generated by performing inverse quantization and inverse transformation on the quantized transform coefficient or the quantized transform skip coefficient. In-loop filtering may be performed on the reconstructed image to generate a filtered reconstructed image. This filtered and reconstructed image becomes the final output image in the encoding step. The filtered reconstructed image is stored as a reference picture buffer and can be used as a reference picture in another picture.

Claims (1)

다중 삼각 예측 블록 부호화 방법을 이용한 비디오 부호화 및 복호화 방법



Video coding and decoding method using multi-triangular prediction block coding method



KR1020190108810A 2019-09-03 2019-09-03 Video signal encoding method and apparatus and video decoding method and apparatus KR20210027838A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190108810A KR20210027838A (en) 2019-09-03 2019-09-03 Video signal encoding method and apparatus and video decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190108810A KR20210027838A (en) 2019-09-03 2019-09-03 Video signal encoding method and apparatus and video decoding method and apparatus

Publications (1)

Publication Number Publication Date
KR20210027838A true KR20210027838A (en) 2021-03-11

Family

ID=75143246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190108810A KR20210027838A (en) 2019-09-03 2019-09-03 Video signal encoding method and apparatus and video decoding method and apparatus

Country Status (1)

Country Link
KR (1) KR20210027838A (en)

Similar Documents

Publication Publication Date Title
KR20200141696A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200113346A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141703A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141896A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200145998A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200078252A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210027838A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210027840A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210028484A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210024747A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141691A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132397A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200105036A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200104164A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107260A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132393A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200082981A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107262A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210060109A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141688A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210030803A (en) Video encoding method and apparatus and video decoding method and apparatus
KR20210030800A (en) Video encoding method and apparatus and video decoding method and apparatus
KR20210030801A (en) Video encoding method and apparatus and video decoding method and apparatus
KR20210030816A (en) Video encoding method and apparatus and video decoding method and apparatus
KR20210030802A (en) Video encoding method and apparatus and video decoding method and apparatus