KR20200082981A - Video signal encoding method and apparatus and video decoding method and apparatus - Google Patents

Video signal encoding method and apparatus and video decoding method and apparatus Download PDF

Info

Publication number
KR20200082981A
KR20200082981A KR1020180174124A KR20180174124A KR20200082981A KR 20200082981 A KR20200082981 A KR 20200082981A KR 1020180174124 A KR1020180174124 A KR 1020180174124A KR 20180174124 A KR20180174124 A KR 20180174124A KR 20200082981 A KR20200082981 A KR 20200082981A
Authority
KR
South Korea
Prior art keywords
block
prediction
intra
inter
picture
Prior art date
Application number
KR1020180174124A
Other languages
Korean (ko)
Inventor
이배근
Original Assignee
주식회사 엑스리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엑스리스 filed Critical 주식회사 엑스리스
Priority to KR1020180174124A priority Critical patent/KR20200082981A/en
Publication of KR20200082981A publication Critical patent/KR20200082981A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Provided are a video encoding method and apparatus, which use a motion prediction candidate in units of sub-blocks. The video signal processing method and apparatus according to the present invention may improve video signal coding efficiency through motion prediction candidate coding in units of sub-blocks.

Description

비디오 신호 처리 방법 및 장치 {Video signal encoding method and apparatus and video decoding method and apparatus}Video signal processing method and apparatus {Video signal encoding method and apparatus and video decoding method and apparatus}

본 발명은 비디오 신호 처리 방법 및 장치에 관한 것이다. The present invention relates to a video signal processing method and apparatus.

비디오 영상은 시공간적 중복성 및 시점 간 중복성을 제거하여 압축 부호화되며, 이는 저장 매체에 적합한 형태로 저장되거나 통신 회선을 통해 전송될 수 있다. The video image is compression-encoded by removing spatiotemporal redundancy and inter-view redundancy, which can be stored in a form suitable for a storage medium or transmitted through a communication line.

본 발명은 비디오 신호의 코딩 효율을 향상시키고자 함에 있다. The present invention seeks to improve the coding efficiency of video signals.

상기 과제를 해결하기 위하여 본 발명은 서브 블록 단위 움직임 예측 후보 부호화 방법 및 장치를 제공한다. In order to solve the above problems, the present invention provides a sub-block unit motion prediction candidate encoding method and apparatus.

본 발명에 따른 비디오 신호 처리 방법 및 장치는 서브 블록 단위 움직임 예측 후보 부호화를 통해 비디오 신호 코딩 효율을 향상 시킬 수 있다. The video signal processing method and apparatus according to the present invention can improve video signal coding efficiency through motion prediction candidate coding for each sub-block.

1One 기본 코딩 블록 구조Basic coding block structure

픽쳐는 그림 1과 같이 복수개의 기본 코딩 유닛(Coding Tree Unit, 이하, CTU)으로 나누어진다. The picture is divided into a plurality of basic coding units (Coding Tree Units, hereinafter, CTU) as shown in Figure 1 .

Figure pat00001
Figure pat00001

그림 1Picture 1

다른 CTU와 겹치지 않도록 구성되어 있다. 예를 들어, 전체 시퀀스에서 CTU 사이즈를 128x128로 설정할 수 있고, 픽쳐 단위로 128x128 내지 256x256 중 어느 하나를 선택해서 사용할 수도 있다. It is configured not to overlap with other CTUs. For example, the CTU size may be set to 128x128 in the entire sequence, and any one of 128x128 to 256x256 may be selected and used as a picture unit.

CTU를 계층적으로 분할하여 코딩 블록/코딩 유닛(Coidng Unit, 이하 CU)을 생성할 수 있다. 코딩 유닛 단위로 예측 및 변환을 수행할 수 있으며, 예측 부호화 모드를 결정하는 기본 단위가 된다. 예측 부호화 모드는 예측 영상을 생성하는 복수개의 방법을 나타내며, 화면 내 예측 (intra prediction, 이하, 인트라 예측), 화면 간 예측(inter prediction, 이하, 인터 예측) 또는 복합 예측(combined prediction)등을 예로 들수 있다. 구체적으로 예를 들어, 코딩 유닛 단위로 인트라 예측, 인터 예측 또는 복합 예측 중 적어도 어느 하나의 예측 부호화 모드를 이용하여 예측 블록(prediction block)을 생성할 수 있다. 화면 간 예측 모드에서 참조 픽쳐가 현재 픽쳐를 가리키는 경우에는 이미 복호화된 현재 픽쳐 내 영역에서 예측 블록을 생성할 수 있다. 참조 픽쳐 인덱스와 모션 벡터를 이용하여 예측 블록을 생성하기 때문에 화면 간 예측에 포함할 수 있다. 인트라 예측은 현재 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이고, 인터 예측은 이미 복호화된 다른 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이며, 복합 예측은 인터 예측과 인트라 예측을 혼합하여 사용하는 방법이다. The CTU may be hierarchically split to generate a coding block/coding unit (CU). Prediction and transformation can be performed in units of coding units, and are a basic unit for determining a prediction encoding mode. The predictive encoding mode represents a plurality of methods for generating a predictive image, and examples include intra prediction (hereinafter, intra prediction), inter prediction (hereinafter, inter prediction), or composite prediction. Can be lifted. Specifically, for example, a prediction block may be generated using at least one prediction coding mode of intra prediction, inter prediction, or complex prediction in units of coding units. When the reference picture points to the current picture in the inter-frame prediction mode, a prediction block may be generated in an area within the current picture that has already been decoded. Since a prediction block is generated using a reference picture index and a motion vector, it can be included in inter-frame prediction. Intra prediction is a method of generating a prediction block using information of a current picture, inter prediction is a method of generating a prediction block using information of another decoded picture, and complex prediction is a mixture of inter prediction and intra prediction How to use.

CTU는 그림 2와 같이 쿼드 트리 ,바이너리 트리 또는 트리플 트리 형태로 분할 (파티셔닝)될 수 있다. 분할된 블록은 다시 쿼드 트리, 바이너리 트리 또는 트리플 트리 형태로 추가 분할 될수 있다. 현재 블록을 4개의 정방 형태 파티션으로 나누는 방법을 쿼드 트리 파티셔닝이라고 부르고, 현재 블록을 2개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부르며, 현재 블록을 3개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부른다. The CTU can be divided (partitioned) into a quad tree, binary tree, or triple tree, as shown in Figure 2 . The divided blocks may be further divided into quad trees, binary trees, or triple trees. The method of dividing the current block into four square partitions is called quad-tree partitioning, the method of dividing the current block into two non-square partitions, and the method of dividing the current block into three non-square partitions. This is called binary tree partitioning.

수직 방향으로 바이너리 파티셔닝(그림 2의 SPLIT_BT_VER)을 수직 바이너리 트리 파티셔닝이라고 부르며, 수평 방향으로 바이너리 트리 파티셔닝 (그림 2의 SPLIT_BT_HOR)을 수평 바이너리 트리 파티셔닝이라고 부른다. Binary partitioning in the vertical direction (SPLIT_BT_VER in Figure 2 ) is called vertical binary tree partitioning, and binary tree partitioning in the horizontal direction (SPLIT_BT_HOR in Figure 2 ) is called horizontal binary tree partitioning.

수직 방향으로 트리플 파티셔닝 (그림 2의 SPLIT_TT_VER)을 수직 트리플 트리 파티셔닝이라고 부르며, 수평 방향으로 트리플 트리 파티셔닝 (그림 2의 SPLIT_TT_HOR)을 수평 트리플 트리 파티셔닝이라고 부른다. Triple partitioning in the vertical direction (SPLIT_TT_VER in Figure 2 ) is called vertical triple tree partitioning, and triple tree partitioning in the horizontal direction (SPLIT_TT_HOR in Figure 2 ) is called horizontal triple tree partitioning.

추가 분할 횟수를 파티셔닝 뎁스(partitioning depth)라고 부르며, 시퀀스 내지 픽쳐/타일 세트 별로 파티셔닝 뎁스가 최대치를 서로 다르게 설정할 수도 있으며, 파티셔닝 트리 형태(쿼드 트리/바이너리 트리/트리플 트리)에 따라 서로 다른 파티셔닝 뎁스를 가지도록 설정할 수 있으며, 이를 나타내는 신택스를 시그날링할 수도 있다. The number of additional divisions is called a partitioning depth, and the maximum number of partitioning depths can be set differently for each sequence or picture/tile set, and different partitioning depths are different according to the partitioning tree type (quad tree/binary tree/triple tree). It can be set to have, and can also signal the syntax to indicate this.

Figure pat00002
Figure pat00002

그림 2Picture 2

분할된 코딩 블록은 쿼드 파티셔닝, 바이너리 파니셔닝 또는 멀티 파티셔닝과 같은 방법으로 추가로 분할하여 코딩 유닛을 구성하거나 추가 분할 없이 코딩 유닛을 구성할 수도 있다.The divided coding block may be further divided into a coding unit by a method such as quad partitioning, binary partitioning, or multi-partitioning, or a coding unit may be configured without further division.

Figure pat00003
Figure pat00003

그림 3Picture 3

그림 3 과 같이 하나의 CTU를 계층적으로 코딩 유닛을 설정할 수 있으며, 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝을 이용하여 코딩 유닛을 중 적어도 어느 하나를 이용하여 코딩 유닛을 분할할 수 있다. 이와 같은 방법을 멀티 트리 파티셔닝(Multi tree partitioning)이라고 부른다. As shown in Figure 3 , a coding unit can be hierarchically set for one CTU, and a coding unit can be split using at least one of the coding units using binary tree partitioning, quad tree partitioning, and triple tree partitioning. This method is called multi-tree partitioning.

파티셔닝 뎁스가 k인 임의의 코딩 유닛을 분할하여 생성된 코딩 유닛을 하위 코딩 유닛이라하며, 파티셔닝 뎁스는 k+1이 된다. 파티셔닝 뎁스 k+1인 하위 코딩 유닛을 포함하고 있는 파티셔닝 뎁스 k인 코딩 유닛을 상위 코딩 유닛이라 한다. The coding unit generated by dividing any coding unit having a partitioning depth k is referred to as a lower coding unit, and the partitioning depth is k+1. A coding unit having a partitioning depth k that includes a lower coding unit having a partitioning depth k+1 is called an upper coding unit.

상위 코딩 유닛의 파티셔닝 타입 및/또는 현재 코딩 유닛의 주변에 있는 코딩 유닛의 파티셔닝 타입에 따라 현재 코딩 유닛의 파티셔닝 타입이 제한될 수도 있다. The partitioning type of the current coding unit may be limited according to the partitioning type of the higher coding unit and/or the partitioning type of the coding unit around the current coding unit.

여기서, 파티셔닝 타입은 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝 중 어느 파티셔닝을 사용했는지를 알려주는 지시자를 나타낸다. Here, the partitioning type indicates an indicator indicating which partitioning is used among binary tree partitioning, quad tree partitioning, or triple tree partitioning.

22 예측 영상 생성 방법Prediction image generation method

비디오 부호화에서 예측 영상은 복수 개의 방법으로 생성할 수 있으며, 예측 영상을 생성하는 방법을 예측 부호화 모드라고 한다. In video encoding, a predicted image can be generated by a plurality of methods, and a method of generating a predicted image is called a predictive encoding mode.

예측 부호화 모드는 인트라 예측 부호화 모드, 인터 예측 부호화 모드, 현재 픽쳐 레퍼런스 부호화 모드 또는 결합 부호화 모드 (combined prediction)등으로 구성될 수 있다. The prediction encoding mode may be configured as an intra prediction encoding mode, an inter prediction encoding mode, a current picture reference encoding mode, or a combined prediction mode.

인터 예측 부호화 모드는 이전 픽쳐의 정보를 이용하여 현재 블록의 예측 블록(예측 영상)을 생성하는 예측 부호화 모드라고 하고, 인트라 예측 부호화 모드는 현재 블록과 이웃한 샘플을 이용하여 예측 블록을 생성하는 예측 부호화 모드라 한다. 현재 픽쳐의 이미 복원된 영상을 이용하여 예측 블록을 생성할 수도 있으며, 이를 현재 픽쳐 레퍼런스 모드 또는 인트라 블록 카피 모드라고 부른다. The inter prediction encoding mode is called a prediction encoding mode that generates a prediction block (prediction image) of a current block using information of a previous picture, and the intra prediction encoding mode is a prediction that generates a prediction block using samples neighboring the current block. It is called an encoding mode. A prediction block may be generated using an already reconstructed image of the current picture, and this is called a current picture reference mode or an intra block copy mode.

인터 예측 부호화 모드, 인트라 예측 부호화 모드 또는 현재 픽쳐 레퍼런스 부호화 모드 중 적어도 2개 이상의 예측 부호화 모드를 사용하여 예측 블록을 생성할 수도 있으며, 이를 결합 부호화 모드(Combined prediction)이라고 부른다. A prediction block may be generated using at least two or more prediction encoding modes among an inter prediction encoding mode, an intra prediction encoding mode, or a current picture reference encoding mode, which is called a combined prediction mode.

2.12.1 인터 예측 부호화 방법Inter prediction coding method

이전 픽쳐의 정보를 이용하여 현재 픽쳐에 있는 블록의 예측 블록(예측 영상)을 생성하는 방법을 인터 예측 부호화 모드라고 부른다. A method of generating a prediction block (prediction image) of a block in a current picture using information of a previous picture is called an inter prediction encoding mode.

현재 블록의 이전 픽쳐 내에 있는 특정 블록으로 부터 예측 블록을 생성할 수도 있다. A prediction block may be generated from a specific block in a previous picture of the current block.

부호화 단계에서 이전 픽쳐 내 블록 중 복원 에러가 가장 작은 블록을 콜 블록( collocated block)을 중심으로 탐색하여 선택할 수 있다. In the coding step, a block having the smallest reconstruction error among blocks in a previous picture may be searched and selected based on a collocated block.

으며, 현재 블록의 좌상단 샘플과 선택된 블록의 좌상단 샘플 사이의 x축 차분 및 y축 차분을 모션 벡터(motion vector)라 정의하고, 이를 비트스트림에 전송하여 시그날링할 수 있다. 모션 벡터가 특정하는 참조 픽쳐의 특정 블록에서 인터폴레이션 등을 통해 생성한 블록을 움직임 보상 예측 블록(motion compensated predictor block)이라 한다. In addition, an x-axis difference and a y-axis difference between the upper left sample of the current block and the upper left sample of the selected block may be defined as a motion vector, and transmitted to a bitstream for signaling. A block generated through interpolation or the like in a specific block of a reference picture specified by a motion vector is called a motion compensated predictor block.

콜 블록은 그림 4와 같이 현재 블록과 좌상단 샘플의 위치 및 크기가 같은 해당 픽쳐의 블록을 나타낸다. 해당 픽쳐는 참조 픽쳐 레퍼런스와 같은 신택스로 부터 특정 될 수 있다. The call block shows the block of the corresponding picture with the same position and size of the upper left sample and the current block as shown in Figure 4. The picture may be specified from the same syntax as the reference picture reference.

Figure pat00004
Figure pat00004

그림 4Picture 4

현재 블록의 원본 영상에서 움직임 보상 예측 블록을 차분하여 잔차 블록(residual block)을 생성할 수 있다. A residual block may be generated by differentiating a motion compensation prediction block from the original image of the current block.

모션 벡터는 시퀀스 단위 또는 슬라이스 단위 또는 블록 단위로 서로 다른 화소 정밀도를 갖는 모션벡터를 사용할 수 있다. 예를 들어, 특정 블록에서 모션 벡터의 화소 정밀도는 Octor-pel,Quarter-Pel, Half-Pel, Integer pel, 4 Integer pel 중 적어도 어느 하나 일수 있다. As a motion vector, motion vectors having different pixel precisions may be used in sequence units, slice units, or block units. For example, the pixel precision of a motion vector in a specific block may be at least one of Octor-pel, Quarter-Pel, Half-Pel, Integer pel, and 4 Integer pel.

인터 예측 모드는 translaton 모션을 이용한 인터 예측 방법과 affine 모션을 이용한 affine 인터 예측 방법이 선택적으로 사용될 수도 있다. In the inter prediction mode, an inter prediction method using translaton motion and an affine inter prediction method using affine motion may be selectively used.

2.1.12.1.1 머지 모드 부호화 방법Merge mode coding method

현재 코딩 유닛의 모션 정보(모션 벡터, 참조 픽쳐 인덱스 등)를 부호화 하지 않고, 주변 블록의 모션 정보로 부터 유도할 수 있다. 주변 블록 중 어느 하나의 모션 정보를 현재 코딩 유닛의 모션 정보로 설정할 수 있으며, 이를 머지 모드(merge mode)라고 부른다. Without encoding the motion information (motion vector, reference picture index, etc.) of the current coding unit, it can be derived from motion information of neighboring blocks. Motion information of any one of the neighboring blocks may be set as motion information of the current coding unit, and this is called a merge mode.

머지 모드에 사용되는 주변 블록은 그림 5의 머지 후보 인덱스 0 내지 4 와 같이 현재 코딩 유닛과 인접한 블록 (현재 코딩 유닛의 경계와 맞닿은 블록)일 수도 있고, 그림 5 머지 후보 인덱스 5 내지 26과 같이 인접하지 않은 블록일 수도 있다. The neighboring blocks used in the merge mode may be blocks adjacent to the current coding unit (blocks that abut the boundary of the current coding unit) as shown in Figure 5 , merge candidate indexes 0 to 4, and adjacent as shown in Figure 5 merge candidate indexes 5 to 26. It may be a block that has not been done.

Figure pat00005
Figure pat00005

그림 5Picture 5

머지 후보가 현재 블록과의 거리가 기정의된 임계값을 넘어가면 가용하지 않은 것으로 설정할 수 있다. It can be set that the merge candidate is not available if the distance to the current block exceeds a predefined threshold.

Figure pat00006
Figure pat00006

그림 6Picture 6

서브 블록 단위로 머지 후보를 유도할 수도 있다. 그림 6과 같이 공간적 주변 머지 후보 블록 A1, B1, B0, A0 중 탐색 순서 (A1 --> B1 --> B0 --> A0) 상 가장 첫번째로 가용한 공간적 주변 머지 후보 블록을 최초 공간적 주변 머지 후보라 한다. Merge candidates may be derived in units of sub-blocks. As shown in Figure 6, the first available spatial peripheral merge candidate block in the search order (A1 --> B1 --> B0 --> A0) among the spatial peripheral merge candidate blocks A1, B1, B0, and A0 is the first spatial peripheral merge They are called candidates.

Figure pat00007
Figure pat00007

그림 7Picture 7

콜 픽쳐 레퍼런스 인덱스(collocated_ref_idx)가 가리키는 레퍼런스 픽쳐를 콜 픽쳐(Collocated picture)라 정의한다. 최초 공간적 주변 머지 후보의 움직임 벡터(이하, 초기 쉬프트 벡터)가 가리키는 콜 픽쳐 내 블록을 콜 픽쳐 선택 머지 후보 블록이라고 한다. 구체적으로 예를 들어, 그림 7과 같이 최초 공간적 주변 머지 후보 A1의 움직임 벡터가 가리키는 샘플/블록 A1'을 포함하는 예측 블록을 콜 픽쳐 선택 머지 후보 블록이라 한다. The reference picture indicated by the call picture reference index (collocated_ref_idx) is defined as a call picture (Collocated picture). The block in the call picture indicated by the motion vector (hereinafter, the initial shift vector) of the first spatial peripheral merge candidate is referred to as a call picture selection merge candidate block. Specifically, as illustrated in FIG. 7, a prediction block including sample/block A1' indicated by the motion vector of the initial spatial neighbor merge candidate A1 is referred to as a call picture selection merge candidate block.

현재 블록의 좌상단 샘플의 x축 좌표와 최초 공간적 주변 머지 후보의 x축 좌표 차분을 코딩 블록 너비 오프셋이라고 정의하고, 최초 공간적 주변 머지 후보의 y축 좌표와 현재 블록의 좌상단 샘플의 y축 좌표의 차분을 코딩 블록 높이 오프셋이라고 정의할 수 있다. The difference between the x-axis coordinates of the upper left sample of the current block and the x-axis coordinates of the first spatial peripheral merge candidate is defined as the coding block width offset, and the difference between the y-axis coordinates of the first spatial peripheral merge candidate and the y-axis coordinates of the upper left sample of the current block. Can be defined as the coding block height offset.

그림 7과 같이 콜 픽쳐 선택 머지 후보 블록의 x좌표에 코딩 블록 너비 오프셋을 더한 값을 콜 픽쳐 대응 블록 x좌표라 정의하고, 콜 픽쳐 선택 머지 후보 블록의 y좌표에 코딩 블록 높이 오프셋을 더한 값을 콜 픽쳐 대응 블록 y좌표라 정의 한다. 콜 픽쳐 중 좌상단 샘플의 x좌표가 콜 픽쳐 대응 블록 x좌표와 같고, 좌상단 샘플의 y좌표가 콜 픽쳐 대응 블록 x좌표와 같으면서, 블록의 너비 및 높이가 현재 블록의 너비 및 높이가 같은 블록을 콜 픽쳐 대응 블록이라 한다. As shown in Figure 7, the x-coordinate of the call picture selection merge candidate block plus the coding block width offset is defined as the call-picture correspondence block x-coordinate, and the y-coordinate of the call picture selection merge candidate block plus the coding block height offset is added. It is defined as the y coordinate of the block corresponding to the call picture. In the call picture, the x-coordinate of the upper-left sample is the same as the x-coordinate of the call-picture-corresponding block, and the y-coordinate of the upper-left sample is the same as the x-coordinate of the call-picture-corresponding block. It is called a picture-adaptive block.

콜 픽쳐 대응 블록의 서브 블록의 모션 벡터를 현재 블록의 대응 서브 블록의 모션 벡터로 설정할 수 있으며, 이를 서브 블록 머지 후보라 한다. A motion vector of a sub-block of a call picture corresponding block may be set as a motion vector of a corresponding sub-block of the current block, which is called a sub-block merge candidate.

서브 블록 머지 후보는 서브 블록 움직임 예측 후보(Motion vector predictor, MVP)로도 사용할 수 있다. The sub-block merge candidate can also be used as a sub-block motion prediction candidate (MVP).

서브 블록 단위 머지 후보는 다음 프로세스와 같이 유도할 수 있다. The merge candidate for each sub-block may be derived as in the following process.

1. 현재 블록의 주변 머지 후보 블록의 모션 벡터로 부터 초기 쉬프트 벡터 (shVector)를 유도할 수 있다. 1. An initial shift vector (shVector) may be derived from a motion vector of a neighbor candidate block of the current block.

2. 식 (1)과 같이 코딩 유닛 내 서브 블록의 좌상단 샘플 (xSb,ySb)에 초기 쉬프트 벡터를 가산하여 좌상단 샘플의 위치가 (xColSb, yColSb)인 쉬프트 서브 블록을 유도할 수 있다. 2. As shown in Equation (1), an initial shift vector may be added to the upper left sample (xSb,ySb) of the sub block in the coding unit to derive a shift sub block having the position of the upper left sample (xColSb, yColSb).

(xColSb, yColSb) = (xSb + shVector[0]>> 4,ySb+shVector[1]>> 4) (1) (xColSb, yColSb) = (xSb + shVector[0]>> 4,ySb+shVector[1]>> 4) (1)

3. (xColSb, yColSb)를 포함하고 있는 서브 블록의 센터 포지션과 대응되는 collocated block의 모션 벡터를 좌상단 샘플 (xSb,ySb)를 포함하고 있는 서브 블록의 모션 벡터로 유도할 수 있다. 3. The motion vector of the collocated block corresponding to the center position of the sub-block containing (xColSb, yColSb) can be derived as the motion vector of the sub-block containing the upper left sample (xSb,ySb).

서브 블록 머지 후보를 특정하는데 사용된 참조 픽쳐(이하, 콜 참조 픽쳐)이외의 참조 픽쳐로 부터 모션 벡터를 유도하여 비가용한 예측 영상을 대체할 수 있다. A motion vector may be derived from a reference picture other than the reference picture (hereinafter referred to as a call reference picture) used to specify a sub-block merge candidate to replace the unused predictive image.

구체적으로 예를 들어, 서브 블록 머지 후보 내 특정 서브 블록에서 LX(X는 0 또는 1)로 부터 유도된 모션 벡터가 가용하지 않고(이하, 제 1 단방향 서브 블록), 참조 픽쳐 리스트내 참조 픽쳐의 POC 값이 모두 현재 픽쳐의 POC 값보다 같거나 작은 경우(이하, 포워드 예측)에 L[1-X]의 참조 픽쳐를 이용하여 모션 벡터를 유도할 수 있으며, L1의 모션 벡터는 현재 픽쳐와 L1과의 거리, L1과 L0의 거리에 비례한 값으로 스케일링 될 수 있다. Specifically, for example, a motion vector derived from LX (X is 0 or 1) in a specific sub-block in a sub-block merge candidate is not available (hereinafter, the first unidirectional sub-block), and the reference picture in the reference picture list When all of the POC values are equal to or less than the POC value of the current picture (hereinafter, forward prediction), a motion vector may be derived by using a reference picture of L[1-X], and the motion vector of L1 is equal to the current picture and L1. It can be scaled to a value proportional to the distance between and L1 and L0.

포워드 예측이면서 L[X]의 참조 픽쳐에서 유도한 모션 벡터 와 L[1-X]의 참조 픽쳐에서 유도한 모션 벡터 중 적어도 어느 하나가 가용하지 않은 경우에는 collocated_ref_idx에 의해 특정된 참조 픽쳐(이하, 콜 참조 픽쳐)로 부터 모션 벡터를 유도할 수도 있으며, 이를 콜 TMVP라 한다. 여기서 collocated_ref_idx는 시간적 움직임 예측 후보(temporal motion vector predictor) 생성 시, 참조 픽쳐를 특정할 때 사용되는 신택스를 나타내며, 비트스트림을 통해 시그날링될 수 있다. In the case of forward prediction, when at least one of a motion vector derived from a reference picture of L[X] and a motion vector derived from a reference picture of L[1-X] is not available, a reference picture specified by collocated_ref_idx (hereinafter, The motion vector may be derived from a call reference picture), which is called a call TMVP. Here, collocated_ref_idx represents syntax used when specifying a reference picture when generating a temporal motion vector predictor, and may be signaled through a bitstream.

신택스 collocated_from_l0_flag 값이 1이면, 콜 참조 픽쳐는 참조 픽쳐 리스트 중 L0에서 유도할 수 있음을 나타낸다. 일 예로, collocated_from_l0_flag 값이 1이면 RefPicList0[collocated_ref_idx]를 콜 참조 픽쳐로 설정할 수 있고, collocated_from_l0_flag 값이 0이면, RefPicList1[collocated_ref_idx]를 콜 참조 픽쳐로 설정할 수 있다. If the syntax collocated_from_l0_flag value is 1, it indicates that the call reference picture can be derived from L0 in the reference picture list. For example, if the value of collocated_from_l0_flag is 1, RefPicList0[collocated_ref_idx] may be set as a call reference picture, and when value of collocated_from_l0_flag is 0, RefPicList1[collocated_ref_idx] may be set as a call reference picture.

포워드 예측이 아니고, LX(X는 0 또는 1)로 부터 유도된 모션 벡터가 가용이 아닌 경우에, 콜 참조 픽쳐로부터 모션 벡터를 유도할 수도 있다. If it is not forward prediction and the motion vector derived from LX (X is 0 or 1) is not available, the motion vector may be derived from the call reference picture.

제 1 단방향 서브 블록에서 LX로 부터 유도된 모션 벡터가 가용하지 않은 경우(서브 블록 비 가용 ATMVP), TMVP의 LX로 부터 유도된 모션 벡터가 가용한 경우 (이하, X 방향 TMVP)에는 서브 블록 비가용 ATMVP의 모션 벡터로 x 방향 TMVP를 사용할 수 있다. 구체적으로 예를 들어, 제 1 단방향 서브 블록에서 L0로 부터 유도한 모션 벡터가 가용하지 않고, TMVP의 L0로 부터 유도된 모션 벡터가 가용한 경우(이하, 0 방향 TMVP)에는 제 1 단방향 서브 블록에서 L0의 모션 벡터를 0 방향 TMVP로 사용할 수도 있다. When the motion vector derived from LX is not available in the first unidirectional sub-block (subblock non-available ATMVP), when the motion vector derived from LX of TMVP is available (hereinafter referred to as X-direction TMVP), the sub-block ratio The TMVP in the x-direction can be used as the motion vector of the ATMVP. Specifically, for example, when a motion vector derived from L0 is not available in the first unidirectional sub-block, and a motion vector derived from L0 of TMVP is available (hereinafter, 0-direction TMVP), the first unidirectional sub-block In L0, a motion vector of L0 may be used as a TMVP in the 0 direction.

서브 블록 단위 머지 후보와 TMVP를 가중 예측하여 새로운 시간적 움직임 예측 후보를 정의할 수 있으며, 이를 가중 TMVP라 한다. A new temporal motion prediction candidate may be defined by weighted prediction of a sub-block unit merge candidate and a TMVP, which is called a weighted TMVP.

다음과 같이 복수개의 서브 블록 단위 움직임 예측자 후보를 구성할 수 있다. A plurality of sub-block unit motion predictor candidates may be configured as follows.

1. 서브 블록 단위 머지 후보 1. Sub-block unit merge candidate

2. 콜 TMVP 2. Cole TMVP

3. 가중 TMVP 3. Weighted TMVP

2.1.22.1.2 인터 복호화 영역 머지 방법 Inter decoding region merge method

현재 픽쳐에서 이미 인터 예측으로 부호화된 코딩 유닛의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 기 정의된 크기의 리스트에 저장할 수 있으며, 이를 인터 영역 모션 정보 리스트이라고 부른다. Motion information (motion vector and reference picture index) of a coding unit that has already been encoded with inter prediction in a current picture may be stored in a list of a predefined size, which is called an inter-region motion information list.

인터 영역 모션 정보 리스트에 있는 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 인터 복호화 영역 머지 후보라고 한다. The motion information (motion vector and reference picture index) in the inter-domain motion information list is referred to as an inter-decoding domain merge candidate.

인터 복호화 영역 머지 후보를 현재 코딩 유닛의 머지 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 머지 방법이라고 부른다. The inter-decoding area merge candidate can be used as a merge candidate of the current coding unit, and this method is called an inter-decoding area merge method.

타일 그룹이 초기화 되면 인터 영역 모션 정보 리스트는 비어 있으며, 픽쳐의 일부 영역을 부호화/복호화되면 인터 영역 모션 정보 리스트에 추가할 수 있다. 타일 그룹 헤더를 통해 인터 영역 모션 정보 리스트의 초기 인터 복호화 영역 머지 후보를 시그널링할 수도 있다. When the tile group is initialized, the inter-region motion information list is empty, and when a region of a picture is encoded/decoded, it can be added to the inter-region motion information list. The initial inter decoding region merge candidate of the inter region motion information list may be signaled through the tile group header.

코딩 유닛이 인터 예측으로 부호화/복호화 되면 그림 6과 같이 상기 코딩 유닛의 움직임 정보를 인터 영역 모션 정보 리스트에 업데이트 할 수 있다. 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보의 개수가 최대값인 경우에는, 인터 영역 모션 정보 리스트 인덱스가 가장 작은 값 (가장 먼저 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보)을 제거하고, 가장 최근에 부호화/복호화된 인터 영역의 모션 벡터를 인터 복호화 영역 머지 후보로 추가할 수 있다. If the coding unit is to inter-prediction encoding / decoding may update the motion information of the coding unit in the inter-domain motion information list, as shown in Figure 6. When the number of inter-decoding region merge candidates in the inter-region motion information list is the maximum value, the value having the smallest index of the inter-region motion information list (first, the inter-decoding region merge candidate in the inter-region motion information list) is removed. , The motion vector of the most recently coded/decoded inter-region may be added as an inter-decoding region merge candidate.

Figure pat00008
Figure pat00008

그림 8Figure 8

디코딩 된 코딩 유닛의 모션 벡터 mvCand를 인터 영역 모션 정보 리스트 HmvpCandList에 업데이트 할수 있다. 이 때 디코딩 된 코딩 유닛의 모션 정보가 인터 영역 모션 정보 리스트에 있는 모션 정보 중 어느 하나와 같은 경우(모션 벡터와 레퍼런스 인덱스가 모두 같은 경우)에는 인터 영역 모션 정보 리스트를 업데이트 하지 않거나, 그림 10과 같이 디코딩 된 코딩 유닛의 모션 벡터 mvCand을 인터 영역 모션 정보 리스트의 제일 마지막에 저장할 수 있다. 이 때 mvCand과 같은 모션 정보를 가지고 있는 HmvpCandList의 인덱스를 hIdx이면, 그림 10과 같이 hIdx 보다 큰 모든 i에 대해 HMVPCandList [i]를 HVMPCandList[i-1]로 설정할 수도 있다. 현재 디코딩된 코딩 유닛에서 서브 블록 머지 후보 (sub-block merge candidates)가 사용된 경우에는 코딩 유닛 내 대표 서브 블록의 모션 정보를 인터 영역 모션 정보 리스트에 저장할 수도 있다. The motion vector mvCand of the decoded coding unit can be updated in the inter-domain motion information list HmvpCandList. At this time, if the motion information of the decoded coding unit is the same as any of the motion information in the inter-region motion information list (when both motion vectors and reference indices are the same), the inter-region motion information list is not updated, or Figure 10 and The motion vector mvCand of the decoded coding unit may be stored at the end of the inter-domain motion information list. At this time, if the index of HmvpCandList having motion information such as mvCand is hIdx, HMVPCandList [i] can be set to HVMPCandList[i-1] for all i greater than hIdx as shown in Figure 10 . When sub-block merge candidates are used in the currently decoded coding unit, motion information of a representative sub-block in the coding unit may be stored in the inter-region motion information list.

일 예로, 코딩 유닛 내 대표 서블 블록은 그림 9와 같이 코딩 유닛 내 좌상단 서브 블록으로 설정하거나, 코딩 유닛 내 중간 서브 블록으로 설정할 수도 있다. As an example, the representative serv block in the coding unit may be set as the upper left sub block in the coding unit as shown in Figure 9, or may be set as the middle sub block in the coding unit.

Figure pat00009
Figure pat00009

그림 9Picture 9

Figure pat00010
Figure pat00010

그림 10Fig. 10

인터 영역 모션 정보 리스트에 총 NumHmvp 개의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스) 를 저장할 수 있으며, NumHmvp을 인터 영역 모션 정보 리스트 크기라고 부른다. A total of NumHmvp motion information (motion vector and reference picture index) can be stored in the inter-region motion information list, and NumHmvp is called an inter-region motion information list size.

인터 영역 모션 정보 리스트 크기는 기 정의된 값을 사용할 수 있다. 타일 그룹 헤더에 인터 영역 모션 정보 리스트 크기를 시그날링할 수도 있다. 일 예로, 인터 영역 모션 정보 리스트 크기는 16으로 정의할 수도 있고, 6으로 정의할 수도 있다. A predefined value may be used for the size of the inter-region motion information list. The size of the inter-region motion information list may be signaled in the tile group header. For example, the size of the inter-region motion information list may be defined as 16 or 6.

인터 예측이면서 어파인 모션 벡터를 갖는 코딩 유닛에서는 인터 영역 모션 정보 리스트를 갖지 않도록 한정할 수도 있다. A coding unit having an inter-prediction and affine motion vector may be limited not to have an inter-domain motion information list.

또는 인터 예측이면서 어파인 모션 벡터를 갖는 경우에는 어파인 서브 블록 벡터를 인터 영역 모션 정보 리스트에 추가할 수도 있다. 이 때 서브 블록의 위치는 좌상단 또는 우상단, 또는 중앙 서브 블록 등으로 설정할 수도 있다. Alternatively, in the case of having inter-prediction and affine motion vectors, affine sub-block vectors may be added to the inter-domain motion information list. At this time, the position of the sub-block may be set to the upper left or upper right, or the central sub-block.

또는, 각 컨트롤 포인트의 모션 벡터 평균값을 인터 영역 머지 후보 리스트에 추가할 수도 있다.Alternatively, the average motion vector of each control point may be added to the inter-region merge candidate list.

특정 코딩 유닛을 부호화/복호화를 수행해서 유도한 움직임 벡터 MV0가 인터 복호화 영역 머지 후보 중 어느 하나와 동일한 경우에는 MV0를 인터 영역 모션 정보 리스트에 추가하지 않을 수 있다. 또는, MV0와 동일한 움직임 벡터를 갖는 기존의 인터 복호화 영역 머지 후보를 삭제하고, MV0를 새롭게 복호화 영역 머지 후보에 포함시켜, MV0에 할당되는 인덱스를 갱신할 수 있다.If the motion vector MV0 derived by encoding/decoding a specific coding unit is the same as any of the inter decoding region merge candidates, MV0 may not be added to the inter region motion information list. Alternatively, an existing inter-decoding area merge candidate having the same motion vector as MV0 may be deleted, and MV0 may be newly included in the decoding area merge candidate to update an index assigned to MV0.

인터 영역 모션 정보 리스트 이외에 인터 영역 모션 정보 롱텀 리스트 HmvpLTList를 구성할 수도 있다. 인터 영역 모션 정보 롱텀 리스트 크기는 인터 영역 모션 정보 리스트 크기와 같게 설정하거나, 상이한 값으로 설정할 수 있다. In addition to the inter-region motion information list, an inter-region motion information long term list HmvpLTList may be configured. The inter-region motion information long term list size may be set equal to the inter-region motion information list size or may be set to a different value.

인터 영역 모션 정보 롱텀 리스트는 타일 그룹 시작 위치에 처음 추가한 인터 복호화 영역 머지 후보로 구성될 수 있다. 인터 영역 모션 정보 롱텀 리스트가 모두 가용한 값으로 구성된 이후에 인터 영역 모션 정보 리스트를 구성하거나, 인터 영역 모션 정보 리스트 내 모션 정보를 인터 영역 모션 정보 롱텀 리스트의 모션 정보로 설정할 수도 있다. The inter-region motion information long term list may be configured as an inter-decoding region merge candidate first added to the tile group start position. After the inter-region motion information long term list is configured with all available values, the inter-region motion information list may be configured or motion information in the inter-region motion information list may be set as motion information of the inter-region motion information long term list.

이 때 한 번 구성된 인터 영역 모션 정보 롱텀 리스트는 업데이트를 수행하지 않거나, 타일 그룹 중 복호화된 영역이 전체 타일 그룹의 반 이상일 때 다시 업데이트 하거나, m개 CTU 라인마다 업데이트 하도록 설정할 수도 있다. 인터 영역 모션 정보 리스트는 인터 영역으로 복호화될 때마다 업데이트 하거나, CTU 라인 단위로 업데이트 하도록 설정할 수 있다. In this case, the long-term list of the inter-region motion information configured once may not be updated, or may be updated again when the decoded region of the tile group is more than half of the entire tile group, or may be updated every m CTU lines. The inter-region motion information list may be set to be updated every time it is decoded into the inter-region or to update in CTU line units.

인터 영역 모션 정보 리스트에 모션 정보와 코딩 유닛의 파티션 정보 또는 형태를 저장할 수도 있다. 현재 코딩 유닛과 파티션 정보 및 형태가 유사한 인터 영역 머지 후보만 사용하여 인터 복호화 영역 머지 방법을 수행할 수도 있다. Motion information and partition information or a form of a coding unit may be stored in the inter-region motion information list. It is also possible to perform the inter-decoding region merging method using only inter-region merge candidates having similar partition information and form to the current coding unit.

또는, 블록 형태에 따라 개별적으로 인터 영역 머지 후보 리스트을 구성할 수도 있다. 이 경우, 현재 블록의 형태에 따라, 복수의 인터 영역 머지 후보 리스트 중 하나를 선택하여 사용할 수 있다.Alternatively, an inter-region merge candidate list may be individually configured according to a block type. In this case, one of a plurality of inter-region merge candidate lists may be selected and used according to the shape of the current block.

Figure pat00011
Figure pat00011

그림 11Picture 11

그림 11과 같이 인터 영역 어파인 모션 정보 리스트와 인터 영역 모션 정보 리스트로 구성할 수도 있다. 복호화된 코딩 유닛이 어파인 인터 또는 어파인 머지 모드인 경우에는 인터 영역 어파인 모션 정보 리스트 HmvpAfCandList에 제1 어파인 시드 벡터와 제 2 어파인 시드 벡터를 저장할 수도 있다. 인터 영역 어파인 머지 후보 리스트에 있는 모션 정보를 인터 복호화 영역 어파인 머지 후보라고 한다. As shown in Figure 11 , it can be composed of an inter-domain affine motion information list and an inter-domain motion information list. When the decoded coding unit is in the affine inter or affine merge mode, the first affine seed vector and the second affine seed vector may be stored in the inter-domain affine motion information list HmvpAfCandList. The motion information in the inter-domain affine merge candidate list is called an inter-decoding region affine merge candidate.

현재 코딩 유닛에서 사용 가능한 머지 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. The merge candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 머지 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보)1. Spatial merge candidate (coding block contiguous merge candidate and coding block non-contiguous merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 머지 후보)2. Temporary merge candidate (merged candidate derived from the previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter decoding region merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter-decoding area affine merge candidate

5. Zero motion 머지 후보5. Zero motion merge candidate

먼저 머지 후보 리스트는 mergeCandList는 공간적 머지 후보 및 시간적 머지 후보로 구성할 수 있다. 가용한 공간적 머지 후보 및 시간적 머지 후보의 개수를 가용 머지 후보 개수 (NumMergeCand)라고 부른다. 가용 머지 후보 개수가 최대 머지 허용 개수보다 작은 경우에는 인터 복호화 영역 머지 후보를 머지 후보 리스트 mergeCandList에 추가할 수 있다. First, the merge candidate list may include mergeCandList as a spatial merge candidate and a temporal merge candidate. The number of available spatial and temporal merge candidates is called the number of available merge candidates (NumMergeCand). When the number of available merge candidates is smaller than the maximum number of merges allowed, the inter-decoding area merge candidate can be added to the merge candidate list mergeCandList.

인터 복호화 영역 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 예측 방법이라고 부른다. The inter decoding region motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is called an inter decoding region motion information prediction method.

인터 복호화 영역 어파인 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 어파인 예측 방법이라고 부른다.The inter-decoding area affine motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is called an inter-decoding area motion information affine prediction method.

현재 코딩 유닛에서 사용 가능한 움직임 정보 예측자 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. The motion information predictor candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 움직임 예측자 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보와 동일)1. Spatial motion predictor candidate (same as coding block contiguous merge candidate and coding block non-contiguous merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 움직임 예측자 후보)2. Temporary merge candidate (motion predictor candidate derived from the previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter decoding region merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter-decoding area affine merge candidate

5. Zero motion 움직임 예측자 후보5. Zero motion motion predictor candidate

2.22.2 인트라 예측 부호화 방법 Intra prediction coding method

인트라 예측은 그림 13과 같이 현재 블록 주변에 있는 이미 부호화된 경계 샘플을 인트라 예측을 생성하는데 사용하며, 이를 인트라 레퍼런스 샘플이라고 부른다. Intra prediction is used to generate an intra prediction by using an already coded boundary sample around the current block, as shown in Figure 13 , which is called an intra reference sample.

인트라 레퍼런스 샘플의 평균값을 예측 블록 전체 샘플의 값을 설정하거나 (DC 모드), 수평 방향 레퍼런스 가중 예측을 수행하여 생성한 수평 방향 예측 샘플과 수직 방향 레퍼런스 샘플을 가중 예측하여 생성한 수직 방향 예측 샘플을 생성한 후, 수평 방향 예측 샘플과 수직 방향 예측 샘플을 가중 예측하여 예측 샘플을 생성하거나(Planar 모드), 방향성 인트라 예측 모드등을 이용하여 인트라 예측을 수행할 수 있다. Predict the average value of the intra reference samples, set the value of the entire sample of the prediction block (DC mode), or perform the horizontal direction weighted prediction to generate the horizontal direction prediction sample and the vertical direction reference sample weighted prediction to generate the vertical direction prediction sample. After generating, a prediction sample may be generated by weighted prediction of a horizontal prediction sample and a vertical prediction sample (Planar mode), or intra prediction may be performed using a directional intra prediction mode.

Figure pat00012
Figure pat00012

그림 13Picture 13

그림 14의 왼쪽 그림과 같이 33개의 방향을 사용(총 35개 인트라 예측 모드)하여 인트라 예측을 수행할 수 있고, 그림 14의 오른쪽 그림과 같이 65개의 방향을 사용(총 67개 인트라 예측 모드)할 수도 있다. 방향성 인트라 예측을 사용하는 경우에는 인트라 예측 모드의 방향성을 고려하여 인트라 레퍼런스 샘플(레퍼런스 참조 샘플)을 생성하고, 이로 부터 인트라 예측을 수행할 수 있다. Using a 33 direction, as shown on the left in Figure 14 to (a total of 35 intra-prediction mode), and to perform intra prediction, using the 65 direction as shown in the right illustration in Figure 14 (total of 67 intra-prediction mode) It might be. When using directional intra prediction, an intra reference sample (reference reference sample) may be generated in consideration of the directionality of the intra prediction mode, and intra prediction may be performed therefrom.

코딩 유닛의 좌측에 있는 인트라 레퍼런스 샘플을 좌측 인트라 레퍼런스 샘플이라하고, 코딩 유닛의 상측에 있는 인트라 레퍼런스 샘플을 상측 인트라 레퍼런스 샘플이라 한다. The intra reference sample on the left side of the coding unit is called the left intra reference sample, and the intra reference sample on the upper side of the coding unit is called the upper intra reference sample.

방향성 인트라 예측을 수행하는 경우에는 표 3과 같이 인트라 예측 모드에 따라 예측 방향(또는 예측 각도)을 나타내는 파라미터인 인트라 방향 파라미터 (intraPredAng)를 설정할 수 있다. 아래 표 1은 35개 인트라 예측 모드를 사용할 때 2 내지 34의 값을 가지는 방향성 인트라 예측 모드를 기반으로 하는 일예에 불과하다. 방향성 인트라 예측 모드의 예측 방향(또는 예측 각도)은 더 세분화되어 33개보다 많은 개수의 방향성 인트라 예측 모드가 이용될 수 있음은 물론이다. When performing directional intra prediction, an intra direction parameter (intraPredAng), which is a parameter indicating a prediction direction (or prediction angle), may be set according to the intra prediction mode as shown in Table 3. Table 1 below is only an example based on the directional intra prediction mode having a value of 2 to 34 when using 35 intra prediction modes. Of course, the prediction direction (or prediction angle) of the directional intra prediction mode is further subdivided so that more than 33 directional intra prediction modes may be used.

Figure pat00013
Figure pat00013

그림 14Picture 14

표 1Table 1

Figure pat00014
Figure pat00014

Figure pat00015
Figure pat00015

그림 15Picture 15

intraPredAng이 음수인 경우 (예를 들어, 인트라 예측 모드 인덱스가 11과 25 사이인 경우)에는 그림 15와 같이 현재 블록에 좌측 인트라 레퍼런스 샘플과 상측 인트라 레퍼런스 샘플을 인트라 예측 모드의 각도에 따라 1D로 구성된 일차원 레퍼런스 샘플 (Ref_1D)로 재구성할 수 있다. When intraPredAng is negative (for example, when the intra prediction mode index is between 11 and 25), the left intra reference sample and the upper intra reference sample are configured in 1D according to the angle of the intra prediction mode in the current block, as shown in Figure 15 . It can be reconstructed as a one-dimensional reference sample (Ref_1D).

Figure pat00016
Figure pat00016

그림 16Picture 16

인트라 예측 모드 인덱스가 11과 18 사이인 경우에는 그림 16과 같이 현재 블록의 상변 우측에 위치한 인트라 레퍼런스 샘플부터 좌변 하단에 위치한 인트라 레퍼런스 샘플까지 반 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 11 and 18, a one-dimensional reference sample can be generated counterclockwise from the intra reference sample located on the upper right side of the current block to the intra reference sample located on the lower left side of the current block, as shown in Figure 16 .

그 외의 모드에서는 상변 인트라 레퍼런스 샘플 또는 좌변 인트라 레퍼런스 샘플만 이용하여 일차원 레퍼런스 샘플을 생성할 수 있다.In other modes, a one-dimensional reference sample may be generated using only the upper side intra reference sample or the left side intra reference sample.

Figure pat00017
Figure pat00017

그림 17Picture 17

인트라 예측 모드 인덱스가 19 와 25 사이인 경우에는 그림 17과 같이 현재 블록의 좌변 하단에 위치한 인트라 레퍼런스 샘플부터 상변 우측에 위치한 인트라 레퍼런스 샘플까지 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 19 and 25, a one-dimensional reference sample can be generated clockwise from the intra reference sample located at the lower left side of the current block to the intra reference sample located on the upper right side as shown in Figure 17 .

참조 샘플 결정 인덱스 iIdx와 iIdx에 기초하여 결정되는 적어도 하나의 참조 샘플에 적용되는 가중치 관련 파라미터 ifact를 다음 식 (2) 내지 (3)과 같이 유도할 수 있다. iIdx와 ifact는 방향성 인트라 예측 모드의 기울기에 따라 가변적으로 결정되며, iIdx에 의해 특정되는 참조 샘플은 정수 펠(integer pel)에 해당할 수 있다.The weight-related parameter ifact applied to at least one reference sample determined based on the reference sample determination index iIdx and iIdx may be derived as in the following equations (2) to (3). iIdx and i fact are variably determined according to the gradient of the directional intra prediction mode, and the reference sample specified by iIdx may correspond to an integer pel.

iIdx = (y+1) * Pang /32 (2) iIdx = (y+1) * P ang /32 (2)

ifact = [ (y+1) * Pang] & 31 (3) i fact = [(y+1) * P ang ] & 31 (3)

예측 샘플 별로 적어도 하나 이상의 일차원 레퍼런스 샘플을 특정하여 예측 영상을 유도 할 수도 있다. 예를 들어, 방향성 인트라 예측 모드의 기울기 값을 고려하여 예측 샘플 생성에 사용할 수 있는 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. 예측 샘플 별로 상이한 방향성 인트라 예측 모드를 가질 수도 있다. 하나의 예측 블록에 대해 복수의 인트라 예측 모드가 이용될 수도 있다. 복수의 인트라 예측 모드는 복수의 비방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 하나의 비방향성 인트라 예측 모드와 적어도 하나의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 또는 복수의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있다. 하나의 예측 블록 내의 소정의 샘플 그룹 별로 상이한 인트라 예측 모드가 적용될 수 있다. 소정의 샘플 그룹은 적어도 하나의 샘플로 구성될 수 있다. 샘플 그룹의 개수는 현재 예측 블록의 크기/샘플 개수에 따라 가변적으로 결정될 수도 있고, 예측 블록의 크기/샘플 개수와는 독립적으로 부호화기/복호화기에 기-설정된 고정된 개수일 수도 있다. The prediction image may be derived by specifying at least one one-dimensional reference sample for each prediction sample. For example, the position of a one-dimensional reference sample that can be used for generating a prediction sample may be specified by considering the slope value of the directional intra prediction mode. It is also possible to have different directional intra prediction modes for each prediction sample. Multiple intra prediction modes may be used for one prediction block. The plurality of intra prediction modes may be represented by a combination of a plurality of non-directional intra prediction modes, or may be represented by a combination of one non-directional intra prediction mode and at least one directional intra prediction mode, or multiple directional intra prediction It can also be expressed as a combination of modes. Different intra prediction modes may be applied to each sample group in one prediction block. A given sample group may consist of at least one sample. The number of sample groups may be variably determined according to the size/number of samples of the current prediction block, or may be a fixed number preset in the encoder/decoder independently of the size/number of samples of the prediction block.

구체적으로 예를 들어, 참조 샘플 결정 인덱스 iIdx를 이용하여 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. Specifically, for example, the location of the one-dimensional reference sample may be specified using the reference sample determination index iIdx.

인트라 예측 모드의 기울기에 따라 하나의 일차원 레퍼런스 샘플만으로는 인트라 예측 모드의 기울기를 표현할 수 없을 때는 식 (4)와 같이 인접한 일차원 레퍼런스 샘플을 보간하여 제 1 예측 영상을 생성할 수 있다. 인트라 예측 모드의 기울기/각도에 따른 angular line이 정수 펠에 위치한 레퍼런스 샘플을 지나가지 않는 경우, 해당 angular line에 좌/우 또는 상/하에 인접한 레퍼런스 샘플을 보간하여 제1 예측 영상을 생성할 수 있다. 이때 이용되는 보간 필터의 필터 계수는 ifact에 기초하여 결정될 수 있다. 예를 들어, 보간 필터의 필터 계수는 angular line 상에 위치한 소수 펠과 상기 정수 펠에 위치한 레퍼런스 샘플 간의 거리에 기초하여 유도될 수According to the slope of the intra prediction mode, when it is not possible to express the slope of the intra prediction mode using only one one-dimensional reference sample, the first prediction image may be generated by interpolating adjacent one-dimensional reference samples as in Equation (4). When the angular line according to the slope/angle of the intra prediction mode does not pass the reference sample located in the integer pel, the first prediction image may be generated by interpolating the reference samples adjacent to the left/right or top/bottom of the angular line. . At this time, the filter coefficient of the interpolation filter used may be determined based on i fact . For example, the filter coefficient of an interpolation filter can be derived based on the distance between a minority pel located on an angular line and a reference sample located on the integer pel.

P(x,y) = ((32-ifact)/32)* Ref_1D(x+iIdx+1) + (ifact/32)* Ref_1D(x+iIdx+2) (4)P(x,y) = ((32-i fact )/32)* Ref_1D(x+iIdx+1) + (ifact/32)* Ref_1D(x+iIdx+2) (4)

하나의 일차원 레퍼런스 샘플만으로 인트라 예측 모드의 기울기를 표현할 수 있을 때 (ifact 값이 0 일때) 는 다음 식 (5)와 같이 제 1 예측 영상을 생성할 수 있다. When the slope of the intra prediction mode can be expressed by only one one-dimensional reference sample (when the i fact value is 0), the first prediction image can be generated as in the following equation (5).

P(x,y) = Ref_1D(x+iIdx+1) (5)P(x,y) = Ref_1D(x+iIdx+1) (5)

2.32.3 와이드 앵글 인트라 예측 부호화 방법Wide angle intra prediction coding method

방향성 인트라 예측 모드의 예측 각도는 그림 18과 같이 45 내지 -135 사이 값으로 설정될 수 있다. The prediction angle of the directional intra prediction mode may be set to a value between 45 and -135 as shown in Figure 18 .

Figure pat00018
Figure pat00018

그림 18Picture 18

비정방 형태 코딩 유닛에서 인트라 예측 모드를 수행하는 경우 기 정의된 예측 각도 때문에 현재 샘플과 가까운 인트라 레퍼런스 샘플 대신 현재 샘플과 거리가 먼 인트라 레퍼런스 샘플에서 현재 샘플을 예측하는 단점이 발생할 수 있다. When performing the intra prediction mode in the non-square coding unit, a disadvantage of predicting the current sample from the intra reference sample far from the current sample may occur instead of the intra reference sample close to the current sample due to a predefined prediction angle.

예를 들어, 그림 19의 왼쪽 그림과 같이 코딩 유닛의 너비가 코딩 유닛의 높이보다 큰 코딩 유닛(이하, 수평 방향 코딩 유닛)에서는 거리가 가까운 샘플 T 대신에 거리가 먼 L에서 인트라 예측을 수행할 수 있다. 또 다른 예를 들어, 그림 19의 오른쪽 그림과 같이 코딩 유닛의 높이가 코딩 유닛의 너비보다 큰 코딩 유닛(이하, 수직 방향 코딩 유닛)에서는 거리가 가까운 샘플 L 대신에 거리가 먼 샘플 T로 부터 인트라 예측을 수행할 수 있다. For example, in the coding unit having the width of the coding unit larger than the height of the coding unit (hereinafter, the horizontal coding unit) as shown in the left figure of FIG. 19 , intra prediction is performed at a distance L instead of the sample T having a short distance. Can be. As another example, in Figure 1 a large coding unit, the height of the coding unit as shown in the figure to the right of 9 than the coding unit width (the vertical direction coding unit) in from the sample T is a distance to the sample L instead of the distance near Intra prediction can be performed.

Figure pat00019
Figure pat00019

그림 19Picture 19

비정방 형태 코딩 유닛에서는 기 정의된 예측 각도보다 더 넓은 예측 각도에서 인트라 예측을 수행할 수도 있으며, 이를 와이드 앵글 인트라 예측 모드라고 부른다. In the non-square coding unit, intra prediction may be performed at a prediction angle wider than a predetermined prediction angle, and this is called a wide angle intra prediction mode.

와이드 앵글 인트라 예측 모드는

Figure pat00020
내지
Figure pat00021
의 예측 각도를 가질 수 있으며, 기존 인트라 예측 모드에서 사용된 각도를 벗어나는 예측 각도를 와이드 앵글 각도라고 부른다. Wide angle intra prediction mode
Figure pat00020
To
Figure pat00021
It can have a prediction angle of, and the prediction angle that deviates from the angle used in the existing intra prediction mode is called a wide angle angle.

그림 19의 좌측 그림에서 수평 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 T로 부터 예측할 수 있다. In the left picture of Figure 19 , sample A in the horizontal coding unit can be predicted from the intra reference sample T using the wide angle intra prediction mode.

그림 19의 우측 그림에서 수직 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 L로 부터 예측할 수 있다. In the right figure of Figure 19 , sample A in the vertical coding unit can be predicted from the intra reference sample L using the wide angle intra prediction mode.

기존 인트라 예측 모드 N개에 M개의 와이드 앵글 각도를 더해 N+M 개의 인트라 예측 모드가 정의될 수 있다. 구체적으로 예를 들어, 표 2와 같이 67개 인트라 모드에 28개 와이드 앵글 각도를 더해 총 95개 인트라 예측 모드가 정의될 수 있다. N+M intra prediction modes may be defined by adding M wide angle angles to N existing intra prediction modes. Specifically, for example, as shown in Table 2, a total of 95 intra prediction modes may be defined by adding 28 wide angle angles to 67 intra modes.

현재 블록이 이용할 수 있는 인트라 예측 모드는 현재 블록의 형태에 따라 결정될 수 있다. 일 예로, 현재 블록의 크기, 종횡비(예컨대, 너비와 높이의 비율), 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여, 95개의 방향성 인트라 예측 모드 중 65개의 방향성 인트라 예측 모드를 선택할 수 있다. The intra prediction mode that can be used by the current block may be determined according to the shape of the current block. As an example, 65 directional intra prediction modes among 95 directional intra prediction modes may be selected based on at least one of the size, aspect ratio (eg, ratio of width and height) of the current block, and a reference line index.

2 Table 2

Figure pat00022
Figure pat00022

표 2에 나타난 인트라 예측 모드 각도는, 현재 블록의 형태, 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여 적응적으로 결정될 수 있다. 일 예로, Mode 15의 intraPredAngle은 현재 블록이 비정방형인 경우보다 현재 블록이 정방형인 경우에 더 큰 값을 갖도록 설정될 수 있다. 또는, Mode 75의 intraPredAngle은 인접 레퍼런스 라인이 선택된 경우보다 비인접 레퍼런스 라인이 선택된 경우 더 큰 값을 갖도록 설정될 수 있다.The intra prediction mode angle shown in Table 2 may be adaptively determined based on at least one of a shape of a current block and a reference line index. For example, intraPredAngle in Mode 15 may be set to have a larger value when the current block is square than when the current block is non-square. Alternatively, intraPredAngle in Mode 75 may be set to have a larger value when a non-contiguous reference line is selected than when the adjacent reference line is selected.

와이드 앵글 인트라 예측 모드를 사용하는 경우 그림 20과 같이 상측 인트라 레퍼런스 샘플의 길이를 2W+1로 설정하고, 좌측 인트라 레퍼런스 샘플의 길이를 2H+1로 설정할 수 있다. When using the wide angle intra prediction mode, the length of the upper intra reference sample can be set to 2W+1 and the length of the left intra reference sample can be set to 2H+1 as shown in Figure 20 .

Figure pat00023
Figure pat00023

그림 20Picture 20

와이드 앵글 인트라 예측을 사용하는 경우에 와이드 앵글 인트라 예측 모드의 인트라 예측 모드를 부호화 하는 경우에는 인트라 예측 모드의 개수가 많아져서 부호화 효율이 낮아 질수 있다. 와이드 앵글 인트라 예측 모드는 와이드 앵글 인트라에서 사용되지 않는 기존 인트라 예측 모드로 대체하여 부호화 할 수 있으며, 대체되는 예측 모드를 와이드 앵글 대체 모드라고 한다. When using the wide-angle intra-prediction, when encoding the intra-prediction mode of the wide-angle intra-prediction mode, the number of intra-prediction modes increases, so that the encoding efficiency may be lowered. The wide-angle intra-prediction mode can be encoded by replacing it with an existing intra-prediction mode that is not used in the wide-angle intra, and the replaced prediction mode is called a wide-angle alternative mode.

구체적으로 예를 들어, 그림 21과 같이 35개 인트라 예측을 사용하는 경우 와이드 앵글 인트라 예측 모드 35는 와이드 앵글 대체 모드인 인트라 예측 모드 2로 부호화할 수 있고, 와이드 앵글 인트라 예측 모드 36은 와이드 앵글 대체 모드인 인트라 예측 모드 3으로 부호화 할 수 있다. Specifically, for example, when 35 intra predictions are used as shown in FIG. 21 , wide angle intra prediction mode 35 may be encoded in intra prediction mode 2, which is a wide angle replacement mode, and wide angle intra prediction mode 36 may be replaced by a wide angle. The mode can be encoded in intra prediction mode 3.

Figure pat00024
Figure pat00024

그림 21Picture 21

코딩 블록의 형태 또는 코딩 블록 높이대 너비의 비에 따라 대체하는 모드와 개수를 다르게 설정할 수 있다. 구체적으로 예를 들어, 표 3 내지 표 4와 같이 코딩 블록의 형태에 따라 대체하는 모드와 개수를 다르게 설정할 수 있다. 표 3은 35개 인트라 예측 모드가 사용된 경우를 나타내고, 표 4는 67개 인트라 예측 모드가 사용된 경우를 나타낸다. Depending on the type of coding block or the ratio of the coding block height to the width, the number of modes and number of replacements can be set differently. Specifically, for example, as shown in Tables 3 to 4, the mode and number of replacements may be set differently according to the type of the coding block. Table 3 shows a case where 35 intra prediction modes are used, and Table 4 shows a case where 67 intra prediction modes are used.

3 Table 3

Figure pat00025
Figure pat00025

표 4Table 4

Figure pat00026
Figure pat00026

2.42.4 멀티 라인 인트라 예측 부호화 방법 Multi-line intra prediction coding method

다음 그림 22와 같이 복수 개의 인트라 레퍼런스 라인에서 인트라 예측을 수행할 수도 있으며, 이를 멀티 라인 인트라 예측 부호화 방법이라고 부른다. Intra prediction may be performed on a plurality of intra reference lines as shown in the following figure 22 , which is called a multi-line intra prediction encoding method.

Figure pat00027
Figure pat00027

그림 22Fig. 22

인접한 인트라 페러런스 라인과 비인접 인트라 레퍼런스 라인으로 구성된 복수개의 인트라 레퍼런스 라인 중 어느 하나를 선택해서 인트라 예측을 수행할 수 있으며, 이를 복수 라인 인트라 예측 방법이라고 부른다. 비인접 인트라 레퍼런스 라인은 제 1 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 1), 제 2 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 2), 제 3 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 3)으로 구성할 수 있다. 비인접 인트라 레퍼런스 라인 중 일부만 사용할 수도 있다. 일 예로, 제 1 비인접 인트라 레퍼런스 라인 과 제 2 비인접 인트라 레퍼런스 라인만 사용할 수도 있고, 제 1비인접 인트라 레퍼런스 라인과 제 3 비인접 인트라 레퍼런스 라인만 사용할 수도 있다. Intra prediction may be performed by selecting any one of a plurality of intra reference lines composed of adjacent intra reference lines and non-contiguous intra reference lines, which is called a multi-line intra prediction method. The non-contiguous intra reference line includes a first non-contiguous intra reference line (non-contiguous reference line index 1), a second non-contiguous intra reference line (non-contiguous reference line index 2), and a third non-contiguous intra reference line (non-contiguous reference line) Index 3). It is also possible to use only some of the noncontiguous intra reference lines. For example, only the first non-contiguous intra reference line and the second non-contiguous intra reference line may be used, or only the first non-contiguous intra reference line and the third non-contiguous intra reference line may be used.

인트라 예측에 사용된 레퍼런스 라인을 특정하는 신택스인 인트라 레퍼런스 라인 인덱스(intra_luma_ref_idx)를 코딩 유닛 단위로 시그날링 할 수 있다. An intra reference line index (intra_luma_ref_idx), which is a syntax for specifying a reference line used for intra prediction, may be signaled in units of coding units.

구체적으로 인접 인트라 레퍼런스 라인, 제 1 비인접 인트라 레퍼런스 라인, 제 3 비인접 인트라 레퍼런스 라인을 사용하는 경우에 다음 표 5와 같이 intra_luma_ref_idx를 정의할 수도 있다. Specifically, when using the adjacent intra reference line, the first non-contiguous intra reference line, and the third non-contiguous intra reference line, intra_luma_ref_idx may be defined as shown in Table 5 below.

표 5Table 5

Figure pat00028
Figure pat00028

비인접 인트라 레퍼런스 라인을 사용하는 경우에는 비방향성 인트라 예측 모들를 사용하지 않도록 설정할 수도 있다. 즉, 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 DC 모드 내지 플래너 모드 (Planar mode)를 사용하지 않도록 제한 할 수도 있다. When a non-contiguous intra reference line is used, the non-directional intra prediction modules may be set not to be used. That is, when a non-contiguous intra reference line is used, DC mode or planar mode may not be used.

비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 인접 인트라 페러런스 라인의 샘플 개수보다 크게 설정할 수 있다. 또한 제 i 비인접 인트라 레퍼런스 라인의 샘플 개수보다 제 i+1 비인접 인트라 레퍼런스 라인의 샘플 개수가 더 많게 설정할 수도 있다. 제 i 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 제 i-1 비인접 인트라 레퍼런스 라인의 상측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetX[i]로 나타낼 수 있다. offsetX[1]은 제 1 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 인접 인트라 레퍼런스 라인의 상측 샘플 개수의 차분 값을 나타낸다. 제 i 비인접 인트라 레퍼런스 라인의 좌측샘플 개수와 제 i-1 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetY[i]로 나타낼 수 있다. offsetY[1]은 제 1 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수와 인접 인트라 레퍼런스 라인의 좌측 샘플 개수의 차분 값을 나타낸다.The number of samples belonging to the non-contiguous intra reference line can be set to be larger than the number of samples of the adjacent intra reference line. Also, the number of samples of the i+1 non-contiguous intra reference lines may be set to be larger than the number of samples of the i-noncontiguous intra reference lines. The difference between the number of upper samples of the i-th non-contiguous intra reference line and the number of upper samples of the i-th non-contiguous intra reference line may be indicated by the offset number of reference samples offsetX[i]. offsetX[1] represents the difference value between the number of upper samples of the first non-contiguous intra reference line and the number of upper samples of the adjacent intra reference line. The difference between the number of left samples of the i-th non-contiguous intra reference line and the number of left samples of the i-th non-contiguous intra reference line may be represented by offsetY[i]. offsetY[1] represents the difference value between the number of left samples of the first non-contiguous intra reference line and the number of left samples of the adjacent intra reference line.

인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 refW + offsetX[i] 와 좌측 비인접 레퍼런스 라인 refH+ offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 refW + refH + offsetX[i] + offsetY[i] +1 로 구성될 수 있다. The non-contiguous intra reference line with the intra reference line index i can be composed of the upper non-contiguous reference line refW + offsetX[i], the left non-contiguous reference line refH+ offsetY[i], and the upper left sample. The number of samples belonging to may be composed of refW + refH + offsetX[i] + offsetY[i] +1.

refW =2* nTbW (6)refW =2* nTbW (6)

refH =2* *nTbH (7)refH =2* *nTbH (7)

식 (6) 내지 (7)에서 nTbW는 코딩 유닛의 너비를 나타내고, nTbH는 코딩 유닛의 높이를 나타내며, whRatio는 다음 식 (8)과 같이 정의 할 수 있다. In equations (6) to (7), nTbW represents the width of the coding unit, nTbH represents the height of the coding unit, and whRatio can be defined as in the following equation (8).

whRatio = Min(log2(nTbW/nTbH),2) (8)whRatio = Min(log2(nTbW/nTbH),2) (8)

멀티 라인 인트라 예측 부호화 방법에서는 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 와이드 앵글 인트라 모드는 사용하지 않도록 설정할 수도 있다. 또는 현재 코딩 유닛의 MPM 모드가 와이드 앵글 인트라 모드이면 멀티 라인 인트라 예측 부호화 방법을 사용하지 않도록 설정할 수도 있다. 이 경우 인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 W + H + offsetX[i] 와 좌측 비인접 레퍼런스 라인 H + W + offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 2W + 2H + offsetX[i] + offsetY[i] +1 로 구성될 수 있으며, whRatio 값에 따라서 offsetX[i]와 offsetY[i] 값이 달라질 수 있따. 예를 들어, whRatio 값이 1 보다 큰 경우에는 offsetX[i] 값을 1, offsetY[i] 값을 0 으로 설정할 수 있고, whRatio 값이 1 보다 작은 경우에는 offsetX[i] 값을 0, offsetY[i] 값을 1로 설정할 수도 있다. In the multi-line intra prediction encoding method, when a non-contiguous intra reference line is used, the wide-angle intra mode may be disabled. Alternatively, if the MPM mode of the current coding unit is a wide angle intra mode, a multi-line intra prediction coding method may be disabled. In this case, the non-contiguous intra reference line with the intra reference line index i can be composed of the upper non-contiguous reference line W + H + offsetX[i], the left non-contiguous reference line H + W + offsetY[i], and the upper left sample. , The number of samples belonging to the non-contiguous intra reference line may be composed of 2W + 2H + offsetX[i] + offsetY[i] +1, and offsetX[i] and offsetY[i] values may vary depending on the whRatio value. There is. For example, if the whRatio value is greater than 1, the offsetX[i] value can be set to 1, and the offsetY[i] value can be set to 0. If the whRatio value is less than 1, the offsetX[i] value is 0, and the offsetY[ i] The value may be set to 1.

33 변환 및 양자화Transformation and quantization

원본 영상에서 예측 영상을 차분한 영상을 잔차 영상(residual이라 한다. An image obtained by subtracting a predicted image from an original image is called a residual image.

잔차 영상에 DCT(Discrete cosine transform)와 같은 2차원 변환(Transform)을 통하여 2원 주파수 성분으로 분해할 수 있다. 영상에서 고주파 성분을 제거해도 시각적으로 왜곡이 크게 발생하지 않는 특성이 있다. 고주파에 해당하는 값을 작게 하거나 0으로 설정하면 시각적 왜곡이 크지 않으면서도 압축 효율을 크게 할 수 있다. The residual image may be decomposed into binary frequency components through a two-dimensional transform such as a DCT (Discrete cosine transform). There is a characteristic that visual distortion does not occur significantly even when a high frequency component is removed from an image. When the value corresponding to the high frequency is set to a small value or 0, compression efficiency can be increased without significant visual distortion.

예측 블록의 크기나 예측 모드에 따라 DST (Discrete sine transform)을 사용할 수도 있다. 구체적으로 예를 들어, 인트라 예측 모드이고, 예측 블록/코딩 블록의 크기가 NxN 보다 작은 크기인 경우에는 DST 변환을 사용하도록 설정하고, 그 외의 예측 블록/코딩 블록에서는 DCT를 사용하도록 설정할 수도 있다. Discrete sine transform (DST) may be used according to the size of a prediction block or a prediction mode. Specifically, for example, in the intra prediction mode, when the size of the prediction block/coding block is smaller than NxN, DST transformation may be set to be used, and DCT may be set to be used in other prediction blocks/coding blocks.

DCT는 영상을 cos 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리이고, 그 때의 주파수 성분들은 기저 영상으로 표현된다. 예를 들어, NxN 블록에서 DCT 변환을 수행하면 N2 개의 기본 패턴 성분을 얻을 수 있다. DCT 변환을 수행한다는 것은 원화소 블록에 포함된 기본 패턴 성분들 각각의 크기를 구하는 것이다. 각 기본 패턴 성분들의 크기는 DCT 계수라고 부른다. DCT is a process of decomposing (converting) an image into two-dimensional frequency components using cos transform, and the frequency components at that time are expressed as a base image. For example, if DCT transformation is performed on an NxN block, N 2 basic pattern components can be obtained. Performing DCT conversion is to obtain the size of each of the basic pattern components included in the original pixel block. The size of each basic pattern component is called the DCT coefficient.

대체적으로 저주파에 0이 아닌 성분들이 많이 분포하는 영상에서는 이산 여현 변환(Discrete Cosine Transform, DCT)을 주로 사용하고, 고주파 성분이 많이 분포하는 영상에서는 DST (Discrete Sine Transform)을 사용할 수도 있다. In general, a discrete cosine transform (DCT) is mainly used in an image in which a lot of non-zero components are distributed in a low frequency, and a discrete Sine Transform (DST) may be used in an image in which a large amount of high-frequency components are distributed.

DST는 영상을 sin 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리를 나타낸다. DCT 또는 DST 변환 이외의 변환 방법을 사용하여 2차원 영상을 2차원 주파수 성분으로 분해(변환)할 수 있으며, 이를 2차원 영상 변환이라고 부른다. DST denotes a process of decomposing (converting) an image into two-dimensional frequency components using a sin transform. A 2D image may be decomposed (converted) into 2D frequency components using a conversion method other than DCT or DST conversion, and this is called 2D image conversion.

잔차 영상 중 특정 블록에서는 2차원 영상 변환을 수행하지 않을 수 있으며, 이를 변환 스킵(transform skip)이라고 부른다. 변환 스킵 이후에 양자화를 적용할 수 있다. A 2D image transformation may not be performed in a specific block among residual images, and this is called transform skip. Quantization can be applied after the transform skip.

2차원 영상 내에 있는 임의의 블록을 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 1 변환이라고 부른다. 제 1 변환을 수행 후 변환 블록의 일부 영역에서 변환을 다시 수행할 수 있으며, 이를 제 2 변환이라고 부른다. DCT or DST or 2D image transformation may be applied to any block in the 2D image, and the transformation used at this time is called a first transformation. After performing the first transform, the transform may be performed again in a partial region of the transform block, which is called a second transform.

제 1 변환은 복수개의 변환 코어 중 하나를 사용할 수 있다. 구체적으로 예를 들어, 변환 블록에서 DCT2 , DCT8 또는 DST7 중 어느 하나를 선택하여 사용할 수 있다. 또는 변환 블록의 수평 방향 변환과 수직 방향 변환에서 서로 다른 변환 코어를 사용할 수도 있다. The first transformation may use one of a plurality of transformation cores. Specifically, for example, any one of DCT2, DCT8, or DST7 can be selected and used in the conversion block. Alternatively, different transform cores may be used in the horizontal and vertical transforms of the transform block.

제 1변환과 제 2 변환을 수행하는 블록 단위가 서로 다르게 설정할 수도 있다. 구체적으로 예를 들어, 잔차 영상의 8x8 블록에서 제 1 변환을 수행한 후, 4x4 서브 블록 별로 제 2 변환을 각각 수행할 수도 있다. 또 다른 예를 들어, 각 4x4 블록에서 제 1 변환을 수행한 후, 8x8 크기의 블록에서 제 2 변환을 각각 수행할 수도 있다. Block units for performing the first transformation and the second transformation may be set differently. Specifically, for example, after performing the first transform on the 8x8 block of the residual image, the second transform may be performed for each 4x4 sub-block. As another example, after performing the first transform in each 4x4 block, the second transform may be performed in the 8x8 block.

제 1 변환이 적용된 잔차 영상을 제 1 변환 잔차 영상이라고 부른다. The residual image to which the first transform is applied is called a first transform residual image.

제 1 변환 잔차 영상에 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 2 변환이라고 부른다. 제 2 변환이 적용된 2차원 영상을 제 2 변환 잔차 영상이라고 부른다. DCT or DST or 2D image transformation may be applied to the first transform residual image, and the transform used at this time is referred to as a second transform. The 2D image to which the second transform is applied is called a second transform residual image.

제 1 변환 및/또는 제 2 변환을 수행한 후의 블록 내 샘플 값을 변환 계수라고 부른다. 양자화는 블록의 에너지를 줄이기 위해 변환 계수를 기 정의된 값으로 나누는 과정을 말한다. 변환 계수에 양자화를 적용하기 위해 정의된 값을 양자화 파라미터라고 부른다. The sample value in the block after performing the first transform and/or the second transform is called a transform coefficient. Quantization refers to the process of dividing the transform coefficients into predefined values to reduce the energy of the block. The value defined to apply quantization to the transform coefficient is called a quantization parameter.

시퀀스 단위 또는 블록 단위로 기 정의된 양자화 파라미터를 적용할 수 있다. 통상적으로 1 내지 64 사이의 값으로 양자화 파라미터를 정의할 수 있다. Predefined quantization parameters may be applied in sequence units or block units. Typically, a quantization parameter may be defined as a value between 1 and 64.

변환 및 양자화를 수행한 후에, 역양자화 및 역변환을 수행하여 잔차 복원 영상을 생성 할 수 있다. 잔차 복원 영상에 예측 영상을 더해서 제 1 복원 영상을 생성할 수 있다. After performing the transform and quantization, an inverse quantization and an inverse transform may be performed to generate a residual reconstructed image. A first reconstructed image may be generated by adding a predictive image to the residual reconstructed image.

44 인루프 필터링 (In-loop filtering)In-loop filtering

인루프 필터링(In-loop filtering)은 양자화 및 부호화 과정에서 발생하는 정보의 손실을 줄이기 위해 복호화 된 영상에 적응적으로 필터링을 수행하는 기술이다. 디블록킹 필터(Deblocking filter), 샘플 적응적 오프셋 필터(sample adaptive offset filter, SAO), 적응적 루프 필터(adaptive loop filter, ALF)는 인루프 필터링의 한 예이다. In-loop filtering is a technique that adaptively filters the decoded image to reduce loss of information generated during quantization and encoding. A deblocking filter, a sample adaptive offset filter (SAO), and an adaptive loop filter (ALF) are examples of in-loop filtering.

제 1 복원 영상에 디블록킹 필터 , 샘플 적응적 오프셋(Sample Adaptive Offset, SAO) 또는 적응적 루프 필터(adaptive loop filter, ALF) 중 적어도 어느 하나를 수행하여 제 2 복원 영상을 생성할 수 있다. A second reconstructed image may be generated by performing at least one of a deblocking filter, a sample adaptive offset (SAO), or an adaptive loop filter (ALF) on the first reconstructed image.

복원 영상에 디블록킹 필터를 적용한 후, SAO 및 ALF를 적용할 수 있다. After applying a deblocking filter to the reconstructed image, SAO and ALF can be applied.

비디오 부호화 과정에서 블록 단위로 변환과 양자화를 수행한다. 양자화 과정에서 발생한 손실이 발생하고, 이를 복원한 영상의 경계에서는 불연속이 발생한다. 블록 경계에 나타난 불연속 영상을 블록 화질 열화(blocking artifact)라고 부른다. In the video encoding process, transformation and quantization are performed on a block basis. Loss occurs during the quantization process, and discontinuity occurs at the boundary of the reconstructed image. Discontinuous images appearing on the block boundary are called blocking artifacts.

Deblocking filter는 제 1 영상의 블록 경계에서 발생하는 블록 화질 열화(blocking artifact)를 완화시키고, 부호화 성능을 높여주는 방법이다. The deblocking filter is a method for alleviating blocking artifacts occurring at a block boundary of the first image and improving encoding performance.

Figure pat00029
Figure pat00029

그림 32Picture 32

블록 경계에서 필터링을 수행하여 블록 화질 열화를 완화 시킬수 있으며, 그림 32와 같이 블록이 인트라 예측 모드로 부호화 되었는지 여부, 또는 이웃한 블록의 모션 벡터 절대값의 차이가 기 정의된 소정의 문턱값 보다 큰지 여부, 이웃한 블록의 참조 픽쳐가 서로 동일한 지 여부 중 적어도 어느 하나에 기초하여 블록 필터 강도 (blocking strength, 이하 BS) 값을 결정할 수 있다. BS 값이 0이면 필터링을 수행하지 않으며, BS 값이 1 또는 2인 경우에 블록 경계에서 필터링을 수행할 수 있다. Filtering can be performed at the block boundary to alleviate the deterioration of the block quality, and whether the block is encoded in intra prediction mode as shown in Figure 32 , or whether the difference between the absolute values of the motion vectors of neighboring blocks is greater than a predetermined threshold. Whether or not the reference pictures of neighboring blocks are identical to each other may determine a block filter strength (BS) value based on at least one. When the BS value is 0, filtering is not performed, and when the BS value is 1 or 2, filtering may be performed at a block boundary.

변환 계수에 양자화를 수행하므로 주파수 영역에서 양자화를 수행하기 때문에, 물체 가장 자리에 링이 현상 (ringing artifact)를 발생시키거나, 화소 값이 원본에 비해 일정한 값만큼 커지거나 작아기게 된다. SAO는 제 1 복원 영상의 패턴을 고려하여 블록 단위로 특정 오프셋을 더하거나 빼는 방법으로 링잉 현상을 효과적으로 줄일 수 있다. SAO는 복원 영상의 특징에 따라 에지 오프셋(Edge offset, 이하 EO)과 밴드 오프셋(Band offset, BO)으로 구성된다. 에지 오프셋은 주변 화소 샘플 패턴에 따라 현재 샘플에 오프셋을 다르게 더해주는 방법이다. 밴드 오프셋은 영역 안의 비슷한 화소 밝기 값을 가진 화소 집합에 대해 일정 값을 더해 부호화 오류를 줄이는 것이다. 화소 밝기를 32개의 균일한 밴드로 나눠 비슷한 밝기 값을 가지는 화소를 하나의 집합이 되도록 할 수 있다. 예를 들어, 인접한 4개의 밴드를 하나의 범주로 묶을 수 있다. 하나의 범주에서는 동일한 오프셋 값을 사용하도록 설정할 수 있다. Since the quantization is performed on the transform coefficient, since the quantization is performed in the frequency domain, a ring occurs at the edge of the object, or the pixel value is increased or decreased by a certain value compared to the original. The SAO can effectively reduce the ringing phenomenon by adding or subtracting a specific offset in block units in consideration of the pattern of the first reconstructed image. SAO is composed of an edge offset (hereinafter referred to as EO) and a band offset (BO) according to the characteristics of the reconstructed image. Edge offset is a method of differently adding an offset to a current sample according to a sample pattern of surrounding pixels. The band offset is to reduce coding errors by adding a constant value to a set of pixels having similar pixel brightness values in the region. By dividing the pixel brightness into 32 uniform bands, pixels having similar brightness values can be set as one set. For example, four adjacent bands can be grouped into one category. One category can be set to use the same offset value.

ALF (Adaptive Loop Filter)는 식 (9)와 같이 제 1 복원 영상 또는 제 1 복원 영상에 deblocking filtering을 수행한 복원 영상에 기 정의된 필터 중 어느 하나를 사용하여 제 2 복원 영상을 생성하는 방법이다. ALF (Adaptive Loop Filter) is a method of generating a second reconstructed image by using any one of filters defined in the reconstructed image obtained by performing deblocking filtering on the first reconstructed image or the first reconstructed image as shown in Equation (9). .

Figure pat00030
(9)
Figure pat00030
(9)

Figure pat00031
Figure pat00031

그림 33Fig. 33

이 때 필터는 픽쳐 단위 또는 CTU 단위로 선택할 수 있다. At this time, the filter may be selected on a picture-by-picture or CTU basis.

Luma 성분에서는 다음 그림 33과 같이 5x5, 7x7 또는 9x9 다이아몬드 형태 중 어느 하나를 선택할 수 있다. Chroma 성분에서는 5x5 다이아몬드 형태만 사용할 수 있도록 제한할 수도 있다. In the Luma component, you can choose either 5x5, 7x7 or 9x9 diamond shape as shown in Figure 33 below. It is also possible to limit the use of 5x5 diamonds in the Chroma component.

55 비디오 부호화 구조Video encoding structure

Figure pat00032
Figure pat00032

그림 34Fig. 34

그림 34는 비디오 부호화 구조를 나타내는 다이아그램이다. 입력 비디오 신호는 Rate distortion 값이 가장 작은 소정의 코딩 유닛으로 나눌수 있다. 코딩 유닛 별로 인터 예측 또는 인트라 예측 또는 복합 예측 중 적어도 어느 하나를 수행하여 예측 영상을 생성할 수 있다. 부호화 단계에서 인터 예측을 수행하기 위해서는 움직임 추정 (Motion estimaition)을 수행할 수도 있다. 원본 영상에서 예측 영상을 차분하여 잔차 영상을 생성할 수 있다. Figure 34 is a diagram showing the video encoding structure. The input video signal can be divided into predetermined coding units with the smallest rate distortion values. A prediction image may be generated by performing at least one of inter prediction, intra prediction, or complex prediction for each coding unit. In order to perform inter prediction in the encoding step, motion estimation may be performed. A residual image may be generated by differentiating a predicted image from the original image.

잔차 영상을 제 1 변환 및/또는 제 2 변환을 수행하여 변환 계수를 생성할 수 있다. 변환 계수에 양자화를 수행하여 양자화된 변환 계수를 생성할 수 있다. A transform coefficient may be generated by performing a first transform and/or a second transform on the residual image. The quantized transform coefficient may be generated by performing quantization on the transform coefficient.

양자화된 변환 계수를 역양자화 및 역 변환을 수행하여 복원 영상을 생성할 수 있다. 이 복원 영상에 인루프 필터링을 수행하여 필터링 복원 영상을 생성할 수 있다. 이 필터링 복원 영상이 인코딩 단계에서 최종 아웃풋 (output) 영상이 된다. 필터링 복원 영상은 참조 픽쳐 버퍼 (Decoded picture buffer)로 저장되어 다른 픽쳐에서 참조 픽쳐로 사용할 수 있다. The reconstructed image may be generated by performing inverse quantization and inverse transformation on the quantized transform coefficients. Filtering reconstructed images may be generated by performing in-loop filtering on the reconstructed images. This filtered reconstruction image becomes the final output image in the encoding step. The filtered reconstructed image is stored as a reference picture buffer and can be used as a reference picture in other pictures.

Claims (1)

서브 블록 단위 움직임 예측 후보 부호화 및 복호화 방법
Sub-block motion prediction candidate encoding and decoding method
KR1020180174124A 2018-12-31 2018-12-31 Video signal encoding method and apparatus and video decoding method and apparatus KR20200082981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180174124A KR20200082981A (en) 2018-12-31 2018-12-31 Video signal encoding method and apparatus and video decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180174124A KR20200082981A (en) 2018-12-31 2018-12-31 Video signal encoding method and apparatus and video decoding method and apparatus

Publications (1)

Publication Number Publication Date
KR20200082981A true KR20200082981A (en) 2020-07-08

Family

ID=71601409

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180174124A KR20200082981A (en) 2018-12-31 2018-12-31 Video signal encoding method and apparatus and video decoding method and apparatus

Country Status (1)

Country Link
KR (1) KR20200082981A (en)

Similar Documents

Publication Publication Date Title
KR20200141696A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200078252A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200113346A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107260A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200145998A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200082981A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200078251A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210024747A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141691A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200089853A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132397A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210027838A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132393A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210027840A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200078256A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210028484A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210060109A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200062990A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200062989A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141688A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200105036A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200053095A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132395A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200055272A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107262A (en) Video signal encoding method and apparatus and video decoding method and apparatus