KR20200132395A - Video signal encoding method and apparatus and video decoding method and apparatus - Google Patents

Video signal encoding method and apparatus and video decoding method and apparatus Download PDF

Info

Publication number
KR20200132395A
KR20200132395A KR1020190057837A KR20190057837A KR20200132395A KR 20200132395 A KR20200132395 A KR 20200132395A KR 1020190057837 A KR1020190057837 A KR 1020190057837A KR 20190057837 A KR20190057837 A KR 20190057837A KR 20200132395 A KR20200132395 A KR 20200132395A
Authority
KR
South Korea
Prior art keywords
inter
block
merge
prediction
coding unit
Prior art date
Application number
KR1020190057837A
Other languages
Korean (ko)
Inventor
이배근
Original Assignee
주식회사 엑스리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엑스리스 filed Critical 주식회사 엑스리스
Priority to KR1020190057837A priority Critical patent/KR20200132395A/en
Publication of KR20200132395A publication Critical patent/KR20200132395A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An objective of the present invention is to improve a coding efficiency of a video signal. The present invention provides a method and apparatus for inter prediction encoding using merge offset vector encoding. According to the present invention, a video image is compression-encoded by removing spatio-temporal redundancy and inter-view redundancy, which can be stored in a format suitable for a storage medium or transmitted through a communication line.

Description

비디오 신호 처리 방법 및 장치 {Video signal encoding method and apparatus and video decoding method and apparatus}Video signal processing method and apparatus TECHNICAL FIELD [Video signal encoding method and apparatus and video decoding method and apparatus]

본 발명은 비디오 신호 처리 방법 및 장치에 관한 것이다. The present invention relates to a video signal processing method and apparatus.

비디오 영상은 시공간적 중복성 및 시점 간 중복성을 제거하여 압축 부호화되며, 이는 저장 매체에 적합한 형태로 저장되거나 통신 회선을 통해 전송될 수 있다. Video images are compression-encoded by removing spatio-temporal redundancy and inter-view redundancy, which can be stored in a format suitable for a storage medium or transmitted through a communication line.

본 발명은 비디오 신호의 코딩 효율을 향상시키고자 함에 있다. The present invention is to improve the coding efficiency of a video signal.

상기 과제를 해결하기 위하여 본 발명은 머지 오프셋 벡터 부호화를 이용한 인터 예측 부호화 방법 및 장치를 제공한다. In order to solve the above problems, the present invention provides an inter prediction encoding method and apparatus using merge offset vector encoding.

본 발명에 따른 비디오 신호 처리 방법 및 장치는 머지 오프셋 벡터 부호화를 이용한 인터 예측 방법을 통해 비디오 신호 코딩 효율을 향상 시킬 수 있다. The video signal processing method and apparatus according to the present invention can improve video signal coding efficiency through an inter prediction method using merge offset vector coding.

1One 기본 코딩 블록 구조Basic coding block structure

픽쳐는 그림 1과 같이 복수개의 기본 코딩 유닛(Coding Tree Unit, 이하, CTU)으로 나누어진다. A picture is divided into a plurality of basic coding units (Coding Tree Units, hereinafter, CTU) as shown in Figure 1 .

Figure pat00001
Figure pat00001

그림 1Picture 1

다른 CTU와 겹치지 않도록 구성되어 있다. 예를 들어, 전체 시퀀스에서 CTU 사이즈를 128x128로 설정할 수 있고, 픽쳐 단위로 128x128 내지 256x256 중 어느 하나를 선택해서 사용할 수도 있다. It is configured not to overlap with other CTUs. For example, in the entire sequence, the CTU size can be set to 128x128, and any one of 128x128 to 256x256 can be selected and used in picture units.

CTU를 계층적으로 분할하여 코딩 블록/코딩 유닛(Coidng Unit, 이하 CU)을 생성할 수 있다. 코딩 유닛 단위로 예측 및 변환을 수행할 수 있으며, 예측 부호화 모드를 결정하는 기본 단위가 된다. 예측 부호화 모드는 예측 영상을 생성하는 복수개의 방법을 나타내며, 화면 내 예측 (intra prediction, 이하, 인트라 예측), 화면 간 예측(inter prediction, 이하, 인터 예측) 또는 복합 예측(combined prediction)등을 예로 들수 있다. 구체적으로 예를 들어, 코딩 유닛 단위로 인트라 예측, 인터 예측 또는 복합 예측 중 적어도 어느 하나의 예측 부호화 모드를 이용하여 예측 블록(prediction block)을 생성할 수 있다. 화면 간 예측 모드에서 참조 픽쳐가 현재 픽쳐를 가리키는 경우에는 이미 복호화된 현재 픽쳐 내 영역에서 예측 블록을 생성할 수 있다. 참조 픽쳐 인덱스와 모션 벡터를 이용하여 예측 블록을 생성하기 때문에 화면 간 예측에 포함할 수 있다. 인트라 예측은 현재 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이고, 인터 예측은 이미 복호화된 다른 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이며, 복합 예측은 인터 예측과 인트라 예측을 혼합하여 사용하는 방법이다. A coding block/coding unit (CU) may be generated by hierarchically dividing the CTU. Prediction and transformation may be performed in units of coding units, and become a basic unit that determines a prediction coding mode. The prediction encoding mode represents a plurality of methods of generating a predicted image, such as intra prediction (intra prediction, hereinafter, intra prediction), inter prediction (hereinafter, inter prediction), or combined prediction. Can be mentioned. Specifically, for example, a prediction block may be generated by using at least one of intra prediction, inter prediction, and composite prediction in a coding unit unit. When the reference picture indicates the current picture in the inter prediction mode, a prediction block may be generated in a region within the current picture that has already been decoded. Since a prediction block is generated using a reference picture index and a motion vector, it can be included in inter prediction. Intra prediction is a method of generating a prediction block using information of the current picture, inter prediction is a method of generating a prediction block using information of another picture that has already been decoded, and composite prediction is a method of mixing inter prediction and intra prediction. This is how to use.

CTU는 그림 2와 같이 쿼드 트리 ,바이너리 트리 또는 트리플 트리 형태로 분할 (파티셔닝)될 수 있다. 분할된 블록은 다시 쿼드 트리, 바이너리 트리 또는 트리플 트리 형태로 추가 분할 될수 있다. 현재 블록을 4개의 정방 형태 파티션으로 나누는 방법을 쿼드 트리 파티셔닝이라고 부르고, 현재 블록을 2개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부르며, 현재 블록을 3개의 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부른다. The CTU can be divided (partitioned) into a quad tree, binary tree or triple tree as shown in Figure 2 . The divided block can be further divided into a quad tree, binary tree, or triple tree. The method of dividing the current block into 4 square partitions is called quad tree partitioning, the method of dividing the current block into 2 irregular partitions is called binary tree partitioning, and the method of dividing the current block into 3 irregular partitions It is called binary tree partitioning.

수직 방향으로 바이너리 파티셔닝(그림 2의 SPLIT_BT_VER)을 수직 바이너리 트리 파티셔닝이라고 부르며, 수평 방향으로 바이너리 트리 파티셔닝 (그림 2의 SPLIT_BT_HOR)을 수평 바이너리 트리 파티셔닝이라고 부른다. Binary partitioning in the vertical direction (SPLIT_BT_VER in Figure 2 ) is called vertical binary tree partitioning, and binary tree partitioning in the horizontal direction (SPLIT_BT_HOR in Figure 2 ) is called horizontal binary tree partitioning.

수직 방향으로 트리플 파티셔닝 (그림 2의 SPLIT_TT_VER)을 수직 트리플 트리 파티셔닝이라고 부르며, 수평 방향으로 트리플 트리 파티셔닝 (그림 2의 SPLIT_TT_HOR)을 수평 트리플 트리 파티셔닝이라고 부른다. Triple partitioning in the vertical direction (SPLIT_TT_VER in Figure 2 ) is called vertical triple-tree partitioning, and triple-tree partitioning in the horizontal direction (SPLIT_TT_HOR in Figure 2 ) is called horizontal triple tree partitioning.

추가 분할 횟수를 파티셔닝 뎁스(partitioning depth)라고 부르며, 시퀀스 내지 픽쳐/타일 세트 별로 파티셔닝 뎁스가 최대치를 서로 다르게 설정할 수도 있으며, 파티셔닝 트리 형태(쿼드 트리/바이너리 트리/트리플 트리)에 따라 서로 다른 파티셔닝 뎁스를 가지도록 설정할 수 있으며, 이를 나타내는 신택스를 시그날링할 수도 있다. The number of additional divisions is called partitioning depth, and the maximum value of the partitioning depth for each sequence or picture/tile set can be set differently, and different partitioning depths according to the partitioning tree type (quad tree/binary tree/triple tree) It can be set to have, and a syntax indicating this can be signaled.

Figure pat00002
Figure pat00002

그림 2Picture 2

분할된 코딩 블록은 쿼드 파티셔닝, 바이너리 파니셔닝 또는 멀티 파티셔닝과 같은 방법으로 추가로 분할하여 코딩 유닛을 구성하거나 추가 분할 없이 코딩 유닛을 구성할 수도 있다.The divided coding block may be further divided by a method such as quad partitioning, binary partitioning, or multi-partitioning to configure a coding unit, or may configure a coding unit without further partitioning.

Figure pat00003
Figure pat00003

그림 3Figure 3

그림 3 과 같이 하나의 CTU를 계층적으로 코딩 유닛을 설정할 수 있으며, 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝을 이용하여 코딩 유닛을 중 적어도 어느 하나를 이용하여 코딩 유닛을 분할할 수 있다. 이와 같은 방법을 멀티 트리 파티셔닝(Multi tree partitioning)이라고 부른다. As shown in Figure 3 , a coding unit can be hierarchically configured for one CTU, and a coding unit can be partitioned using at least one of a coding unit using binary tree partitioning, quad tree partitioning/triple tree partitioning. This method is called multi tree partitioning.

파티셔닝 뎁스가 k인 임의의 코딩 유닛을 분할하여 생성된 코딩 유닛을 하위 코딩 유닛이라하며, 파티셔닝 뎁스는 k+1이 된다. 파티셔닝 뎁스 k+1인 하위 코딩 유닛을 포함하고 있는 파티셔닝 뎁스 k인 코딩 유닛을 상위 코딩 유닛이라 한다. A coding unit generated by dividing an arbitrary coding unit having a partitioning depth of k is referred to as a lower coding unit, and the partitioning depth is k+1. A coding unit having a partitioning depth k including a lower coding unit having a partitioning depth k+1 is referred to as an upper coding unit.

상위 코딩 유닛의 파티셔닝 타입 및/또는 현재 코딩 유닛의 주변에 있는 코딩 유닛의 파티셔닝 타입에 따라 현재 코딩 유닛의 파티셔닝 타입이 제한될 수도 있다. The partitioning type of the current coding unit may be limited according to the partitioning type of the upper coding unit and/or the partitioning type of the coding units surrounding the current coding unit.

여기서, 파티셔닝 타입은 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝 중 어느 파티셔닝을 사용했는지를 알려주는 지시자를 나타낸다. Here, the partitioning type represents an indicator indicating which partitioning is used among binary tree partitioning, quad tree partitioning/triple tree partitioning.

22 예측 영상 생성 방법How to generate predictive image

비디오 부호화에서 예측 영상은 복수 개의 방법으로 생성할 수 있으며, 예측 영상을 생성하는 방법을 예측 부호화 모드라고 한다. In video encoding, a prediction image can be generated by a plurality of methods, and a method of generating a prediction image is called a prediction encoding mode.

예측 부호화 모드는 인트라 예측 부호화 모드, 인터 예측 부호화 모드, 현재 픽쳐 레퍼런스 부호화 모드 또는 결합 부호화 모드 (combined prediction)등으로 구성될 수 있다. The prediction encoding mode may include an intra prediction encoding mode, an inter prediction encoding mode, a current picture reference encoding mode, or a combined prediction mode.

인터 예측 부호화 모드는 이전 픽쳐의 정보를 이용하여 현재 블록의 예측 블록(예측 영상)을 생성하는 예측 부호화 모드라고 하고, 인트라 예측 부호화 모드는 현재 블록과 이웃한 샘플을 이용하여 예측 블록을 생성하는 예측 부호화 모드라 한다. 현재 픽쳐의 이미 복원된 영상을 이용하여 예측 블록을 생성할 수도 있으며, 이를 현재 픽쳐 레퍼런스 모드 또는 인트라 블록 카피 모드라고 부른다. The inter prediction coding mode is a prediction coding mode that generates a prediction block (prediction image) of the current block using information of a previous picture, and the intra prediction coding mode is a prediction that generates a prediction block using samples adjacent to the current block. It is called an encoding mode. A prediction block may be generated using an image that has already been reconstructed of the current picture, and this is referred to as a current picture reference mode or an intra block copy mode.

인터 예측 부호화 모드, 인트라 예측 부호화 모드 또는 현재 픽쳐 레퍼런스 부호화 모드 중 적어도 2개 이상의 예측 부호화 모드를 사용하여 예측 블록을 생성할 수도 있으며, 이를 결합 부호화 모드(Combined prediction)이라고 부른다. A prediction block may be generated by using at least two or more of an inter prediction encoding mode, an intra prediction encoding mode, or a current picture reference encoding mode, and this is called a combined prediction mode.

2.12.1 인터 예측 부호화 방법Inter prediction coding method

이전 픽쳐의 정보를 이용하여 현재 픽쳐에 있는 블록의 예측 블록(예측 영상)을 생성하는 방법을 인터 예측 부호화 모드라고 한다. A method of generating a prediction block (prediction image) of a block in a current picture using information of a previous picture is called an inter prediction encoding mode.

현재 블록의 이전 픽쳐 내에 있는 특정 블록으로 부터 예측 블록을 생성할 수도 있다. A prediction block may be generated from a specific block in a previous picture of the current block.

부호화 단계에서 이전 픽쳐 내 블록 중 복원 에러가 가장 작은 블록을 콜 블록( collocated block)을 중심으로 탐색하여 선택할 수 있으며, 현재 블록의 좌상단 샘플과 선택된 블록의 좌상단 샘플 사이의 x축 차분 및 y축 차분을 모션 벡터(motion vector)라 정의하고, 이를 비트스트림에 전송하여 시그날링할 수 있다. 모션 벡터가 특정하는 참조 픽쳐의 특정 블록에서 인터폴레이션 등을 통해 생성한 블록을 움직임 보상 예측 블록(motion compensated predictor block)이라 한다. In the encoding step, the block with the smallest reconstruction error among the blocks in the previous picture can be selected by searching around a collocated block, and the x-axis difference and y-axis difference between the upper left sample of the current block and the upper left sample of the selected block Is defined as a motion vector, and can be signaled by transmitting it to a bitstream. A block generated through interpolation from a specific block of a reference picture specified by a motion vector is called a motion compensated predictor block.

콜 블록은 그림 4와 같이 현재 블록과 좌상단 샘플의 위치 및 크기가 같은 해당 픽쳐의 블록을 나타낸다. 해당 픽쳐는 참조 픽쳐 레퍼런스와 같은 신택스로 부터 특정 될 수 있다. As shown in Figure 4, the collocated block represents the block of the picture with the same location and size of the current block and the upper left sample. The corresponding picture can be specified from the same syntax as the reference picture reference.

Figure pat00004
Figure pat00004

그림 4Figure 4

현재 블록의 원본 영상에서 움직임 보상 예측 블록을 차분하여 잔차 블록(residual block)을 생성할 수 있다. A residual block may be generated by differentiating the motion compensation prediction block from the original image of the current block.

모션 벡터는 시퀀스 단위 또는 슬라이스 단위 또는 블록 단위로 서로 다른 화소 정밀도를 갖는 모션벡터를 사용할 수 있다. 예를 들어, 특정 블록에서 모션 벡터의 화소 정밀도는 Octor-pel,Quarter-Pel, Half-Pel, Integer pel, 4 Integer pel 중 적어도 어느 하나 일수 있다. As the motion vector, motion vectors having different pixel precisions may be used in units of sequences, slices, or blocks. For example, the pixel precision of a motion vector in a specific block may be at least one of Octor-pel, Quarter-Pel, Half-Pel, Integer pel, and 4 Integer pel.

인터 예측 모드는 translaton 모션을 이용한 인터 예측 방법과 affine 모션을 이용한 affine 인터 예측 방법이 선택적으로 사용될 수도 있다. As the inter prediction mode, an inter prediction method using translaton motion and an affine inter prediction method using affine motion may be selectively used.

2.1.12.1.1 어파인 인터 예측 부호화 및 복호화 방법Afine inter prediction coding and decoding method

비디오에서 특정 물체(object)의 움직임이 선형적으로 나타나지 않는 경우가 많이 발생한다. 예를 들어, 그림 5와 같이 카메라 줌인 (Zoom-in), 줌 아웃(Zoom-out), 회전(roation), 임의 형태로 변환을 가능하게 하는 affine 변환 등의 affine motion이 사용된 영상에서는 오브젝트의 움직임을 translation 움직임 벡터만 사용하는 경우 물체의 움직임을 효과적으로 표현할 수 없으며, 부호화 성능이 낮아질 수 있다. There are many cases in which the motion of a specific object does not appear linearly in a video. For example, as shown in Figure 5, the camera zoom (Zoom-in), zoom out (Zoom-out), rotation (roation), such as affine transformation, which enables the conversion to any type of affine motion of the image using the object If only translation motion vectors are used for motion, the motion of an object cannot be effectively expressed, and coding performance may be degraded.

Figure pat00005
Figure pat00005

그림 5Picture 5

어파인 모션은 다음 식 (1)과 같이 표현할 수 있다. Affine motion can be expressed as the following equation (1).

Figure pat00006
(1)
Figure pat00006
(One)

어파인 모션을 총 6개의 파라미터를 사용하여 표현하는 것은 복잡한 움직임이 있는 영상에 효과적이지만, 어파인 모션 파라미터를 부호화하는데 사용하는 비트가 많아서 부호화 효율이 떨어질 수도 있다. Expressing affine motion using a total of six parameters is effective for images with complex motion, but encoding efficiency may be degraded due to the large number of bits used to encode affine motion parameters.

이에, 4개의 파라미터로 어파인 모션을 간략화하여 표현할 수 있으며,, 이를 4 파라미터 어파인 모션 모델이라고 부른다. 식 (2)는 4개의 파라미터로 어파인 모션을 표현한 것이다.Accordingly, affine motion can be simplified and expressed with four parameters, which is called a four-parameter afine motion model. Equation (2) expresses afine motion with four parameters.

Figure pat00007
(2)
Figure pat00007
(2)

4 파라미터 어파인 모션 모델은 현재 블록의 두 컨트롤 포인트에서의 움직임 벡터를 포함할 수 있다. 컨트롤 포인트는 현재 블록의 좌상단 코너, 우상단 코너 및 좌하단 코너를 포함할 수 있다. 일 예로, 4파라미터 어파인 모션 모델은 그림 5의 좌측 그림과 같이 코딩 유닛의 좌상단 샘플 (x0,y0)에서의 모션 벡터 sv0 와 코딩 유닛의 우상단 샘플 (x1,y1)에서의 모션 벡터 sv1에 의해서 결정 될 수 있으며, sv0와 sv1을 어파인 시드 벡터라고 부른다. 이하, 좌상단에 위치한 어파인 시드 벡터 sv0를 제 1 어파인 시드 벡터라 가정하고, 우상단에 위치한 어파인 시드 벡터 sv1를 제 2 어파인 시드 벡터라 가정하기로 한다. 4파라미터 어파인 모션 모델에서 제1/2 어파인 시드 벡터 중 하나를 좌하단에 위치한 어파인 시드 벡터로 교체하여 사용하는 것도 가능하다. The four-parameter affine motion model may include motion vectors at two control points of the current block. The control point may include an upper left corner, an upper right corner, and a lower left corner of the current block. As an example, the motion model with a 4-parameter affine is determined by the motion vector sv0 at the upper left sample (x0,y0) of the coding unit and the motion vector sv1 at the upper right sample (x1,y1) of the coding unit as shown in the left figure of Figure 5 . Can be determined, and sv 0 and sv 1 are called affine seed vectors. Hereinafter, it is assumed that an affine seed vector sv 0 located in the upper left corner is a first affine seed vector, and an affine seed vector sv 1 located in the upper right corner is a second affine seed vector. In the 4-parameter affine motion model, it is possible to replace one of the 1/2 affine seed vectors with the affine seed vector located in the lower left corner.

Figure pat00008
Figure pat00008

그림 6Figure 6

6 파라미터 어파인 모션 모델은 그림 6의 우측 그림과 같이 4 파라미터 어파인 모션 모델에 잔여 컨트롤 포인트(예컨대, 좌하단에 샘플 (x2,y2))의 모션 벡터 sv2가 추가된 어파인 모션 모델이다. 이하, 좌상단에 위치한 어파인 시드 벡터 sv0를 제 1 어파인 시드 벡터라 가정하고, 우상단에 위치한 어파인 시드 벡터 sv1를 제 2 어파인 시드 벡터라 가정하고, 좌하단에 위치한 어파인 시드 벡터 sv2를 제3 어파인 시드 벡터라 가정한다.The 6-parameter affine motion model is an affine motion model in which the motion vector sv 2 of the residual control point (e.g., sample (x2,y2) in the lower left corner) is added to the 4-parameter affine motion model as shown in the right figure of Figure 6 . . Hereinafter, assuming that the affine seed vector sv 0 located at the top left is the first affine seed vector, the affine seed vector sv 1 located at the top right is the second affine seed vector, and the affine seed vector located at the bottom left Assume that sv 2 is the third affine seed vector.

어파인 모션을 표현하기 위한 파라미터의 개수에 관한 정보가 비트스트림에 부호화될 수 있다. 예컨대, 6 파라미터의 사용 여부를 나타내는 플래그, 4 파라미터의 사용 여부를 나타내는 플래그가 타일 세트, 타일, 코딩 유닛 또는 CTU 단위로 부호화될 수 있다. 이에 따라, 타일 세트, 코딩 유닛 또는 CTU 단위로 4 파라미터 어파인 모션 모델 내지 6 파라미터 어파인 모션 모델을 선택적으로 사용할 수도 있다. Information on the number of parameters for expressing affine motion may be encoded in the bitstream. For example, a flag indicating whether 6 parameters are used and a flag indicating whether 4 parameters are used may be encoded in a tile set, tile, coding unit, or CTU unit. Accordingly, a 4-parameter affine motion model to a 6-parameter affine motion model may be selectively used in units of a tile set, a coding unit, or a CTU.

어파인 시드 벡터를 이용하여 그림 7과 같이 코딩 유닛의 서브 블록 별로 모션 벡터를 유도할 수 있으며, 이를 어파인 서브 블록 벡터라고 부른다.A motion vector can be derived for each sub-block of the coding unit using the affine seed vector, as shown in Figure 7, and this is called an affine sub-block vector.

Figure pat00009
Figure pat00009

그림 7Figure 7

어파인 서브 블록 벡터는 다음 식 (3)과 같이 유도할 수도 있다. 여기서 서브 블록의 기준 샘플 위치(x,y)는 블록의 코너에 위치한 샘플(예컨대, 좌상단 샘플)일 수도 있고, x축 또는 y축 중 적어도 하나가 중앙인 샘플(예컨대, 중앙 샘플)일 수도 있다. The affine sub-block vector can also be derived as in Equation (3) below. Here, the reference sample position (x,y) of the sub-block may be a sample located at a corner of the block (eg, an upper left sample), or a sample (eg, a center sample) in which at least one of the x-axis or y-axis is centered. .

Figure pat00010
(3)
Figure pat00010
(3)

어파인 서브 블록 벡터를 이용하여 코딩 유닛 단위 내지 코딩 유닛 내 서브 블록 단위로 움직임 보상을 수행할 수 있으며, 이를 어파인 인터 예측 모드라고 부른다. 식 (3)에서 (x1-x0)는 코딩 유닛의 너비와 같은 값을 가질 수 있다. Motion compensation may be performed in units of coding units or in units of sub-blocks within the coding unit using the afine sub-block vector, and this is called an afine inter prediction mode. In equation (3), (x 1 -x 0 ) may have the same value as the width of the coding unit.

2.1.22.1.2 머지 모드 부호화 방법 Merge mode coding method

현재 코딩 유닛의 모션 정보(모션 벡터, 참조 픽쳐 인덱스 등)를 부호화 하지 않고, 주변 블록의 모션 정보로 부터 유도할 수 있다. 주변 블록 중 어느 하나의 모션 정보를 현재 코딩 유닛의 모션 정보로 설정할 수 있으며, 이를 머지 모드(merge mode)라고 부른다. Motion information (motion vector, reference picture index, etc.) of the current coding unit is not encoded, and can be derived from motion information of neighboring blocks. Motion information of any one of the neighboring blocks can be set as motion information of the current coding unit, and this is called a merge mode.

머지 모드에 사용되는 주변 블록은 그림 8의 머지 후보 인덱스 0 내지 4 와 같이 현재 코딩 유닛과 인접한 블록 (현재 코딩 유닛의 경계와 맞닿은 블록)일 수도 있고, 그림 8의 머지 후보 인덱스 5 내지 26과 같이 인접하지 않은 블록일 수도 있다. Neighboring blocks used for the remaining mode may be a figure 8 remaining candidate indices from 0 to 4 and the block are adjacent to the coding unit as the (current boundary with the abutting block of the coded unit), as shown in the remaining candidate index from 5 to 26 in Figure 8 It may be a non-adjacent block.

Figure pat00011
Figure pat00011

그림 8Figure 8

머지 후보가 현재 블록과의 거리가 기정의된 임계값을 넘어가면 가용(available)하지 않은 것으로 설정할 수 있다. If the distance of the merge candidate to the current block exceeds a predefined threshold, it may be set as not available.

예를 들어, 기 정의된 임계값을 CTU의 높이(ctu_height) 또는 ctu_height+N으로 설정할 수도 있으며, 이를 머지 후보 가용 임계값이라고 부른다. 즉 머지 후보의 y축 좌표(yi)와 현재 코딩 유닛의 좌상단 샘플(이하, 현재 코딩 유닛 기준 샘플)의 y축 좌표 차분 (y0) (즉, yi - y0)이 머지 후보 가용 임계값 보다 큰 경우에는 머지 후보를 가용(Available)하지 않은 것으로 설정할 수 있다. 여기서 N은 기 정의된 오프셋 값이다. 구체적으로 예를 들어, N을 16으로 설정할 수도 있고, ctu_height으로 설정할 수도 있다. For example, the predefined threshold may be set to the height of the CTU (ctu_height) or ctu_height+N, which is called a merge candidate usable threshold. That is, the y-axis coordinate (y i ) of the merge candidate and the y-axis coordinate difference (y 0 ) (i.e., y i- y 0 ) of the upper left sample of the current coding unit (hereinafter, the reference sample of the current coding unit) are the merge candidate available threshold If it is larger than the value, the merge candidate may be set as not available. Here, N is a predefined offset value. Specifically, for example, N may be set to 16 or ctu_height may be set.

Figure pat00012
Figure pat00012

그림 9Figure 9

CTU 경계 (CTU boundary)를 넘어가는 머지 후보가 많은 경우에는 비가용 머지 후보가 많이 발생하여, 부호화 효율이 낮아질 수도 있다. 코딩 유닛의 위쪽에 존재하는 머지 후보(이하, 상측 머지 후보) 는 가능한 작게 설정하고, 코딩 유닛의 좌측 및 하단(이하, 좌하단 머지 후보)에 존재하는 머지 후보는 가능한 많게 설정할 수도 있다. When there are many merge candidates crossing the CTU boundary, many unusable merge candidates occur, and encoding efficiency may be lowered. Merge candidates existing above the coding unit (hereinafter, upper merge candidates) may be set as small as possible, and merge candidates existing at the left and lower sides of the coding unit (hereinafter, lower left merge candidates) may be set as many as possible.

그림 9와 같이 현재 코딩 유닛 기준 샘플의 y축 좌표와 상측 머지 후보의 y축 좌표의 차가 코딩 유닛 높이의 2배가 넘지 않도록 설정할 수도 있다. As shown in Figure 9, the difference between the y-axis coordinate of the current coding unit reference sample and the y-axis coordinate of the upper merge candidate may be set so as not to exceed twice the height of the coding unit.

그림 9와 현재 코딩 유닛 기준 샘플의 x축 좌표와 좌하단 머지 후보의 x축 좌표의 차가 코딩 유닛 너비의 2배가 넘지 않도록 설정할 수도 있다. It may be set so that the difference between the x-axis coordinates of the reference sample in Figure 9 and the current coding unit reference sample and the x-axis coordinates of the lower left merge candidate does not exceed twice the width of the coding unit.

현재 코딩 유닛과 인접한 머지 후보를 인접 머지 후보라고 부르고, 현재 코딩 유닛과 인접하지 않은 머지 후보를 비인접 머지 후보라고 부른다. A merge candidate adjacent to the current coding unit is called an adjacent merge candidate, and a merge candidate that is not adjacent to the current coding unit is called a non-adjacent merge candidate.

현재 코딩 유닛의 머지 후보가 인접 머지 후보인지 여부를 나타내는 플래그 isAdjacentMergeflag을 시그날링할 수 있다. A flag isAdjacentMergeflag indicating whether a merge candidate of the current coding unit is an adjacent merge candidate may be signaled.

isAdjacentMergeflag값이 1 이면 현재 코딩 유닛의 모션 정보는 인접 머지 후보에서 유도할 수 있음을 나타내고, isAdjacentMergeflag값이 0 이면 현재 코딩 유닛의 모션 정보는 비인접 머지 후보에서 유도할 수 있음을 나타낸다. If the isAdjacentMergeflag value is 1, it indicates that motion information of the current coding unit can be derived from an adjacent merge candidate, and if the isAdjacentMergeflag value is 0, it indicates that the motion information of the current coding unit can be derived from a non-adjacent merge candidate.

2.1.32.1.3 머지 오프셋 벡터 부호화(Merge with MVD, MMVD) 방법 Merge offset vector coding (Merge with MVD, MMVD) method

머지 모드에서 생성한 모션 벡터에 오프셋을 감산 또는 가산하여 현재 코딩 유닛의 모션 벡터를 유도할 수도 있으며, 이를 머지 오프셋 벡터 부호화 방법 (Merge with MVD, MMVD)이라고 정의한다. 머지 오프셋 벡터을 사용할지 여부를 나타내는 플래그인 머지 오프셋 벡터 플래그(mmvd_merge_flag)를 사용할 수 있다. mmvd_merge_flag값이 1 이면 머지 오프셋 벡터 부호화를 사용함을 나타내고, mmvd_merge_flag 값이 0이면 머지 오프셋 벡터 부호화를 사용하지 않음을 나타낸다. The motion vector of the current coding unit may be derived by subtracting or adding an offset to the motion vector generated in the merge mode, which is defined as a merge offset vector encoding method (Merge with MVD, MMVD). A merge offset vector flag (mmvd_merge_flag), which is a flag indicating whether to use a merge offset vector, may be used. If the mmvd_merge_flag value is 1, it indicates that merge offset vector coding is used, and if the mmvd_merge_flag value is 0, it indicates that merge offset vector coding is not used.

머지 오프셋 벡터 플래그 값이 1이면 MMVD 머지 후보 플래그(mmvd_cand_flag), 디스턴스 인덱스(distance_idx) 및 방향 인덱스(direction_idx)을 시그날링할 수 있다. If the merge offset vector flag value is 1, the MMVD merge candidate flag (mmvd_cand_flag), the distance index (distance_idx), and the direction index (direction_idx) may be signaled.

머지 오프셋 벡터 플래그의 값에 따라, 머지 후보의 최대 개수가 적응적으로 결정될 수 있다. 머지 오프셋 벡터 플래그이 값이 0이면, 최대 M개의 머지 후보를 사용하는 한편, 머지 오프셋 벡터 플래그의 값이 1이면, M개보다 적은 N개이 머지 후보를 사용할 수 있다. According to the value of the merge offset vector flag, the maximum number of merge candidates may be adaptively determined. If the merge offset vector flag has a value of 0, up to M merge candidates are used, while if the merge offset vector flag has a value of 1, N merge candidates less than M may be used.

또는, 머지 오프셋 벡터 플래그의 값에 따라 이웃 블록을 머지 후보로 이용할 수 있는지 여부가 적응적으로 결정될 수 있다. 일 예로, 머지 오프셋 벡터 플래그가 1인 경우, 현재 블록의 우측 상단 코너, 좌측 하단 코너 또는 좌측 상단 코너에 인접한 블록은 이용 불가능한 것으로 설정될 수 있다. 또는, 머지 오프셋 벡터 플래그가 1인 경우, 시간적 머지 후보는 이용 불가능한 것으로 설정될 수 있다. 또는, 머지 오프셋 벡터 플래그가 1인 경우, 페어 와이즈 머지 후보 또는 제로 움직임 벡터 후보는 머지 후보 리스트에 추가되지 않을 수 있다.Alternatively, whether a neighboring block can be used as a merge candidate may be adaptively determined according to the value of the merge offset vector flag. For example, when the merge offset vector flag is 1, a block adjacent to an upper right corner, a lower left corner, or an upper left corner of the current block may be set to be unavailable. Alternatively, when the merge offset vector flag is 1, the temporal merge candidate may be set to be unavailable. Alternatively, when the merge offset vector flag is 1, the pairwise merge candidate or the zero motion vector candidate may not be added to the merge candidate list.

다음 표 1과 같이 mmvd_merge_flag, mmvd_cand_flag, 디스턴스 인덱스, 방향 인덱스를 부호화 할 수 있다. As shown in Table 1 below, mmvd_merge_flag, mmvd_cand_flag, distance index, and direction index can be encoded.

표 1Table 1

Figure pat00013
Figure pat00013

디스턴스 인덱스 및 방향 인덱스로부터 머지 오프셋 벡터 offsetMV 을 유도할 수 있다. The merge offset vector offsetMV can be derived from the distance index and the direction index.

그림 10과 같이 머지 후보에서 유도한 모션 상하 및 좌우 주변을 탐색하여 최적의 머지 오프셋 벡터 값을 유도할 수 있다. 머지 오프셋 벡터의 x축 벡터 및 y축 벡터는 각각 기준이 되는 머지 모션 벡터로 부터 최대 32 integer sample 보다 작도록 설정할 수 있다. As shown in Fig. 10, the optimal merge offset vector value can be derived by searching the upper and lower and left and right edges of the motion derived from the merge candidate. The x-axis vector and the y-axis vector of the merge offset vector may be set to be smaller than a maximum of 32 integer samples from the merge motion vector as a reference, respectively.

Figure pat00014
Figure pat00014

그림 10Figure 10

머지 인덱스의 값이 기준값보다 작은 경우에 한하여, 머지 오프셋 벡터 플래그가 시그날링될 수도 있다. 또는, 머지 인덱스가 가리키는 머지 후보가 양방향 또는 단방향인 경우에 한하여, 머지 오프셋 벡터 플래그가 시그날링될 수도 있다. Only when the value of the merge index is smaller than the reference value, the merge offset vector flag may be signaled. Alternatively, only when the merge candidate indicated by the merge index is bidirectional or unidirectional, the merge offset vector flag may be signaled.

참조 픽쳐 L0의 POC (Picture order count의 약자로 픽쳐의 아웃풋 순서를 나타내는 지시자)에서 현재 픽쳐의 POC를 뺀 값을 참조 픽쳐 L0 차분이라고 부르고, 참조 픽쳐 L1의 POC 에서 현재 픽쳐의 POC를 뺀 값을 참조 픽쳐 L1 차분이라고 부른다. The value obtained by subtracting the POC of the current picture from the POC of the reference picture L0 (abbreviation of picture order count, an indicator indicating the output order of the picture) is called the reference picture L0 difference, and the value obtained by subtracting the POC of the current picture from the POC of the reference picture L1. It is called the reference picture L1 difference.

offsetMV는 참조 픽쳐 L0 차분과 참조 픽쳐 L1 차분의 sign 부호가 다르면, 다음 식 (4) 내지 (7)과 같이 디스턴스 인덱스로 부터 유도한 변수 DistFromMergeMV에 방향 인덱스에서 유도한 값을 곱하여 생성할 수 있다. If the sign code of the difference between the reference picture L0 and the difference between the reference picture L1 is different, offsetMV can be generated by multiplying the variable DistFromMergeMV derived from the distance index as shown in the following equations (4) to (7) by a value derived from the direction index.

offsetMVL0[0] = (DistFromMergeMV << 2 ) * sign[x0][y0][0] (4)offsetMVL0[0] = (DistFromMergeMV << 2) * sign[x0][y0][0] (4)

offsetMVL0[1] = (DistFromMergeMV << 2 ) * sign[x0][y0][1] (5)offsetMVL0[1] = (DistFromMergeMV << 2) * sign[x0][y0][1] (5)

offsetMVL1[0] = (DistFromMergeMV << 2 ) * sign[x0][y0][0] (6)offsetMVL1[0] = (DistFromMergeMV << 2) * sign[x0][y0][0] (6)

offsetMVL1[1] = (DistFromMergeMV << 2 ) * sign[x0][y0][1] (7)offsetMVL1[1] = (DistFromMergeMV << 2) * sign[x0][y0][1] (7)

offsetMV는 참조 픽쳐 L0 차분과 참조 픽쳐 L1 차분의 sign 부호가 같으면, 다음 식 (8) 내지 (11)과 같이 디스턴스 인덱스로 부터 유도한 변수 DistFromMergeMV에 방향 인덱스에서 유도한 값을 곱하여 생성할 수 있다. If the sign code of the difference between the reference picture L0 and the difference between the reference picture L1 is the same, offsetMV can be generated by multiplying the variable DistFromMergeMV derived from the distance index as shown in Equations (8) to (11) below by a value derived from the direction index.

offsetMVL0[0] = (DistFromMergeMV << 2 ) * sign[x0][y0][0] (8)offsetMVL0[0] = (DistFromMergeMV << 2) * sign[x0][y0][0] (8)

offsetMVL0[1] = (DistFromMergeMV << 2 ) * sign[x0][y0][1] (9)offsetMVL0[1] = (DistFromMergeMV << 2) * sign[x0][y0][1] (9)

offsetMVL1[0] = -1 * (DistFromMergeMV << 2 ) * sign[x0][y0][0] (10)offsetMVL1[0] = -1 * (DistFromMergeMV << 2) * sign[x0][y0][0] (10)

offsetMVL1[1] = -1 * (DistFromMergeMV << 2 ) * sign[x0][y0][1] (11)offsetMVL1[1] = -1 * (DistFromMergeMV << 2) * sign[x0][y0][1] (11)

DistFromMergeMV는 다음 표 2와 같이 유도할 수 있다. DistFromMergeMV can be derived as shown in Table 2 below.

표 2Table 2

Figure pat00015
Figure pat00015

표 2에 도시된것보다 더 적은/더 많은 DistFromMergeMV 값을 사용할 수도 있다.It is also possible to use fewer/more DistFromMergeMV values than those shown in Table 2.

현재 블록 또는 머지 후보의 움직임 벡터 정밀도에 따라, DistFromMergeMV의 범위를 상이하게 결정할 수 있다. 예컨대, 현재 블록 또는 머지 후보의 움직임 벡터 정밀도가 quarter-pel 인 경우, {1, 2, 4, 8, 16, 32, 64, 128}의 범위 내에서 DistFromMergeMV를 선택하는 한편, 현재 블록 또는 머지 후보의 움직임 벡터 정밀도가 integer-pel인 경우, {4, 8, 16, 32, 64, 128, 256, 512}의 범위 내에서 DistFromMergeMV를 선택할 수 있다.The range of DistFromMergeMV may be determined differently according to the motion vector precision of the current block or merge candidate. For example, when the motion vector precision of the current block or merge candidate is quarter-pel, DistFromMergeMV is selected within the range of {1, 2, 4, 8, 16, 32, 64, 128}, while the current block or merge candidate When the motion vector precision of is integer-pel, DistFromMergeMV can be selected within the range of {4, 8, 16, 32, 64, 128, 256, 512}.

또는, 움직임 벡터의 절대값에 따라, 디스턴스 인덱스 로 부터 유도되는 DistFromMergeMV의 범위를 상이하게 결정할 수 있다. 일 예로, 움직임 벡터의 절대값이 기 정의된 값보다 큰 경우에는, 제1 세트의 DistFromMergeMV의 범위를 사용하고, 움직임 벡터의 절대값이 기 정의된 값보다 작은 경우에는, 제2 세트의 DistFromMergeMV의 범위를 사용할 수 있다. Alternatively, the range of DistFromMergeMV derived from the distance index may be determined differently according to the absolute value of the motion vector. As an example, when the absolute value of the motion vector is greater than a predefined value, the range of DistFromMergeMV of the first set is used, and when the absolute value of the motion vector is less than the predefined value, the DistFromMergeMV of the second set is You can use a range.

다음 표 3은 방향 인덱스 값에 따라 정의된 x축 오프셋을 나타내는 변수 sign[x][y][0] 및 y축 오프셋을 나타내는 변수 sign[x][y][1]를 나타낸다. Table 3 below shows the variable sign[x][y][0] representing the x-axis offset defined according to the direction index value, and the variable sign[x][y][1] representing the y-axis offset.

표 3Table 3

Figure pat00016
Figure pat00016

머지 오프셋 벡터의 x축 벡터 및 y축 벡터는 각각 기준이 되는 머지 모션 벡터로 부터 최대 2 integer sample 보다 작도록 설정할 수 있으며, distance_idx는 총 4개의 인덱스를 갖도록 설정할 수 있다. The x-axis vector and the y-axis vector of the merge offset vector may be set to be smaller than a maximum of 2 integer samples from the merge motion vector as a reference, respectively, and distance_idx may be set to have a total of 4 indices.

또는 픽쳐 헤더 또는 타일 세트 헤더 등에 머지 오프셋 벡터의 탐색 범위를 나타내는 신택스 머지 오프셋 벡터 범위 플래그 merge_offset_range_flag를 시그날링 할수도 있다. 일 예로, merge_offset_extend_range_flag 값이 1 이면, a머지 오프셋 벡터의 x축 벡터 및 y축 벡터는 각각 기준이 되는 머지 모션 벡터로 부터 최대 32 integer sample 보다 작도록 설정할 수 있으며, merge_offset_extend_range_flag 값이 0 이면, 머지 오프셋 벡터의 x축 벡터 및 y축 벡터는 각각 기준이 되는 머지 모션 벡터로 부터 최대 2 integer sample 보다 작도록 설정할 수 있다. Alternatively, a syntax merge offset vector range flag merge_offset_range_flag indicating a search range of a merge offset vector may be signaled in a picture header or a tile set header. For example, if the merge_offset_extend_range_flag value is 1, the x-axis vector and the y-axis vector of the a merge offset vector can be set to be smaller than a maximum of 32 integer samples from the merge motion vector as a reference, respectively, and if the merge_offset_extend_range_flag value is 0, the merge offset The x-axis vector and the y-axis vector of the vector may be set to be smaller than a maximum of 2 integer samples from the merge motion vector as a reference, respectively.

표 4Table 4

Figure pat00017
Figure pat00017

그림 11와 같이 머지 후보에서 유도한 모션 상하 및 좌우 및 대각 방향 주변을 탐색하여 최적의 머지 오프셋 벡터 값을 유도할 수 있으며, direction_idx는 표 6과 같이 총 8개의 인덱스를 갖도록 설정할 수도 있다. As shown in Figure 11 , the optimal merge offset vector value can be derived by searching around the motion up/down, left/right and diagonal directions derived from the merge candidate, and direction_idx can be set to have a total of 8 indices as shown in Table 6.

Figure pat00018
Figure pat00018

그림 11Figure 11

머지 오프셋 벡터 탐색 범위가 그림 11의 왼쪽 그림과 같은 경우에는 표 6을 사용하여 x축 오프셋을 나타내는 변수 sign[x][y][0] 및 y축 오프셋을 나타내는 변수 sign[x][y][1]를 나타낼 수 있고, 머지 오프셋 벡터 탐색 범위가 그림 11의 오른쪽 그림과 같은 경우에는 표 6을 사용하여 x축 오프셋을 나타내는 변수 sign[x][y][0] 및 y축 오프셋을 나타내는 변수 sign[x][y][1]를 나타낼 수 있다. If the merge offset vector search range is as shown in the left figure of Figure 11 , use Table 6 to represent the x-axis offset variable sign[x][y][0] and the y-axis offset sign[x][y]. If [1] can be represented, and the merge offset vector search range is as shown in the right figure of Figure 11 , then using Table 6, the variable sign[x][y][0] representing the x-axis offset and the y-axis offset Can represent the variable sign[x][y][1].

표 5Table 5

Figure pat00019
Figure pat00019

표 6Table 6

Figure pat00020
Figure pat00020

DistFromMergeMV의 값에 따라, 탐색 방향의 범위를 상이하게 구성할 수 있다. 일 예로, DistFromMergeMV의 값이 문턱값 이하인 경우, 표 5 또는 표 6의 예와 같이 8 방향을 탐색하는 한편, DistFromMergeMV의 값이 문턱값보다 큰 경우, 표 4의 예와 같이 4방향을 탐색할 수 있다.Depending on the value of DistFromMergeMV, the range of the search direction can be configured differently. For example, when the value of DistFromMergeMV is less than the threshold value, 8 directions are searched as in the example of Table 5 or Table 6, while when the value of DistFromMergeMV is greater than the threshold value, 4 directions can be searched as in the example of Table 4. have.

MVx와 MVy의 차분값에 따라, 탐색 방향의 범위를 상이하게 구성할 수도 있다. 일 예로, MVx와 MVy의 차분값이 문턱값 이하인 경우, 표 5 또는 표 6의 예와 같이 8방향을 탐색하는 한편, MVx와 MVy의 차분값이 문턱값보다 큰 경우, 표 4의 예와 같이 4방향을 탐색할 수 있다.Depending on the difference between MVx and MVy, the range of the search direction may be configured differently. As an example, when the difference between MVx and MVy is less than or equal to the threshold value, 8 directions are searched as in the example of Table 5 or Table 6, while the difference between MVx and MVy is greater than the threshold value, as in the example of Table 4 You can search in 4 directions.

다음 식 (12) 내지 (15)와 같이 머지 인덱스로 부터 유도한 모션 벡터 mergeMV에 offsetMV를 더하여 최종 모션 벡터를 유도할 수 있다. The final motion vector can be derived by adding offsetMV to the motion vector mergeMV derived from the merge index as shown in Equations (12) to (15) below.

mvL0[0] = mergeMVL0[0]+ offsetMVL0[0] (12)mvL0[0] = mergeMVL0[0]+ offsetMVL0[0] (12)

mvL0[1] = mergeMVL0[0] + offsetMVL0[0] (13)mvL0[1] = mergeMVL0[0] + offsetMVL0[0] (13)

mvL10[0] = mergeMVL1[0] + offsetMVL1[0] (14)mvL10[0] = mergeMVL1[0] + offsetMVL1[0] (14)

mvL1[1] = mergeMVL1[0] + offsetMVL1[0] (15)mvL1[1] = mergeMVL1[0] + offsetMVL1[0] (15)

Figure pat00021
Figure pat00021

그림 12Figure 12

양방향 예측인 경우에, 그림 12과 같이 양방향 예측 영상 또는 양방향 모션 벡터를 디코더에서 리파인하여 모션 벡터를 유도할 수도 있으며, 이를 디코더 모션 벡터 리파인먼트(이하, Decoder-side motion vector refinement, DMVR)이라고 정의한다. DMVR에서 리파인 모션 정보는 비트스트림을 통해 시그날링하지 않고, 디코더 단계에서 모션 벡터 주변을 탐색하여 SAD (Sum of Absolute Difference)가 가장 작은 값이 되도록 리파인 모션 벡터를 설정할 수 있다. In the case of bidirectional prediction, a motion vector may be derived by refining a bidirectional predicted image or a bidirectional motion vector in a decoder as shown in Fig. 12, which is defined as a decoder motion vector refinement (hereinafter referred to as Decoder-side motion vector refinement, DMVR). do. In DMVR, the refine motion information may not be signaled through a bitstream, and the refine motion vector may be set such that the sum of absolute difference (SAD) is the smallest value by searching around the motion vector at the decoder stage.

DMVR은 MMVD가 적용된 코딩 블록에서는 사용하지 않도록 설정할 수도 있다. DMVR may be set not to be used in a coding block to which MMVD is applied.

또는 MMVD의 distance_idx가 특정 임계값 (dmvr 적용 임계값) 보다 크거나 같은 경우에 한정하여 DMVR을 적용할 수도 있다. 일 예로, dmvr 적용 임계값을 2 integer sample로 설정할 수도 있다. 또는, DMVR 적용 임계값을 결정하기 위한 정보가 비트스트림을 통해 시그날링될 수 있다. 상기 정보는 픽처, 슬라이스 또는 타일 단위로 시그날링될 수 있다. Alternatively, DMVR may be applied only when distance_idx of MMVD is greater than or equal to a specific threshold value (dmvr application threshold). As an example, the threshold for applying dmvr may be set to 2 integer samples. Alternatively, information for determining the DMVR application threshold may be signaled through a bitstream. The information may be signaled in units of pictures, slices, or tiles.

dmvr 적용 임계값은 merge_offset_extend_range_flag 값에 따라 서로 다르게 설정할 수도 있다. 일 예로, merge_offset_extend_range_flag 값이 0이면, dmvr 적용 임계값을 2 integer sample로 설정할 수도 있고, merge_offset_extend_range_flag 값이 1이면, dmvr 적용 임계값을 32 integer sample로 설정할 수도 있다.The dmvr application threshold may be set differently according to the merge_offset_extend_range_flag value. For example, if the merge_offset_extend_range_flag value is 0, the dmvr application threshold may be set to 2 integer samples, and if the merge_offset_extend_range_flag value is 1, the dmvr application threshold may be set to 32 integer samples.

2.1.4 인터 복호화 영역 머지 방법 2.1.4 Inter-decoding area merge method

현재 픽쳐에서 이미 인터 예측으로 부호화된 코딩 유닛의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 기 정의된 크기의 리스트에 저장할 수 있으며, 이를 인터 영역 모션 정보 리스트이라고 정의한다. Motion information (motion vector and reference picture index) of a coding unit already encoded by inter prediction in the current picture can be stored in a list having a predefined size, and this is defined as an inter-region motion information list.

인터 영역 모션 정보 리스트에 있는 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 인터 복호화 영역 머지 후보라고 한다. Motion information (motion vector and reference picture index) in the inter-region motion information list is called an inter-decoding region merge candidate.

인터 복호화 영역 머지 후보를 현재 코딩 유닛의 머지 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 머지 방법이라고 정의한다. The inter decoding region merge candidate may be used as a merge candidate of the current coding unit, and this method is defined as an inter decoding region merge method.

타일 그룹이 초기화 되면 인터 영역 모션 정보 리스트는 비어 있으며, 픽쳐의 일부 영역을 부호화/복호화되면 인터 영역 모션 정보 리스트에 추가할 수 있다. 타일 그룹 헤더를 통해 인터 영역 모션 정보 리스트의 초기 인터 복호화 영역 머지 후보를 시그널링할 수도 있다. When the tile group is initialized, the inter-region motion information list is empty, and when a partial region of a picture is encoded/decoded, it can be added to the inter-region motion information list. The initial inter decoding region merge candidate of the inter region motion information list may be signaled through the tile group header.

코딩 유닛이 인터 예측으로 부호화/복호화 되면 그림 13과 같이 상기 코딩 유닛의 움직임 정보를 인터 영역 모션 정보 리스트에 업데이트 할 수 있다. 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보의 개수가 최대값인 경우에는, 인터 영역 모션 정보 리스트 인덱스가 가장 작은 값 (가장 먼저 인터 영역 모션 정보 리스트에 있는 인터 복호화 영역 머지 후보)을 제거하고, 가장 최근에 부호화/복호화된 인터 영역의 모션 벡터를 인터 복호화 영역 머지 후보로 추가할 수 있다. If the coding unit is to inter-prediction encoding / decoding may update the motion information of the coding unit in the inter-domain motion information list, as shown in Figure 13. If the number of inter-decoding region merge candidates in the inter-region motion information list is the maximum value, the value with the smallest inter-region motion information list index (first, the inter-decoding region merge candidate in the inter-region motion information list) is removed. , The motion vector of the most recently encoded/decoded inter-region may be added as an inter-decoding region merge candidate.

Figure pat00022
Figure pat00022

그림 13Fig. 13

디코딩 된 코딩 유닛의 모션 정보 mvCand를 인터 영역 모션 정보 리스트 HmvpCandList에 업데이트 할수 있다. 이 때 디코딩 된 코딩 유닛의 모션 정보가 인터 영역 모션 정보 리스트에 있는 모션 정보 중 어느 하나와 같은 경우(모션 벡터와 레퍼런스 인덱스가 모두 같은 경우)에는 인터 영역 모션 정보 리스트를 업데이트 하지 않거나, 그림 15와 같이 디코딩 된 코딩 유닛의 모션 정보 mvCand을 인터 영역 모션 정보 리스트의 제일 마지막에 저장할 수 있다. 이 때 mvCand과 같은 모션 정보를 가지고 있는 HmvpCandList의 인덱스를 hIdx이면, 그림 15와 같이 hIdx 보다 큰 모든 i에 대해 HMVPCandList [i]를 HVMPCandList[i-1]로 설정할 수도 있다. 현재 디코딩된 코딩 유닛에서 서브 블록 머지 후보 (sub-block merge candidates)가 사용된 경우에는 코딩 유닛 내 대표 서브 블록의 모션 정보를 인터 영역 모션 정보 리스트에 저장할 수도 있다. The motion information mvCand of the decoded coding unit may be updated in the inter-region motion information list HmvpCandList. At this time, if the motion information of the decoded coding unit is the same as any one of the motion information in the inter-region motion information list (when both the motion vector and the reference index are the same), the inter-region motion information list is not updated, or as shown in Figure 15 . The motion information mvCand of the coding unit decoded together may be stored at the end of the inter-region motion information list. At this time, if the index of HmvpCandList that has the same motion information as mvCand is hIdx, HMVPCandList [i] can be set to HVMPCandList[i-1] for all i larger than hIdx as shown in Figure 15 . When sub-block merge candidates are used in the currently decoded coding unit, motion information of the representative sub-block in the coding unit may be stored in the inter-region motion information list.

일 예로, 코딩 유닛 내 대표 서블 블록은 그림 14와 같이 코딩 유닛 내 좌상단 서브 블록으로 설정하거나, 코딩 유닛 내 중간 서브 블록으로 설정할 수도 있다. As an example, the representative sub-block in the coding unit may be set as an upper left sub-block in the coding unit or as a middle sub-block in the coding unit as shown in FIG. 14 .

Figure pat00023
Figure pat00023

그림 14Figure 14

서브 블록 단위 머지 후보는 다음 프로세스와 같이 유도할 수 있다. The sub-block unit merge candidate can be derived as follows.

1. 현재 블록의 주변 머지 후보 블록의 모션 벡터로 부터 초기 쉬프트 벡터 (shVector)를 유도할 수 있다. 1. An initial shift vector (shVector) can be derived from a motion vector of a merge candidate block adjacent to the current block.

2. 식 (16)과 같이 코딩 유닛 내 서브 블록의 좌상단 샘플 (xSb,ySb)에 초기 쉬프트 벡터를 가산하여 좌상단 샘플의 위치가 (xColSb, yColSb)인 쉬프트 서브 블록을 유도할 수 있다. 2. As shown in Equation (16), an initial shift vector may be added to the upper left sample (xSb,ySb) of the subblock in the coding unit to derive the shifted subblock having the upper left sample position (xColSb, yColSb).

(xColSb, yColSb) = (xSb + shVector[0]>> 4,ySb+shVector[1]>> 4)(xColSb, yColSb) = (xSb + shVector[0]>> 4,ySb+shVector[1]>> 4) (16)(16)

3. (xColSb, yColSb)를 포함하고 있는 서브 블록의 센터 포지션과 대응되는 collocated block의 모션 벡터를 좌상단 샘플 (xSb,ySb)를 포함하고 있는 서브 블록의 모션 벡터로 유도할 수 있다. 3. The motion vector of the collocated block corresponding to the center position of the sub-block containing (xColSb, yColSb) can be derived as the motion vector of the sub-block containing the upper left sample (xSb,ySb).

Figure pat00024
Figure pat00024

그림 15Figure 15

인터 영역 모션 정보 리스트에 총 NumHmvp 개의 모션 정보(움직임 벡터 및 참조 픽쳐 인덱스) 를 저장할 수 있으며, NumHmvp을 인터 영역 모션 정보 리스트 크기라고 정의한다. A total of NumHmvp motion information (motion vector and reference picture index) can be stored in the inter-region motion information list, and NumHmvp is defined as the size of the inter-region motion information list.

인터 영역 모션 정보 리스트 크기는 기 정의된 값을 사용할 수 있다. 타일 그룹 헤더에 인터 영역 모션 정보 리스트 크기를 시그날링할 수도 있다. 일 예로, 인터 영역 모션 정보 리스트 크기는 16으로 정의할 수도 있고, 6으로 정의하거나 5로 정의할 수도 있다. The size of the inter-region motion information list may use a predefined value. The inter-region motion information list size may be signaled in the tile group header. For example, the size of the inter-region motion information list may be defined as 16, may be defined as 6, or may be defined as 5.

인터 예측이면서 어파인 모션 벡터를 갖는 코딩 유닛에서는 인터 영역 모션 정보 리스트를 갖지 않도록 한정할 수도 있다. In a coding unit that is inter prediction and has an affine motion vector, it may be limited not to have an inter-region motion information list.

또는 인터 예측이면서 어파인 모션 벡터를 갖는 경우에는 어파인 서브 블록 벡터를 인터 영역 모션 정보 리스트에 추가할 수도 있다. 이 때 서브 블록의 위치는 좌상단 또는 우상단, 또는 중앙 서브 블록 등으로 설정할 수도 있다. Alternatively, in the case of inter prediction and having an affine motion vector, the affine sub-block vector may be added to the inter-region motion information list. In this case, the position of the sub-block may be set to the upper left or upper right, or the center sub-block.

또는, 각 컨트롤 포인트의 모션 벡터 평균값을 인터 영역 머지 후보 리스트에 추가할 수도 있다.Alternatively, the average motion vector value of each control point may be added to the inter-region merge candidate list.

특정 코딩 유닛을 부호화/복호화를 수행해서 유도한 움직임 벡터 MV0가 인터 복호화 영역 머지 후보 중 어느 하나와 동일한 경우에는 MV0를 인터 영역 모션 정보 리스트에 추가하지 않을 수 있다. 또는, MV0와 동일한 움직임 벡터를 갖는 기존의 인터 복호화 영역 머지 후보를 삭제하고, MV0를 새롭게 복호화 영역 머지 후보에 포함시켜, MV0에 할당되는 인덱스를 갱신할 수 있다.When the motion vector MV0 derived by encoding/decoding a specific coding unit is the same as any one of the inter-decoding region merge candidates, MV0 may not be added to the inter-region motion information list. Alternatively, an existing inter-decoding region merge candidate having the same motion vector as MV0 may be deleted, and the index allocated to MV0 may be updated by newly including MV0 in the decoding region merge candidate.

인터 영역 모션 정보 리스트 이외에 인터 영역 모션 정보 롱텀 리스트 HmvpLTList를 구성할 수도 있다. 인터 영역 모션 정보 롱텀 리스트 크기는 인터 영역 모션 정보 리스트 크기와 같게 설정하거나, 상이한 값으로 설정할 수 있다. In addition to the inter-region motion information list, an inter-region motion information long term list HmvpLTList may be configured. The inter-region motion information long term list size may be set to be the same as the inter-region motion information list size, or may be set to a different value.

인터 영역 모션 정보 롱텀 리스트는 타일 그룹 시작 위치에 처음 추가한 인터 복호화 영역 머지 후보로 구성될 수 있다. 인터 영역 모션 정보 롱텀 리스트가 모두 가용한 값으로 구성된 이후에 인터 영역 모션 정보 리스트를 구성하거나, 인터 영역 모션 정보 리스트 내 모션 정보를 인터 영역 모션 정보 롱텀 리스트의 모션 정보로 설정할 수도 있다. The inter-region motion information long term list may be composed of an inter-decoding region merge candidate initially added to the tile group start position. After the inter-region motion information long term list is configured with all available values, the inter-region motion information list may be configured, or motion information in the inter-region motion information list may be set as motion information of the inter-region motion information long term list.

이 때 한 번 구성된 인터 영역 모션 정보 롱텀 리스트는 업데이트를 수행하지 않거나, 타일 그룹 중 복호화된 영역이 전체 타일 그룹의 반 이상일 때 다시 업데이트 하거나, m개 CTU 라인마다 업데이트 하도록 설정할 수도 있다. 인터 영역 모션 정보 리스트는 인터 영역으로 복호화될 때마다 업데이트 하거나, CTU 라인 단위로 업데이트 하도록 설정할 수 있다. In this case, the inter-region motion information long-term list configured once may be updated again when no update is performed, a decoded region of the tile group is more than half of the entire tile group, or may be set to be updated every m CTU lines. The inter-region motion information list may be updated whenever the inter-region is decoded, or may be set to be updated in units of CTU lines.

인터 영역 모션 정보 리스트에 모션 정보와 코딩 유닛의 파티션 정보 또는 형태를 저장할 수도 있다. 현재 코딩 유닛과 파티션 정보 및 형태가 유사한 인터 영역 머지 후보만 사용하여 인터 복호화 영역 머지 방법을 수행할 수도 있다. The motion information and partition information or type of the coding unit may be stored in the inter-region motion information list. The inter-decoding region merging method may be performed using only inter-region merge candidates having a similar partition information and shape as the current coding unit.

또는, 블록 형태에 따라 개별적으로 인터 영역 머지 후보 리스트을 구성할 수도 있다. 이 경우, 현재 블록의 형태에 따라, 복수의 인터 영역 머지 후보 리스트 중 하나를 선택하여 사용할 수 있다.Alternatively, an inter-region merge candidate list may be individually configured according to the block type. In this case, one of a plurality of inter-region merge candidate lists may be selected and used according to the shape of the current block.

Figure pat00025
Figure pat00025

그림 16Fig 16

그림 16과 같이 인터 영역 어파인 모션 정보 리스트와 인터 영역 모션 정보 리스트로 구성할 수도 있다. 복호화된 코딩 유닛이 어파인 인터 또는 어파인 머지 모드인 경우에는 인터 영역 어파인 모션 정보 리스트 HmvpAfCandList에 제1 어파인 시드 벡터와 제 2 어파인 시드 벡터를 저장할 수도 있다. 인터 영역 어파인 머지 후보 리스트에 있는 모션 정보를 인터 복호화 영역 어파인 머지 후보라고 한다. As shown in Figure 16 , it can be composed of an inter-area affine motion information list and an inter-area motion information list. When the decoded coding unit is in affine inter or afine merge mode, the first affine seed vector and the second affine seed vector may be stored in the inter-region afine motion information list HmvpAfCandList. Motion information in the inter-region affine merge candidate list is called an inter-decoding region affine merge candidate.

현재 코딩 유닛에서 사용 가능한 머지 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. The merge candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 머지 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보)1. Spatial merge candidate (coding block adjacent merge candidate and coding block non-adjacent merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 머지 후보)2. Temporal merge candidate (merge candidate derived from previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter-decoding domain merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter decoding domain affine merge candidate

5. Zero motion 머지 후보5. Zero motion merge candidate

먼저 머지 후보 리스트는 mergeCandList는 공간적 머지 후보 및 시간적 머지 후보로 구성할 수 있다. 가용한 공간적 머지 후보 및 시간적 머지 후보의 개수를 가용 머지 후보 개수 (NumMergeCand)라고 정의한다. 가용 머지 후보 개수가 머지 최대 허용 개수보다 작은 경우에는 인터 복호화 영역 머지 후보를 머지 후보 리스트 mergeCandList에 추가할 수 있다. First, the merge candidate list mergeCandList may be composed of a spatial merge candidate and a temporal merge candidate. The number of available spatial merge candidates and temporal merge candidates is defined as the number of available merge candidates (NumMergeCand). When the number of available merge candidates is less than the maximum allowable merge number, an inter-decoding region merge candidate may be added to the merge candidate list mergeCandList.

인터 영역 모션 정보 리스트 HmvpCandList를 머지 후보 리스트 mergeCandList에 추가할 때는 인터 영역 모션 정보 리스트 내 인터 복호화 영역 머지 후보의 모션 정보가 기존 머지 리스트 mergeCandList의 모션 정보와 동일한지 여부를 체크할 수 있다. 모션 정보가 동일한 경우에는 머지 리스트 mergeCandList에 추가하지 않고, 모션 정보가 동일하지 않은 경우에는 머지 리스트 mergeCandList에 인터 복호화 영역 머지 후보를 추가할 수 있다.When adding the inter-region motion information list HmvpCandList to the merge candidate list mergeCandList, it may be checked whether motion information of the inter-decoding region merge candidate in the inter-region motion information list is the same as the motion information of the existing merge list mergeCandList. If the motion information is the same, it is not added to the merge list mergeCandList, and if the motion information is not the same, the inter-decoding region merge candidate may be added to the merge list mergeCandList.

인터 복호화 영역 머지 후보 중 인덱스가 큰 것 부터 머지 후보 리스트 mergeCandList에 추가하거나 인덱스가 작은 것 부터 머지 후보 리스트 mergeCandList에 추가할 수 있다. Among the merge candidates of the inter-decoding area, a large index may be added to the merge candidate list mergeCandList, or a small index may be added to the merge candidate list mergeCandList.

인터 복호화 영역 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 예측 방법이라고 정의한다. The inter decoding region motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is defined as an inter decoding region motion information prediction method.

인터 복호화 영역 어파인 모션 후보를 현재 코딩 유닛의 움직임 정보 예측자 (Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 복호화 영역 움직임 정보 어파인 예측 방법이라고 정의한다. An inter-decoding region affine motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is defined as an inter-decoding region motion information affine prediction method.

현재 코딩 유닛에서 사용 가능한 움직임 정보 예측자 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다. Motion information predictor candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.

1. 공간적 움직임 예측자 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보와 동일)1. Spatial motion predictor candidate (same as the coding block adjacent merge candidate and the coding block non-adjacent merge candidate)

2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 움직임 예측자 후보)2. Temporal merge candidate (motion predictor candidate derived from previous reference picture)

3. 인터 복호화 영역 머지 후보3. Inter-decoding domain merge candidate

4. 인터 복호화 영역 어파인 머지 후보4. Inter decoding domain affine merge candidate

5. Zero motion 움직임 예측자 후보5. Zero motion motion predictor candidate

2.22.2 인트라 예측 부호화 방법 Intra prediction coding method

인트라 예측은 그림 17과 같이 현재 블록 주변에 있는 이미 부호화된 경계 샘플을 인트라 예측을 생성하는데 사용하며, 이를 인트라 레퍼런스 샘플이라고 부른다. In intra prediction, as shown in Fig. 17 , an already coded boundary sample around the current block is used to generate intra prediction, which is called an intra reference sample.

인트라 레퍼런스 샘플의 평균값을 예측 블록 전체 샘플의 값을 설정하거나 (DC 모드), 수평 방향 레퍼런스 가중 예측을 수행하여 생성한 수평 방향 예측 샘플과 수직 방향 레퍼런스 샘플을 가중 예측하여 생성한 수직 방향 예측 샘플을 생성한 후, 수평 방향 예측 샘플과 수직 방향 예측 샘플을 가중 예측하여 예측 샘플을 생성하거나(Planar 모드), 방향성 인트라 예측 모드등을 이용하여 인트라 예측을 수행할 수 있다. The average value of the intra reference samples is predicted by setting the value of all samples in the prediction block (DC mode), or the vertical direction prediction sample generated by weighted prediction of the horizontal direction prediction sample and the vertical direction reference sample generated by performing horizontal reference weighted prediction After generation, a prediction sample may be generated by weighted prediction of a horizontal direction prediction sample and a vertical direction prediction sample (Planar mode), or intra prediction may be performed using a directional intra prediction mode.

Figure pat00026
Figure pat00026

그림 17Figure 17

그림 18의 왼쪽 그림과 같이 33개의 방향을 사용(총 35개 인트라 예측 모드)하여 인트라 예측을 수행할 수 있고, 그림 18의 오른쪽 그림과 같이 65개의 방향을 사용(총 67개 인트라 예측 모드)할 수도 있다. 방향성 인트라 예측을 사용하는 경우에는 인트라 예측 모드의 방향성을 고려하여 인트라 레퍼런스 샘플(레퍼런스 참조 샘플)을 생성하고, 이로 부터 인트라 예측을 수행할 수 있다. As shown in the left figure of Figure 18 , intra prediction can be performed using 33 directions (a total of 35 intra prediction modes), and 65 directions (a total of 67 intra prediction modes) as shown in the right figure of Figure 18 . May be. When directional intra prediction is used, an intra reference sample (reference reference sample) may be generated in consideration of the direction of the intra prediction mode, and intra prediction may be performed therefrom.

코딩 유닛의 좌측에 있는 인트라 레퍼런스 샘플을 좌측 인트라 레퍼런스 샘플이라하고, 코딩 유닛의 상측에 있는 인트라 레퍼런스 샘플을 상측 인트라 레퍼런스 샘플이라 한다. An intra reference sample on the left side of the coding unit is called a left intra reference sample, and an intra reference sample on the upper side of the coding unit is called an upper intra reference sample.

방향성 인트라 예측을 수행하는 경우에는 표 7와 같이 인트라 예측 모드에 따라 예측 방향(또는 예측 각도)을 나타내는 파라미터인 인트라 방향 파라미터 (intraPredAng)를 설정할 수 있다. 아래 표 7은 35개 인트라 예측 모드를 사용할 때 2 내지 34의 값을 가지는 방향성 인트라 예측 모드를 기반으로 하는 일예에 불과하다. 방향성 인트라 예측 모드의 예측 방향(또는 예측 각도)은 더 세분화되어 33개보다 많은 개수의 방향성 인트라 예측 모드가 이용될 수 있음은 물론이다. When directional intra prediction is performed, an intra direction parameter (intraPredAng), which is a parameter indicating a prediction direction (or a prediction angle), may be set according to the intra prediction mode as shown in Table 7. Table 7 below is only an example based on a directional intra prediction mode having a value of 2 to 34 when 35 intra prediction modes are used. It goes without saying that the prediction directions (or prediction angles) of the directional intra prediction modes are further subdivided, so that more than 33 directional intra prediction modes may be used.

Figure pat00027
Figure pat00027

그림 18Fig. 18

표 7Table 7

Figure pat00028
Figure pat00028

Figure pat00029
Figure pat00029

그림 19Figure 19

intraPredAng이 음수인 경우 (예를 들어, 인트라 예측 모드 인덱스가 11과 25 사이인 경우)에는 그림 19와 같이 현재 블록에 좌측 인트라 레퍼런스 샘플과 상측 인트라 레퍼런스 샘플을 인트라 예측 모드의 각도에 따라 1D로 구성된 일차원 레퍼런스 샘플 (Ref_1D)로 재구성할 수 있다. When intraPredAng is negative (e.g., when the intra prediction mode index is between 11 and 25), as shown in Figure 19 , the left intra reference sample and the upper intra reference sample are configured in 1D according to the angle of the intra prediction mode. It can be reconstructed as a one-dimensional reference sample (Ref_1D).

Figure pat00030
Figure pat00030

그림 20Figure 20

인트라 예측 모드 인덱스가 11과 18 사이인 경우에는 그림 20과 같이 현재 블록의 상변 우측에 위치한 인트라 레퍼런스 샘플부터 좌변 하단에 위치한 인트라 레퍼런스 샘플까지 반 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 11 and 18, a one-dimensional reference sample can be generated in a counterclockwise direction from an intra reference sample located on the upper right side of the current block to an intra reference sample located on the lower left side as shown in Figure 20 .

그 외의 모드에서는 상변 인트라 레퍼런스 샘플 또는 좌변 인트라 레퍼런스 샘플만 이용하여 일차원 레퍼런스 샘플을 생성할 수 있다.In other modes, a one-dimensional reference sample may be generated using only the upper side intra reference sample or the left side intra reference sample.

Figure pat00031
Figure pat00031

그림 21Fig. 21

인트라 예측 모드 인덱스가 19 와 25 사이인 경우에는 그림 21과 같이 현재 블록의 좌변 하단에 위치한 인트라 레퍼런스 샘플부터 상변 우측에 위치한 인트라 레퍼런스 샘플까지 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다. When the intra prediction mode index is between 19 and 25, a one-dimensional reference sample can be generated in a clockwise direction from an intra reference sample located at the lower left side of the current block to an intra reference sample located at the right side of the current block as shown in Figure 21 .

참조 샘플 결정 인덱스 iIdx와 iIdx에 기초하여 결정되는 적어도 하나의 참조 샘플에 적용되는 가중치 관련 파라미터 ifact를 다음 식 (18) 내지 (19)와 같이 유도할 수 있다. iIdx와 ifact는 방향성 인트라 예측 모드의 기울기에 따라 가변적으로 결정되며, iIdx에 의해 특정되는 참조 샘플은 정수 펠(integer pel)에 해당할 수 있다.A weight-related parameter ifact applied to at least one reference sample determined based on the reference sample determination index iIdx and iIdx may be derived as in Equations (18) to (19) below. iIdx and i fact are variably determined according to the slope of the directional intra prediction mode, and a reference sample specified by iIdx may correspond to an integer pel.

iIdx = (y+1) * Pang /32 (18) iIdx = (y+1) * P ang /32 (18)

ifact = [ (y+1) * Pang] & 31 (19) i fact = [(y+1) * P ang ] & 31 (19)

예측 샘플 별로 적어도 하나 이상의 일차원 레퍼런스 샘플을 특정하여 예측 영상을 유도 할 수도 있다. 예를 들어, 방향성 인트라 예측 모드의 기울기 값을 고려하여 예측 샘플 생성에 사용할 수 있는 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. 예측 샘플 별로 상이한 방향성 인트라 예측 모드를 가질 수도 있다. 하나의 예측 블록에 대해 복수의 인트라 예측 모드가 이용될 수도 있다. 복수의 인트라 예측 모드는 복수의 비방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 하나의 비방향성 인트라 예측 모드와 적어도 하나의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 또는 복수의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있다. 하나의 예측 블록 내의 소정의 샘플 그룹 별로 상이한 인트라 예측 모드가 적용될 수 있다. 소정의 샘플 그룹은 적어도 하나의 샘플로 구성될 수 있다. 샘플 그룹의 개수는 현재 예측 블록의 크기/샘플 개수에 따라 가변적으로 결정될 수도 있고, 예측 블록의 크기/샘플 개수와는 독립적으로 부호화기/복호화기에 기-설정된 고정된 개수일 수도 있다. The prediction image may be derived by specifying at least one one-dimensional reference sample for each prediction sample. For example, a position of a one-dimensional reference sample that can be used to generate a prediction sample may be specified in consideration of a slope value of a directional intra prediction mode. Each prediction sample may have a different directional intra prediction mode. A plurality of intra prediction modes may be used for one prediction block. The plurality of intra prediction modes may be represented by a combination of a plurality of non-directional intra prediction modes, a combination of one non-directional intra prediction mode and at least one directional intra prediction mode, or a plurality of directional intra prediction modes. It can also be expressed as a combination of modes. A different intra prediction mode may be applied for each predetermined sample group in one prediction block. A predetermined sample group may consist of at least one sample. The number of sample groups may be variably determined according to the size/number of samples of the current prediction block, or may be a fixed number pre-set in the encoder/decoder independently of the size/number of samples of the prediction block.

구체적으로 예를 들어, 참조 샘플 결정 인덱스 iIdx를 이용하여 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. Specifically, for example, the position of the one-dimensional reference sample may be specified using the reference sample determination index iIdx.

인트라 예측 모드의 기울기에 따라 하나의 일차원 레퍼런스 샘플만으로는 인트라 예측 모드의 기울기를 표현할 수 없을 때는 식 (20)과 같이 인접한 일차원 레퍼런스 샘플을 보간하여 제 1 예측 영상을 생성할 수 있다. 인트라 예측 모드의 기울기/각도에 따른 angular line이 정수 펠에 위치한 레퍼런스 샘플을 지나가지 않는 경우, 해당 angular line에 좌/우 또는 상/하에 인접한 레퍼런스 샘플을 보간하여 제1 예측 영상을 생성할 수 있다. 이때 이용되는 보간 필터의 필터 계수는 ifact에 기초하여 결정될 수 있다. 예를 들어, 보간 필터의 필터 계수는 angular line 상에 위치한 소수 펠과 상기 정수 펠에 위치한 레퍼런스 샘플 간의 거리에 기초하여 유도될 수When the slope of the intra prediction mode cannot be expressed with only one one-dimensional reference sample according to the slope of the intra prediction mode, a first prediction image may be generated by interpolating adjacent one-dimensional reference samples as shown in Equation (20). When the angular line according to the slope/angle of the intra prediction mode does not pass the reference sample located in the integer pel, the first prediction image may be generated by interpolating the reference sample adjacent to the left/right or above/below the corresponding angular line. . The filter coefficient of the interpolation filter used at this time may be determined based on i fact . For example, the filter coefficient of the interpolation filter may be derived based on a distance between a fractional pel located on the angular line and a reference sample located on the integer pel

P(x,y) = ((32-ifact)/32)* Ref_1D(x+iIdx+1) + (ifact/32)* Ref_1D(x+iIdx+2) (20)P(x,y) = ((32-i fact )/32)* Ref_1D(x+iIdx+1) + (ifact/32)* Ref_1D(x+iIdx+2) (20)

하나의 일차원 레퍼런스 샘플만으로 인트라 예측 모드의 기울기를 표현할 수 있을 때 (ifact 값이 0 일때) 는 다음 식 (21)과 같이 제 1 예측 영상을 생성할 수 있다. When the slope of the intra prediction mode can be expressed with only one one-dimensional reference sample (when i fact is 0), the first prediction image can be generated as shown in Equation (21) below.

P(x,y) = Ref_1D(x+iIdx+1) (21)P(x,y) = Ref_1D(x+iIdx+1) (21)

2.32.3 와이드 앵글 인트라 예측 부호화 방법Wide-angle intra prediction coding method

방향성 인트라 예측 모드의 예측 각도는 그림 22와 같이 45 내지 -135 사이로 설정될 수 있다. The prediction angle of the directional intra prediction mode may be set between 45 and -135 as shown in Figure 22 .

Figure pat00032
Figure pat00032

그림 22Figure 22

비정방 형태 코딩 유닛에서 인트라 예측 모드를 수행하는 경우 기 정의된 예측 각도 때문에 현재 샘플과 가까운 인트라 레퍼런스 샘플 대신 현재 샘플과 거리가 먼 인트라 레퍼런스 샘플에서 현재 샘플을 예측하는 단점이 발생할 수 있다. When the intra prediction mode is performed in the amorphous coding unit, a disadvantage of predicting a current sample from an intra reference sample far from the current sample instead of an intra reference sample close to the current sample may occur due to a predefined prediction angle.

예를 들어, 그림 23의 왼쪽 그림과 같이 코딩 유닛의 너비가 코딩 유닛의 높이보다 큰 코딩 유닛(이하, 수평 방향 코딩 유닛)에서는 거리가 가까운 샘플 T 대신에 거리가 먼 L에서 인트라 예측을 수행할 수 있다. 또 다른 예를 들어, 그림 23의 오른쪽 그림과 같이 코딩 유닛의 높이가 코딩 유닛의 너비보다 큰 코딩 유닛(이하, 수직 방향 코딩 유닛)에서는 거리가 가까운 샘플 L 대신에 거리가 먼 샘플 T로 부터 인트라 예측을 수행할 수 있다. For example, as shown in the left figure of Fig. 23 , in a coding unit whose width is larger than the height of the coding unit (hereinafter, horizontal coding unit), intra prediction is performed at a far distance L instead of a close sample T. I can. As another example, as shown in the right figure of Fig. 2 and 3, in a coding unit whose height is larger than the width of the coding unit (hereinafter, the vertical coding unit), instead of the close sample L, from the far sample T Intra prediction can be performed.

Figure pat00033
Figure pat00033

그림 23Figure 23

비정방 형태 코딩 유닛에서는 기 정의된 예측 각도보다 더 넓은 예측 각도에서 인트라 예측을 수행할 수도 있으며, 이를 와이드 앵글 인트라 예측 모드라고 부른다. In the amorphous coding unit, intra prediction may be performed at a prediction angle wider than a predefined prediction angle, which is referred to as a wide angle intra prediction mode.

와이드 앵글 인트라 예측 모드는

Figure pat00034
내지
Figure pat00035
의 예측 각도를 가질 수 있으며, 기존 인트라 예측 모드에서 사용된 각도를 벗어나는 예측 각도를 와이드 앵글 각도라고 부른다. The wide angle intra prediction mode
Figure pat00034
To
Figure pat00035
It can have a prediction angle of, and a prediction angle that deviates from the angle used in the existing intra prediction mode is called a wide angle angle.

그림 23의 좌측 그림에서 수평 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 T로 부터 예측할 수 있다. In the left figure of Fig. 23 , sample A in the horizontal direction coding unit can be predicted from the intra reference sample T using the wide-angle intra prediction mode.

그림 23의 우측 그림에서 수직 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 L로 부터 예측할 수 있다. In the right figure of Figure 23 , sample A in the vertical direction coding unit can be predicted from the intra reference sample L using the wide angle intra prediction mode.

기존 인트라 예측 모드 N개에 M개의 와이드 앵글 각도를 더해 N+M 개의 인트라 예측 모드가 정의될 수 있다. 구체적으로 예를 들어, 표 8과 같이 67개 인트라 모드에 28개 와이드 앵글 각도를 더해 총 95개 인트라 예측 모드가 정의될 수 있다. N+M intra prediction modes may be defined by adding M wide angle angles to N existing intra prediction modes. Specifically, as shown in Table 8, a total of 95 intra prediction modes may be defined by adding 28 wide angle angles to 67 intra modes.

현재 블록이 이용할 수 있는 인트라 예측 모드는 현재 블록의 형태에 따라 결정될 수 있다. 일 예로, 현재 블록의 크기, 종횡비(예컨대, 너비와 높이의 비율), 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여, 95개의 방향성 인트라 예측 모드 중 65개의 방향성 인트라 예측 모드를 선택할 수 있다. The intra prediction mode that the current block can use may be determined according to the shape of the current block. For example, 65 directional intra prediction modes may be selected from among 95 directional intra prediction modes based on at least one of a size of a current block, an aspect ratio (eg, a ratio of width and height), and a reference line index.

표 8Table 8

Figure pat00036
Figure pat00036

표 4에 나타난 인트라 예측 모드 각도는, 현재 블록의 형태, 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여 적응적으로 결정될 수 있다. 일 예로, Mode 15의 intraPredAngle은 현재 블록이 비정방형인 경우보다 현재 블록이 정방형인 경우에 더 큰 값을 갖도록 설정될 수 있다. 또는, Mode 75의 intraPredAngle은 인접 레퍼런스 라인이 선택된 경우보다 비인접 레퍼런스 라인이 선택된 경우 더 큰 값을 갖도록 설정될 수 있다.The intra prediction mode angle shown in Table 4 may be adaptively determined based on at least one of a shape of a current block and a reference line index. For example, the intraPredAngle of Mode 15 may be set to have a larger value when the current block is a square than when the current block is a non-square. Alternatively, the intraPredAngle of Mode 75 may be set to have a larger value when a non-adjacent reference line is selected than when an adjacent reference line is selected.

와이드 앵글 인트라 예측 모드를 사용하는 경우 그림 24와 같이 상측 인트라 레퍼런스 샘플의 길이를 2W+1로 설정하고, 좌측 인트라 레퍼런스 샘플의 길이를 2H+1로 설정할 수 있다. When using the wide-angle intra prediction mode, the length of the upper intra reference sample can be set to 2W+1 and the length of the left intra reference sample can be set to 2H+1, as shown in Figure 24 .

Figure pat00037
Figure pat00037

그림 24Figure 24

와이드 앵글 인트라 예측을 사용하는 경우에 와이드 앵글 인트라 예측 모드의 인트라 예측 모드를 부호화 하는 경우에는 인트라 예측 모드의 개수가 많아져서 부호화 효율이 낮아 질수 있다. 와이드 앵글 인트라 예측 모드는 와이드 앵글 인트라에서 사용되지 않는 기존 인트라 예측 모드로 대체하여 부호화 할 수 있으며, 대체되는 예측 모드를 와이드 앵글 대체 모드라고 한다. In the case of using wide-angle intra prediction, when the intra prediction mode of the wide-angle intra prediction mode is encoded, the number of intra prediction modes increases, and thus encoding efficiency may be lowered. The wide-angle intra prediction mode can be encoded by replacing the existing intra prediction mode that is not used in the wide-angle intra prediction mode, and the replaced prediction mode is called a wide-angle replacement mode.

구체적으로 예를 들어, 그림 25와 같이 35개 인트라 예측을 사용하는 경우 와이드 앵글 인트라 예측 모드 35는 와이드 앵글 대체 모드인 인트라 예측 모드 2로 부호화할 수 있고, 와이드 앵글 인트라 예측 모드 36은 와이드 앵글 대체 모드인 인트라 예측 모드 3으로 부호화 할 수 있다. Specifically, for example, when 35 intra predictions are used as shown in Figure 25 , wide-angle intra prediction mode 35 can be coded with intra prediction mode 2, which is a wide-angle replacement mode, and wide-angle intra prediction mode 36 is a wide-angle replacement. It can be encoded in intra prediction mode 3, which is a mode.

Figure pat00038
Figure pat00038

그림 25Figure 25

코딩 블록의 형태 또는 코딩 블록 높이대 너비의 비에 따라 대체하는 모드와 개수를 다르게 설정할 수 있다. 구체적으로 예를 들어, 표 9는 코딩 블록의 너비와 높이의 비에 따라 사용되는 인트라 예측 모드를 나타낸다. The replacement mode and number may be differently set according to the shape of the coding block or the ratio of the height to the width of the coding block. Specifically, for example, Table 9 shows intra prediction modes used according to the ratio of the width and height of a coding block.

9 Table 9

Figure pat00039
Figure pat00039

33 변환 및 양자화Transform and quantization

원본 영상에서 예측 영상을 차분한 영상을 잔차 영상(residual)이라 한다. An image obtained by subtracting the predicted image from the original image is called a residual image.

잔차 영상에 DCT(Discrete cosine transform)와 같은 2차원 변환(Transform)을 통하여 2원 주파수 성분으로 분해할 수 있다. 영상에서 고주파 성분을 제거해도 시각적으로 왜곡이 크게 발생하지 않는 특성이 있다. 고주파에 해당하는 값을 작게 하거나 0으로 설정하면 시각적 왜곡이 크지 않으면서도 압축 효율을 크게 할 수 있다. The residual image can be decomposed into binary frequency components through a two-dimensional transform such as a discrete cosine transform (DCT). Even if high-frequency components are removed from an image, there is a characteristic that significant distortion does not occur visually. If the value corresponding to the high frequency is decreased or set to 0, the compression efficiency can be increased while the visual distortion is not large.

예측 블록의 크기나 예측 모드에 따라 DST (Discrete sine transform)을 사용할 수도 있다. 구체적으로 예를 들어, 인트라 예측 모드이고, 예측 블록/코딩 블록의 크기가 NxN 보다 작은 크기인 경우에는 DST 변환을 사용하도록 설정하고, 그 외의 예측 블록/코딩 블록에서는 DCT를 사용하도록 설정할 수도 있다. Discrete sine transform (DST) may be used according to the size of the prediction block or the prediction mode. Specifically, for example, when the prediction block/coding block is in an intra prediction mode and the size of the prediction block/coding block is smaller than NxN, the DST transform may be used, and other prediction blocks/coding blocks may be set to use DCT.

DCT는 영상을 코사인 (cosine) 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리이고, 그 때의 주파수 성분들은 기저 영상으로 표현된다. 예를 들어, NxN 블록에서 DCT 변환을 수행하면 N2 개의 기본 패턴 성분을 얻을 수 있다. DCT 변환을 수행한다는 것은 원화소 블록에 포함된 기본 패턴 성분들 각각의 크기를 구하는 것이다. 각 기본 패턴 성분들의 크기는 DCT 계수라고 부른다. DCT is a process that decomposes (transforms) an image into 2D frequency components using a cosine transform, and the frequency components at that time are expressed as a base image. For example, if DCT transformation is performed in an NxN block, N 2 basic pattern components can be obtained. Performing DCT transformation is to obtain the size of each of the basic pattern components included in the original pixel block. The size of each basic pattern component is called a DCT coefficient.

대체적으로 저주파에 0이 아닌 성분들이 많이 분포하는 영상에서는 이산 여현 변환(Discrete Cosine Transform, DCT)을 주로 사용하고, 고주파 성분이 많이 분포하는 영상에서는 DST (Discrete Sine Transform)을 사용할 수도 있다. In general, a discrete cosine transform (DCT) is mainly used for an image in which many non-zero components are distributed in a low frequency, and a Discrete Sine Transform (DST) may be used for an image in which a large number of high-frequency components are distributed.

DST는 영상을 sin 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리를 나타낸다. DCT 또는 DST 변환 이외의 변환 방법을 사용하여 2차원 영상을 2차원 주파수 성분으로 분해(변환)할 수 있으며, 이를 2차원 영상 변환이라고 부른다. DST represents a process of decomposing (converting) an image into 2D frequency components using sin transformation. A 2D image can be decomposed (transformed) into a 2D frequency component using a transformation method other than DCT or DST transformation, and this is called a 2D image transformation.

잔차 영상 중 특정 블록에서는 2차원 영상 변환을 수행하지 않을 수 있으며, 이를 변환 스킵(transform skip)이라고 부른다. 변환 스킵 이후에 양자화를 적용할 수 있다. A 2D image transformation may not be performed in a specific block among residual images, and this is called transform skip. Quantization can be applied after the transform skip.

2차원 영상 내에 있는 임의의 블록을 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 1 변환이라고 부른다. 제 1 변환을 수행 후 변환 블록의 일부 영역에서 변환을 다시 수행할 수 있으며, 이를 제 2 변환이라고 부른다. DCT, DST, or 2D image transformation may be applied to an arbitrary block in the 2D image, and the transformation used at this time is called a first transformation. After performing the first transformation, transformation may be performed again in a partial region of the transformation block, which is called a second transformation.

제 1 변환은 복수개의 변환 코어 중 하나를 사용할 수 있다. 구체적으로 예를 들어, 변환 블록에서 DCT2 , DCT8 또는 DST7 중 어느 하나를 선택하여 사용할 수 하거나 , 변환 블록의 수평 방향 변환과 수직 방향 변환에서 서로 다른 변환 코어를 사용할 수도 있으며, 이를 복수 변환 선택 방법(Multiple Transform Selection, MTS)이라고 부른다. 여기서 DCT2, DCT8 또는 DST7을 변환 코어라고 부른다. The first transformation may use one of a plurality of transformation cores. Specifically, for example, one of DCT2, DCT8, or DST7 may be selected and used in the transform block, or different transform cores may be used in the horizontal direction transformation and the vertical direction transformation of the transformation block. It is called Multiple Transform Selection (MTS). Here, DCT2, DCT8 or DST7 is called a conversion core.

제 1 변환이 적용된 잔차 영상을 제 1 변환 잔차 영상이라고 부른다. The residual image to which the first transform has been applied is called a first transform residual image.

제 1 변환 잔차 영상에 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제 2 변환이라고 부른다. 제 2 변환이 적용된 2차원 영상을 제 2 변환 잔차 영상이라고 부른다. DCT, DST, or 2D image transformation may be applied to the first transform residual image, and the transform used in this case is called a second transform. The 2D image to which the second transformation is applied is called a second transformation residual image.

제 1 변환 및/또는 제 2 변환을 수행한 후의 블록 내 샘플 값을 변환 계수라고 부른다. 양자화는 블록의 에너지를 줄이기 위해 변환 계수를 기 정의된 값으로 나누는 과정을 말한다. 변환 계수에 양자화를 적용하기 위해 정의된 값을 양자화 파라미터라고 부른다. A sample value in a block after performing the first transform and/or the second transform is called a transform coefficient. Quantization refers to the process of dividing a transform coefficient by a predefined value to reduce the energy of a block. A value defined to apply quantization to a transform coefficient is called a quantization parameter.

시퀀스 단위 또는 블록 단위로 기 정의된 양자화 파라미터를 적용할 수 있다. 통상적으로 1에서 51 사이의 값으로 양자화 파라미터를 정의할 수 있다. A predefined quantization parameter may be applied in units of sequences or blocks. Typically, a quantization parameter can be defined with a value between 1 and 51.

변환 및 양자화를 수행한 후에, 역양자화 및 역변환을 수행하여 잔차 복원 영상을 생성 할 수 있다. 잔차 복원 영상에 예측 영상을 더해서 제 1 복원 영상을 생성할 수 있다. After performing transformation and quantization, inverse quantization and inverse transformation may be performed to generate a residual reconstructed image. A first reconstructed image may be generated by adding a prediction image to the residual reconstructed image.

44 인루프 필터링 (In-loop filtering)In-loop filtering

인루프 필터링(In-loop filtering)은 양자화 및 부호화 과정에서 발생하는 정보의 손실을 줄이기 위해 복호화 된 영상에 적응적으로 필터링을 수행하는 기술이다. 디블록킹 필터(Deblocking filter), 샘플 적응적 오프셋 필터(sample adaptive offset filter, SAO), 적응적 루프 필터(adaptive loop filter, ALF)는 인루프 필터링의 한 예이다. In-loop filtering is a technique that adaptively performs filtering on a decoded image in order to reduce the loss of information that occurs during quantization and encoding. A deblocking filter, a sample adaptive offset filter (SAO), and an adaptive loop filter (ALF) are examples of in-loop filtering.

제 1 복원 영상에 디블록킹 필터 , 샘플 적응적 오프셋(Sample Adaptive Offset, SAO) 또는 적응적 루프 필터(adaptive loop filter, ALF) 중 적어도 어느 하나를 수행하여 제 2 복원 영상을 생성할 수 있다. A second reconstructed image may be generated by performing at least one of a deblocking filter, a sample adaptive offset (SAO), or an adaptive loop filter (ALF) on the first reconstructed image.

복원 영상에 디블록킹 필터를 적용한 후, SAO 및 ALF를 적용할 수 있다. After applying the deblocking filter to the reconstructed image, SAO and ALF may be applied.

비디오 부호화 과정에서 블록 단위로 변환과 양자화를 수행한다. 양자화 과정에서 발생한 손실이 발생하고, 이를 복원한 영상의 경계에서는 불연속이 발생한다. 블록 경계에 나타난 불연속 영상을 블록 화질 열화(blocking artifact)라고 부른다. In the video encoding process, transformation and quantization are performed in units of blocks. A loss occurs during the quantization process, and a discontinuity occurs at the boundary of the reconstructed image. The discontinuous image appearing at the block boundary is called block quality deterioration (blocking artifact).

Deblocking filter는 제 1 영상의 블록 경계에서 발생하는 블록 화질 열화(blocking artifact)를 완화시키고, 부호화 성능을 높여주는 방법이다. The deblocking filter is a method of mitigating block quality deterioration (blocking artifact) occurring at a block boundary of a first image and improving encoding performance.

Figure pat00040
Figure pat00040

그림 26Fig. 26

블록 경계에서 필터링을 수행하여 블록 화질 열화를 완화 시킬수 있으며, 그림 26과 같이 블록이 인트라 예측 모드로 부호화 되었는지 여부, 또는 이웃한 블록의 모션 벡터 절대값의 차이가 기 정의된 소정의 문턱값 보다 큰지 여부, 이웃한 블록의 참조 픽쳐가 서로 동일한 지 여부 중 적어도 어느 하나에 기초하여 블록 필터 강도 (blocking strength, 이하 BS) 값을 결정할 수 있다. BS 값이 0이면 필터링을 수행하지 않으며, BS 값이 1 또는 2인 경우에 블록 경계에서 필터링을 수행할 수 있다. Block quality deterioration can be alleviated by performing filtering at the block boundary, and as shown in Figure 26 , whether the block is encoded in intra prediction mode, or whether the difference between the absolute values of the motion vectors of neighboring blocks is greater than a predetermined threshold. A block filter strength (BS) value may be determined based on at least one of whether or not reference pictures of neighboring blocks are identical to each other. When the BS value is 0, filtering is not performed, and when the BS value is 1 or 2, filtering may be performed at a block boundary.

변환 계수에 양자화를 수행하므로 주파수 영역에서 양자화를 수행하기 때문에, 물체 가장 자리에 링이 현상 (ringing artifact)를 발생시키거나, 화소 값이 원본에 비해 일정한 값만큼 커지거나 작아기게 된다. SAO는 제 1 복원 영상의 패턴을 고려하여 블록 단위로 특정 오프셋을 더하거나 빼는 방법으로 링잉 현상을 효과적으로 줄일 수 있다. SAO는 복원 영상의 특징에 따라 에지 오프셋(Edge offset, 이하 EO)과 밴드 오프셋(Band offset, BO)으로 구성된다. 에지 오프셋은 주변 화소 샘플 패턴에 따라 현재 샘플에 오프셋을 다르게 더해주는 방법이다. 밴드 오프셋은 영역 안의 비슷한 화소 밝기 값을 가진 화소 집합에 대해 일정 값을 더해 부호화 오류를 줄이는 것이다. 화소 밝기를 32개의 균일한 밴드로 나눠 비슷한 밝기 값을 가지는 화소를 하나의 집합이 되도록 할 수 있다. 예를 들어, 인접한 4개의 밴드를 하나의 범주로 묶을 수 있다. 하나의 범주에서는 동일한 오프셋 값을 사용하도록 설정할 수 있다. Since quantization is performed on a transform coefficient, a ringing artifact occurs at the edge of an object, or a pixel value increases or decreases by a certain value compared to the original because quantization is performed in the frequency domain. The SAO can effectively reduce the ringing phenomenon by adding or subtracting a specific offset in units of blocks in consideration of the pattern of the first reconstructed image. SAO is composed of an edge offset (hereinafter referred to as EO) and a band offset (BO) according to characteristics of a reconstructed image. The edge offset is a method of adding an offset to the current sample differently according to the surrounding pixel sample pattern. Band offset is to reduce coding errors by adding a certain value to a set of pixels with similar pixel brightness values in a region. By dividing the pixel brightness into 32 uniform bands, pixels having similar brightness values can be made into one set. For example, four adjacent bands can be grouped into one category. One category can be set to use the same offset value.

ALF (Adaptive Loop Filter)는 식 (22)와 같이 제 1 복원 영상 또는 제 1 복원 영상에 deblocking filtering을 수행한 복원 영상에 기 정의된 필터 중 어느 하나를 사용하여 제 2 복원 영상을 생성하는 방법이다. ALF (Adaptive Loop Filter) is a method of generating a second reconstructed image using one of predefined filters for a first reconstructed image or a reconstructed image that has subjected deblocking filtering to the first reconstructed image as shown in Equation (22). .

Figure pat00041
(22)
Figure pat00041
(22)

Figure pat00042
Figure pat00042

그림 27Fig. 27

이 때 필터는 픽쳐 단위 또는 CTU 단위로 선택할 수 있다. In this case, the filter can be selected in units of pictures or units of CTU.

Luma 성분에서는 다음 그림 27과 같이 5x5, 7x7 또는 9x9 다이아몬드 형태 중 어느 하나를 선택할 수 있다. Chroma 성분에서는 5x5 다이아몬드 형태만 사용할 수 있도록 제한할 수도 있다. In the Luma component, you can choose any of the 5x5, 7x7 or 9x9 diamond shapes as shown in Figure 27 below. In the chroma component, it may be limited to use only the 5x5 diamond shape.

55 비디오 부호화 구조Video coding structure

Figure pat00043
Figure pat00043

그림 28Fig. 28

그림 28은 비디오 부호화 구조를 나타내는 다이아그램이다. 입력 비디오 신호는 Rate distortion 값이 가장 작은 소정의 코딩 유닛으로 나눌수 있다. 코딩 유닛 별로 인터 예측 또는 인트라 예측 또는 복합 예측 중 적어도 어느 하나를 수행하여 예측 영상을 생성할 수 있다. 부호화 단계에서 인터 예측을 수행하기 위해서는 움직임 추정 (Motion estimaition)을 수행할 수도 있다. 원본 영상에서 예측 영상을 차분하여 잔차 영상을 생성할 수 있다. Figure 28 is a diagram showing the video coding structure. The input video signal can be divided into a predetermined coding unit with the smallest rate distortion value. A prediction image may be generated by performing at least one of inter prediction, intra prediction, or complex prediction for each coding unit. In order to perform inter prediction in the encoding step, motion estimation may be performed. A residual image may be generated by differentiating the predicted image from the original image.

잔차 영상을 제 1 변환 및/또는 제 2 변환을 수행하여 변환 계수를 생성할 수 있다. 변환 계수에 양자화를 수행하여 양자화된 변환 계수를 생성할 수 있다. A transform coefficient may be generated by performing a first transform and/or a second transform on the residual image. Quantization may be performed on the transform coefficient to generate a quantized transform coefficient.

양자화된 변환 계수를 역양자화 및 역 변환을 수행하여 복원 영상을 생성할 수 있다. 이 복원 영상에 인루프 필터링을 수행하여 필터링 복원 영상을 생성할 수 있다. 이 필터링 복원 영상이 인코딩 단계에서 최종 아웃풋 (output) 영상이 된다. 필터링 복원 영상은 참조 픽쳐 버퍼 (Decoded picture buffer)로 저장되어 다른 픽쳐에서 참조 픽쳐로 사용할 수 있다. A reconstructed image may be generated by performing inverse quantization and inverse transformation on the quantized transform coefficient. In-loop filtering may be performed on the reconstructed image to generate a filtered reconstructed image. This filtered reconstructed image becomes the final output image in the encoding step. The filtered reconstructed image is stored as a reference picture buffer and can be used as a reference picture in another picture.

Claims (1)

머지 오프셋 벡터 부호화를 이용한 인터 예측 부호화 방법


Inter prediction coding method using merge offset vector coding


KR1020190057837A 2019-05-17 2019-05-17 Video signal encoding method and apparatus and video decoding method and apparatus KR20200132395A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190057837A KR20200132395A (en) 2019-05-17 2019-05-17 Video signal encoding method and apparatus and video decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190057837A KR20200132395A (en) 2019-05-17 2019-05-17 Video signal encoding method and apparatus and video decoding method and apparatus

Publications (1)

Publication Number Publication Date
KR20200132395A true KR20200132395A (en) 2020-11-25

Family

ID=73645647

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190057837A KR20200132395A (en) 2019-05-17 2019-05-17 Video signal encoding method and apparatus and video decoding method and apparatus

Country Status (1)

Country Link
KR (1) KR20200132395A (en)

Similar Documents

Publication Publication Date Title
KR20200141696A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141703A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141896A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200078252A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200113346A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200145998A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132395A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210060109A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141691A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132397A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200141700A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200132393A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107265A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200145160A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210024747A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200105036A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107262A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210035677A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210040240A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210034860A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210042440A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210046504A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200107697A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20200108613A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210028484A (en) Video signal encoding method and apparatus and video decoding method and apparatus