KR20210018137A - Method and apparatus for intra prediction coding of video data - Google Patents

Method and apparatus for intra prediction coding of video data Download PDF

Info

Publication number
KR20210018137A
KR20210018137A KR1020200098223A KR20200098223A KR20210018137A KR 20210018137 A KR20210018137 A KR 20210018137A KR 1020200098223 A KR1020200098223 A KR 1020200098223A KR 20200098223 A KR20200098223 A KR 20200098223A KR 20210018137 A KR20210018137 A KR 20210018137A
Authority
KR
South Korea
Prior art keywords
intra prediction
coding block
current coding
chroma
mode
Prior art date
Application number
KR1020200098223A
Other languages
Korean (ko)
Inventor
심동규
변주형
박준택
박시내
박승욱
임화평
Original Assignee
현대자동차주식회사
광운대학교 산학협력단
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 광운대학교 산학협력단, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to EP20850849.9A priority Critical patent/EP4009632A4/en
Priority to CN202080054504.5A priority patent/CN114270826A/en
Priority to US17/633,030 priority patent/US11930180B2/en
Priority to PCT/KR2020/010371 priority patent/WO2021025478A1/en
Publication of KR20210018137A publication Critical patent/KR20210018137A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Abstract

Disclosed are a method and an apparatus for intra prediction coding of video data. According to one aspect of the present invention, an apparatus for decoding video data comprises: a decoding unit to acquire information about a chroma prediction mode and information about a luma prediction mode of a current coding block from a bitstream; and an intra prediction unit to generate luma prediction samples and chroma prediction samples of the current coding block. The intra prediction unit derives a luma intra prediction type and a luma intra prediction mode of the current coding block based on the information about the luma prediction mode, and determines a chroma intra prediction mode of the current coding block based on the luma intra prediction type and the luma intra prediction mode of the current coding block and the information about the chroma prediction mode.

Description

동영상 데이터의 인트라 예측 코딩을 위한 방법 및 장치{METHOD AND APPARATUS FOR INTRA PREDICTION CODING OF VIDEO DATA}Method and apparatus for intra prediction coding of video data TECHNICAL FIELD [Method and Apparatus for Intra Prediction CODING OF VIDEO DATA]

본 발명은 동영상 데이터의 부호화 및 복호화에 관한 것이다.The present invention relates to encoding and decoding of moving picture data.

동영상 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 많은 데이터량을 가지기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다. Since moving picture data has a large amount of data compared to audio data or still image data, it requires a lot of hardware resources including memory in order to store or transmit itself without processing for compression.

따라서, 통상적으로 동영상 데이터를 저장하거나 전송할 때에는 부호화기를 사용하여 동영상 데이터를 압축하여 저장하거나 전송하며, 복호화기에서는 압축된 동영상 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 동영상 압축 기술로는 H.264/AVC를 비롯하여, H.264/AVC에 비해 약 40% 정도의 부호화 효율을 향상시킨 HEVC(High Efficiency Video Coding)가 존재한다. Accordingly, when moving or transmitting moving picture data, the moving picture data is compressed and stored or transmitted using an encoder, and the decoder receives the compressed moving picture data, decompresses and reproduces the compressed moving picture data. As such video compression technologies, there are H.264/AVC and HEVC (High Efficiency Video Coding), which improves coding efficiency by about 40% compared to H.264/AVC.

그러나, 픽쳐의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터량도 증가하고 있으므로 기존의 압축 기술보다 더 부호화 효율이 좋고 화질 개선 효과도 높은 새로운 압축 기술이 요구된다.However, the size, resolution, and frame rate of pictures are gradually increasing, and accordingly, the amount of data to be encoded is also increasing. Accordingly, a new compression technique having higher encoding efficiency and higher quality improvement effect than the existing compression technique is required.

본 개시는 주로 동영상 데이터의 블록을 인트라 예측 코딩하는 개선된 기법들을 제시한다.This disclosure mainly presents improved techniques for intra prediction coding a block of moving picture data.

본 개시의 일 측면에 따르면, 비디오 데이터를 복호화하는 방법은 비트스트림으로부터 현재 코딩 블록의 루마 예측 모드에 관한 정보와 크로마 예측 모드에 관한 정보를 획득하는 단계; 상기 루마 예측 모드에 관한 정보를 기초로 상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하는 단계 - 상기 루마 인트라 예측 타입은 행렬 기반 인트라 예측(matrix based intra prediction: MIP)과 정규 인트라 예측(regular intra prediction)을 포함함 -; 상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드와 상기 크로마 예측 모드에 관한 정보를 기초로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정하는 단계; 및 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 기초로 상기 현재 코딩 블록의 크로마 예측 샘플들을 생성하는 단계를 포함한다.According to an aspect of the present disclosure, a method of decoding video data includes obtaining information about a luma prediction mode and information about a chroma prediction mode of a current coding block from a bitstream; Deriving a luma intra prediction type and a luma intra prediction mode of the current coding block based on the information on the luma prediction mode-The luma intra prediction type is a matrix based intra prediction (MIP) and a normal intra Including regular intra prediction -; Determining a chroma intra prediction mode of the current coding block based on a luma intra prediction type and a luma intra prediction mode of the current coding block and information about the chroma prediction mode; And generating chroma prediction samples of the current coding block based on the chroma intra prediction mode of the current coding block.

상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정하는 단계는, 상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이며, 상기 비디오 데이터의 샘플링 포맷이 4:4:4일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 타입이 행렬 기반 인트라 예측이라고 결정하고, 상기 현재 코딩 블록의 크로마 인트라 예측 타입에 대응되는 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다고 결정하는 단계를 포함한다.In the determining of the chroma intra prediction mode of the current coding block, the information on the chroma prediction mode indicates a direct mode (DM), a luma intra prediction type of the current coding block is a matrix-based intra prediction, and the video When the data sampling format is 4:4:4, it is determined that the chroma intra prediction type of the current coding block is matrix-based intra prediction, and the chroma intra prediction mode corresponding to the chroma intra prediction type of the current coding block is the current And determining that it is the same as the matrix-based intra prediction mode derived from the luma intra prediction mode of the coding block.

상기 현재 블록의 크로마 인트라 예측 모드를 결정하는 단계는, 상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측 타입이고, 상기 비디오 데이터의 샘플링 포맷이 4:2:0 혹은 4:2:2 일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 PLANAR 모드로 결정하는 단계를 더 포함한다.In the determining of the chroma intra prediction mode of the current block, the information on the chroma prediction mode indicates a direct mode (DM), a luma intra prediction type of the current coding block is a matrix-based intra prediction type, and the video When the data sampling format is 4:2:0 or 4:2:2, determining a chroma intra prediction mode of the current coding block as a PLANAR mode.

상기 현재 블록의 크로마 인트라 예측 모드를 결정하는 단계는, 상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 정규 인트라 예측 타입일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 정규 인트라 예측 모드와 동일하다고 결정하는 단계를 더 포함한다.In the determining of the chroma intra prediction mode of the current block, when the information on the chroma prediction mode indicates a direct mode (DM) and the luma intra prediction type of the current coding block is a normal intra prediction type, the current And determining that the chroma intra prediction mode of the coding block is the same as the normal intra prediction mode derived from the luma intra prediction mode of the current coding block.

본 개시의 다른 측면에 따르면, 비디오 데이터를 복호화하는 장치는, 비트스트림으로부터 현재 코딩 블록의 루마 예측 모드에 관한 정보와 크로마 예측 모드에 관한 정보를 획득하는 복호화부 및 현재 코딩 블록의 루마 예측 샘플들과 크로마 예측 샘플들을 생성하는 인트라 예측부를 포함한다. 인트라 예측부는 상기 루마 예측 모드에 관한 정보를 기초로 상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드와 상기 크로마 예측 모드에 관한 정보를 기초로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정한다. According to another aspect of the present disclosure, an apparatus for decoding video data includes a decoder that obtains information about a luma prediction mode and information about a chroma prediction mode of a current coding block from a bitstream, and luma prediction samples of the current coding block. And an intra prediction unit that generates and chroma prediction samples. The intra prediction unit derives a luma intra prediction type and a luma intra prediction mode of the current coding block based on the information on the luma prediction mode, and the luma intra prediction type and luma intra prediction mode and the chroma prediction mode of the current coding block Based on the information on, a chroma intra prediction mode of the current coding block is determined.

상기 인트라 예측부는, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정하는 것의 일부로서, 상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이며, 상기 비디오 데이터의 샘플링 포맷이 4:4:4일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 타입이 상기 행렬 기반 인트라 예측이라고 결정하고, 상기 현재 코딩 블록의 크로마 인트라 예측 타입에 대응되는 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다고 결정한다.The intra prediction unit, as part of determining a chroma intra prediction mode of the current coding block, the information on the chroma prediction mode indicates a direct mode (DM), and the luma intra prediction type of the current coding block is matrix-based. Intra prediction, and when the sampling format of the video data is 4:4:4, it is determined that the chroma intra prediction type of the current coding block is the matrix-based intra prediction, and corresponds to the chroma intra prediction type of the current coding block It is determined that the chroma intra prediction mode is the same as the matrix-based intra prediction mode derived from the luma intra prediction mode of the current coding block.

도 1은 본 개시의 기술들을 구현할 수 있는 비디오 부호화 장치에 대한 예시적인 블록도이다.
도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.
도 3a는 복수의 인트라 예측 모드들을 나타낸 도면이다.
도 3b는 광각 인트라 예측모드들을 포함한 복수의 인트라 예측 모드들을 나타낸 도면이다.
도 4는 본 개시의 기술들을 구현할 수 있는 비디오 복호화 장치의 예시적인 블록도이다.
도 5는 본 개시의 기법들에서 사용될 수도 있는 MIP 기술의 주요 프로세스를 도식화한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 비디오 데이터를 복호화하는 방법을 예시하는 흐름도이다.
1 is an exemplary block diagram of a video encoding apparatus capable of implementing the techniques of this disclosure.
2 is a diagram for explaining a method of dividing a block using a QTBTTT structure.
3A is a diagram illustrating a plurality of intra prediction modes.
3B is a diagram illustrating a plurality of intra prediction modes including wide-angle intra prediction modes.
4 is an exemplary block diagram of a video decoding apparatus that can implement the techniques of this disclosure.
5 is a conceptual diagram illustrating the main process of MIP technology that may be used in the techniques of this disclosure.
6 is a flowchart illustrating a method of decoding video data according to an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 식별 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding identification codes to elements of each drawing, it should be noted that the same elements have the same symbols as possible even if they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

도 1은 본 개시의 기술들을 구현할 수 있는 비디오 부호화 장치에 대한 예시적인 블록도이다. 이하에서는 도 1을 참조하여 비디오 부호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.1 is an exemplary block diagram of a video encoding apparatus capable of implementing the techniques of this disclosure. Hereinafter, a video encoding apparatus and sub-elements of the apparatus will be described with reference to FIG. 1.

비디오 부호화 장치는 픽처 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 재정렬부(150), 엔트로피 부호화부(155), 역양자화부(160), 역변환부(165), 가산기(170), 필터부(180) 및 메모리(190)를 포함하여 구성될 수 있다.The video encoding apparatus includes a picture division unit 110, a prediction unit 120, a subtractor 130, a transform unit 140, a quantization unit 145, a rearrangement unit 150, an entropy encoding unit 155, an inverse quantization unit. (160), an inverse transform unit 165, an adder 170, a filter unit 180, and a memory 190 may be included.

비디오 부호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.Each component of the video encoding apparatus may be implemented by hardware or software, or by a combination of hardware and software. In addition, functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.

하나의 영상(비디오)는 복수의 픽처들로 구성된다. 각 픽처들은 복수의 영역으로 분할되고 각 영역마다 부호화가 수행된다. 예를 들어, 하나의 픽처는 하나 이상의 타일(Tile) 또는/및 슬라이스(Slice)로 분할된다. 여기서, 하나 이상의 타일을 타일 그룹(Tile Group)으로 정의할 수 있다. 각 타일 또는/슬라이스는 하나 이상의 CTU(Coding Tree Unit)로 분할된다. 그리고 각 CTU는 트리 구조에 의해 하나 이상의 CU(Coding Unit)들로 분할된다. 각 CU에 적용되는 정보들은 CU의 신택스로서 부호화되고, 하나의 CTU에 포함된 CU들에 공통적으로 적용되는 정보는 CTU의 신택스로서 부호화된다. 또한, 하나의 슬라이스 내의 모든 블록들에 공통적으로 적용되는 정보는 슬라이스 헤더의 신택스로서 부호화되며, 하나의 픽처들을 구성하는 모든 블록들에 적용되는 정보는 픽처 파라미터 셋(PPS, Picture Parameter Set) 혹은 픽처 헤더에 부호화된다. 나아가, 복수의 픽처가 공통으로 참조하는 정보들은 시퀀스 파라미터 셋(SPS, Sequence Parameter Set)에 부호화된다. 그리고, 하나 이상의 SPS가 공통으로 참조하는 정보들은 비디오 파라미터 셋(VPS, Video Parameter Set)에 부호화된다. 또한, 하나의 타일 또는 타일 그룹에 공통으로 적용되는 정보는 타일 또는 타일 그룹 헤더의 신택스로서 부호화될 수도 있다.One image (video) is composed of a plurality of pictures. Each picture is divided into a plurality of regions, and encoding is performed for each region. For example, one picture is divided into one or more tiles or/and slices. Here, one or more tiles may be defined as a tile group. Each tile or/slice is divided into one or more Coding Tree Units (CTUs). And each CTU is divided into one or more CUs (Coding Units) by a tree structure. Information applied to each CU is encoded as the syntax of the CU, and information commonly applied to CUs included in one CTU is encoded as the syntax of the CTU. In addition, information commonly applied to all blocks in one slice is encoded as the syntax of the slice header, and information applied to all blocks constituting one picture is a picture parameter set (PPS) or picture. It is coded in the header. Further, information commonly referred to by a plurality of pictures is encoded in a sequence parameter set (SPS). In addition, information commonly referred to by one or more SPSs is encoded in a video parameter set (VPS). Also, information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.

픽처 분할부(110)는 CTU(Coding Tree Unit)의 크기를 결정한다. CTU의 크기에 대한 정보(CTU size)는 SPS 또는 PPS의 신택스로서 부호화되어 비디오 복호화 장치로 전달된다. The picture dividing unit 110 determines the size of a coding tree unit (CTU). Information on the size of the CTU (CTU size) is encoded as the syntax of the SPS or PPS and transmitted to the video decoding apparatus.

픽처 분할부(110)는 영상을 구성하는 각 픽처(picture)를 미리 결정된 크기를 가지는 복수의 CTU(Coding Tree Unit)들로 분할한 이후에, 트리 구조(tree structure)를 이용하여 CTU를 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU(coding unit)가 된다. After dividing each picture constituting an image into a plurality of CTUs (Coding Tree Units) having a predetermined size, the picture dividing unit 110 repetitively divides the CTU using a tree structure. (recursively) split. A leaf node in the tree structure becomes a coding unit (CU), which is a basic unit of coding.

트리 구조로는 상위 노드(혹은 부모 노드)가 동일한 크기의 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(QuadTree, QT), 또는 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(BinaryTree, BT), 또는 상위 노드가 1:2:1 비율로 세 개의 하위 노드로 분할되는 터너리트리(TernaryTree, TT), 또는 이러한 QT 구조, BT 구조 및 TT 구조 중 둘 이상을 혼용한 구조일 수 있다. 예컨대, QTBT(QuadTree plus BinaryTree) 구조가 사용될 수 있고, 또는 QTBTTT(QuadTree plus BinaryTree TernaryTree) 구조가 사용될 수 있다. 여기서, BTTT를 합쳐서 MTT(Multiple-Type Tree)라 지칭될 수 있다. As a tree structure, a quad tree (QuadTree, QT) in which an upper node (or parent node) is divided into four lower nodes (or child nodes) of the same size, or a binary tree (BinaryTree) in which an upper node is divided into two lower nodes. , BT), or a ternary tree (TT) in which an upper node is divided into three lower nodes in a 1:2:1 ratio, or a structure in which two or more of these QT structures, BT structures, and TT structures are mixed. have. For example, a QTBT (QuadTree plus BinaryTree) structure may be used, or a QTBTTT (QuadTree plus BinaryTree TernaryTree) structure may be used. Here, by combining BTTT, it may be referred to as MTT (Multiple-Type Tree).

도 2는 QTBTTT 분할 트리 구조를 보인다. 도 2에서 보는 바와 같이, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달할 때까지 반복될 수 있다. QT 구조의 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)는 엔트로피 부호화부(155)에 의해 부호화되어 비디오 복호화 장치로 시그널링된다. QT의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 않은 경우, BT 구조 또는 TT 구조 중 어느 하나 이상으로 더 분할될 수 있다. BT 구조 및/또는 TT 구조에서는 복수의 분할 방향이 존재할 수 있다. 예컨대, 해당 노드의 블록이 가로로 분할되는 방향과 세로로 분할되는 방향 두 가지가 존재할 수 있다. 도 2와 같이, MTT 분할이 시작되면, 노드들이 분할되었는지 여부를 지시하는 제2 플래그(mtt_split_flag)와, 분할이 되었다면 추가적으로 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그 및/또는 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그가 엔트로피 부호화부(155)에 의해 부호화되어 비디오 복호화 장치로 시그널링된다. 대안적으로, 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)를 부호화하기에 앞서, 그 노드가 분할되는지 여부를 지시하는 CU 분할 플래그(split_cu_flag)가 부호화될 수도 있다. CU 분할 플래그(split_cu_flag) 값이 분할되지 않았음을 지시하는 경우, 해당 노드의 블록이 분할 트리 구조에서의 리프 노드(leaf node)가 되어 부호화의 기본 단위인 CU(coding unit)가 된다. CU 분할 플래그(split_cu_flag) 값이 분할됨을 지시하는 경우, 비디오 부호화 장치는 전술한 방식으로 제1 플래그부터 부호화를 시작한다.2 shows a QTBTTT split tree structure. As shown in FIG. 2, the CTU may be first divided into a QT structure. The quadtree division may be repeated until the size of a splitting block reaches the minimum block size (MinQTSize) of a leaf node allowed in QT. A first flag (QT_split_flag) indicating whether each node of the QT structure is divided into four nodes of a lower layer is encoded by the entropy encoder 155 and signaled to the video decoding apparatus. If the leaf node of the QT is not larger than the maximum block size (MaxBTSize) of the root node allowed in BT, it may be further divided into one or more of a BT structure or a TT structure. In the BT structure and/or the TT structure, a plurality of division directions may exist. For example, there may be two directions in which a block of a corresponding node is divided horizontally and a direction vertically divided. As shown in FIG. 2, when MTT splitting starts, a second flag (mtt_split_flag) indicating whether nodes are split, and if split, a flag indicating a split direction (vertical or horizontal) and/or a split type (Binary or Ternary). A flag indicating) is encoded by the entropy encoder 155 and signaled to the video decoding apparatus. Alternatively, before encoding the first flag (QT_split_flag) indicating whether each node is divided into four nodes of a lower layer, a CU split flag (split_cu_flag) indicating whether the node is divided is encoded. It could be. When it is indicated that the value of the CU split flag (split_cu_flag) is not split, the block of the corresponding node becomes a leaf node in the split tree structure and becomes a coding unit (CU), which is a basic unit of encoding. When indicating that the value of the CU split flag (split_cu_flag) is to be split, the video encoding apparatus starts encoding from the first flag in the above-described manner.

트리 구조의 다른 예시로서 QTBT가 사용되는 경우, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입(즉, symmetric horizontal splitting)과 세로로 분할하는 타입(즉, symmetric vertical splitting) 두 가지가 존재할 수 있다. BT 구조의 각 노드가 하위 레이어의 블록으로 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할되는 타입을 지시하는 분할 타입 정보가 엔트로피 부호화부(155)에 의해 부호화되어 비디오 복호화 장치로 전달된다. 한편, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태에는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태가 포함될 수 있고, 혹은 해당 노드의 블록을 대각선 방향으로 분할하는 형태가 포함될 수도 있다.When QTBT is used as another example of the tree structure, two types of horizontally splitting a block of the corresponding node into two blocks of the same size (i.e., symmetric horizontal splitting) and a type splitting vertically (i.e., symmetric vertical splitting) Branches can exist. A split flag indicating whether each node of the BT structure is divided into blocks of a lower layer and split type information indicating a type to be divided are encoded by the entropy encoder 155 and transmitted to the video decoding apparatus. Meanwhile, a type of dividing the block of the corresponding node into two blocks having an asymmetric shape may further exist. The asymmetric form may include a form of dividing a block of a corresponding node into two rectangular blocks having a size ratio of 1:3, or a form of dividing a block of a corresponding node in a diagonal direction.

CU는 CTU로부터의 QTBT 또는 QTBTTT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBTTT의 리프 노드)에 해당하는 블록을 '현재블록'이라 칭한다. QTBTTT 분할의 채용에 따라, 현재블록의 모양은 정사각형뿐만 아니라 직사각형일 수도 있다.The CU can have various sizes according to the QTBT or QTBTTT split from the CTU. Hereinafter, a block corresponding to a CU to be encoded or decoded (ie, a leaf node of QTBTTT) is referred to as a'current block'. According to the adoption of the QTBTTT division, the shape of the current block may be not only square but also rectangular.

예측부(120)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함한다. The prediction unit 120 predicts the current block and generates a prediction block. The prediction unit 120 includes an intra prediction unit 122 and an inter prediction unit 124.

일반적으로, 픽처 내 현재블록들은 각각 예측적으로 코딩될 수 있다. 일반적으로 현재블록의 예측은 (현재블록을 포함하는 픽처로부터의 데이터를 사용하는) 인트라 예측 기술 또는 (현재블록을 포함하는 픽처 이전에 코딩된 픽처로부터의 데이터를 사용하는) 인터 예측 기술을 사용하여 수행될 수 있다. 인터 예측은 단방향 예측과 양방향 예측 모두를 포함한다.In general, each of the current blocks in a picture can be predictively coded. In general, prediction of the current block is performed using an intra prediction technique (using data from a picture containing the current block) or an inter prediction technique (using data from a picture coded before a picture containing the current block). Can be done. Inter prediction includes both one-way prediction and two-way prediction.

인트라 예측부(122)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재한다. 예컨대, 도 3a에서 보는 바와 같이, 복수의 인트라 예측모드는 PLANAR 모드와 DC 모드를 포함하는 2개의 비방향성 모드와 65개의 방향성 모드를 포함할 수 있다. 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다. 아래 표는 인트라 예측 모드들 번호와 이름을 열거한다.The intra prediction unit 122 predicts pixels in the current block by using pixels (reference pixels) located around the current block in the current picture including the current block. There are a plurality of intra prediction modes according to the prediction direction. For example, as shown in FIG. 3A, the plurality of intra prediction modes may include two non-directional modes including a PLANAR mode and a DC mode, and 65 directional modes. Depending on each prediction mode, the surrounding pixels to be used and the calculation expression are defined differently. The table below lists intra prediction modes numbers and names.

Figure pat00001
Figure pat00001

직사각형 모양의 현재블록에 대한 효율적인 방향성 예측을 위해, 도 3b에 점선 화살표로 도시된 방향성 모드들(67 ~ 80번, -1 ~ -14 번 인트라 예측모드들)이 추가로 사용될 수 있다. 이들은 "광각 인트라 예측모드들(wide angle intra-prediction modes)"로 지칭될 수 있다. 도 3b에서 화살표들은 예측에 사용되는 대응하는 참조샘플들을 가리키는 것이며, 예측 방향을 나타내는 것이 아니다. 예측 방향은 화살표가 가리키는 방향과 반대이다. 광각 인트라 예측모드들은 현재블록이 직사각형일 때 추가적인 비트 전송 없이 특정 방향성 모드를 반대방향으로 예측을 수행하는 모드이다. 이때 광각 인트라 예측모드들 중에서, 직사각형의 현재블록의 너비와 높이의 비율에 의해, 현재블록에 이용 가능한 일부 광각 인트라 예측모드들이 결정될 수 있다. 예컨대, 45도보다 작은 각도를 갖는 광각 인트라 예측모드들(67 ~ 80번 인트라 예측모드들)은 현재블록이 높이가 너비보다 작은 직사각형 형태일 때 이용 가능하고, -135도보다 큰 각도를 갖는 광각 인트라 예측모드들(-1 ~ -14 번 인트라 예측모드들)은 현재블록이 높이가 너비보다 큰 직사각형 형태일 때 이용 가능하다.For efficient directional prediction for the rectangular-shaped current block, directional modes (67 to 80, intra prediction modes -1 to -14) shown by dotted arrows in FIG. 3B may be additionally used. These may be referred to as "wide angle intra-prediction modes". Arrows in FIG. 3B indicate corresponding reference samples used for prediction, and do not indicate a prediction direction. The prediction direction is opposite to the direction indicated by the arrow. In the wide-angle intra prediction modes, when the current block is a rectangle, a specific directional mode is predicted in the opposite direction without additional bit transmission. In this case, among the wide-angle intra prediction modes, some wide-angle intra prediction modes available for the current block may be determined based on a ratio of the width and height of the rectangular current block. For example, wide-angle intra prediction modes with an angle less than 45 degrees (intra prediction modes 67 to 80) can be used when the current block has a rectangular shape with a height smaller than the width, and wide-angle with an angle greater than -135 degrees. The intra prediction modes (intra prediction modes -1 to -14) can be used when the current block has a rectangular shape whose height is greater than the width.

인트라 예측부(122)는 현재블록을 부호화하는데 사용할 인트라 예측모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측모드들을 사용하여 현재블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측모드를 선택할 수도 있다. 예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측모드들에 대한 레이트 왜곡(rate-distortion) 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 레이트 왜곡 특징들을 갖는 인트라 예측모드를 선택할 수도 있다.The intra prediction unit 122 may determine an intra prediction mode to be used to encode the current block. In some examples, the intra prediction unit 122 may encode the current block using several intra prediction modes and select an appropriate intra prediction mode to use from the tested modes. For example, the intra prediction unit 122 calculates rate distortion values using rate-distortion analysis for several tested intra prediction modes, and has the best rate distortion characteristics among the tested modes. It is also possible to select an intra prediction mode.

인트라 예측부(122)는 복수의 인트라 예측모드 중에서 하나의 인트라 예측모드를 선택하고, 선택된 인트라 예측모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측모드에 대한 정보는 엔트로피 부호화부(155)에 의해 부호화되어 비디오 복호화 장치로 전달된다.The intra prediction unit 122 selects one intra prediction mode from among a plurality of intra prediction modes, and predicts the current block using a neighboring pixel (reference pixel) determined according to the selected intra prediction mode and an equation. Information on the selected intra prediction mode is encoded by the entropy encoder 155 and transmitted to the video decoding apparatus.

또한, 인트라 예측부(122)는 후술하는 행렬 기반 인트라 예측(Matrix-based Intra Prediction: MIP)을 이용하여, 현재블록에 대한 예측블록을 생성할 수도 있다. 인트라 예측부(122)는 현재블록의 좌측에 재구성된 샘플들과 현재블록의 상측에 재구성된 샘플들로부터 유도된 경계 벡터와 미리 정의된 행렬 및 오프셋 벡터를 이용하여 현재블록에 대한 예측블록을 생성할 수도 있다.In addition, the intra prediction unit 122 may generate a prediction block for the current block by using matrix-based intra prediction (MIP) to be described later. The intra prediction unit 122 generates a prediction block for the current block using a boundary vector derived from samples reconstructed on the left side of the current block and samples reconstructed above the current block, a predefined matrix, and an offset vector. You may.

인터 예측부(124)는 움직임 보상 과정을 통해 현재블록에 대한 예측블록을 생성한다. 인터 예측부(124)는 현재 픽처보다 먼저 부호화 및 복호화된 참조픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 모션 벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다. 현재블록을 예측하기 위해 사용된 참조픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 엔트로피 부호화부(155)에 의해 부호화되어 비디오 복호화 장치로 전달된다.The inter prediction unit 124 generates a prediction block for the current block through a motion compensation process. The inter prediction unit 124 searches for a block most similar to the current block in the coded and decoded reference picture prior to the current picture, and generates a prediction block for the current block using the searched block. Then, a motion vector corresponding to a displacement between the current block in the current picture and the prediction block in the reference picture is generated. In general, motion estimation is performed on a luma component, and a motion vector calculated based on the luma component is used for both the luma component and the chroma component. Motion information including information on a reference picture used to predict the current block and information on a motion vector is encoded by the entropy encoder 155 and transmitted to the video decoding apparatus.

감산기(130)는 현재블록으로부터 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측블록을 감산하여 잔차블록을 생성한다.The subtractor 130 generates a residual block by subtracting the prediction block generated by the intra prediction unit 122 or the inter prediction unit 124 from the current block.

변환부(140)는 잔차블록을 하나 이상의 변환블록들로 나누고, 변환을 하나 이상의 변환 블록들에 적용하여, 변환블록들의 잔차 값들을 픽셀 도메인에서 주파수 도메인으로 변환한다. 주파수 도메인에서, 변환된 블록들은 하나 이상의 변환 계수 값들을 포함하는 계수 블록들이라고 지칭된다. 변환에는 2차원 변환 커널이 사용될 수 있으며, 수평 방향 변환과 수직 방향 방향에 각각 1차원 변환 커널이 사용될 수도 있다. 변환 커널은 이산 코사인 변환(DCT), 이산 사인 변환(DST) 등에 기반할 수 있다.The transform unit 140 divides the residual block into one or more transform blocks, applies the transform to one or more transform blocks, and transforms residual values of the transform blocks from the pixel domain to the frequency domain. In the frequency domain, transformed blocks are referred to as coefficient blocks comprising one or more transform coefficient values. A 2D transformation kernel may be used for transformation, and a 1D transformation kernel may be used for each of the horizontal and vertical directions. The transform kernel may be based on discrete cosine transform (DCT), discrete sine transform (DST), or the like.

변환부(140)는 잔차블록의 전체 크기를 변환 단위로 사용하여 잔차블록 내의 잔차 신호들을 변환할 수 있다. 또한, 변환부(140)는 잔차블록을 수평 혹은 수직 방향으로 2개의 서브블록으로 분할하고, 변환을 2개의 서브블록 중 하나에만 수행할 수 있다. 따라서, 변환 블록의 사이즈는 잔차 블록의 사이즈(따라서 예측블록의 사이즈)와 상이할 수도 있다. 변환이 수행되지 않는 서브블록에는 논-제로 잔차 샘플 값들이 존재하지 않거나 매우 희소할 수 있다. 변환이 수행되지 않는 서브블록의 잔차 샘플들은 시그널링되지 않으며, 비디오 복호화 장치에 의해 모두 "0"으로 간주될 수 있다. 분할 방향과 분할 비율에 따라 여러 파티션 타입들이 존재할 수 있다. 변환부(140)는 잔차블록의 코딩 모드(혹은 변환 모드)에 관한 정보(예컨대, 잔차 블록을 변환하였는지 아니면 잔차 서브블록을 변환하였는지를 나타내는 정보, 잔차블록을 서브블록들로 분할하기 위해 선택된 파티션 타입을 나타내는 정보, 변환이 수행되는 서브블록을 식별하는 정보 등을 포함하는 정보)를 엔트로피 부호화부(155)에 제공할 수 있다. 엔트로피 부호화부(155)는 잔차블록의 코딩 모드(혹은 변환 모드)에 관한 정보를 부호화할 수 있다. The transform unit 140 may transform residual signals in the residual block by using the entire size of the residual block as a transform unit. In addition, the transform unit 140 may divide the residual block into two sub-blocks in a horizontal or vertical direction, and may perform transformation on only one of the two sub-blocks. Accordingly, the size of the transform block may be different from the size of the residual block (and thus the size of the prediction block). Non-zero residual sample values may not exist or may be very sparse in a subblock on which transformation is not performed. The residual samples of the subblock on which the transformation is not performed are not signaled, and may be regarded as "0" by the video decoding apparatus. There can be several partition types depending on the partitioning direction and the partitioning ratio. The transform unit 140 includes information on the coding mode (or transform mode) of the residual block (e.g., information indicating whether the residual block is transformed or the residual subblock is transformed, and a partition type selected to divide the residual block into subblocks) The entropy encoding unit 155 may be provided with information indicating information and information identifying a subblock on which transformation is performed. The entropy encoder 155 may encode information about a coding mode (or transform mode) of the residual block.

양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 엔트로피 부호화부(155)로 출력한다. 양자화부(145)는, 어떤 블록 혹은 프레임에 대해, 변환 없이, 관련된 잔차 블록을 곧바로 양자화할 수도 있다.The quantization unit 145 quantizes the transform coefficients output from the transform unit 140 and outputs the quantized transform coefficients to the entropy encoding unit 155. The quantization unit 145 may immediately quantize a related residual block for a certain block or frame without transformation.

재정렬부(150)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다. 재정렬부(150)는 계수 스캐닝(coefficient scanning)을 통해 2차원의 계수 어레이를 1차원의 계수 시퀀스로 변경할 수 있다. 예를 들어, 재정렬부(150)에서는 지그-재그 스캔(zig-zag scan) 또는 대각선 스캔(diagonal scan)을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원의 계수 시퀀스를 출력할 수 있다. 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔 대신 2차원의 계수 어레이를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔, 대각선 스캔, 수직 방향 스캔 및 수평 방향 스캔 중에서 사용될 스캔 방법이 결정될 수도 있다.The rearrangement unit 150 may rearrange coefficient values on the quantized residual values. The rearrangement unit 150 may change a two-dimensional coefficient array into a one-dimensional coefficient sequence through coefficient scanning. For example, the rearrangement unit 150 may scan from a DC coefficient to a coefficient in a high frequency region using a zig-zag scan or a diagonal scan to output a one-dimensional coefficient sequence. . Depending on the size of the transform unit and the intra prediction mode, instead of zig-zag scan, a vertical scan that scans a two-dimensional coefficient array in a column direction or a horizontal scan that scans a two-dimensional block shape coefficient in a row direction may be used. That is, a scan method to be used may be determined from among zig-zag scan, diagonal scan, vertical scan, and horizontal scan according to the size of the transform unit and the intra prediction mode.

엔트로피 부호화부(155)는, CABAC(Context-based Adaptive Binary Arithmetic Code), 지수 골롬(Exponential Golomb) 등의 다양한 부호화 방식을 사용하여, 재정렬부(150)로부터 출력된 1차원의 양자화된 변환 계수들의 시퀀스를 부호화함으로써 비트스트림을 생성한다. The entropy encoding unit 155 uses various encoding methods such as Context-based Adaptive Binary Arithmetic Code (CABAC), Exponential Golomb, and the like, and the quantized transform coefficients of 1D output from the reordering unit 150 are A bitstream is generated by encoding the sequence.

또한, 엔트로피 부호화부(155)는 블록 분할과 관련된 CTU size, CU 분할 플래그, QT 분할 플래그, MTT 분할 타입, MTT 분할 방향 등의 정보를 부호화하여, 비디오 복호화 장치가 비디오 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다. 또한, 엔트로피 부호화부(155)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보(즉, 인트라 예측모드에 대한 정보) 또는 인터 예측정보(참조픽처 및 움직임벡터에 대한 정보)를 부호화한다.In addition, the entropy encoder 155 encodes information such as a CTU size related to block division, a CU division flag, a QT division flag, an MTT division type, and an MTT division direction, so that the video decoding apparatus performs the same block as the video encoding apparatus. Make it possible to divide. In addition, the entropy encoder 155 encodes information on a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and intra prediction information (ie, intra prediction) according to the prediction type. Mode information) or inter prediction information (reference picture and motion vector information) is encoded.

역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.The inverse quantization unit 160 inverse quantizes the quantized transform coefficients output from the quantization unit 145 to generate transform coefficients. The inverse transform unit 165 converts transform coefficients output from the inverse quantization unit 160 from the frequency domain to the spatial domain to restore the residual block.

가산부(170)는 복원된 잔차블록과 예측부(120)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀로서 사용된다.The addition unit 170 restores the current block by adding the restored residual block and the prediction block generated by the prediction unit 120. The pixels in the reconstructed current block are used as reference pixels when intra-predicting the next block.

필터부(180)는 블록 기반의 예측 및 변환/양자화로 인해 발생하는 블록킹 아티팩트(blocking artifacts), 링잉 아티팩트(ringing artifacts), 블러링 아티팩트(blurring artifacts) 등을 줄이기 위해 복원된 픽셀들에 대한 필터링을 수행한다. 필터부(180)는 디블록킹 필터(182)와 SAO(Sample Adaptive Offset) 필터(184)를 포함할 수 있다.The filter unit 180 filters reconstructed pixels to reduce blocking artifacts, ringing artifacts, blurring artifacts, etc. that occur due to block-based prediction and transformation/quantization. Perform. The filter unit 180 may include a deblocking filter 182 and a sample adaptive offset (SAO) filter 184.

디블록킹 필터(180)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 필터링하고, SAO 필터(184)는 디블록킹 필터링된 영상에 대해 추가적인 필터링을 수행한다. SAO 필터(184)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해 사용되는 필터이다.The deblocking filter 180 filters the boundary between reconstructed blocks to remove blocking artifacts caused by block-based encoding/decoding, and the SAO filter 184 adds additional information to the deblocking-filtered image. Filtering is performed. The SAO filter 184 is a filter used to compensate for a difference between a reconstructed pixel and an original pixel caused by lossy coding.

디블록킹 필터(182) 및 SAO 필터(184)를 통해 필터링된 복원블록은 메모리(190)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용될 수 있다. The reconstructed block filtered through the deblocking filter 182 and the SAO filter 184 is stored in the memory 190. When all blocks in one picture are reconstructed, the reconstructed picture may be used as a reference picture for inter prediction of a block in a picture to be encoded later.

도 4는 본 개시의 기술들을 구현할 수 있는 비디오 복호화 장치의 예시적인 기능 블록도이다. 이하에서는 도 4를 참조하여 비디오 복호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.4 is an exemplary functional block diagram of a video decoding apparatus capable of implementing the techniques of this disclosure. Hereinafter, a video decoding apparatus and subordinate components of the apparatus will be described with reference to FIG. 4.

비디오 복호화 장치는 엔트로피 복호화부(410), 재정렬부(415), 역양자화부(420), 역변환부(430), 예측부(440), 가산기(450), 필터부(460) 및 메모리(470)를 포함하여 구성될 수 있다. The video decoding apparatus includes an entropy decoding unit 410, a rearrangement unit 415, an inverse quantization unit 420, an inverse transform unit 430, a prediction unit 440, an adder 450, a filter unit 460, and a memory 470. ) Can be included.

도 1의 비디오 부호화 장치와 마찬가지로, 비디오 복호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.Like the video encoding apparatus of FIG. 1, each component of the video decoding apparatus may be implemented as hardware or software, or a combination of hardware and software. In addition, functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.

엔트로피 복호화부(410)는 비디오 부호화 장치에 의해 생성된 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출함으로써 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측정보와 잔차신호에 대한 정보 등을 추출한다.The entropy decoding unit 410 determines the current block to be decoded by decoding the bitstream generated by the video encoding apparatus and extracting information related to block division, and the prediction information and residual signal required to restore the current block. Extract information, etc.

엔트로피 복호화부(410)는 SPS(Sequence Parameter Set) 또는 PPS(Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고, CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할정보를 추출함으로써 트리 구조를 이용하여 CTU를 분할한다. The entropy decoding unit 410 determines the size of the CTU by extracting information on the CTU size from a sequence parameter set (SPS) or a picture parameter set (PPS), and divides the picture into CTUs of the determined size. Then, the CTU is determined as the uppermost layer of the tree structure, that is, the root node, and the CTU is divided using the tree structure by extracting partition information for the CTU.

예컨대, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 MTT의 분할과 관련된 제2 플래그(MTT_split_flag) 및 분할 방향(vertical / horizontal) 및/또는 분할 타입(binary / ternary) 정보를 추출하여 해당 리프 노드를 MTT 구조로 분할한다. 이를 통해 QT의 리프 노드 이하의 각 노드들을 BT 또는 TT 구조로 반복적으로(recursively) 분할한다.For example, in the case of splitting the CTU using the QTBTTT structure, first, a first flag (QT_split_flag) related to the splitting of the QT is extracted and each node is split into four nodes of a lower layer. And, for the node corresponding to the leaf node of QT, the second flag (MTT_split_flag) related to the splitting of the MTT and the splitting direction (vertical / horizontal) and/or split type (binary / ternary) information are extracted, and the corresponding leaf node is MTT. Divide into structure. Through this, each node below the leaf node of the QT is recursively divided into a BT or TT structure.

또 다른 예로서, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 CU의 분할 여부를 지시하는 CU 분할 플래그(split_cu_flag)를 추출하고, 해당 블록이 분할된 경우, 제1 플래그(QT_split_flag)를 추출할 수도 있다. 분할 과정에서 각 노드는 0번 이상의 반복적인 QT 분할 후에 0번 이상의 반복적인 MTT 분할이 발생할 수 있다. 예컨대, CTU는 바로 MTT 분할이 발생하거나, 반대로 다수 번의 QT 분할만 발생할 수도 있다. As another example, when splitting the CTU using the QTBTTT structure, first extract the CU split flag (split_cu_flag) indicating whether to split the CU, and if the corresponding block is split, the first flag (QT_split_flag) is extracted. May be. In the segmentation process, each node may have 0 or more repetitive MTT segmentation after 0 or more repetitive QT segmentation. For example, in the CTU, MTT division may occur immediately, or, conversely, only multiple QT divisions may occur.

다른 예로서, QTBT 구조를 사용하여 CTU를 분할하는 경우, QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT로 더 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할 방향 정보를 추출한다.As another example, when the CTU is divided using the QTBT structure, each node is divided into four nodes of a lower layer by extracting the first flag (QT_split_flag) related to the division of the QT. In addition, a split flag indicating whether or not the node corresponding to the leaf node of the QT is further split into BT and split direction information are extracted.

한편, 엔트로피 복호화부(410)는 트리 구조의 분할을 통해 복호화하고자 하는 현재블록을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다. 예측 타입 정보가 인트라 예측을 지시하는 경우, 엔트로피 복호화부(410)는 현재블록의 인트라 예측정보(인트라 예측모드)에 대한 신택스 엘리먼트를 추출한다. 예측 타입 정보가 인터 예측을 지시하는 경우, 엔트로피 복호화부(410)는 인터 예측정보에 대한 신택스 엘리먼트, 즉, 움직임벡터 및 그 움직임벡터가 참조하는 참조픽처를 나타내는 정보를 추출한다.Meanwhile, when determining the current block to be decoded through the division of the tree structure, the entropy decoder 410 extracts information on a prediction type indicating whether the current block is intra prediction or inter prediction. When the prediction type information indicates intra prediction, the entropy decoder 410 extracts a syntax element for intra prediction information (intra prediction mode) of the current block. When the prediction type information indicates inter prediction, the entropy decoder 410 extracts a syntax element for the inter prediction information, that is, information indicating a motion vector and a reference picture referenced by the motion vector.

한편, 엔트로피 복호화부(410)는 잔차블록의 코딩 모드에 관한 정보(예컨대, 잔차블록이 부호화되었는지 잔차블록의 서브블록만이 부호화되었는지 여부에 관한 정보, 잔차블록을 서브블록들로 분할하기 위해 선택된 파티션 타입을 나타내는 정보, 부호화된 잔차 서브블록을 식별하는 정보, 양자화 파라미터 등)를 비트스트림으로부터 추출한다. 또한, 엔트로피 복호화부(410)는 잔차신호에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.On the other hand, the entropy decoder 410 includes information on the coding mode of the residual block (e.g., information on whether the residual block is encoded or only the subblocks of the residual block are encoded, and is selected to divide the residual block into subblocks). Information indicating the partition type, information identifying the encoded residual subblock, quantization parameters, etc.) are extracted from the bitstream. In addition, the entropy decoder 410 extracts information on quantized transform coefficients of the current block as information on the residual signal.

재정렬부(415)는, 비디오 부호화 장치에 의해 수행된 계수 스캐닝 순서의 역순으로, 엔트로피 복호화부(410)에서 엔트로피 복호화된 1차원의 양자화된 변환계수들의 시퀀스를 다시 2차원의 계수 어레이(즉, 블록)로 변경할 수 있다.The rearrangement unit 415, in the reverse order of the coefficient scanning order performed by the video encoding apparatus, reconverts the sequence of one-dimensional quantized transform coefficients entropy-decoded by the entropy decoder 410 to a two-dimensional coefficient array (i.e., Block).

역양자화부(420)는 양자화된 변환계수들을 역양자화하고, 역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보를 기초로, 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 복원된 잔차블록을 생성한다.The inverse quantization unit 420 inverse quantizes the quantized transform coefficients, and the inverse transform unit 430 inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain based on information on the coding mode of the residual block By reconstructing the signals, a reconstructed residual block for the current block is generated.

역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보가 비디오 부호화 장치에서 현재블록의 잔차블록이 부호화되었다고 지시하는 경우에, 역양자화된 변환계수들에 대해 현재블록의 사이즈(따라서, 복원될 잔차블록의 사이즈)를 변환 단위로 사용하여 역변환을 수행하여 현재블록에 대한 복원된 잔차블록을 생성한다. When the information on the coding mode of the residual block indicates that the residual block of the current block is coded in the video encoding apparatus, the inverse transform unit 430 determines the size of the current block with respect to the inverse quantized transformation coefficients. A reconstructed residual block for the current block is generated by performing inverse transformation using the residual block size) as a transformation unit.

또한, 역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보가 비디오 부호화 장치에서 잔차블록의 하나의 서브블록만이 부호화되었다고 지시하는 경우에, 역양자화된 변환계수들에 대해, 변환된 서브블록의 사이즈를 변환 단위로 사용하여, 역변환을 수행하여 변환된 서브블록에 대한 잔차신호들을 복원하고, 비변환된 서브블록에 대한 잔차신호들을 "0" 값으로 채움으로써, 현재블록에 대한 복원된 잔차블록을 생성한다.In addition, when the information on the coding mode of the residual block indicates that only one subblock of the residual block is coded in the video encoding apparatus, the inverse transform unit 430 performs the transformed sub- By using the size of the block as a transformation unit, performing inverse transformation to restore residual signals for the transformed subblock, and filling the residual signals for untransformed subblocks with a value of "0", the reconstructed current block Create a residual block.

예측부(440)는 인트라 예측부(442) 및 인터 예측부(444)를 포함할 수 있다. 인트라 예측부(442)는 현재블록의 예측 타입이 인트라 예측일 때 활성화되고, 인터 예측부(444)는 현재블록의 예측 타입이 인터 예측일 때 활성화된다.The prediction unit 440 may include an intra prediction unit 442 and an inter prediction unit 444. The intra prediction unit 442 is activated when the prediction type of the current block is intra prediction, and the inter prediction unit 444 is activated when the prediction type of the current block is inter prediction.

인트라 예측부(442)는 엔트로피 복호화부(410)로부터 추출된 인트라 예측모드에 대한 신택스 엘리먼트로부터 복수의 인트라 예측모드 중 현재블록의 인트라 예측모드를 결정하고, 인트라 예측모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다. 또한, 인트라 예측부(442)는 후술하는 행렬 기반 인트라 예측(Matrix-based Intra Prediction: MIP)을 이용하여, 현재블록에 대한 예측블록을 생성할 수도 있다. 인트라 예측부(422)는 현재블록의 좌측에 재구성된 샘플들과 현재블록의 상측에 재구성된 샘플들로부터 유도된 경계 벡터와 미리 정의된 행렬 및 오프셋 벡터를 이용하여 현재블록에 대한 예측블록을 생성할 수도 있다.The intra prediction unit 442 determines an intra prediction mode of the current block among a plurality of intra prediction modes from the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and references around the current block according to the intra prediction mode. Predict the current block using pixels. In addition, the intra prediction unit 442 may generate a prediction block for the current block by using matrix-based intra prediction (MIP) to be described later. The intra prediction unit 422 generates a prediction block for the current block by using a boundary vector derived from samples reconstructed on the left side of the current block and samples reconstructed above the current block, and a predefined matrix and offset vector. You may.

인터 예측부(444)는 엔트로피 복호화부(410)로부터 추출된 인트라 예측모드에 대한 신택스 엘리먼트를 이용하여 현재블록의 움직임벡터와 그 움직임벡터가 참조하는 참조픽처를 결정하고, 움직임벡터와 참조픽처를 이용하여 현재블록을 예측한다.The inter prediction unit 444 determines a motion vector of the current block and a reference picture referenced by the motion vector using the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and determines the motion vector and the reference picture. Is used to predict the current block.

가산기(450)는 역변환부로부터 출력되는 잔차블록과 인터 예측부 또는 인트라 예측부로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀로서 활용된다.The adder 450 restores the current block by adding the residual block output from the inverse transform unit and the prediction block output from the inter prediction unit or the intra prediction unit. The pixels in the reconstructed current block are used as reference pixels for intra prediction of a block to be decoded later.

필터부(460)는 디블록킹 필터(462) 및 SAO 필터(464)를 포함할 수 있다. 디블록킹 필터(462)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)를 제거하기 위해, 복원된 블록 간의 경계를 디블록킹 필터링한다. SAO 필터(464)는 손실 부호화(lossy coding)으로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해, 디블록킹 필터링 이후의 복원된 블록에 대해 추가적인 필터링을 수행한다. 디블록킹 필터(462) 및 SAO 필터(464)를 통해 필터링된 복원블록은 메모리(470)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다. The filter unit 460 may include a deblocking filter 462 and an SAO filter 464. The deblocking filter 462 performs deblocking filtering on the boundary between reconstructed blocks in order to remove blocking artifacts caused by decoding in units of blocks. The SAO filter 464 performs additional filtering on the reconstructed block after deblocking filtering in order to compensate for the difference between the reconstructed pixel and the original pixel caused by lossy coding. The reconstructed block filtered through the deblocking filter 462 and the SAO filter 464 is stored in the memory 470. When all blocks in one picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be encoded later.

본 개시의 기술들은 일반적으로 인트라 예측 코딩과 관련되어 있다. 이하의 설명은 주로 복호화 기술, 즉 비디오 복호화기의 동작에 초점이 맞춰져 있으며, 부호화 기술들에 대한 설명은, 포괄적으로 설명된 복호화 기술과 반대이므로, 간략화된다. The techniques of this disclosure generally relate to intra predictive coding. The following description is mainly focused on a decoding technique, that is, the operation of a video decoder, and descriptions of the encoding techniques are simplified because they are opposite to the comprehensively described decoding technique.

차세대 비디오 코딩 표준(VVC; Versatile Video Coding)에 대한 논의에서, HEVC(High Efficiency Video Coding) 표준과 비교하여 더 나은 코딩 성능을 가능하게 하는 몇 가지 새로운 코딩 도구들이 도입되었다. In the discussion of the next-generation video coding standard (VVC; Versatile Video Coding), several new coding tools have been introduced that enable better coding performance compared to the High Efficiency Video Coding (HEVC) standard.

행렬 기반 인트라 예측(Matrix-based Intra Prediction: MIP)은 VTM 5.0에 도입된 새로운 인트라 예측 기술이다. 원래의 아이디어는 신경망에 기초한 인트라 예측 기술, 즉, 인접한 재구성된 픽셀들에 기초하여 현재의 PU 픽셀 값들을 예측하기 위해 다층 신경망을 사용하는 것이다. 그러나 신경망을 이용한 예측 방법의 높은 복잡성으로 인해, 사전에 훈련된 행렬들을 이용한 아핀 선형 변환에 기초한 인트라 예측 기술이 도입되었다. Matrix-based Intra Prediction (MIP) is a new intra prediction technology introduced in VTM 5.0. The original idea is to use a neural network-based intra prediction technique, i.e., using a multilayer neural network to predict current PU pixel values based on adjacent reconstructed pixels. However, due to the high complexity of the prediction method using a neural network, an intra prediction technique based on affine linear transformation using pre-trained matrices was introduced.

너비 W 및 높이 H를 갖는 직사각형 블록 PU를 예측하기 위해, MIP는 블록의 좌측에 재구성된 H개의 샘플들과 블록 상측의 재구성된 W개의 샘플들을 입력으로서 취한다. 그리고 최종 예측된 픽셀들은 평균화(Averaging), 행렬-벡터 곱셈(Matrix-Vector Multiplication) 및 선형 보간(Linear Interpolation) 등에 의해 얻어진다.To predict a rectangular block PU with width W and height H, MIP takes as inputs the reconstructed H samples on the left side of the block and the reconstructed W samples on the top side of the block. And the final predicted pixels are obtained by averaging, matrix-vector multiplication, and linear interpolation.

MIP가 적용되는 블록의 사이즈들은 다음과 같이 3개의 카테고리로 분류된다. Block sizes to which MIP is applied are classified into three categories as follows.

Figure pat00002
Figure pat00002

idx(W,H)에 따라, MIP 모드의 개수(numModes), 경계크기(boundarySize), 예측블록의 크기(predW, predH, predC)가 다음과 같이 정의된다. 아래 표에서 MipSizeId = idx(W,H)이다.Depending on idx(W,H), the number of MIP modes (numModes), boundary size (boundarySize), and prediction block sizes (predW, predH, predC) are defined as follows. In the table below, MipSizeId = idx(W,H).

Figure pat00003
Figure pat00003

도 5는 본 개시의 기법들에서 사용될 수도 있는 MIP 기술의 주요 프로세스를 도식화한 개념도이다.5 is a conceptual diagram illustrating the main process of MIP technology that may be used in the techniques of this disclosure.

(1) 평균 연산(Averaging)(1) Averaging

이 단계의 주요 목적은 참조 샘플들을 정규화하는 것이다. 블록 크기 및 형상(너비 및 높이)에 따라(즉, MipSizeId에 따라), 4 또는 8개의 샘플들이 얻어진다. 현재 블록의 너비와 높이가 모두 4인 경우(W=H=4), 왼쪽으로부터 2개와 상단으로부터 2개를 포함한 총 4개의 샘플들이 얻어진다(boundarySize = 2). 나머지 경우에는 왼쪽으로부터 4개와 상단으로부터 4개를 포함한 총 8개의 샘플들이 얻어진다(boundarySize = 4). The main purpose of this step is to normalize the reference samples. Depending on the block size and shape (width and height) (i.e. according to MipSizeId), 4 or 8 samples are obtained. If both the width and height of the current block are 4 (W=H=4), a total of 4 samples including 2 from the left and 2 from the top are obtained (boundarySize = 2). In the remaining case, a total of 8 samples including 4 from the left and 4 from the top are obtained (boundarySize = 4).

도 5에서 보이듯이, 상측 이웃 샘플들은

Figure pat00004
로 표기되고, 좌측 이웃 샘플들은
Figure pat00005
로 표기된다.
Figure pat00006
Figure pat00007
에 대해 각각 평균 연산을 수행하여, 다운 샘플링된 샘플 세트
Figure pat00008
Figure pat00009
가 얻어진다. 평균 연산은 다음과 같은 다운 샘플링 프로세스이다.As shown in Figure 5, the upper neighboring samples are
Figure pat00004
And the left neighboring samples are
Figure pat00005
It is marked as.
Figure pat00006
Wow
Figure pat00007
Averaging each of the sets of samples down-sampled
Figure pat00008
Wow
Figure pat00009
Is obtained. The average operation is the downsampling process as follows.

Figure pat00010
Figure pat00010

위 수학식에서 bDwn은 다운 샘플링의 스케일 값(nTbs / boundarySize)이며, refS는 오리지널 참조샘플을 가리킨다. 계산된 redS는 좌측 이웃의 경우

Figure pat00011
로 저장되고, 상측 이웃의 경우
Figure pat00012
로 저장된다. In the above equation, bDwn is a downsampling scale value (nTbs / boundarySize), and refS indicates an original reference sample. The calculated redS is for the left neighbor
Figure pat00011
And in the case of the upper neighbor
Figure pat00012
Is saved as.

다운 샘플링된 참조 샘플들은 길이 4 또는 8의 벡터로 스티칭된다. 벡터-행렬 곱셈 연산에 입력되는 축소된 경계 벡터

Figure pat00013
은 아래의 수학식과 같이 정의된다. 예를 들어, W=H=4이고 MIP 모드가 18 미만인 경우
Figure pat00014
Figure pat00015
의 순서로 접합하여 경계 벡터를 구성하며, W=H=4이고 MIP 모드가 18이상이면
Figure pat00016
Figure pat00017
의 순서로 접합된다. 아래 수학식에서, "mode" 는 MIP 모드를 의미한다.The down-sampled reference samples are stitched into vectors of length 4 or 8. Reduced boundary vector input to vector-matrix multiplication operation
Figure pat00013
Is defined as the following equation. For example, if W=H=4 and MIP mode is less than 18
Figure pat00014
Wow
Figure pat00015
The boundary vector is formed by joining in the order of, and if W=H=4 and MIP mode is 18 or higher,
Figure pat00016
Wow
Figure pat00017
Are joined in the order of. In the following equation, "mode" means a MIP mode.

Figure pat00018
Figure pat00018

(2) 행렬-벡터 곱셈(Matrix-Vector Multiplication)(2) Matrix-Vector Multiplication

이 단계에서, 축소된 경계 벡터

Figure pat00019
로부터 현재 블록의 다운 샘플링된 예측 신호
Figure pat00020
가 생성된다.
Figure pat00021
는 행렬-벡터의 곱과 오프셋의 합으로 다음과 같이 계산한다.At this stage, the reduced boundary vector
Figure pat00019
The downsampled prediction signal of the current block from
Figure pat00020
Is created.
Figure pat00021
Is the sum of the matrix-vector product and offset as follows.

Figure pat00022
Figure pat00022

Figure pat00023
의 크기는 Wred × Hred 이며, Wred 와 Hred 는 현재 블록의 크기와 형상에 따라 아래와 같이 정의된다. 행렬 A 는 Wred * Hred 만큼의 행(row)들을 가지고, W=H=4 인 경우는 4 개의 열(column)을 가지며, 그 외에는 8 개의 열들을 가진다. 오프셋 벡터 b 는 Wred * Hred 크기의 벡터이다.
Figure pat00023
The size of is W red × H red , and W red and H red are defined as follows according to the size and shape of the current block. Matrix A has as many rows as W red * H red , and has 4 columns when W=H=4, and 8 columns other than that. The offset vector b is a vector of size W red * H red .

Figure pat00024
Figure pat00024

코딩 블록에 대해 사용될 수 있는 행렬 A 와 오프셋 벡터 b 의 세트들 S0, S1, S2이 코딩 블록의 사이즈들의 카테고리별로 미리 정의된다. 세트 S 의 인덱스(0, 1, 2)는 전술한 MipSizeId(즉, idx(W,H))에 따라 선택되며, 행렬 A 와 오프셋 벡터 b 는 세트 S0, S1, S2 중 하나의 세트로부터 현재 블록에 대해 적용되는 MIP 모드에 따라 추출된다.Sets S 0 , S 1 , S 2 of matrix A and offset vector b that can be used for the coding block are predefined for each category of the sizes of the coding block. The indices (0, 1, 2) of the set S are selected according to the aforementioned MipSizeId (i.e., idx(W,H)), and the matrix A and the offset vector b are one of the sets S 0 , S 1 , and S 2 . Is extracted according to the MIP mode applied to the current block.

세트 S0 은 각각 16행과 4열을 갖는 18개의 행렬( A 0) 과 18개의 16차원 오프셋 벡터( b 0)로 구성되며, 4×4 인 블록에 사용된다. 세트 S1 은 각각 16행과 8열을 갖는 10개의 행렬( A 1)와 10개의 16차원 오프셋 벡터( b 1)로 구성되며, 4×8, 8×4 및 8×8 크기의 블록에 사용된다. 마지막으로, 세트 S2 는 각각 64행과 8열을 갖는 6개의 행렬( A 2)과 6개의 64차원 오프셋 벡터( b 2)으로 구성되며, 나머지 모든 블록 모양에 사용된다.The set S 0 consists of 18 matrices ( A 0 ) with 16 rows and 4 columns, respectively, and 18 16-dimensional offset vectors ( b 0 ), and is used for a 4×4 block. Set S 1 consists of 10 matrices ( A 1 ) and 10 16-dimensional offset vectors ( b 1 ) each with 16 rows and 8 columns, and is used for blocks of size 4×8, 8×4 and 8×8. do. Finally, set S 2 consists of 6 matrices ( A 2 ) with 64 rows and 8 columns, respectively, and 6 64 dimensional offset vectors ( b 2 ), which are used for all remaining block shapes.

(3) 픽셀 보간 (interpolation)(3) pixel interpolation

보간은 업 샘플링 프로세스이다. 전술한 바와 같이,

Figure pat00025
는 원래 블록의 다운 샘플링된 예측 신호이다. 이 때 크기 predW 과 predH 을 갖는 다운 샘플링된 예측 블록이 다음과 같이 정의된다. Interpolation is an up-sampling process. As mentioned above,
Figure pat00025
Is the down-sampled prediction signal of the original block. In this case, a down-sampled prediction block with sizes predW and predH is defined as follows.

predred[x][y], with x = 0..predW - 1, y = 0..predH - 1pred red [x][y], with x = 0..predW-1, y = 0..predH-1

나머지 위치에서의 예측 신호를 각 방향에 따라 선형 보간하여 생성되는 원 블록 크기(nTbW, nTbH)의 예측 블록은 다음과 같이 정의된다. A prediction block having an original block size (nTbW, nTbH) generated by linearly interpolating the prediction signal at the remaining positions in each direction is defined as follows.

predSamples[x][y], with x = 0..nTbW - 1, y = 0..nTbH - 1 predSamples[x][y], with x = 0..nTbW-1, y = 0..nTbH-1

수평 및 수직 업샘플링 스케일 팩터인 upHor(= nTbW / predW)과 upVer (= nTbH / predH)에 의존하여, 다음과 같이,

Figure pat00026
로부터 predSamples의 일부 혹은 전부가 채워진다. Depending on the horizontal and vertical upsampling scale factors upHor(= nTbW / predW) and upVer (= nTbH / predH), as follows:
Figure pat00026
Some or all of the predSamples from are filled.

predSamples[(x+1) * upHor - 1][(y+1) * upVer - 1] = predred [x][y]predSamples[(x+1) * upHor-1][(y+1) * upVer-1] = pred red [x][y]

upHor = 1이면

Figure pat00027
로부터 predSamples의 수평 방향의 모든 위치가 채워지며, upVer = 1이면
Figure pat00028
로부터 predSamples의 수직 방향의 모든 위치가 채워진다.if upHor = 1
Figure pat00027
All positions in the horizontal direction of predSamples are filled from, if upVer = 1
Figure pat00028
From, all positions in the vertical direction of the predSamples are filled.

이 후 bi-linear 보간법을 통해 predSamples의 나머지 비어있는 샘플들이 채워진다. 수평 방향의 보간과 수직 방향의 보간은 업샘플링 프로세스이다. predSamples 내 좌측 및 상측 샘플들의 보간을 위해, 다운 샘플링된 샘플들

Figure pat00029
이 predSamples[x][-1] 값들에 할당되며, 좌측의 원래 참조샘플들
Figure pat00030
이 predSamples[-1][y] 값들에 할당된다. 보간 순서는 현재블록의 크기에 따라 결정된다. 즉, 짧은 크기의 방향으로 먼저 보간이 수행되며 후속하여 긴 크기의 방향으로 보간이 수행된다.After that, the remaining empty samples of predSamples are filled through bi-linear interpolation. Interpolation in the horizontal direction and interpolation in the vertical direction are upsampling processes. For interpolation of left and upper samples in predSamples, down sampled samples
Figure pat00029
These predSamples[x][-1] values are assigned to the original reference samples on the left
Figure pat00030
These predSamples[-1][y] values are assigned. The interpolation order is determined according to the size of the current block. That is, interpolation is first performed in the direction of the short size and interpolation is performed in the direction of the long size subsequently.

(4) MIP 인트라 예측 모드의 시그널링(4) MIP intra prediction mode signaling

인트라 예측 코딩되는 각 코딩 유닛(CU)에 대해, 행렬 기반의 인트라 예측 모드(즉, MIP 모드)가 적용되는지 여부를 나타내는 플래그가 전송된다. VVC 5 draft에서는 MIP 모드의 시그널링을 위해, 행렬 기반의 인트라 예측이 아닌 기존의 인트라 예측 모드(이하 '정규 인트라 예측 모드')와 유사하게, 3개의 MPM들로 구성된 MPM 리스트를 사용한다. 예를 들어, MIP 모드의 시그널링을 위해 intra_mip_mpm_flag, intra_mip_mpm_idx, 및 intra_mip_mpm_remainder가 사용된다. intra_mip_mpm_idx는 truncated binary code로 코딩되며, intra_mip_mpm_remainder는 fixed length code로 코딩된다. For each coding unit (CU) to be intra prediction coded, a flag indicating whether a matrix-based intra prediction mode (ie, MIP mode) is applied is transmitted. In the VVC 5 draft, for signaling in the MIP mode, an MPM list consisting of three MPMs is used, similar to the existing intra prediction mode (hereinafter referred to as'regular intra prediction mode') rather than matrix-based intra prediction. For example, intra_mip_mpm_flag, intra_mip_mpm_idx, and intra_mip_mpm_remainder are used for MIP mode signaling. intra_mip_mpm_idx is coded as a truncated binary code, and intra_mip_mpm_remainder is coded as a fixed length code.

코딩 블록(CU)의 크기에 따라, 최대 35개의 MIP 모드들이 지원될 수 있다. 예를 들어, max (W, H) <= 8 및 W*H <32 인 CU에 대해, 35 개의 모드가 이용 가능하다. 그리고 각각 max(W, H) = 8 과 max(W, H) > 8인 CU에 대해 각각 19개 및 11개의 예측 모드가 사용된다. 또한, 한 쌍의 모드(두 개의 모드)가, 메모리 요구 사항을 줄이기 위해, 행렬 및 오프셋 벡터를 공유할 수 있다. 구체적인 공유 모드는 다음과 같이 계산된다. 예컨대, 4×4 코딩 블록에 대해, mode 19는 mode 2에 대해 할당된 행렬의 전치 행렬 (transposed matrix)을 사용한다. Depending on the size of the coding block (CU), up to 35 MIP modes may be supported. For example, for a CU with max (W, H) <= 8 and W*H <32, 35 modes are available. In addition, 19 and 11 prediction modes are used for CUs with max(W, H) = 8 and max(W, H)> 8, respectively. In addition, a pair of modes (two modes) can share a matrix and an offset vector to reduce memory requirements. The specific sharing mode is calculated as follows. For example, for a 4×4 coding block, mode 19 uses a transposed matrix of the matrix assigned for mode 2.

Figure pat00031
Figure pat00031

행렬 기반의 인트라 예측(MIP)가 아닌 정규 인트라 예측 모드가 적용되는 블록(이하 '정규 블록'으로 지칭됨)의 주위에 MIP가 적용이 되는 블록이 있는 경우에 정규 블록의 MPM 유도를 위해 MIP 모드와 정규 모드들 간에 정의된 맵핑 테이블이 이용될 수 있다. 맵핑 테이블은 이웃블록의 MIP 모드로부터 유사한 특성의 정규 모드를 도출하는데 사용된다. 이렇게 유도한 정규 모드는 정규 블록의 MPM 유도에 사용된다. 유사하게 크로마 DM(Direct Mode) 유도 시에도, 동일 위치의 루마 블록에 MIP 모드가 적용된 경우에도, 매핑 테이블을 이용해서 그 MIP 모드에 매핑된 정규 모드를 도출하여 크로마 블록의 인트라 예측 모드를 결정한다. 아래 식은 정규 모드와 MIP 모드 간의 맵핑을 표현한다.MIP mode for MPM derivation of a regular block when there is a block to which MIP is applied around a block to which a regular intra prediction mode is applied (hereinafter referred to as a'normal block') other than matrix-based intra prediction (MIP) A mapping table defined between the and normal modes may be used. The mapping table is used to derive a normal mode of similar characteristics from the MIP mode of the neighboring block. The normal mode derived in this way is used for MPM derivation of the normal block. Similarly, even when inducing a chroma direct mode (DM), even when a MIP mode is applied to a luma block at the same location, a normal mode mapped to the MIP mode is derived using a mapping table to determine the intra prediction mode of the chroma block. . The equation below expresses the mapping between the regular mode and the MIP mode.

Figure pat00032
Figure pat00032

본 개시는 행렬 기반 인트라 예측(MIP) 기술의 구현 복잡도를 크게 높이지 않으면서도 예측 성능을 향상시킬 수 있는 몇몇 수정들을 제시한다. This disclosure proposes several modifications that can improve prediction performance without significantly increasing the implementation complexity of a matrix-based intra prediction (MIP) technique.

행렬 및 오프셋의 유도Derivation of matrices and offsets

본 개시의 일 측면에 따르면, 부호화기와 복호화기는 주어진 블록의 사이즈에 대해 이용가능한 MIP 모드들 중 일부 모드들에 대해 명시적으로 정의된 행렬 및 오프셋의 세트들로부터, 이용가능한 MIP 모드들 중 나머지 모드에 대해 사용할 새로운 행렬과 오프셋의 세트들을 생성할 수 있다. According to an aspect of the present disclosure, an encoder and a decoder are provided with the remaining modes among the available MIP modes from explicitly defined sets of matrices and offsets for some of the available MIP modes for a given block size. You can create new matrices and sets of offsets for use.

새로운 행렬과 오프셋의 세트는 명시적으로 정의된 2 개(혹은 그 이상)의 행렬 및 오프셋의 세트로부터 전치, 평균 연산, 가중 평균 연산 중 적어도 하나의 연산을 수행하여 얻어질 수 있다. 명시적으로 정의된 행렬 및 오프셋의 세트들은 부호화기에 의해 복호화기로 전송되거나, 부호화기와 복호화기 양측의 메모리에 미리 정의되어 있을 수 있다. 이에 따르면, 기존의 이용가능한 모드의 개수를 줄이지 않고서도, 각 모드 별 행렬 및 오프셋의 세트를 저장하기 위한 메모리 요구 사항을 추가적으로 줄일 수 있다.The new set of matrices and offsets may be obtained by performing at least one of a transposition, an average operation, and a weighted average operation from two (or more) explicitly defined sets of matrices and offsets. The explicitly defined matrix and offset sets may be transmitted to the decoder by the encoder, or may be predefined in the memory of both the encoder and the decoder. Accordingly, it is possible to further reduce a memory requirement for storing a set of matrixes and offsets for each mode, without reducing the number of existing available modes.

예시적인 설명을 위해, 주어진 블록의 사이즈에 대해 M개의 행렬이 부호화기와 복호화기에 명시적으로 정의되어 있다고 가정하자. 부호화기는 M개의 행렬로부터 미리 정의된 방식을 통해 K개의 새로운 행렬들을 유도(생성)할 수 있으며, 따라서 주어진 블록에 대해 행렬 기반의 인트라 예측을 수행하는 데에 총 M+K 개의 행렬들이 이용 가능할 수 있다. M+K 개의 행렬들이 포함된 이용 가능한 행렬 리스트에서 각 행렬들은 인덱스에 의해 식별될 수 있다.For illustrative purposes, assume that M matrices are explicitly defined in the encoder and decoder for a given block size. The encoder can derive (generate) K new matrices from M matrices through a predefined method, so a total of M+K matrices can be used to perform matrix-based intra prediction for a given block. have. In the list of available matrices including M+K matrices, each matrices can be identified by an index.

현재 블록에 대해 부호화기로부터 시그널링되는 MIP 모드가 명시적으로 정의된 행렬을 사용하도록 정의된 경우에, 복호화기는 현재 블록에 대해 행렬 기반의 인트라 예측을 수행하는 데에 메모리에 저장되어 있는 행렬을 곧바로 이용할 수 있다. 현재 블록에 대해 부호화기로부터 시그널링되는 MIP 모드가 유도된 행렬을 사용하도록 정의된 경우에, 복호화기는 시그널링된 MIP 모드에 대한 유도된 행렬을 부호화기와 동일한 방식으로 생성할 수 있다. When the MIP mode signaled from the encoder for the current block is defined to use an explicitly defined matrix, the decoder immediately uses the matrix stored in the memory to perform matrix-based intra prediction for the current block. I can. When the MIP mode signaled from the encoder for the current block is defined to use the derived matrix, the decoder may generate the derived matrix for the signaled MIP mode in the same manner as the encoder.

일부 실시예에서, 유도된 행렬은 2개의 명시적으로 정의된 행렬들의 평균 행렬 혹은 가중평균 행렬일 수 있다. 일 예로, M×N 크기를 갖는 명시적으로 정의된 행렬 A, B를 고려하자.

Figure pat00033
,
Figure pat00034
일 때, 가중평균 행렬 C는 다음과 같이 정의될 수 있다.In some embodiments, the derived matrix may be an average matrix or a weighted average matrix of two explicitly defined matrices. As an example, consider explicitly defined matrices A and B having a size of M×N.
Figure pat00033
,
Figure pat00034
When, the weighted average matrix C can be defined as follows.

Figure pat00035
Figure pat00035

Figure pat00036
Figure pat00036

여기서, s1 및 s2는 각각 행렬 A 및 B에 적용되는 가중치이다. 가중치 s1 및 s2는 사전에 정의되거나, 부호화기에 의해 상위 레벨의 신택스에서 시그널링될 수 있다. Here, s1 and s2 are weights applied to matrices A and B, respectively. The weights s1 and s2 may be defined in advance or may be signaled in a higher level syntax by the encoder.

유도된 행렬과 동일한 방식으로, 새로운 오프셋 또한 유도될 수 있다. In the same way as the derived matrix, a new offset can also be derived.

Figure pat00037
Figure pat00037

다른 일부 실시예에서, 유도된 행렬은 2개의 명시적으로 정의된 행렬들의 가중평균 행렬의 전치행렬일 수 있다.In some other embodiments, the derived matrix may be a transposed matrix of a weighted average matrix of two explicitly defined matrices.

크로마 성분의 MIP 예측MIP prediction of chroma component

VVC의 표준화 논의에서, 크로마 블록에 대한 인트라 예측에는 5가지 기본 예측모드(Planar, DC, Horizontal, Vertical, DM(Direct Mode))와 3개의 LM(Linear Model) 모드가 고려되었다. LM 모드는 LM_Chroma 모드 또는 CCLM(Cross Component Linear Mode) 모드라고도 지칭된다.In the discussion of standardization of VVC, five basic prediction modes (Planar, DC, Horizontal, Vertical, DM (Direct Mode)) and three LM (Linear Model) modes were considered for intra prediction for a chroma block. The LM mode is also referred to as an LM_Chroma mode or a Cross Component Linear Mode (CCLM) mode.

LM 모드는, 루마 신호와 크로마 신호 사이의 채널 간 상관성을 이용하여, 루마 신호로부터 크로마 신호를 예측하는 모드이다. LM 모드에서, 루마 신호와 크로마 신호의 픽셀 값들 간의 선형모델(Linear model: LM)이 결정되며, 선형모델을 이용하여, 대응되는 루마 블록의 복원된 루마 신호를 기초로 크로마 블록의 예측 신호가 계산된다. DM 모드에서, 현재 크로마 블록은 이에 대응하는 루마 블록의 동일한 예측모드가 그대로 사용된다. The LM mode is a mode for predicting a chroma signal from a luma signal by using the correlation between channels between the luma signal and the chroma signal. In the LM mode, a linear model (LM) between the luma signal and the pixel values of the chroma signal is determined, and the predicted signal of the chroma block is calculated based on the restored luma signal of the corresponding luma block using the linear model. do. In the DM mode, the current chroma block uses the same prediction mode of the corresponding luma block as it is.

크로마 블록에 LM 모드(즉, CCLM)가 적용되지 않을 때, 크로마 블록에 대한 인트라 예측 모드를 특정하는 신택스 엘리먼트(intra_chroma_pred_mode)가 코딩된다. 크로마 블록의 인트라 예측 모드는, intra_chroma_pred_mode와 대응되는 루마 블록의 인트라 예측 모드(lumaIntraPredMode)에 의존하여 다음과 같이 결정된다. 예를 들어, intra_chroma_pred_mode = 4 이면, 크로마 블록의 인트라 예측 모드는 DM(Direct Mode) 모드가 적용되고, 따라서 대응되는 루마 블록의 인트라 예측 모드가 크로마 블록에 적용된다.When the LM mode (ie, CCLM) is not applied to the chroma block, a syntax element (intra_chroma_pred_mode) specifying an intra prediction mode for the chroma block is coded. The intra prediction mode of the chroma block is determined as follows depending on the intra prediction mode (lumaIntraPredMode) of the luma block corresponding to the intra_chroma_pred_mode. For example, if intra_chroma_pred_mode = 4, a direct mode (DM) mode is applied as an intra prediction mode of a chroma block, and thus an intra prediction mode of a corresponding luma block is applied to the chroma block.

Figure pat00038
Figure pat00038

VVC 표준화 논의에서 행렬 기반 인트라 예측(MIP) 기술은, 코딩 복잡도, 요구되는 행렬 및 오프셋의 세트들로 인한 메모리 대역폭 등으로 인해, 루마 성분에 대해서만 사용되며 크로마 성분에 대해서는 그 적용이 배제된 상태로 도입되었다. 그에 따라, VVC draft 5에서, 크로마 블록의 인트라 예측 모드를 결정할 때, 대응되는 루마 블록이 행렬 기반 인트라 예측(MIP) 코딩된 경우에, 부호화기와 복호화기는 루마 블록에 적용된 MIP 모드를 매핑 테이블에 정의된 정규의 인트라 예측 모드로 변환하도록 구성되었다.In the discussion of VVC standardization, the matrix-based intra prediction (MIP) technique is used only for the luma component, and its application is excluded for the chroma component, due to the coding complexity and memory bandwidth due to the required set of matrix and offset. Was introduced. Accordingly, in VVC draft 5, when determining an intra prediction mode of a chroma block, when the corresponding luma block is matrix-based intra prediction (MIP) coded, the encoder and decoder define the MIP mode applied to the luma block in the mapping table. Was configured to convert to the normal intra prediction mode.

이하에서는 크로마 성분에 행렬 기반 인트라 예측(MIP)을 적용하기 위한 몇몇 접근법이 제시된다.In the following, several approaches for applying matrix-based intra prediction (MIP) to chroma components are presented.

본 개시의 일 측면에 따르면, 비디오 부호화기와 복호화기는 행렬기반 인트라 예측(MIP)으로 예측된 루마 성분의 블록(루마 블록)의 MIP 모드로부터 대응되는 위치의 크로마 성분들의 블록들(크로마 블록들)에 대한 MIP 모드를 유도할 수 있다. 따라서, 행렬기반 인트라 예측(MIP) 코딩된 크로마 블록들에 대해, 부호화기에 의해 사용된 MIP 모드를 명시적으로 특정하는 신택스 엘리먼트의 시그널링이 생략될 수 있다.According to an aspect of the present disclosure, a video encoder and a decoder are provided with blocks (chroma blocks) of chroma components at a corresponding position from the MIP mode of a block (luma block) of a luma component predicted by matrix-based intra prediction (MIP). It is possible to induce the MIP mode for. Accordingly, for matrix-based intra prediction (MIP) coded chroma blocks, signaling of a syntax element that explicitly specifies the MIP mode used by the encoder may be omitted.

본 개시의 일 측면에 따르면, 행렬기반 인트라 예측(MIP)에 사용되는 행렬과 오프셋의 세트들을 크로마 블록과 루마 블록에 대해 각각 별도로 정의하는 대신에, 비디오의 샘플링 포맷(혹은 크로마 포맷)에 따라, 루마 블록에 대해 정의된 행렬과 오프셋의 세트들이 크로마 블록에 대해서도 공통적으로 사용되거나, 루마 블록에 대해 정의된 행렬과 오프셋의 세트들로부터 크로마 블록에 대해 사용할 행렬과 오프셋의 세트들이 유도될 수도 있다. 표 4는 SPS 레벨에서 시그널링되는 신택스 엘리먼트(sps_chroma_format_idc; cIdx)에 의해 지시하는 비디오의 샘플링 포맷을 나타낸다. According to an aspect of the present disclosure, instead of separately defining sets of a matrix and an offset used for matrix-based intra prediction (MIP) for a chroma block and a luma block, according to a video sampling format (or chroma format), The matrix and offset sets defined for the luma block may be commonly used for the chroma block, or the matrix and offset sets to be used for the chroma block may be derived from the matrix and offset sets defined for the luma block. Table 4 shows a sampling format of a video indicated by a syntax element (sps_chroma_format_idc; cIdx) signaled at the SPS level.

Figure pat00039
Figure pat00039

일 예로, 비디오의 샘플링 포맷(혹은 크로마 포맷)이 4:4:4일 경우에, 부호화기와 복호화기는 루마 블록에 대해 정의된 행렬과 오프셋의 세트들을 크로마 블록에 대해 그대로 이용할 수 있다. For example, when the video sampling format (or chroma format) is 4:4:4, the encoder and the decoder may use the matrix and offset sets defined for the luma block as they are for the chroma block.

다른 예로, 루마 성분과 크로마 성분의 해상도가 다른 경우(예컨대, 크로마 포맷이 4:2:0일 경우)에, 비디오 부호화기와 복호화기는 루마 블록의 행렬과 오프셋을 루마/크로마 블록의 크기 비율만큼 다운샘플링하여 크로마 블록에 적용할 MIP 행렬과 오프셋을 유도할 수 있다. 비디오의 크로마 포맷이 4:2:0일 경우에, 크로마 블록은 루마 블록에 비해 가로, 세로 각각 1/2의 크기를 가지며, 따라서 부호화기와 복호화기는 루마 블록의 행렬과 오프셋을 다운샘플링하여 크로마 블록에 적용할 1/2 크기의 행렬과 오프셋을 생성할 수 있다. As another example, when the resolution of the luma component and the chroma component are different (e.g., when the chroma format is 4:2:0), the video encoder and the decoder reduce the luma block matrix and offset by the luma/chroma block size ratio. By sampling, the MIP matrix and offset to be applied to the chroma block can be derived. When the chroma format of the video is 4:2:0, the chroma block has a size of 1/2 each of the length and width compared to the luma block. Therefore, the encoder and the decoder downsample the matrix and offset of the luma block to obtain a chroma block. You can create a 1/2 size matrix and offset to be applied to.

다운샘플링 방법으로는, 루마 블록의 행렬에서 특정 위치의 값을 서브샘플링하는 방식(예를 들어, 짝수 번째 혹은 홀수 번째 행들과 열들의 값들로부터 축소된 행렬을 생성하는 방식)이 사용될 수 있으며, 루마 블록의 행렬에 필터링을 적용하는 방식이 사용될 수도 있다.As a downsampling method, a method of subsampling a value at a specific position in a matrix of a luma block (for example, a method of generating a reduced matrix from values of even or odd rows and columns) can be used. A method of applying filtering to a matrix of blocks may be used.

다운샘플링된 행렬 및 오프셋의 유도 과정으로 인해 도입될 수 있는 복잡도를 피하기 위해, 일부 실시예에서, 비디오의 샘플링 포맷이 4:4:4일 경우에 한해, 크로마 블록에 대해 행렬 기반 인트라 예측이 허용될 수도 있다. 또한, 일부 실시예에서, 동일 위치의 루마 블록이 행렬기반 인트라 예측(MIP)으로 예측된 경우에 한해, 크로마 성분들의 블록들(크로마 블록들)에 대해 행렬 기반 인트라 예측이 허용될 수도 있다. 그러한 경우에, 크로마 성분들의 블록들(크로마 블록들)에 대한 MIP 모드는 동일 위치의 루마 블록에 대해 사용된 MIP 모드와 동일한 것으로 간주될 수 있다. 나아가, 루마 블록의 MIP 모드에 대해 사용된 행렬과 오프셋의 세트들이 크로마 블록에 대해 그대로 사용될 수 있다.In order to avoid the complexity that may be introduced due to the derivation process of downsampled matrix and offset, in some embodiments, matrix-based intra prediction is allowed for chroma blocks only when the sampling format of the video is 4:4:4. It could be. In addition, in some embodiments, matrix-based intra prediction may be allowed for blocks of chroma components (chroma blocks) only when the luma block at the same location is predicted by matrix-based intra prediction (MIP). In such a case, the MIP mode for blocks of chroma components (chroma blocks) may be considered the same as the MIP mode used for the co-located luma block. Further, the matrix and offset sets used for the MIP mode of the luma block may be used as it is for the chroma block.

일부 실시예에서, 비디오의 샘플링 포맷이 4:4:4이고, CTU를 분할하는 데에 싱글 트리가 사용된 경우에 한해, 크로마 블록에 대해 행렬 기반 인트라 예측이 허용될 수도 있다.In some embodiments, matrix-based intra prediction may be allowed for a chroma block only when the sampling format of the video is 4:4:4 and a single tree is used to divide the CTU.

다른 일부 실시예에 따르면, 크로마 블록에 대해 행렬 기반 인트라 예측을 허용하는 대신에, 행렬기반 인트라 예측 코딩된 루마 블록의 복원된 값들로부터 선형모델을 이용하여 크로마 블록의 예측 신호를 생성하는 CCLM(Cross-Component Linear Model) 기법이 허용될 수도 있다. According to some other embodiments, instead of allowing a matrix-based intra prediction for a chroma block, a CCLM for generating a prediction signal of a chroma block using a linear model from reconstructed values of a matrix-based intra prediction-coded luma block (Cross -Component Linear Model) technique may be allowed.

Temporal matrix and offsetTemporal matrix and offset

행렬기반 인트라 예측(MIP)에 이용 가능한 행렬 및 오프셋의 세트의 수는 비디오 데이터의 특성에 따라 적응적으로 선택되는 것이 바람직할 수도 있다. 본 개시의 일 측면에 따르면, 비디오 부호화기는 RD-cost 계산을 통해 시퀀스, 픽처, 혹은 픽처의 서브그룹 단위로 행렬기반 인트라 예측(MIP)에 이용 가능한 행렬 및 오프셋의 세트의 수를 적응적으로 변경할 수 있다. The number of sets of matrices and offsets available for matrix-based intra prediction (MIP) may be preferably selected adaptively according to characteristics of the video data. According to an aspect of the present disclosure, the video encoder adaptively changes the number of sets of matrices and offsets available for matrix-based intra prediction (MIP) in units of sequences, pictures, or subgroups of pictures through RD-cost calculation. I can.

일 실시예에서, 행렬기반 인트라 예측(MIP)에서 비디오 데이터의 특성과 관계 없이 항상 사용이 허용되는 N개의 행렬 및 오프셋의 세트들이 정의될 수 있다. 또한, 상위 레벨 단위에서 선택적으로 사용이 허용되는 L개의 행렬 및 오프셋의 세트들이 정의될 수 있다. 비디오 부호화기는 현재의 상위 레벨에서 사용할 L개의 세트들 중에서 현재의 상위 레벨에서 사용할 M개의 세트(M은 L보다 작거나 같음)를 선택할 수 있다. 따라서, 상위 레벨 단위에서 행렬기반 인트라 예측(MIP)에 사용가능한 것으로 결정될 수 있는 행렬 및 오프셋의 세트의 수는 최소 N개이며 최대 N+L개이다. 여기서, 상위 레벨 단위는 시퀀스, 픽처, 픽처의 서브그룹 단위 등일 수 있다. 선택적인 사용이 허용되는 행렬 및 오프셋의 세트는 임시 세트(temporal set)으로 지칭될 수 있고, 선택적인 사용이 허용되는 행렬은 임시 행렬(temporal matrix)로 지칭될 수 있다. 항상 사용이 허용되는 행렬 및 오프셋의 세트는 기본 세트(basic set)으로 지칭될 수 있다.In one embodiment, in matrix-based intra prediction (MIP), N sets of matrices and offsets that are always allowed to be used irrespective of the characteristics of video data may be defined. In addition, L matrices and sets of offsets that are selectively allowed to be used in a higher-level unit may be defined. The video encoder may select M sets (M is less than or equal to L) to be used at the current higher level from among L sets to be used at the current higher level. Accordingly, the number of sets of matrices and offsets that can be determined to be usable for matrix-based intra prediction (MIP) in a higher level unit is at least N and at most N+L. Here, the higher level unit may be a sequence, a picture, a subgroup unit of a picture, or the like. A set of matrices and offsets allowed for selective use may be referred to as a temporary set, and a matrix for which selective use is allowed may be referred to as a temporal matrix. The set of matrices and offsets that are always allowed to be used may be referred to as a basic set.

비디오 부호화기는, 상위 레벨 단위로, 기본 세트 외에 임시 세트가 더 사용되는지 여부를 지시하는 1비트 플래그를 시그널링할 수 있다. 임시 세트가 사용되는 경우에, 비디오 부호화기는 현재의 상위 레벨 단위에서 사용할 임시 세트의 개수와 선택된 임시 세트들의 인덱스 정보를 비트스트림으로 시그널링할 수 있다. 항상 동일한 개수의 임시 세트가 사용되는 실시예에서, 현재의 상위 레벨 단위에서 사용할 임시 세트의 개수에 대한 시그널링은 생략될 수 있다.The video encoder may signal a 1-bit flag indicating whether or not a temporary set is further used in addition to the basic set on a higher level unit. When a temporary set is used, the video encoder may signal the number of temporary sets to be used in a current higher-level unit and index information of the selected temporary sets as a bitstream. In an embodiment in which the same number of temporary sets are always used, signaling about the number of temporary sets to be used in a current higher level unit may be omitted.

비디오 복호화기는 새로운 상위 레벨(예컨대, 새로운 시퀀스)의 블록의 복호화를 시작할 때, 상위 레벨 신택스에서 임시 세트의 사용 여부를 지시하는 1비트 플래그를 파싱할 수 있다. 1비트 플래그가 현재의 상위 레벨에서 임시 세트가 사용됨을 지시하는 경우에, 비디오 복호화기는 현재의 상위 레벨에서 사용되는 임시 세트의 수를 지시하는 신택스 엘리먼트를 파싱할 수 있다. 그리고 비디오 복호화기는 현재의 상위 레벨에서 사용되는 임시 세트의 수를 기초로, 미리 정의된 이용가능한 임시 세트들 중에서 현재의 상위 레벨에서 사용되는 각 임시 세트의 인덱스를 지시하는 신택스 엘리먼트들을 파싱할 수 있다. 비디오 복호화기는 상위 레벨에 포함된 블록들에 행렬 기반 인트라 예측을 수행함에 있어서, 미리 정의된 기본 세트들과 상위 레벨에서 선택된 임시 세트들을 이용할 수 있다. 비디오 복호화기는 미리 정의된 기본 세트들과 선택된 임시 세트들로 구성된 행렬 및 오프셋의 리스트를 구성할 수 있다. 행렬 및 오프셋의 리스트에서 각 임시세트는 새로운 인덱스로 식별될 수 있다.When starting to decode a block of a new higher level (eg, a new sequence), the video decoder may parse a 1-bit flag indicating whether to use a temporary set in the higher level syntax. When the 1-bit flag indicates that the temporary set is used at the current higher level, the video decoder may parse a syntax element indicating the number of temporary sets used at the current higher level. In addition, the video decoder may parse syntax elements indicating the index of each temporary set used at the current higher level among predefined available temporary sets based on the number of temporary sets used at the current higher level. . In performing matrix-based intra prediction on blocks included in a higher level, the video decoder may use predefined basic sets and temporary sets selected at the higher level. The video decoder may construct a matrix consisting of predefined basic sets and selected temporary sets and a list of offsets. Each temporary set in the list of matrixes and offsets can be identified by a new index.

MIP 모드의 시그널링Signaling in MIP mode

인트라 예측 모드로 코딩된 코딩 유닛(CU)에 대해, 인트라 예측 타입이 행렬 기반의 인트라 예측(MIP)인지 여부를 나타내는 플래그가 시그널링 될 수 있다. 행렬 기반의 인트라 예측(MIP)이 적용되는 경우에, 가용한 복수의 MIP 모드들 중에서, 현재의 코딩 유닛에 사용된 MIP 모드를 지시하는 하나 이상의 신택스 엘리먼트가 추가로 시그널링될 수 있다. For the coding unit (CU) coded in the intra prediction mode, a flag indicating whether the intra prediction type is matrix-based intra prediction (MIP) may be signaled. When matrix-based intra prediction (MIP) is applied, among a plurality of available MIP modes, one or more syntax elements indicating the MIP mode used in the current coding unit may be additionally signaled.

기존의 인트라 예측 모드(이하 '정규 인트라 예측 모드')와 유사하게, 현재의 코딩 유닛에 사용된 MIP 모드를 표현하기 위해 MPM 리스트가 사용될 수 있다. 이하에서, 행렬 기반의 인트라 예측(MIP)에 대해, 블록 사이즈별로 이전에 코딩된 블록들의 MIP 모드가 MPM 리스트로서 관리되는, 히스토리 기반의 MIP_MPM 리스트를 도출하는 방법이 개시된다. MIP_MPM 리스트는 부호화/복호화 프로세스 동안에 유지되고 업데이트된다.Similar to the existing intra prediction mode (hereinafter,'normal intra prediction mode'), an MPM list may be used to represent the MIP mode used in the current coding unit. Hereinafter, for matrix-based intra prediction (MIP), a method of deriving a history-based MIP_MPM list in which MIP modes of previously coded blocks for each block size are managed as an MPM list is disclosed. The MIP_MPM list is maintained and updated during the encoding/decoding process.

블록의 크기(너비, 높이), 신호의 특성 중 적어도 하나 이상의 정보에 따라 복수의 MIP_MPM 리스트가 유지되고 이용될 수 있다. 일 예로, MIP가 적용되는 블록의 사이즈에 따라 허용되는 MIP 모드들의 수가 상이하며, 따라서 MipSizeId = {0, 1, 2} 별로 별개의 후보 MIP 모드 리스트가 관리될 수 있다. A plurality of MIP_MPM lists may be maintained and used according to information of at least one of a block size (width, height) and signal characteristics. As an example, the number of allowed MIP modes is different according to the size of the block to which MIP is applied, and thus, a separate candidate MIP mode list may be managed for each MipSizeId = {0, 1, 2}.

MIP_MPM 리스트는 M개의 고유한 MIP 모드로 구성되며, M은 블록의 너비, 높이, 사이즈, 신호의 특성 중 적어도 하나 이상의 정보에 의해 적응적으로 결정되거나 혹은 이들 정보에 무관하게 고정된 값(예컨대, 3)을 가질 수도 있다. The MIP_MPM list consists of M unique MIP modes, where M is adaptively determined by at least one of the width, height, size, and signal characteristics of the block, or a fixed value regardless of these information (e.g., 3) may have.

블록이 MIP 모드로 코딩될 때마다, 사용된 MIP 모드가 블록의 크기에 대응되는 MIP_MPM 리스트의 마지막 엔트리에 추가되며, MIP_MPM 리스트에서 중복된 모드가 발견되면, MIP_MPM 리스트로부터 제거되고, 그렇지 않으면 MIP_MPM 리스트의 첫 번째 엔트리가 MIP_MPM 리스트에서 제거될 수 있다. Whenever a block is coded in MIP mode, the used MIP mode is added to the last entry of the MIP_MPM list corresponding to the size of the block, and if a duplicate mode is found in the MIP_MPM list, it is removed from the MIP_MPM list, otherwise the MIP_MPM list The first entry of may be removed from the MIP_MPM list.

새로운 슬라이스가 발견되면, MIP_MPM 리스트는 사전에 정의된 MIP 모드들로 재설정될 수 있다. CTU의 부호화/복호화를 시작할 때, MIP_MPM 리스트는 현재 CTU의 좌측에 있는 CTU의 마지막 블록으로부터 상속될 수 있다. 현재 CTU가 픽쳐의 좌측 경계에 있을 때, 테이블은 현재 CTU의 상측에 있는 CTU의 마지막 블록으로부터 상속될 수 있다.When a new slice is found, the MIP_MPM list may be reset to predefined MIP modes. When starting encoding/decoding of the CTU, the MIP_MPM list may be inherited from the last block of the CTU to the left of the current CTU. When the current CTU is on the left boundary of the picture, the table can be inherited from the last block of the CTU above the current CTU.

부호화기는 현재 블록에 대해 선택된 MIP 모드가 현재 블록의 사이즈에 대응되는 MIP_MPM 리스트에 존재할 경우에, 현재 블록의 MIP 모드가 MPM임을 지시하는 제1값의 1비트 플래그(예컨대, MIP_HMPM_flag)를 시그널링하고, 현재 코딩블록의 크기에 대응되는 MIP_MPM 리스트 중에서 하나의 MIP 모드를 특정하는 신택스 엘리먼트(예컨대, MIP_HMPM_index)를 시그널링할 수 있다. MIP_HMPM_index는 절삭된 이진 코드(truncated binary code)로 코딩될 수 있다. When the MIP mode selected for the current block exists in the MIP_MPM list corresponding to the size of the current block, the encoder signals a 1-bit flag (eg, MIP_HMPM_flag) of a first value indicating that the MIP mode of the current block is MPM, A syntax element (eg, MIP_HMPM_index) specifying one MIP mode from the MIP_MPM list corresponding to the size of the current coding block may be signaled. MIP_HMPM_index may be coded as a truncated binary code.

현재 블록에 대해 선택된 MIP 모드가 현재 블록의 크기에 대응되는 MIP_MPM 리스트에 존재하지 않는 경우에, 부호화기는 현재 블록의 MIP 모드가 MPM이 아님을 지시하는 제2값의 1비트 플래그(예컨대, MIP_HMPM_flag)를 시그널링하고, MPM들을 제외한 나머지 non-MPM들 중 하나를 지시하는 신택스 엘리먼트(예컨대, MIP_HMPM_remainder)를 시그널링할 수 있다. MIP_HMPM_remainder는 고정 길이 코드 (fixed length code)를 이용하여 코딩될 수 있다.When the MIP mode selected for the current block does not exist in the MIP_MPM list corresponding to the size of the current block, the encoder is a 1-bit flag with a second value indicating that the MIP mode of the current block is not MPM (eg, MIP_HMPM_flag) Is signaled, and a syntax element (eg, MIP_HMPM_remainder) indicating one of the remaining non-MPMs excluding MPMs may be signaled. MIP_HMPM_remainder may be coded using a fixed length code.

현재 블록이 MIP 모드로 코딩된 경우에, 복호화기는 현재 블록의 MIP 모드가 MPM인지 여부를 나타내는 1비트 플래그(예컨대, MIP_HMPM_flag)를 파싱한다. 1비트 플래그가 제1값을 가지면, 복호화기는 현재 코딩블록의 크기에 대응되는 MIP_MPM 리스트 중에서 하나의 MIP 모드를 특정하는 신택스 엘리먼트(예컨대, MIP_HMPM_index)를 파싱한다. 복호화기는 MIP_MPM 리스트 중에서 MIP_HMPM_index가 지시하는 MIP 모드를 현재 블록에 대한 MIP 모드로 결정한다. When the current block is coded in the MIP mode, the decoder parses a 1-bit flag (eg, MIP_HMPM_flag) indicating whether the MIP mode of the current block is MPM. When the 1-bit flag has a first value, the decoder parses a syntax element (eg, MIP_HMPM_index) specifying one MIP mode from the MIP_MPM list corresponding to the size of the current coding block. The decoder determines the MIP mode indicated by MIP_HMPM_index from the MIP_MPM list as the MIP mode for the current block.

1비트 플래그(예컨대, MIP_HMPM_flag)가 제2값을 가지면, 복호화기는 현재 블록의 크기에 대해 이용가능한 MIP 모드들 중에서 MIP_MPM 리스트의 MPM들을 제외한 나머지 MIP 모드들(즉, non-MPM들) 중에서 하나를 지시하는 신택스 엘리먼트(예컨대, MIP_HMPM_remainder)를 파싱한다. 복호화기는 MIP_HMPM_remainder 에 의해 지시되는 non-MPM을 현재 블록에 대한 MIP 모드로 결정한다. If the 1-bit flag (e.g., MIP_HMPM_flag) has a second value, the decoder selects one of the remaining MIP modes (ie, non-MPMs) excluding the MPMs of the MIP_MPM list among the available MIP modes for the size of the current block. The indicated syntax element (eg, MIP_HMPM_remainder) is parsed. The decoder determines the non-MPM indicated by MIP_HMPM_remainder as the MIP mode for the current block.

다른 일부 실시예에서, 기존의 인트라 예측 모드(정규 인트라 예측 모드)와 상이하게, MIP 모드의 시그널링을 위해 MPM 리스트가 사용되지 않을 수 있다. 예를 들어, 복수의 MIP 모드들 중에서, 현재의 코딩 유닛에 사용된 MIP 모드를 지시하는, 절삭된 이진 코드(truncated binary code)로 코딩될 수 있는, 하나의 신택스 엘리먼트(예컨대, intra_mip_mode)가 사용될 수 있다.In some other embodiments, different from the existing intra prediction mode (normal intra prediction mode), the MPM list may not be used for signaling of the MIP mode. For example, among a plurality of MIP modes, one syntax element (eg, intra_mip_mode) that can be coded with a truncated binary code indicating the MIP mode used in the current coding unit is used. I can.

VVC 5 draft에 기초하여 제안된 예시적인 코딩 유닛 신택스의 일부가 이하에 제공된다. 아래의 신택스에서, 엘리먼트들의 회색화는 이해를 돕기 위해 사용된다.A part of the example coding unit syntax proposed based on the VVC 5 draft is provided below. In the syntax below, the graying of the elements is used to aid understanding.

Figure pat00040
Figure pat00040

intra_mip_flag [ x0 ][ y0 ] 가 1인 경우는 현재 블록의 인트라 예측 타입이 행렬 기반의 인트라 예측(MIP)임을 가리킨다. intra_mip_flag [ x0 ][ y0 ] 가 0인 경우는 현재 블록의 인트라 예측 타입이 행렬 기반의 인트라 예측이 아닌 정규의 인트라 예측임을 가리킨다. intra_mip_flag [ x0 ][ y0 ] 이 존재하지 않으면 0과 같다고 추론될 수 있다. intra_mip_mode [ x0 ][ y0 ] 는 행렬 기반의 인트라 예측(MIP)에서 현재의 블록에 대해 사용되는 MIP 모드를 지시하며, 절삭된 이진 코드(truncated binary code)로 표현된다. When intra_mip_flag [x0][y0] is 1, it indicates that the intra prediction type of the current block is matrix-based intra prediction (MIP). If intra_mip_flag [x0][y0] is 0, it indicates that the intra prediction type of the current block is normal intra prediction, not matrix-based intra prediction. If intra_mip_flag [x0][y0] does not exist, it can be inferred that it is equal to 0. intra_mip_mode [x0][y0] indicates the MIP mode used for the current block in matrix-based intra prediction (MIP), and is expressed as a truncated binary code.

MPM(Most Probable Mode)Most Probable Mode (MPM)

종래의 접근법에서, MPM(Most Probable Mode)를 사용하는 인트라 예측 코딩이 사용될 수 있다. 예를 들어, HEVC에서, 3개의 MPM들의 리스트는 왼쪽 및 위쪽 블록의 인트라 예측 모드로부터 구성된다. 이러한 방법의 단점은 더 많은 모드(MPM이 아닌 인트라 모드)가 더 많은 비트로 코딩되어야 하는 non-MPM들에 속한다는 것이다. MPM의 수를 3개 이상의 엔트리(예를 들어, 6개의 MPM 모드)로 확장하기 위한 몇몇 방법이 제안되었다. 그러나 더 많은 엔트리가 포함된 이러한 MPM 리스트를 구성하려면 더 많은 검사와 조건이 필요할 수 있으며 이로 인해 구현이 더 복잡해질 수 있다.In a conventional approach, intra prediction coding using Most Probable Mode (MPM) can be used. For example, in HEVC, a list of 3 MPMs is constructed from the intra prediction modes of the left and upper blocks. The drawback of this method is that more modes (intra mode, not MPM) belong to non-MPMs that have to be coded with more bits. Several methods have been proposed to extend the number of MPMs to 3 or more entries (eg 6 MPM modes). However, constructing such an MPM list with more entries may require more checks and conditions, which can result in a more complex implementation.

MPM 리스트 구성의 복잡성을 낮게 유지하기 위해, 현재블록에 인접한 좌측블록 및 상단블록의 인트라 예측 모드를 이용하여 6개의 MPM 후보들을 포함하는 MPM 리스트가 구성될 수 있다. MPM 후보들은 디폴트 인트라 예측 모드(예컨대, PLANAR 모드), 주변 블록의 인트라 예측 모드, 주변 블록의 인트라 예측 모드로부터 파생된 인트라 예측 모드로 구성될 수 있다. 주변 블록의 인트라 예측 모드가 이용하지 않을 때(예를 들어, 주변 블록이 인터 예측된 경우, 주변 블록이 다른 슬라이스 혹은 다른 타일에 위치한 경우), 주변 블록의 인트라 예측 모드의 인트라 예측 모드는 PLANAR로 설정될 수 있다. In order to keep the complexity of constructing the MPM list low, an MPM list including 6 MPM candidates may be constructed using intra prediction modes of the left block and the upper block adjacent to the current block. MPM candidates may be composed of a default intra prediction mode (eg, a PLANAR mode), an intra prediction mode of a neighboring block, and an intra prediction mode derived from an intra prediction mode of the neighboring block. When the intra prediction mode of the neighboring block is not used (for example, when the neighboring block is inter-predicted, the neighboring block is located in a different slice or another tile), the intra prediction mode of the intra prediction mode of the neighboring block is PLANAR. Can be set.

좌측블록의 모드(Left) 및 상단블록의 모드(Above)의 인트라 예측 모드의 타입에 따라 크게 4가지 갈래로 구분되며, Left와 Above가 서로 다르며 두 모드가 모두 방향성 모드인 경우 Left와 Above의 차이에 따라 추가적인 4가지 갈래로 더 구분하여 MPM 리스트가 생성될 수 있다. 아래 표에서 Max는 Left와 Above 중 큰 모드를 가리키며, MIN는 Left와 Above 중 작은 모드를 가리킨다.According to the type of intra prediction mode of the left block mode (Left) and the top block mode (Above), it is divided into 4 main branches. Left and Above are different, and when both modes are directional mode, the difference between Left and Above According to, the MPM list may be generated by further dividing into additional four branches. In the table below, Max refers to the larger mode among Left and Above, and MIN refers to the smaller mode among Left and Above.

Figure pat00041
Figure pat00041

비디오 부호화기는 현재블록의 인트라 예측 모드가 MPM에 해당하는지 여부를 나타내는 1비트 플래그(예컨대, mpm_flag)를 시그널링할 수 있다. 전형적으로, 현재블록의 인트라 예측 모드가 MPM에 해당하는 경우에, 6개의 MPM들 중에서 하나(즉, PLANAR 모드)를 지시하는 MPM 인덱스가 추가로 시그널링될 것이다. The video encoder may signal a 1-bit flag (eg, mpm_flag) indicating whether the intra prediction mode of the current block corresponds to MPM. Typically, when the intra prediction mode of the current block corresponds to MPM, an MPM index indicating one of 6 MPMs (ie, PLANAR mode) will be additionally signaled.

표 6에서 PLANAR 모드가 항상 MPM 리스트에 포함됨에 주목한다. 즉, 6개의 MPM들은 PLANAR 와 5개의 non-PLANAR MPM들로 구분될 수 있다. 따라서, 현재블록의 인트라 예측 모드가 MPM에 해당하는 경우에, 부호화기는 현재블록의 인트라 예측 모드가 PLANAR 모드인지 여부를 (예컨대, 1비트 플래그를 이용하여) 먼저 시그널링하고, 현재블록의 인트라 예측 모드가 나머지 5개의 non-PLANAR MPM 중 하나와 동일한 경우에 한해, non-PLANAR MPM들 중에서 하나를 지시하는 MPM 인덱스를 추가로 시그널링하는 것이 효율적일 수 있다. 복호화기는 비트 플래그(예컨대, mpm_flag)의 값이 현재블록의 인트라 예측 모드가 MPM에 해당한다고 지시하면, 5개의 non-PLANAR MPM들의 리스트를 결정하기에 앞서, 현재블록의 인트라 예측 모드가 PLANAR 모드인지 여부를 지시하는 1비트 플래그를 파싱할 수 있다.Note that in Table 6, the PLANAR mode is always included in the MPM list. That is, 6 MPMs can be divided into PLANAR and 5 non-PLANAR MPMs. Therefore, when the intra prediction mode of the current block corresponds to MPM, the encoder first signals whether the intra prediction mode of the current block is a PLANAR mode (e.g., using a 1-bit flag), and then signals the intra prediction mode of the current block. As long as is equal to one of the remaining five non-PLANAR MPMs, it may be efficient to additionally signal an MPM index indicating one of the non-PLANAR MPMs. If the value of the bit flag (e.g., mpm_flag) indicates that the intra prediction mode of the current block corresponds to the MPM, before determining the list of five non-PLANAR MPMs, whether the intra prediction mode of the current block is the PLANAR mode. A 1-bit flag indicating whether or not can be parsed.

현재블록의 인트라 예측 모드가 MPM에 해당하지 않는 경우에, 6개의 MPM들을 제외한 나머지 61개의 non-MPM들 중 하나를 지시하는 신택스 엘리먼트가 절삭된 이진 코드(truncated binary code)를 이용하여 부호화될 수 있다.When the intra prediction mode of the current block does not correspond to MPM, a syntax element indicating one of the remaining 61 non-MPMs excluding 6 MPMs may be encoded using a truncated binary code. have.

MIP 모드와 정규 모드 간의 매핑 테이블의 제거Removal of mapping table between MIP mode and regular mode

전술한 바와 같이, VVC draft 5에서는, MIP 모드와 정규 모드의 시그널링을 위해 각각 MPM 리스트가 사용되고, MIP 리스트를 구성하기 위해 MIP 모드와 정규 모드 간의 매핑 테이블이 요구된다. 예를 들어, 정규의 인트라 예측 모드로 코딩된 블록(즉, 정규 블록)에 대해 MPM 리스트를 유도함에서, 좌측블록 혹은 상단블록이 행렬 기반 인트라 예측(MIP) 코딩된 경우에, 좌측블록의 MIP 모드 혹은 상단블록의 MIP 모드는 매핑 테이블에 정의된 정규의 인트라 예측 모드로 변환된다.As described above, in VVC draft 5, each MPM list is used for signaling of the MIP mode and the regular mode, and a mapping table between the MIP mode and the regular mode is required to configure the MIP list. For example, in deriving an MPM list for a block (ie, a normal block) coded in a normal intra prediction mode, when the left block or the upper block is matrix-based intra prediction (MIP) coded, the MIP mode of the left block Alternatively, the MIP mode of the upper block is converted to a normal intra prediction mode defined in the mapping table.

본 개시의 일 측면에 따르면, 정규 블록에 대해 MPM 리스트를 유도함에 있어서, 좌측블록과 상측블록이 행렬 기반 인트라 예측(MIP) 코딩된 경우에, 그 주변블록에 어떠한 MIP 모드가 적용되었는지와는 관계없이, 좌측블록의 모드(Left) 및 상단블록의 모드(Above)는 미리 정의된 정규 모드로 간주될 수 있다. 이로서, 부호화기와 복호화기가 MIP 모드들과 정규 모드들 간의 매핑 테이블을 메모리에 저장할 필요성이 제거될 수 있다.According to an aspect of the present disclosure, in deriving an MPM list for a regular block, when the left block and the upper block are matrix-based intra prediction (MIP) coded, the relationship with which MIP mode is applied to the neighboring block Without, the mode of the left block (Left) and the mode of the upper block (Above) may be regarded as a predefined regular mode. As a result, the need for the encoder and decoder to store a mapping table between MIP modes and regular modes in a memory can be eliminated.

일부 실시예에서, 좌측블록이 행렬 기반 인트라 예측(MIP) 코딩된 경우에 좌측블록의 정규 인트라 예측 모드는 (좌측블록의 MIP 모드와 관계없이) 제1모드로 간주될 수 있으며, 상측블록이 MIP 모드로 코딩된 경우에 상측블록의 정규 인트라 예측 모드는 (상측블록의 MIP 모드와 관계없이) 제2모드로 간주될 수 있다. 제1모드와 제2모드는 동일하거나 상이하게 미리 정의될 수 있으며, 상위 레벨의 신텍스에서 시그널링될 수도 있다.In some embodiments, when the left block is matrix-based intra prediction (MIP) coded, the normal intra prediction mode of the left block may be regarded as the first mode (regardless of the MIP mode of the left block), and the upper block is MIP. When coded in the mode, the normal intra prediction mode of the upper block may be regarded as the second mode (regardless of the MIP mode of the upper block). The first mode and the second mode may be predefined identically or differently, and may be signaled in a higher level syntax.

다른 일부 실시예에서, 정규 블록에 대해 MPM 리스트를 유도함에 있어서, 주변 블록에 MIP 모드가 적용된 경우에, (그 주변 블록의 MIP 모드와 관계없이) 그 주변 블록의 정규 인트라 예측 모드는 PLANAR 모드(혹은 DC 모드)로 간주될 수 있다. 평균값 연산과 보간 연산을 포함하는 행렬 기반 인트라 예측(MIP) 기법의 특성상, MIP가 적용된 블록의 잔차신호는 변환 도메인에서 저주파수 성분이 우세할 수 있다. 이러한 잔차신호의 특성은 PLANAR 모드(혹은 DC 모드)가 적용된 블록의 잔차신호와 유사할 수 있다는 점에 주목한다. In some other embodiments, in deriving the MPM list for a normal block, when the MIP mode is applied to the neighboring block, the normal intra prediction mode of the neighboring block (regardless of the MIP mode of the neighboring block) is the PLANAR mode ( Or DC mode). Due to the characteristics of the matrix-based intra prediction (MIP) technique including an average value operation and an interpolation operation, the residual signal of a block to which MIP is applied may have a low frequency component dominant in the transform domain. Note that the characteristics of such a residual signal may be similar to that of a block to which the PLANAR mode (or DC mode) is applied.

유사하게, 크로마 DM(direct mode) 유도 시에도, 동일 위치의 루마 블록에 행렬 기반 인트라 예측(MIP) 코딩이 적용된 경우에, MIP 모드와 정규 모드 간의 매핑 테이블을 사용하는 대신에, 그 루마 블록의 인트라 예측 모드는 PLANAR 모드(혹은 DC 모드)로 간주될 수 있다. Similarly, even when inducing a chroma direct mode (DM), when matrix-based intra prediction (MIP) coding is applied to a luma block at the same location, instead of using a mapping table between the MIP mode and the normal mode, the luma block The intra prediction mode may be regarded as a PLANAR mode (or DC mode).

따라서, 복호화기는, 크로마 블록에 대한 인트라 예측 모드를 특정하는 신택스 엘리먼트를 파싱하고, 그 신택스 엘리먼트에 의해 크로마 블록의 인트라 예측 모드가 동일 위치의 루마 블록의 인트라 예측 모드를 그대로 이용한다고 지시되고, 그 동일 위치의 루마 블록에 MIP가 적용된 경우에, 그 루마 블록의 인트라 예측 모드를 PLANAR 모드(혹은 DC 모드)로 간주할 수 있다. 즉, 크로마 DM(direct mode)에서 동일 위치의 루마 블록에 MIP가 적용된 경우에, 크로마 블록의 인트라 예측 모드는 PLANAR 모드(혹은 DC 모드)로 결정될 수 있다.Accordingly, the decoder parses the syntax element specifying the intra prediction mode for the chroma block, and is indicated by the syntax element that the intra prediction mode of the chroma block uses the intra prediction mode of the luma block at the same position as it is. When MIP is applied to the luma block at the same location, the intra prediction mode of the luma block may be regarded as a PLANAR mode (or DC mode). That is, when MIP is applied to the luma block at the same location in the chroma direct mode (DM), the intra prediction mode of the chroma block may be determined as the PLANAR mode (or DC mode).

다만, 크로마 DM(Direct mode)에서, 비디오의 샘플링 포맷이 4:4:4이고, 동일 위치의 루마 블록이 행렬기반 인트라 예측(MIP)으로 예측된 경우에, 크로마 블록에 대해 행렬 기반 인트라 예측이 허용될 수도 있다. 이 경우, 크로마 성분들의 블록들(크로마 블록들)에 대한 MIP 모드는 동일 위치의 루마 블록에 대해 사용된 MIP 모드와 동일한 것으로 간주될 수 있다. However, in the chroma direct mode (DM), when the video sampling format is 4:4:4 and the luma block at the same position is predicted by matrix-based intra prediction (MIP), matrix-based intra prediction is performed for the chroma block. It may be acceptable. In this case, the MIP mode for blocks of chroma components (chroma blocks) may be regarded as the same as the MIP mode used for the luma block at the same location.

도 6은 본 발명의 일 실시예에 따른, 전술한 몇몇 개선사항들을 채용한, 비디오 데이터를 복호화하는 방법을 예시하는 흐름도이다. 도 6의 방법은 도 4에 예시된 비디오 복호화 장치와 같은 비디오 복호화기에 의해 수행될 수 있다. 예를 들어, 엔트로피 복호화부(410)과 인트라 예측부(442)가 이하에 기술된 하나 이상의 단계에 관여될 수 있다.6 is a flow chart illustrating a method of decoding video data, employing some of the above-described improvements, according to an embodiment of the present invention. The method of FIG. 6 may be performed by a video decoder such as the video decoding apparatus illustrated in FIG. 4. For example, the entropy decoding unit 410 and the intra prediction unit 442 may be involved in one or more steps described below.

비디오 복호화기는 비트스트림으로부터 현재 코딩 블록의 루마 예측 모드에 관한 정보와 크로마 예측 모드에 관한 정보를 획득할 수 있다(S610). 비디오 복호화기는 비디오 데이터의 부호화된 비트스트림을 복호화하고 루마 예측 모드에 관한 정보와 크로마 예측 모드에 관한 정보를 획득할 수 있다.The video decoder may obtain information about the luma prediction mode and information about the chroma prediction mode of the current coding block from the bitstream (S610). The video decoder may decode an encoded bitstream of video data and obtain information about a luma prediction mode and information about a chroma prediction mode.

비디오 복호화기는 루마 예측 모드에 관한 정보를 기초로 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출할 수 있다(S620). 루마 인트라 예측 타입은 행렬 기반 인트라 예측(matrix based intra prediction: MIP)과 정규 인트라 예측(regular intra prediction)을 포함할 수 있다. 루마 예측 모드에 관한 정보는 현재 코딩 블록의 루마 인트라 예측 타입을 지시하는 신택스 엘리먼트, 현재 코딩 블록에 대해 선택된 행렬 기반 인트라 예측 모드를 지시하는 신택스 엘리먼트, 현재 코딩 블록에 대해 선택된 정규 인트라 예측 모드를 시그널링하기 위한 하나 이상의 신택스 엘리먼트를 포함할 수 있다.The video decoder may derive a luma intra prediction type and a luma intra prediction mode of the current coding block based on information on the luma prediction mode (S620). The luma intra prediction type may include matrix based intra prediction (MIP) and regular intra prediction. The information on the luma prediction mode signals a syntax element indicating a luma intra prediction type of the current coding block, a syntax element indicating a matrix-based intra prediction mode selected for the current coding block, and a normal intra prediction mode selected for the current coding block. It may include one or more syntax elements for doing so.

일 예로, 비디오 복호화기는 비트스트림으로부터 상기 현재 코딩 블록의 루마 인트라 예측 타입을 지시하는 신택스 엘리먼트(예컨대, intra_mip_flag)를 파싱할 수 있다. 상기 신택스 엘리먼트가 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이라고 지시하는 경우에, 비디오 복호화기는 상기 현재 코딩 블록에 대한 행렬 기반 인트라 예측 모드를 지시하는 신택스 엘리먼트로서 상기 현재 코딩 블록의 너비 및 높이에 대해 허용되는 복수의 행렬 기반 인트라 예측 모드들 중에서 하나를 특정하는 절삭된 이진 코드(truncated binary code)로 표현되는 신택스 엘리먼트(예컨대, intra_mip_mode)를 파싱할 수 있다. As an example, the video decoder may parse a syntax element (eg, intra_mip_flag) indicating the luma intra prediction type of the current coding block from the bitstream. When the syntax element indicates that the luma intra prediction type of the current coding block is matrix-based intra prediction, the video decoder is a syntax element indicating a matrix-based intra prediction mode for the current coding block, and the width of the current coding block And a syntax element (eg, intra_mip_mode) represented by a truncated binary code specifying one of a plurality of matrix-based intra prediction modes allowed for height.

상기 신택스 엘리먼트(예컨대, intra_mip_flag)가 상기 현재 코딩 블록의 루마 인트라 예측 타입이 정규 인트라 예측이라고 지시하는 경우에, 비디오 복호화기는 상기 현재 코딩 블록에 인접한 주변 블록들의 인트라 예측 모드를 기초로 MPM(Most Probable Mode) 후보들을 도출하여 상기 현재 코딩 블록에 대한 MPM 리스트를 구성하고, 상기 MPM 리스트에 기초하여 상기 현재 코딩 블록에 대한 루마 인트라 예측 모드를 도출할 수 있다. 이를 위해, 비디오 복호화기는 MPM과 관련된 하나 이상의 신택스 엘리먼트들을 파싱할 수 있다. 비디오 복호화기는 상기 현재 코딩 블록에 인접한 주변 블록들의 인트라 예측 모드를 기초로 MPM 후보들을 도출함에 있어서, 상기 주변 블록의 인트라 예측 타입이 행렬 기반 인트라 예측인 경우에, 상기 주변 블록의 인트라 예측 모드를 PLANAR 모드로 간주(설정)할 수 있다.When the syntax element (e.g., intra_mip_flag) indicates that the luma intra prediction type of the current coding block is normal intra prediction, the video decoder is based on the intra prediction mode of neighboring blocks adjacent to the current coding block. Mode) Candidates are derived to construct an MPM list for the current coding block, and a luma intra prediction mode for the current coding block may be derived based on the MPM list. To this end, the video decoder may parse one or more syntax elements related to MPM. When the video decoder derives MPM candidates based on intra prediction modes of neighboring blocks adjacent to the current coding block, when the intra prediction type of the neighboring block is matrix-based intra prediction, the intra prediction mode of the neighboring block is PLANAR. It can be regarded (set) as a mode.

비디오 복호화기는 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드와 상기 크로마 예측 모드에 관한 정보를 기초로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정할 수 있다(S630). 크로마 예측 모드에 관한 정보는 크로마 인트라 예측 모드를 특정하는, 0 내지 4 중 하나의 값을 가질 수 있는, 신택스 엘리먼트(예컨대, intra_chroma_pred_mode)을 포함할 수 있다. 또한, 크로마 예측 모드에 관한 정보는 크로마 블록에 CCLM이 적용되는지 여부를 나타내는 플래그(예컨대, cclm_mode_flag)와 3개의 이용가능한 CCLM 모드들 중 하나를 지시하는 인덱스 정보(cclm_mode_idx)를 포함할 수 있다. 크로마 블록에 CCLM이 적용되는 경우에, intra_chroma_pred_mode는 존재하지 않을 수 있다.The video decoder may determine a chroma intra prediction mode of the current coding block based on a luma intra prediction type and a luma intra prediction mode of the current coding block, and information on the chroma prediction mode (S630). The information on the chroma prediction mode may include a syntax element (eg, intra_chroma_pred_mode), which may have one of 0 to 4, specifying the chroma intra prediction mode. In addition, the information on the chroma prediction mode may include a flag indicating whether CCLM is applied to the chroma block (eg, cclm_mode_flag) and index information (cclm_mode_idx) indicating one of three available CCLM modes. When CCLM is applied to a chroma block, intra_chroma_pred_mode may not exist.

일 예로, 비디오 복호화기는 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이며, 상기 비디오 데이터의 샘플링 포맷이 4:4:4일 때, 현재 코딩 블록의 크로마 인트라 예측 타입이 상기 행렬 기반 인트라 예측이라고 결정하고, 상기 현재 코딩 블록의 크로마 인트라 예측 타입에 대응되는 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다고 결정할 수 있다.As an example, in the video decoder, information about a chroma prediction mode indicates a direct mode (DM), a luma intra prediction type of a current coding block is a matrix-based intra prediction, and a sampling format of the video data is 4:4:4. When it is determined that the chroma intra prediction type of the current coding block is the matrix-based intra prediction, and the chroma intra prediction mode corresponding to the chroma intra prediction type of the current coding block is a matrix derived as the luma intra prediction mode of the current coding block It may be determined that it is the same as the base intra prediction mode.

다른 일 예로, 비디오 복호화기는 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측 타입이고, 상기 비디오 데이터의 샘플링 포맷이 4:2:0 혹은 4:2:2 일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 PLANAR 모드로 결정할 수 있다.As another example, in the video decoder, information on a chroma prediction mode indicates a direct mode (DM), a luma intra prediction type of the current coding block is a matrix-based intra prediction type, and a sampling format of the video data is 4:2. When :0 or 4:2:2, the chroma intra prediction mode of the current coding block may be determined as the PLANAR mode.

또 다른 일 예로, 비디오 복호화기는 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 정규 인트라 예측 타입일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 정규 인트라 예측 모드와 동일하다고 결정할 수 있다.As another example, when information about a chroma prediction mode indicates a direct mode (DM) and a luma intra prediction type of the current coding block is a normal intra prediction type, the video decoder is a chroma intra prediction mode of the current coding block May be determined to be the same as the normal intra prediction mode derived as the luma intra prediction mode of the current coding block.

비디오 복호화기는 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 기초로 상기 현재 코딩 블록의 크로마 예측 샘플들을 생성할 수 있다(S640). 비디오 복호화기는 행렬 기반 인트라 예측 또는 정규 인트라 예측을 선택적으로 수행하여 현재 코딩 블록의 크로마 예측 샘플들을 생성할 수 있다. The video decoder may generate chroma prediction samples of the current coding block based on the chroma intra prediction mode of the current coding block (S640). The video decoder may generate chroma prediction samples of the current coding block by selectively performing matrix-based intra prediction or regular intra prediction.

일 예로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다는 결정하는 것에 응답하여, 비디오 복호화기는 도출된 행렬 기반 인트라 예측 모드에 따른 행렬 기반 인트라 예측을 수행하여 현재 코딩 블록의 크로마 예측 샘플들을 생성할 수 있다. 비디오 복호화기는 상기 현재 코딩 블록의 너비 및 높이에 기초하여 상기 현재 코딩 블록에 인접한 주변 크로마 샘플들을 이용하여 입력 경계 벡터를 도출할 수 있다. 비디오 복호화기는 상기 행렬 기반 인트라 예측 모드에 대해 미리 정의된 행렬과 상기 입력 경계 벡터 간의 행렬-벡터 곱셈에 기초하여, 상기 현재 코딩 블록에 대한 크로마 예측 샘플들을 생성할 수 있다. 비디오 복호화기는 상기 크로마 예측 샘플들을 기초로 상기 현재 코딩 블록에 대한 크로마 예측 블록을 도출할 수 있다.As an example, in response to determining that the chroma intra prediction mode of the current coding block is the same as the matrix-based intra prediction mode derived as the luma intra prediction mode of the current coding block, the video decoder may respond to the derived matrix-based intra prediction mode. A corresponding matrix-based intra prediction may be performed to generate chroma prediction samples of the current coding block. The video decoder may derive an input boundary vector using adjacent chroma samples adjacent to the current coding block based on the width and height of the current coding block. Video decoder Chroma prediction samples for the current coding block may be generated based on a matrix-vector multiplication between a matrix predefined for the matrix-based intra prediction mode and the input boundary vector. The video decoder may derive a chroma prediction block for the current coding block based on the chroma prediction samples.

다른 일 예로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 PLANAR 모드로 결정하는 것에 응답하여, 비디오 복호화기는 PLANAR 모드에 따른 정규 인트라 예측을 수행하여 현재 코딩 블록의 크로마 예측 샘플들을 생성할 수 있다. As another example, in response to determining the chroma intra prediction mode of the current coding block as the PLANAR mode, the video decoder may generate chroma prediction samples of the current coding block by performing regular intra prediction according to the PLANAR mode.

또 다른 일 예로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 정규 인트라 예측 모드와 동일하다고 결정하는 것에 응답하여, 비디오 복호화기는 도출된 정규 인트라 예측 모드에 따른 정규 인트라 예측을 수행하여 현재 코딩 블록의 크로마 예측 샘플들을 생성할 수 있다.As another example, in response to determining that the chroma intra prediction mode of the current coding block is the same as the normal intra prediction mode derived as the luma intra prediction mode of the current coding block, the video decoder According to the normal intra prediction, chroma prediction samples of the current coding block may be generated.

이하에서는 비디오 데이터를 인터 예측 코딩하는 몇몇 개선된 기술들이 개시된다. 이하에 설명되는 일부 기술들은 움직임 정보를 효율적으로 시그널링하는 것과 관련되어 있으며, 다른 일부 기술들은 움직임 정보에 따라 보간 필터링을 적응적으로 수행하는 것과 관련되어 있다.In the following, some advanced techniques for inter prediction coding video data are disclosed. Some techniques described below relate to efficiently signaling motion information, and some other techniques relate to adaptively performing interpolation filtering according to motion information.

움직임 벡터는 n차원 벡터, 즉 n개의 방향 성분들로 구성될 수 있다. 본 개시의 기법에 따르면, 움직임 정보가 각 방향 별로 독립적으로 코딩되는 것이 허용될 수 있다. 부호화기는 코딩 블록의 움직임 정보가 방향 별로 독립적으로 코딩되는지 여부를 나타내는 정보를 시그널링할 수 있다.The motion vector may be composed of an n-dimensional vector, that is, n direction components. According to the technique of the present disclosure, it may be allowed that motion information is independently coded for each direction. The encoder may signal information indicating whether motion information of a coding block is independently coded for each direction.

움직임 정보는 각 방향에 대한 움직임 세트, 움직임 벡터의 예측 모드 등과 같이 부호화기에 의해 명시적으로 시그널링되는 정보를 의미할 수 있다. 또한, 움직임 정보는 이들 정보로부터 유도된 정보 즉, 복호화기에 의해 최종으로 구해진 움직임 벡터의 값 또는 차분 움직임 벡터의 정확도(precision)를 의미하거나 이를 포함할 수 있다. 여기서, 정확도는 벡터의 각 성분들이 소수점 몇 째자리까지 표현되는지를 나타내며, 움직임 벡터의 해상도(resolution)로 지칭될 수 있다. 움직임 세트는 벡터 성분, 정확도 등의 정보로 구성될 수 있다. 벡터 성분은 실제 움직임 벡터 또는 차분 움직임 벡터로 구성될 수 있고, 정확도 정보는 움직임 벡터 정확도 또는 차분 움직임 벡터의 정확도로 구성될 수 있다. The motion information may mean information explicitly signaled by the encoder, such as a motion set for each direction and a prediction mode of a motion vector. Also, the motion information may mean or include information derived from these information, that is, a value of a motion vector finally obtained by a decoder or a precision of a differential motion vector. Here, accuracy indicates how many decimal places each component of a vector is expressed, and may be referred to as a resolution of a motion vector. The motion set may consist of information such as vector components and accuracy. The vector component may be composed of an actual motion vector or a differential motion vector, and the accuracy information may be composed of a motion vector accuracy or an accuracy of a differential motion vector.

움직임 정보가 각 방향별로 독립적으로 코딩되는 것은 각 방향에 대해 움직임 세트가 개별적으로 부호화되거나 복호화되는 것을 의미할 수 있다. 예를 들어, 각 방향의 벡터 성분이 각각 별개의 정확도로 표현되어 별개의 움직임 세트로서 부/복호화될 수 있다. 각 방향에 대해 정의되는 움직임 정보가 종속적으로 코딩 되는 것은, n개의 방향들 중에서 적어도 2개의 방향에 대해, 각 방향의 벡터 성분이 하나의 정확도로 표현되어 하나의 움직임 세트로서 부/복호화되는 것을 의미할 수 있다. When motion information is independently coded for each direction, it may mean that a motion set is individually coded or decoded for each direction. For example, vector components in each direction may be expressed with separate accuracy and may be encoded/decoded as separate motion sets. The fact that the motion information defined for each direction is dependently coded means that, for at least two directions among n directions, the vector component of each direction is expressed with one accuracy and encoded/decoded as one motion set. can do.

움직임 정보가 각 방향에 대해 독립적 혹은 종속적으로 코딩되는지 여부를 지시하는 정보가 부호화 장치에 의해 시그널링될 수 있다. 일 예로, 해당 정보는 SEI(Supplemental enhancement information) 메시지, APS, SPS, PPS, 슬라이스/타일/타일그룹 헤더 등 상위레벨의 신텍스 엘리먼트로서 전송될 수 있다. 다른 일 예로, 해당 정보는 기본 복호화 처리 단위 및 분할 블록 단위로 전송되거나, 상위 레벨의 신텍스와 블록 단위에서 모두 전송될 수 있다. 대안적으로, 해당 정보는 참조 후보 블록들의 움직임 정보가 독립적으로 코딩되었는지 여부와 그 참조 후보 블록들의 움직임 정보로부터 유도될 수도 있다.Information indicating whether motion information is independently or dependently coded for each direction may be signaled by the encoding apparatus. As an example, the information may be transmitted as a higher-level syntax element such as a Supplemental Enhancement Information (SEI) message, APS, SPS, PPS, and slice/tile/tile group header. As another example, the information may be transmitted in a basic decoding processing unit and a divided block unit, or in both a higher level syntax and a block unit. Alternatively, the information may be derived from whether motion information of reference candidate blocks is independently coded and motion information of the reference candidate blocks.

2차원 픽쳐들의 시퀀스인 비디오 데이터에서, 움직임 벡터는 2개의 방향(예컨대, x 방향과 y 방향) 성분으로 구성될 수 있다. 본 개시의 기법에 따르면, x 방향과 y 방향에 대한 움직임 세트가 독립적으로 코딩될 수 있다.In video data, which is a sequence of 2D pictures, a motion vector may be composed of components in two directions (eg, x direction and y direction). According to the technique of the present disclosure, motion sets for the x and y directions may be independently coded.

움직임 정보를 코딩하는데 있어 움직임 정보를 구성하는 각 요소들을 독립적으로 코딩하는 것이 허용되는지 여부를 지시하는 신택스 엘리먼트가 상위 레벨에서 시그널링될 수 있다. 예를 들어, SPS에서 시그널링되는 sps_MV_independent_enable flag의 값은 움직임 정보를 구성하는 각 요소들을 독립적으로 코딩하는 것이 허용되는지 여부를 지시한다. sps_MV_independent_enable 이 1인 경우, picture/slice/tile 등의 하위 단위별로 움직임 정보의 각 요소들이 독립적으로 부호화 되었는지 여부를 지시하는 정보가 추가로 시그널링될 수 있다. 예를 들어, slice 헤더에서 시그널링되는 MV_independent_flag의 값은 현재 복호화 단위(예컨대, CU)에 대하여 움직임 정보의 각 요소들이 독립적으로 복호화 되었는지 여부를 특정한다. MV_independent_flag = 0인 경우, x 방향과 y 방향에 대한 움직임 정보는 하나의 움직임 세트로 코딩된다. MV_independent_flag = 1인 경우, 움직임 정보는 x 방향에 대한 움직임 세트와 y 방향에 대한 움직임 세트로 구분되어 코딩된다.In coding motion information, a syntax element indicating whether independent coding of each element constituting motion information is allowed may be signaled at a higher level. For example, the value of the sps_MV_independent_enable flag signaled in the SPS indicates whether independent coding of elements constituting motion information is allowed. When sps_MV_independent_enable is 1, information indicating whether each element of motion information is independently encoded for each sub-unit such as picture/slice/tile may be additionally signaled. For example, the value of MV_independent_flag signaled in the slice header specifies whether each element of motion information has been independently decoded for the current decoding unit (eg, CU). When MV_independent_flag = 0, motion information in the x and y directions is coded as one motion set. When MV_independent_flag = 1, motion information is coded by being divided into a motion set for the x direction and a motion set for the y direction.

이하에서는, 코딩 효율을 높이기 위해, 움직임 정보를 이용하여 보간 필터링을 적응적으로 수행하는 기법이 개시된다.Hereinafter, a technique for adaptively performing interpolation filtering using motion information is disclosed in order to increase coding efficiency.

보간 필터는 움직임 정보를 이용하는 코딩 기술들(예컨대, 인터 예측 코딩, 인트라 블록 카피, 인터 예측신호와 인트라 예측신호를 결합하는 CIIP 기술 등)에서 참조 픽쳐의 해상도를 변화시키기 위해 이용되는 필터를 의미한다. The interpolation filter refers to a filter used to change the resolution of a reference picture in coding techniques using motion information (e.g., inter prediction coding, intra block copy, CIIP technology that combines an inter prediction signal and an intra prediction signal, etc.) .

일부 실시예의 경우에, 보간에 사용할 하나 이상의 보간 필터 각각에 대한 구성 정보가 직접적으로 부호화기로부터 복호화기로 전송될 수 있다. 보간 필터의 구성 정보는 보간 필터의 탭수, 보간 필터 계수, 보간 필터의 방향, 보간 필터의 모양 등의 정보를 포함할 수 있다.In some embodiments, configuration information for each of one or more interpolation filters to be used for interpolation may be directly transmitted from an encoder to a decoder. The configuration information of the interpolation filter may include information such as the number of taps of the interpolation filter, interpolation filter coefficients, the direction of the interpolation filter, and the shape of the interpolation filter.

다른 실시예의 경우, 부호화기와 복호화기에서는 복수의 보간 필터에 대한 정보가 미리 정의된 하나 이상의 보간 필터 리스트가 이용가능할 수 있다. 각 리스트는 해당 리스트에 포함되는 보간 필터들 각각의 구성 정보를 포함한다. 보간 필터에 대한 정보는 간접적으로 부호화기로부터 복호화기로 전송될 수 있다. 예컨대, 보간 필터에 대한 정보는 복수의 보간 필터 리스트 중 이용가능한 보간 필터 리스트를 지시하는 인덱스가 보간 필터에 대한 정보로서 간접적으로 전송될 수 있다. In other embodiments, the encoder and the decoder may use one or more interpolation filter lists in which information on a plurality of interpolation filters is predefined. Each list includes configuration information of each of the interpolation filters included in the list. Information on the interpolation filter may be indirectly transmitted from the encoder to the decoder. For example, as for the information on the interpolation filter, an index indicating an available interpolation filter list among a plurality of interpolation filter lists may be indirectly transmitted as information on the interpolation filter.

복수 개의 보간 필터들이 이용 가능한 경우에, 그 복수의 보간 필터들 중 사용할 보간 필터의 인덱스 정보가 부호화기에 의해 명시적으로 시그널링될 수 있다. 일 예로, 인덱스 정보는 SEI 메시지, APS, SPS, PPS, 슬라이스/타일/타일그룹 헤더 등 상위레벨의 신텍스 엘리먼트로서 전송될 수 있다. 다른 일 예로, 인덱스 정보는 기본 복호화 처리 단위 및 분할 블록 단위로 전송되거나, 상위 레벨의 신텍스와 블록 단위에서 모두 전송될 수 있다. 대안적으로, 현재의 블록에 대해 사용할 보간 필터의 인덱스 정보는 기복호화된 주변 블록, 기복호화된 참조 블록, 및 기복호화된 참조 블록의 주변 블록 중 적어도 하나로부터 유도될 수도 있다.When a plurality of interpolation filters are available, index information of an interpolation filter to be used among the plurality of interpolation filters may be explicitly signaled by the encoder. As an example, the index information may be transmitted as a higher level syntax element such as an SEI message, APS, SPS, PPS, slice/tile/tile group header. As another example, the index information may be transmitted in a basic decoding processing unit and a divided block unit, or in both a higher level syntax and a block unit. Alternatively, the index information of the interpolation filter to be used for the current block may be derived from at least one of a decoded neighboring block, a decoded reference block, and a neighboring block of the decoded reference block.

일 실시형태에서, 부호화기와 복호화기는 이용가능한 보간 필터들 중에서 참조 픽셀의 위치에 따라 사용할 보간 필터의 종류를 선택할 수도 있다. 또한 SEI 메시지, APS, SPS, PPS, 슬라이스/타일/타일그룹 헤더 등 상위레벨의 신텍스를 통해, 미리 정의된 보간 필터들 외에 추가적인 보간 필터에 대한 정보가 전송될 수도 있다. In one embodiment, the encoder and decoder may select the type of interpolation filter to use according to the position of the reference pixel among the available interpolation filters. In addition, information on additional interpolation filters in addition to predefined interpolation filters may be transmitted through high-level syntax such as SEI message, APS, SPS, PPS, and slice/tile/tile group header.

만약 주어진 포지션 x에 대해 이용가능한 보간 필터의 종류가 여러 개인 경우에, 부호화기는 그 포지션에서 사용한 보간 필터를 특정하는 정보(예컨대, 필터 인덱스)를 시그널링할 수도 있다. 이러한 필터 인덱스는 기본 복호화 처리 단위 및 분할 블록 단위로 전송될 수 있다. 대안적으로, 복호화 대상 블록, 기복호화된 주변 블록, 기복호화된 참조 블록, 기복호화된 참조 블록의 주변 블록 중 적어도 하나 이상에 대해 이미 복호화된 정보를 이용하여, 복호화 대상 블록에 대해 사용할 보간 필터의 인덱스가 유도될 수도 있다. 여기서, 이미 복호화된 정보는 움직임 벡터의 정확도, 차분 움직임 벡터의 정확도, 최종 움직임 벡터의 정확도 등일 수 있다.If there are several types of interpolation filters available for a given position x, the encoder may signal information (eg, filter index) specifying an interpolation filter used at that position. This filter index may be transmitted in a basic decoding processing unit and a divided block unit. Alternatively, an interpolation filter to be used for the decoding target block by using information that has already been decoded for at least one or more of the decoding target block, the decoded neighboring block, the decoded reference block, and the neighboring blocks of the decoded reference block. The index of may be derived. Here, the already decoded information may be an accuracy of a motion vector, an accuracy of a differential motion vector, and an accuracy of a final motion vector.

가능한 일부 실시예에 따르면, APS, PPS, Slice/tile 헤더 등과 같은 상위 레벨의 신텍스에서 보간 필터를 선택적으로 사용하는 것이 허용되는지 여부를 지시하는 신택스 엘리먼트가 상위 레벨에서 시그널링될 수 있다. 보간 필터를 선택적으로 사용하는 것이 허용되는 경우에, 상위 레벨의 신텍스에서 각 보간 위치에 따라 사용할 수 있는 필터 세트를 특정하는 정보가 더 시그널링될 수 있다. 복호화기는 미리 정의된 필터와 상위 레벨의 신텍스 정보로부터 유도된 필터 정보를 이용하여 필터가 정의될 수 있다. 부호화기와 복호화기는 움직임 벡터의 정확도, 차분 움직임 벡터의 정확도, 최종 움직임 벡터의 정확도, 블록의 크기, 위치 등의 정보를 이용하여 보간 필터를 유도할 수 있다. 부호화기는 사용할 수 있는 여러 보간 필터에 대한 RD 테스트를 통해 적합한 필터를 선택하고 선택된 필터의 인덱스를 복호화기에 시그널링할 수도 있다.According to some possible embodiments, a syntax element indicating whether to selectively use an interpolation filter in a higher level syntax such as APS, PPS, Slice/tile header, etc. may be signaled at a higher level. When selective use of an interpolation filter is allowed, information specifying a filter set that can be used according to each interpolation position in a higher level syntax may be further signaled. The decoder may define a filter using a predefined filter and filter information derived from higher level syntax information. The encoder and decoder may derive an interpolation filter using information such as motion vector accuracy, differential motion vector accuracy, final motion vector accuracy, block size, and position. The encoder may select an appropriate filter through RD tests for several interpolation filters that can be used, and may signal the index of the selected filter to the decoder.

또한, 현재 블록에 사용할 보간 필터는 현재 블록의 움직임 예측 모드 및/또는 현재 블록의 움직임벡터를 유도하기 위해 참조된 주변블록으로부터 유도될 수도 있다.In addition, the interpolation filter to be used for the current block may be derived from referenced neighboring blocks to derive a motion prediction mode of the current block and/or a motion vector of the current block.

예시적인 실시예에서, 현재 블록이 merge 모드로 부호화 된 경우에, 복호화기는 merge되는 블록에서 사용된 보간 필터와 동일한 필터를 사용하여 현재 블록의 보간을 수행할 수 있다. 복호화기는 merge 되는 블록의 움직임 정보만을 참조하고, 보간 필터의 인덱스 정보를 복호화하여 보간을 수행할 수도 있다.In an exemplary embodiment, when the current block is encoded in the merge mode, the decoder may perform interpolation of the current block using the same filter as the interpolation filter used in the merged block. The decoder may refer only to motion information of a block to be merged and may perform interpolation by decoding index information of an interpolation filter.

예시적인 실시예에서, 현재 블록이 affine 모드로 부호화 된 경우에, 복호화기는 현재 블록의 제어점 움직임 벡터(Control Point MV; CPMV)를 유도하는 데에 현재 블록의 주변 참조 블록의 움직임 정보를 이용할 수 있다. 이 경우, 복호화기는 주변 참조 블록에서 사용된 보간 필터 인덱스 정보를 이용하여 현재 블록의 보간 필터 인덱스를 유도할 수도 있다. 또는 복호화기는 명시적으로 시그널링되는 현재 블록에 대한 보간 필터 인덱스 정보를 복호화할 수도 있다.In an exemplary embodiment, when the current block is encoded in the affine mode, the decoder may use motion information of a neighboring reference block of the current block to derive a control point motion vector (CPMV) of the current block. . In this case, the decoder may derive the interpolation filter index of the current block by using the interpolation filter index information used in the neighboring reference block. Alternatively, the decoder may decode the interpolation filter index information for the explicitly signaled current block.

예시적인 실시예에서, 현재 블록이 PMC(Pair-wise average Merge Candidates)로 부호화 된 경우, 움직임 벡터의 평균 값을 구하기 위해 사용되는 참조 블록들에서 사용된 보간 필터 인덱스 정보를 사용하여 현재 블록의 보간 필터 인덱스 정보를 유도할 수 있다. 또는 복호화기는 명시적으로 시그널링되는 현재 블록에 대한 보간 필터 인덱스 정보를 복호화할 수도 있다.In an exemplary embodiment, when the current block is encoded with Pair-wise average Merge Candidates (PMC), interpolation of the current block using interpolation filter index information used in reference blocks used to obtain an average value of a motion vector Filter index information can be derived. Alternatively, the decoder may decode the interpolation filter index information for the explicitly signaled current block.

예시적인 실시예에서, 현재 블록이 HMVP(History based MV Prediction)로 부호화 된 경우, 선택된 HMVP 후보에 대해 사용된 보간 필터 인덱스 정보를 이용하여 현재 블록의 보간 필터 인덱스를 유도할 수 있다. 또는 복호화기는 명시적으로 시그널링되는 현재 블록에 대한 보간 필터 인덱스 정보를 복호화할 수도 있다.In an exemplary embodiment, when the current block is encoded by HMVP (History based MV Prediction), the interpolation filter index of the current block may be derived using interpolation filter index information used for the selected HMVP candidate. Alternatively, the decoder may decode the interpolation filter index information for the explicitly signaled current block.

이상의 설명에서 예시적인 실시예들은 많은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 하나 이상의 예시들에서 설명된 기능들 혹은 방법들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다. 본 명세서에서 설명된 기능적 컴포넌트들은 그들의 구현 독립성을 특히 더 강조하기 위해 "...부(unit)" 로 라벨링되었음을 이해해야 한다. In the above description, it should be understood that the exemplary embodiments may be implemented in many different ways. The functions or methods described in one or more examples may be implemented in hardware, software, firmware, or any combination thereof. It should be understood that the functional components described herein are labeled "...unit" to particularly emphasize their implementation independence.

한편, 본 개시에서 설명된 다양한 기능들 혹은 방법들은 하나 이상의 프로세서에 의해 판독되고 실행될 수 있는 비일시적 기록매체에 저장된 명령어들로 구현될 수도 있다. 비일시적 기록매체는, 예를 들어, 컴퓨터 시스템에 의하여 판독가능한 형태로 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 예를 들어, 비일시적 기록매체는 EPROM(erasable programmable read only memory), 플래시 드라이브, 광학 드라이브, 자기 하드 드라이브, 솔리드 스테이트 드라이브(SSD)와 같은 저장매체를 포함한다.Meanwhile, various functions or methods described in the present disclosure may be implemented as instructions stored in a non-transitory recording medium that can be read and executed by one or more processors. The non-transitory recording medium includes, for example, all kinds of recording devices in which data is stored in a form readable by a computer system. For example, the non-transitory recording medium includes a storage medium such as an erasable programmable read only memory (EPROM), a flash drive, an optical drive, a magnetic hard drive, and a solid state drive (SSD).

이상의 설명은 본 발명의 기술적 사상에 따른 몇몇 실시예를 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 예시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술적 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of some embodiments according to the technical idea of the present invention, and those of ordinary skill in the technical field to which the present invention pertains, various modifications and variations without departing from the essential characteristics of the present invention. This will be possible. Accordingly, the illustrated embodiments are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

Claims (14)

비디오 데이터를 복호화하는 방법으로서,
비트스트림으로부터 현재 코딩 블록의 루마 예측 모드에 관한 정보와 크로마 예측 모드에 관한 정보를 획득하는 단계;
상기 루마 예측 모드에 관한 정보를 기초로 상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하는 단계 - 상기 루마 인트라 예측 타입은 행렬 기반 인트라 예측(matrix based intra prediction: MIP)과 정규 인트라 예측(regular intra prediction)을 포함함 -;
상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드와 상기 크로마 예측 모드에 관한 정보를 기초로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정하는 단계; 및
상기 현재 코딩 블록의 크로마 인트라 예측 모드를 기초로 상기 현재 코딩 블록의 크로마 예측 샘플들을 생성하는 단계를 포함하고,
상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정하는 단계는,
상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이며, 상기 비디오 데이터의 샘플링 포맷이 4:4:4일 때,
상기 현재 코딩 블록의 크로마 인트라 예측 타입이 행렬 기반 인트라 예측이라고 결정하고, 상기 현재 코딩 블록의 크로마 인트라 예측 타입에 대응되는 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다고 결정하는 단계
를 포함하는, 복호화 방법.
As a method of decoding video data,
Acquiring information about a luma prediction mode and information about a chroma prediction mode of a current coding block from the bitstream;
Deriving a luma intra prediction type and a luma intra prediction mode of the current coding block based on the information on the luma prediction mode-The luma intra prediction type is a matrix based intra prediction (MIP) and a normal intra Including regular intra prediction -;
Determining a chroma intra prediction mode of the current coding block based on a luma intra prediction type and a luma intra prediction mode of the current coding block and information about the chroma prediction mode; And
Generating chroma prediction samples of the current coding block based on a chroma intra prediction mode of the current coding block,
Determining a chroma intra prediction mode of the current coding block,
When the information on the chroma prediction mode indicates a direct mode (DM), the luma intra prediction type of the current coding block is matrix-based intra prediction, and the sampling format of the video data is 4:4:4,
Matrix-based intra, which is determined that the chroma intra prediction type of the current coding block is matrix-based intra prediction, and the chroma intra prediction mode corresponding to the chroma intra prediction type of the current coding block is derived as the luma intra prediction mode of the current coding block Determining that it is the same as the prediction mode
Including a decoding method.
제1항에 있어서,
상기 크로마 인트라 예측 모드를 기반으로 상기 현재 코딩 블록의 크로마 예측 샘플들을 생성하는 단계는,
상기 현재 코딩 블록의 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다고 결정하는 것에 응답하여,
상기 현재 코딩 블록의 너비 및 높이에 기초하여 상기 현재 코딩 블록에 인접한 주변 크로마 샘플들을 이용하여 입력 경계 벡터를 도출하는 단계;
상기 행렬 기반 인트라 예측 모드에 대해 미리 정의된 행렬과 상기 입력 경계 벡터 간의 행렬-벡터 곱셈에 기초하여, 상기 현재 코딩 블록에 대한 크로마 예측 샘플들을 생성하는 단계; 및
상기 크로마 예측 샘플들을 기초로 상기 현재 코딩 블록에 대한 크로마 예측 블록을 도출하는 단계
를 포함하는 것을 특징으로 하는, 복호화 방법.
The method of claim 1,
Generating chroma prediction samples of the current coding block based on the chroma intra prediction mode,
In response to determining that the chroma intra prediction mode of the current coding block is the same as the matrix-based intra prediction mode derived as the luma intra prediction mode of the current coding block,
Deriving an input boundary vector using neighboring chroma samples adjacent to the current coding block based on the width and height of the current coding block;
Generating chroma prediction samples for the current coding block based on a matrix-vector multiplication between the input boundary vector and a matrix predefined for the matrix-based intra prediction mode; And
Deriving a chroma prediction block for the current coding block based on the chroma prediction samples
It characterized in that it comprises a, decoding method.
제2항에 있어서,
상기 행렬 기반 인트라 예측 모드에 대해 미리 정의된 행렬은 루마 예측 샘플들과 크로마 예측 샘플들을 생성하는 데에 공통적으로 사용되는 것을 특징으로 하는, 복호화 방법.
The method of claim 2,
A matrix defined in advance for the matrix-based intra prediction mode is commonly used to generate luma prediction samples and chroma prediction samples.
제1항에 있어서,
상기 현재 블록의 크로마 인트라 예측 모드를 결정하는 단계는,
상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측 타입이고, 상기 비디오 데이터의 샘플링 포맷이 4:2:0 혹은 4:2:2 일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 PLANAR 모드로 결정하는 단계를 더 포함하는 것을 특징으로 하는, 복호화 방법.
The method of claim 1,
Determining a chroma intra prediction mode of the current block,
The information on the chroma prediction mode indicates a direct mode (DM), a luma intra prediction type of the current coding block is a matrix-based intra prediction type, and a sampling format of the video data is 4:2:0 or 4:2. When :2, further comprising the step of determining a chroma intra prediction mode of the current coding block as a PLANAR mode.
제1항에 있어서,
상기 현재 블록의 크로마 인트라 예측 모드를 결정하는 단계는,
상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 정규 인트라 예측 타입일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 정규 인트라 예측 모드와 동일하다고 결정하는 단계를 더 포함하는 것을 특징으로 하는, 복호화 방법.
The method of claim 1,
Determining a chroma intra prediction mode of the current block,
When the information on the chroma prediction mode indicates a direct mode (DM) and the luma intra prediction type of the current coding block is a normal intra prediction type, the chroma intra prediction mode of the current coding block is the luma of the current coding block. The method further comprising the step of determining that it is the same as the normal intra prediction mode derived by the intra prediction mode.
제1항에 있어서,
상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하는 단계는,
상기 현재 코딩 블록의 루마 인트라 예측 타입을 지시하는 신택스 엘리먼트를 파싱하는 단계; 및
상기 신택스 엘리먼트가 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이라고 지시하는 경우에, 상기 현재 코딩 블록에 대한 행렬 기반 인트라 예측 모드를 지시하는 신택스 엘리먼트로서 상기 현재 코딩 블록의 너비 및 높이에 대해 허용되는 복수의 행렬 기반 인트라 예측 모드들 중에서 하나를 특정하는 절삭된 이진 코드(truncated binary code)로 표현되는 신택스 엘리먼트를 파싱하는 단계
를 포함하는 것을 특징으로 하는, 복호화 방법.
The method of claim 1,
The step of deriving a luma intra prediction type and a luma intra prediction mode of the current coding block,
Parsing a syntax element indicating a luma intra prediction type of the current coding block; And
When the syntax element indicates that the luma intra prediction type of the current coding block is matrix-based intra prediction, as a syntax element indicating a matrix-based intra prediction mode for the current coding block, the width and height of the current coding block Parsing a syntax element represented by a truncated binary code specifying one of a plurality of matrix-based intra prediction modes allowed for
It characterized in that it comprises a, decoding method.
제1항에 있어서,
상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하는 단계는,
상기 현재 코딩 블록의 루마 인트라 예측 타입을 지시하는 신택스 엘리먼트를 파싱하는 단계; 및
상기 신택스 엘리먼트가 상기 현재 코딩 블록의 루마 인트라 예측 타입이 정규 인트라 예측이라고 지시하는 경우에, 상기 현재 코딩 블록에 인접한 주변 블록들의 인트라 예측 모드를 기초로 MPM(Most Probable Mode) 후보들을 도출하여 상기 현재 코딩 블록에 대한 MPM 리스트를 구성하는 단계; 및
상기 MPM 리스트에 기초하여 상기 현재 코딩 블록에 대한 루마 인트라 예측 모드를 도출하는 단계를 포함하고,
상기 현재 코딩 블록에 인접한 주변 블록들의 인트라 예측 모드를 기초로 MPM 후보들을 도출함에 있어서, 상기 주변 블록의 인트라 예측 타입이 행렬 기반 인트라 예측인 경우에, 상기 주변 블록의 인트라 예측 모드를 PLANAR 모드로 간주하는 것을 특징으로 하는, 복호화 방법.
The method of claim 1,
The step of deriving a luma intra prediction type and a luma intra prediction mode of the current coding block,
Parsing a syntax element indicating a luma intra prediction type of the current coding block; And
When the syntax element indicates that the luma intra prediction type of the current coding block is normal intra prediction, MPM (Most Probable Mode) candidates are derived based on intra prediction modes of neighboring blocks adjacent to the current coding block, and the current Constructing an MPM list for the coding block; And
Deriving a luma intra prediction mode for the current coding block based on the MPM list,
In deriving MPM candidates based on intra prediction modes of neighboring blocks adjacent to the current coding block, when the intra prediction type of the neighboring block is matrix-based intra prediction, the intra prediction mode of the neighboring block is regarded as a PLANAR mode. It characterized in that the decoding method.
비디오 데이터를 복호화하는 장치로서,
비트스트림으로부터 현재 코딩 블록의 루마 예측 모드에 관한 정보와 크로마 예측 모드에 관한 정보를 획득하는 복호화부; 및
상기 루마 예측 모드에 관한 정보를 기초로 상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드와 상기 크로마 예측 모드에 관한 정보를 기초로, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정하고, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 기초로 상기 현재 코딩 블록의 크로마 예측 샘플들을 생성하는 인트라 예측부
를 포함하고,
상기 루마 인트라 예측 타입은 행렬 기반 인트라 예측(matrix based intra prediction: MIP)과 정규 인트라 예측(regular intra prediction)을 포함하며,
상기 인트라 예측부는,
상기 현재 코딩 블록의 크로마 인트라 예측 모드를 결정하는 것의 일부로서,
상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이며, 상기 비디오 데이터의 샘플링 포맷이 4:4:4일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 타입이 상기 행렬 기반 인트라 예측이라고 결정하고, 상기 현재 코딩 블록의 크로마 인트라 예측 타입에 대응되는 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다고 결정하는 것을 특징으로 하는, 복호화 장치.
As an apparatus for decoding video data,
A decoding unit that obtains information about a luma prediction mode and information about a chroma prediction mode of a current coding block from the bitstream; And
A luma intra prediction type and a luma intra prediction mode of the current coding block are derived based on the information on the luma prediction mode, and information about a luma intra prediction type and a luma intra prediction mode and the chroma prediction mode of the current coding block Based on, an intra prediction unit that determines a chroma intra prediction mode of the current coding block and generates chroma prediction samples of the current coding block based on the chroma intra prediction mode of the current coding block
Including,
The luma intra prediction type includes matrix based intra prediction (MIP) and regular intra prediction,
The intra prediction unit,
As part of determining a chroma intra prediction mode of the current coding block,
When the information on the chroma prediction mode indicates a direct mode (DM), the luma intra prediction type of the current coding block is matrix-based intra prediction, and the sampling format of the video data is 4:4:4, the current Matrix-based intra prediction in which the chroma intra prediction type of the coding block is determined to be the matrix-based intra prediction, and the chroma intra prediction mode corresponding to the chroma intra prediction type of the current coding block is derived as the luma intra prediction mode of the current coding block A decoding device, characterized in that it is determined to be the same as the mode.
제8항에 있어서,
상기 인트라 예측부는,
상기 크로마 인트라 예측 모드를 기반으로 상기 현재 코딩 블록의 크로마 예측 샘플들을 생성하는 것의 일부로서,
상기 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 행렬 기반 인트라 예측 모드와 동일하다는 결정에 응답하여,
상기 현재 코딩 블록의 너비 및 높이에 기초하여 상기 현재 코딩 블록에 인접한 주변 크로마 샘플들을 이용하여 입력 경계 벡터를 도출하는 단계;
상기 행렬 기반 인트라 예측 모드에 대해 미리 정의된 행렬과 상기 입력 경계 벡터 간의 행렬-벡터 곱셈에 기초하여, 상기 현재 코딩 블록에 대한 크로마 예측 샘플들을 생성하는 단계; 및
상기 크로마 예측 샘플들을 기초로 상기 현재 코딩 블록에 대한 크로마 예측 블록을 도출하는 단계
를 수행하는 것을 특징으로 하는, 복호화 장치.
The method of claim 8,
The intra prediction unit,
As part of generating chroma prediction samples of the current coding block based on the chroma intra prediction mode,
In response to determining that the chroma intra prediction mode is the same as a matrix-based intra prediction mode derived as a luma intra prediction mode of the current coding block,
Deriving an input boundary vector using neighboring chroma samples adjacent to the current coding block based on the width and height of the current coding block;
Generating chroma prediction samples for the current coding block based on a matrix-vector multiplication between the input boundary vector and a matrix predefined for the matrix-based intra prediction mode; And
Deriving a chroma prediction block for the current coding block based on the chroma prediction samples
A decoding device, characterized in that to perform.
제9항에 있어서,
상기 행렬 기반 인트라 예측 모드에 대해 미리 정의된 행렬은 루마 예측 샘플들과 크로마 예측 샘플들을 생성하는 데에 공통적으로 사용되는 것을 특징으로 하는, 복호화 장치.
The method of claim 9,
A decoding apparatus, characterized in that a matrix predefined for the matrix-based intra prediction mode is commonly used to generate luma prediction samples and chroma prediction samples.
제8항에 있어서,
상기 인트라 예측부는,
상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측 타입이고, 상기 비디오 데이터의 샘플링 포맷이 4:2:0 혹은 4:2:2 일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드를 PLANAR 모드로 결정하는 것을 특징으로 하는, 복호화 장치.
The method of claim 8,
The intra prediction unit,
The information on the chroma prediction mode indicates a direct mode (DM), a luma intra prediction type of the current coding block is a matrix-based intra prediction type, and a sampling format of the video data is 4:2:0 or 4:2. When :2, the decoding apparatus, characterized in that the chroma intra prediction mode of the current coding block is determined as a PLANAR mode.
제8항에 있어서,
상기 인트라 예측부는,
상기 크로마 예측 모드에 관한 정보가 DM(Direct Mode)를 지시하고, 상기 현재 코딩 블록의 루마 인트라 예측 타입이 정규 인트라 예측 타입일 때, 상기 현재 코딩 블록의 크로마 인트라 예측 모드가 상기 현재 코딩 블록의 루마 인트라 예측 모드로 도출된 정규 인트라 예측 모드와 동일하다고 결정하는 것을 특징으로 하는, 복호화 장치.
The method of claim 8,
The intra prediction unit,
When the information on the chroma prediction mode indicates a direct mode (DM) and the luma intra prediction type of the current coding block is a normal intra prediction type, the chroma intra prediction mode of the current coding block is the luma of the current coding block. A decoding apparatus, characterized in that it is determined that it is the same as the normal intra prediction mode derived by the intra prediction mode.
제8항에 있어서,
상기 인트라 예측부는,
상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하는 것의 일부로서,
상기 현재 코딩 블록의 루마 인트라 예측 타입을 지시하는 신택스 엘리먼트를 파싱하는 단계; 및
상기 신택스 엘리먼트가 상기 현재 코딩 블록의 루마 인트라 예측 타입이 행렬 기반 인트라 예측이라고 지시하는 경우에, 상기 현재 코딩 블록에 대한 행렬 기반 인트라 예측 모드를 지시하는 신택스 엘리먼트로서 상기 현재 코딩 블록의 너비 및 높이에 대해 허용되는 복수의 행렬 기반 인트라 예측 모드들 중에서 하나를 특정하는 절삭된 이진 코드(truncated binary code)로 표현되는 신택스 엘리먼트를 파싱하는 단계
를 수행하는 것을 특징으로 하는, 복호화 장치.
The method of claim 8,
The intra prediction unit,
As part of deriving a luma intra prediction type and a luma intra prediction mode of the current coding block,
Parsing a syntax element indicating a luma intra prediction type of the current coding block; And
When the syntax element indicates that the luma intra prediction type of the current coding block is matrix-based intra prediction, as a syntax element indicating a matrix-based intra prediction mode for the current coding block, the width and height of the current coding block Parsing a syntax element represented by a truncated binary code specifying one of a plurality of matrix-based intra prediction modes allowed for
A decoding device, characterized in that to perform.
제8항에 있어서,
상기 인트라 예측부는,
상기 현재 코딩 블록의 루마 인트라 예측 타입 및 루마 인트라 예측 모드를 도출하는 것의 일부로서,
상기 현재 코딩 블록의 루마 인트라 예측 타입을 지시하는 신택스 엘리먼트를 파싱하는 단계; 및
상기 신택스 엘리먼트가 상기 현재 코딩 블록의 루마 인트라 예측 타입이 정규 인트라 예측이라고 지시하는 경우에, 상기 현재 코딩 블록에 인접한 주변 블록들의 인트라 예측 모드를 기초로 MPM(Most Probable Mode) 후보들을 도출하여 상기 현재 코딩 블록에 대한 MPM 리스트를 구성하는 단계; 및
상기 MPM 리스트에 기초하여 상기 현재 코딩 블록에 대한 루마 인트라 예측 모드를 도출하는 단계
를 수행하고,
상기 인트라 예측부는 상기 현재 코딩 블록에 인접한 주변 블록들의 인트라 예측 모드를 기초로 MPM 후보들을 도출함에 있어서, 상기 주변 블록의 인트라 예측 타입이 행렬 기반 인트라 예측인 경우에, 상기 주변 블록의 인트라 예측 모드를 PLANAR 모드로 간주하는 것을 특징으로 하는, 복호화 장치.
The method of claim 8,
The intra prediction unit,
As part of deriving a luma intra prediction type and a luma intra prediction mode of the current coding block,
Parsing a syntax element indicating a luma intra prediction type of the current coding block; And
When the syntax element indicates that the luma intra prediction type of the current coding block is normal intra prediction, MPM (Most Probable Mode) candidates are derived based on intra prediction modes of neighboring blocks adjacent to the current coding block, and the current Constructing an MPM list for the coding block; And
Deriving a luma intra prediction mode for the current coding block based on the MPM list
And
When the intra prediction unit derives MPM candidates based on intra prediction modes of neighboring blocks adjacent to the current coding block, when the intra prediction type of the neighboring block is matrix-based intra prediction, the intra prediction mode of the neighboring block is selected. A decoding device, characterized in that regarded as a PLANAR mode.
KR1020200098223A 2019-08-06 2020-08-05 Method and apparatus for intra prediction coding of video data KR20210018137A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20850849.9A EP4009632A4 (en) 2019-08-06 2020-08-06 Method and device for intra prediction coding of video data
CN202080054504.5A CN114270826A (en) 2019-08-06 2020-08-06 Method and apparatus for intra prediction encoding of video data
US17/633,030 US11930180B2 (en) 2019-08-06 2020-08-06 Method and apparatus for intra-prediction coding of video data
PCT/KR2020/010371 WO2021025478A1 (en) 2019-08-06 2020-08-06 Method and device for intra prediction coding of video data

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020190095449 2019-08-06
KR20190095449 2019-08-06
KR1020190097449 2019-08-09
KR20190097449 2019-08-09

Publications (1)

Publication Number Publication Date
KR20210018137A true KR20210018137A (en) 2021-02-17

Family

ID=74731935

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200098223A KR20210018137A (en) 2019-08-06 2020-08-05 Method and apparatus for intra prediction coding of video data

Country Status (1)

Country Link
KR (1) KR20210018137A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022191553A1 (en) * 2021-03-08 2022-09-15 현대자동차주식회사 Video coding method and device using matrix-based cross component prediction
WO2023132590A1 (en) * 2022-01-04 2023-07-13 엘지전자 주식회사 Image encoding/decoding method, method of transmitting bitstream, and recording medium in which bitstream is stored
WO2023140547A1 (en) * 2022-01-19 2023-07-27 현대자동차주식회사 Method and apparatus for chroma channel coding using multiple reference lines

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022191553A1 (en) * 2021-03-08 2022-09-15 현대자동차주식회사 Video coding method and device using matrix-based cross component prediction
WO2023132590A1 (en) * 2022-01-04 2023-07-13 엘지전자 주식회사 Image encoding/decoding method, method of transmitting bitstream, and recording medium in which bitstream is stored
WO2023140547A1 (en) * 2022-01-19 2023-07-27 현대자동차주식회사 Method and apparatus for chroma channel coding using multiple reference lines

Similar Documents

Publication Publication Date Title
US11683486B2 (en) Method and apparatus for intra-prediction coding of video data involving matrix-based intra-prediction
US20230141470A1 (en) Method and apparatus for intra-prediction coding of video data
US11962777B2 (en) Inverse quantization device and method used in video decoding device
KR20210018137A (en) Method and apparatus for intra prediction coding of video data
EP4009632A1 (en) Method and device for intra prediction coding of video data
EP3993412A1 (en) Method and device for intra prediction coding of video data
KR20200113173A (en) Method and Apparatus for Intra Prediction Based on Deriving Prediction Mode
KR20220071939A (en) Method and Apparatus For Video Encoding and Decoding
KR20220071131A (en) Video Encoding and Decoding Method and Apparatus Using Subblock Based Intra Prediction
KR20200133185A (en) Method and Apparatus for Quantization Used in Image Decoding Device
KR20210038377A (en) Method and Apparatus for Inter-predicting Pictures Having Different Resolutions
KR20200110236A (en) Method and apparatus for efficiently applying transform skip mode to video data block
US20240007645A1 (en) Video encoding and decoding method using adaptive reference pixel selection
US20240007620A1 (en) Image encoding and decoding method using adaptive alternative mode
US20220150470A1 (en) Method and apparatus for intra predictionbased on deriving prediction mode
KR20210000282A (en) Method and apparatus for intra prediction coding of video data
KR20210025507A (en) Video Encoding and Decoding Using Differential Coding
KR20220118334A (en) Video Coding Method and Apparatus Using Intra Prediction Based on Subblock Partitioning
KR20200110237A (en) Method and Apparatus for Video Decoder Using Differential Coding
KR20240021104A (en) Method and Apparatus for Video Coding Using Chroma Component Prediction Based on Luma Component
KR20220071129A (en) Method for Encoding and Decoding Video Using Adaptive Reference Sample Selection
KR20230137232A (en) Method And Apparatus for Video Coding Using Context Model Initialization
KR20240021107A (en) Method and Apparatus for Video Coding Using Rearranging Prediction Signals in Intra Block Copy Mode
KR20220071128A (en) Method for Encoding and Decoding Video Using Adaptive Replacement Mode
KR20230059135A (en) Video Coding Method And Apparatus Using Various Block Partitioning Structure

Legal Events

Date Code Title Description
A201 Request for examination