KR20200096385A - A method and an apparatus for processing a video signal using intra mode unification between coding block and transform block - Google Patents
A method and an apparatus for processing a video signal using intra mode unification between coding block and transform block Download PDFInfo
- Publication number
- KR20200096385A KR20200096385A KR1020190014146A KR20190014146A KR20200096385A KR 20200096385 A KR20200096385 A KR 20200096385A KR 1020190014146 A KR1020190014146 A KR 1020190014146A KR 20190014146 A KR20190014146 A KR 20190014146A KR 20200096385 A KR20200096385 A KR 20200096385A
- Authority
- KR
- South Korea
- Prior art keywords
- block
- intra prediction
- mode
- coding
- transform
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
본 발명은 비디오 신호의 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 비디오 신호를 인코딩하거나 디코딩하는 비디오 신호 처리 방법 및 장치에 관한 것이다.The present invention relates to a video signal processing method and apparatus, and more particularly, to a video signal processing method and apparatus for encoding or decoding a video signal.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 압축이라고 일컫는다. 비디오 신호에 대한 압축 부호화는 공간적인 상관관계, 시간적인 상관관계, 확률적인 상관관계 등을 고려하여 잉여 정보를 제거함으로써 이루어진다. 그러나 최근의 다양한 미디어 및 데이터 전송 매체의 발전으로 인해, 더욱 고효율의 비디오 신호 처리 방법 및 장치가 요구되고 있다.Compression coding refers to a series of signal processing techniques for transmitting digitized information through a communication line or storing it in a format suitable for a storage medium. Targets for compression encoding include audio, video, and text, and in particular, a technique for performing compression encoding on an image is referred to as video compression. Compression coding of a video signal is performed by removing redundant information in consideration of spatial correlation, temporal correlation, and probability correlation. However, due to the recent development of various media and data transmission media, a more efficient video signal processing method and apparatus is required.
본 발명은 비디오 신호의 코딩 효율을 높이기 위한 목적을 가지고 있다.The present invention has an object to increase the coding efficiency of a video signal.
상기와 같은 과제를 해결하기 위해, 본 발명의 일 실시예를 따른 영상 복호화 방법은 코딩 블록과 변환 블록의 화면내 예측 모드를 결정하는 단계를 포함한다.In order to solve the above problems, an image decoding method according to an embodiment of the present invention includes determining an intra prediction mode of a coding block and a transform block.
본 발명의 실시예에 따르면 비디오 신호의 코딩 효율이 높아질 수 있다.According to an embodiment of the present invention, the coding efficiency of a video signal can be improved.
도 1은 본 발명의 실시예에 따른 비디오 신호 인코딩 장치의 개략적인 블록도이다.
도 2는 본 발명의 실시예에 따른 비디오 신호 디코딩 장치의 개략적인 블록도이다.
도 3은 픽쳐 내에서 코딩 트리 유닛이 코딩 유닛들로 분할되는 실시예를 도시한다.
도 4는 쿼드 트리 및 멀티-타입 트리의 분할을 시그널링하는 방법의 일 실시예를 도시한다.
도 5는 인트라 예측 모드에서 현재 블록의 예측을 위해 사용되는 참조 샘플들의 일 실시예를 도시한다.
도 6은 인트라 예측에 사용되는 예측 모드들의 일 실시예를 도시한다.
도 7은 코딩 블록이 복수개의 변환 블록으로 분할되는 경우 화면내 예측 모드의 적용 방법을 나타낸 도면이다.
도 8은 코딩 블록이 복수개의 변환 블록으로 분할된 예에서 화면내 예측 모드의 적용 방법을 나타낸다.
도9는 수직 직사각형 코딩블록이 2개의 변환 블록으로 분할된 경우로 화면내 예측 모드 적용 방법을 나타낸다.
도 10은 수평 직사각형 코딩블록이 2개의 변환 블록으로 분할된 경우로 화면내 예측 모드 적용 방법을 나타낸다.1 is a schematic block diagram of a video signal encoding apparatus according to an embodiment of the present invention.
2 is a schematic block diagram of a video signal decoding apparatus according to an embodiment of the present invention.
3 shows an embodiment in which a coding tree unit is divided into coding units within a picture.
4 shows an embodiment of a method for signaling division of a quad tree and a multi-type tree.
5 illustrates an embodiment of reference samples used for prediction of a current block in an intra prediction mode.
6 shows an embodiment of prediction modes used for intra prediction.
7 is a diagram illustrating a method of applying an intra prediction mode when a coding block is divided into a plurality of transform blocks.
8 shows a method of applying an intra prediction mode in an example in which a coding block is divided into a plurality of transform blocks.
9 shows a method of applying an intra prediction mode in a case where a vertical rectangular coding block is divided into two transform blocks.
10 shows a method of applying an intra prediction mode when a horizontal rectangular coding block is divided into two transform blocks.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.The terms used in the present specification have been selected as currently widely used general terms as possible while taking functions of the present invention into consideration, but this may vary according to the intention, custom, or the emergence of new technologies of the skilled person in the art. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding invention. Therefore, it is to be noted that terms used in the present specification should be interpreted based on the actual meaning of the term and the entire contents of the present specification, not a simple name of the term.
본 명세서에서 일부 용어들은 다음과 같이 해석될 수 있다. 코딩은 경우에 따라 인코딩 또는 디코딩으로 해석될 수 있다. 본 명세서에서 비디오 신호의 인코딩(부호화)을 수행하여 비디오 신호 비트스트림을 생성하는 장치는 인코딩 장치 혹은 인코더로 지칭되며, 비디오 신호 비트스트림의 디코딩(복호화)을 수행하여 비디오 신호를 복원하는 장치는 디코딩 장치 혹은 디코더로 지칭된다. 또한, 본 명세서에서 비디오 신호 처리 장치는 인코더 및 디코더를 모두 포함하는 개념의 용어로 사용된다. 정보(information)는 값(values), 파라미터(parameter), 계수(coefficients), 성분(elements) 등을 모두 포함하는 용어로서, 경우에 따라 의미는 달리 해석될 수 있으므로 본 발명은 이에 한정되지 아니한다. '유닛'은 영상 처리의 기본 단위 또는 픽쳐의 특정 위치를 지칭하는 의미로 사용되며, 루마(luma) 성분과 크로마(chroma) 성분을 모두 포함하는 이미지 영역을 가리킨다. 또한, '블록'은 루마 성분 및 크로마 성분들(즉, Cb 및 Cr) 중 특정 성분을 포함하는 이미지 영역을 가리킨다. 다만, 실시예에 따라서 '유닛', '블록', '파티션' 및 '영역' 등의 용어는 서로 혼용하여 사용될 수 있다. 또한, 본 명세서에서 유닛은 코딩 유닛, 예측 유닛, 변환 유닛을 모두 포함하는 개념으로 사용될 수 있다. 픽쳐는 필드 혹은 프레임을 가리키며, 실시예에 따라 상기 용어들은 서로 혼용하여 사용될 수 있다.In the present specification, some terms may be interpreted as follows. Coding can be interpreted as encoding or decoding in some cases. In this specification, an apparatus for generating a video signal bitstream by encoding (encoding) a video signal is referred to as an encoding apparatus or an encoder, and an apparatus for reconstructing a video signal by performing decoding (decoding) of a video signal bitstream is decoding It is referred to as a device or decoder. In addition, in this specification, a video signal processing apparatus is used as a term for a concept including both an encoder and a decoder. Information is a term that includes all values, parameters, coefficients, elements, etc., and the meaning may be interpreted differently in some cases, so the present invention is not limited thereto. The'unit' is used to refer to a basic unit of image processing or a specific position of a picture, and refers to an image area including both a luma component and a chroma component. In addition,'block' refers to an image area including a specific component among luma components and chroma components (ie, Cb and Cr). However, depending on the embodiment, terms such as'unit','block','partition', and'area' may be used interchangeably. In addition, in the present specification, a unit may be used as a concept including all of a coding unit, a prediction unit, and a transform unit. A picture refers to a field or a frame, and the terms may be used interchangeably according to embodiments.
도 1은 본 발명의 일 실시예에 따른 비디오 신호 인코딩 장치의 개략적인 블록도이다. 도 1을 참조하면, 본 발명의 인코딩 장치(100)는 변환부(110), 양자화부(115), 역양자화부(120), 역변환부(125), 필터링부(130), 예측부(150) 및 엔트로피 코딩부(160)를 포함한다.1 is a schematic block diagram of an apparatus for encoding a video signal according to an embodiment of the present invention. Referring to FIG. 1, the
변환부(110)는 입력 받은 비디오 신호와 예측부(150)에서 생성된 예측 신호의 차이인 레지듀얼 신호를 변환하여 변환 계수 값을 획득한다. 예를 들어, 이산 코사인 변환(Discrete Cosine Transform, DCT), 이산 사인 변환(Discrete Sine Transform, DST) 또는 웨이블릿 변환(Wavelet Transform) 등이 사용될 수 있다. 이산 코사인 변환 및 이산 사인 변환은 입력된 픽쳐 신호를 블록 형태로 나누어 변환을 수행하게 된다. 변환에 있어서 변환 영역 내의 값들의 분포와 특성에 따라서 코딩 효율이 달라질 수 있다. 양자화부(115)는 변환부(110)에서 출력된 변환 계수 값을 양자화한다. The
코딩 효율을 높이기 위하여 픽쳐 신호를 그대로 코딩하는 것이 아니라, 예측부(150)를 통해 이미 코딩된 영역을 이용하여 픽쳐를 예측하고, 예측된 픽쳐에 원본 픽쳐와 예측 픽쳐 간의 레지듀얼 값을 더하여 복원 픽쳐를 획득하는 방법이 사용된다. 인코더와 디코더에서 미스매치가 발생되지 않도록 하기 위해, 인코더에서 예측을 수행할 때에는 디코더에서도 사용 가능한 정보를 사용해야 한다. 이를 위해, 인코더에서는 부호화한 현재 블록을 다시 복원하는 과정을 수행한다. 역양자화부(120)에서는 변환 계수 값을 역양자화하고, 역변환부(125)에서는 역양자화된 변환 계수값을 이용하여 레지듀얼 값을 복원한다. 한편, 필터링부(130)는 복원된 픽쳐의 품질 개선 및 부호화 효율 향상을 위한 필터링 연산을 수행한다. 예를 들어, 디블록킹 필터, 샘플 적응적 오프셋(Sample Adaptive Offset, SAO) 및 적응적 루프 필터 등이 포함될 수 있다. 필터링을 거친 픽쳐는 출력되거나 참조 픽쳐로 이용하기 위하여 복호 픽쳐 버퍼(Decoded Picture Buffer, DPB, 156)에 저장된다.In order to increase coding efficiency, the picture signal is not coded as it is, but a picture is predicted by using a region already coded through the prediction unit 150, and a residual value between the original picture and the predicted picture is added to the predicted picture to be a reconstructed picture. The method of obtaining is used. In order to prevent mismatches from occurring in the encoder and decoder, information available in the decoder should be used when performing prediction in the encoder. To this end, the encoder performs a process of reconstructing the encoded current block again. The
예측부(150)는 인트라 예측부(152)와 인터 예측부(154)를 포함한다. 인트라 예측부(152)는 현재 픽쳐 내에서 인트라(intra) 예측을 수행하며, 인터 예측부(154)는 복호 픽쳐 버퍼(156)에 저장된 참조 픽쳐를 이용하여 현재 픽쳐를 예측하는 인터(inter) 예측을 수행한다. 인트라 예측부(152)는 현재 픽쳐 내의 복원된 샘플들로부터 인트라 예측을 수행하여, 인트라 부호화 정보를 엔트로피 코딩부(160)에 전달한다. 인트라 부호화 정보는 인트라 예측 모드, MPM(Most Probable Mode) 플래그, MPM 인덱스 중 적어도 하나를 포함할 수 있다. 인터 예측부(154)는 모션 추정부(154a) 및 모션 보상부(154b)를 포함하여 구성될 수 있다. 모션 추정부(154a)는 복원된 참조 픽쳐의 특정 영역을 참조하여 현재 영역의 모션 벡터값을 획득한다. 모션 추정부(154a)는 참조 영역에 대한 모션 정보(참조 픽쳐 인덱스, 모션 벡터 정보 등)를 엔트로피 코딩부(160)로 전달한다. 모션 보상부(154b)는 모션 추정부(154a)에서 전달된 모션 벡터값을 이용하여 모션 보상을 수행한다. 인터 예측부(154)는 참조 영역에 대한 모션 정보를 포함하는 인터 부호화 정보를 엔트로피 코딩부(160)에 전달한다.The prediction unit 150 includes an
위와 같은 픽쳐 예측이 수행될 경우, 변환부(110)는 원본 픽쳐와 예측 픽쳐 간의 레지듀얼 값을 변환하여 변환 계수 값을 획득한다. 이때, 변환은 픽쳐 내에서 특정 블록 단위로 수행될 수 있으며, 특정 블록의 크기는 기 설정된 범위 내에서 가변할 수 있다. 양자화부(115)는 변환부(110)에서 생성된 변환 계수 값을 양자화하여 엔트로피 코딩부(160)로 전달한다.When the above picture prediction is performed, the
엔트로피 코딩부(160)는 양자화된 변환 계수, 인트라 부호화 정보, 및 인터 부호화 정보 등을 엔트로피 코딩하여 비디오 신호 비트스트림을 생성한다. 엔트로피 코딩부(160)에서는 가변 길이 코딩(Variable Length Coding, VLC) 방식과 산술 코딩(arithmetic coding) 방식 등이 사용될 수 있다. 가변 길이 코딩(VLC) 방식은 입력되는 심볼들을 연속적인 코드워드로 변환하는데, 코드워드의 길이는 가변적일 수 있다. 예를 들어, 자주 발생하는 심볼들을 짧은 코드워드로, 자주 발생하지 않은 심볼들은 긴 코드워드로 표현하는 것이다. 가변 길이 코딩 방식으로서 컨텍스트 기반 적응형 가변 길이 코딩(Context-based Adaptive Variable Length Coding, CAVLC) 방식이 사용될 수 있다. 산술 코딩은 연속적인 데이터 심볼들을 하나의 소수로 변환하는데, 산술 코딩은 각 심볼을 표현하기 위하여 필요한 최적의 소수 비트를 얻을 수 있다. 산술 코딩으로서 컨텍스트 기반 적응형 산술 부호화(Context-based Adaptive Binary Arithmetic Code, CABAC)가 이용될 수 있다.The entropy coding unit 160 entropy-codes quantized transform coefficients, intra-encoding information, and inter-encoding information to generate a video signal bitstream. In the entropy coding unit 160, a variable length coding (VLC) method and an arithmetic coding method may be used. The variable length coding (VLC) method converts input symbols into consecutive codewords, and the length of the codeword may be variable. For example, frequently occurring symbols are represented by a short codeword, and infrequently occurring symbols are represented by a long codeword. As a variable length coding scheme, a context-based adaptive variable length coding (CAVLC) scheme may be used. Arithmetic coding converts consecutive data symbols into a single prime number, and arithmetic coding can obtain an optimal decimal bit necessary to represent each symbol. Context-based Adaptive Binary Arithmetic Code (CABAC) may be used as arithmetic coding.
상기 생성된 비트스트림은 NAL(Network Abstraction Layer) 유닛을 기본 단위로 캡슐화 된다. NAL 유닛은 부호화된 정수 개의 코딩 트리 유닛(coding tree unit)을 포함한다. 비디오 디코더에서 비트스트림을 복호화하기 위해서는 먼저 비트스트림을 NAL 유닛 단위로 분리한 후, 분리 된 각각의 NAL 유닛을 복호화해야 한다. 한편, 비디오 신호 비트스트림의 복호화를 위해 필요한 정보들은 픽쳐 파라미터 세트(Picture Parameter Set, PPS), 시퀀스 파라미터 세트(Sequence Parameter Set, SPS), 비디오 파라미터 세트(Video Parameter Set, VPS) 등과 같은 상위 레벨 세트의 RBSP(Raw Byte Sequence Payload)를 통해 전송될 수 있다.The generated bitstream is encapsulated in a basic unit of a Network Abstraction Layer (NAL) unit. The NAL unit includes a coded integer number of coding tree units. In order to decode a bitstream in a video decoder, the bitstream must first be separated into NAL units, and then each separated NAL unit must be decoded. Meanwhile, information necessary for decoding a video signal bitstream is a high-level set such as a picture parameter set (PPS), a sequence parameter set (SPS), and a video parameter set (VPS). It may be transmitted through RBSP (Raw Byte Sequence Payload).
한편, 도 1의 블록도는 본 발명의 일 실시예에 따른 인코딩 장치(100)를 나타낸 것으로서, 분리하여 표시된 블록들은 인코딩 장치(100)의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 전술한 인코딩 장치(100)의 엘리먼트들은 디바이스의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 일 실시예에 따르면, 전술한 인코딩 장치(100)의 각 엘리먼트의 동작은 프로세서(미도시)에 의해 수행될 수 있다.Meanwhile, the block diagram of FIG. 1 shows the
도 2는 본 발명의 일 실시예에 따른 비디오 신호 디코딩 장치(200)의 개략적인 블록도이다. 도 2를 참조하면 본 발명의 디코딩 장치(200)는 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(225), 필터링부(230) 및 예측부(250)를 포함한다.2 is a schematic block diagram of a video
엔트로피 디코딩부(210)는 비디오 신호 비트스트림을 엔트로피 디코딩하여, 각 영역에 대한 변환 계수, 인트라 부호화 정보, 인터 부호화 정보 등을 추출한다. 역양자화부(220)는 엔트로피 디코딩된 변환 계수를 역양자화하고, 역변환부(225)는 역양자화된 변환 계수를 이용하여 레지듀얼 값을 복원한다. 비디오 신호 처리 장치(200)는 역변환부(225)에서 획득된 레지듀얼 값을 예측부(250)에서 획득된 예측값과 합산하여 원래의 화소값을 복원한다.The entropy decoding unit 210 entropy-decodes the video signal bitstream, and extracts transform coefficients, intra-encoding information, and inter-encoding information for each region. The
한편, 필터링부(230)는 픽쳐에 대한 필터링을 수행하여 화질을 향상시킨다. 여기에는 블록 왜곡 현상을 감소시키기 위한 디블록킹 필터 및/또는 픽쳐 전체의 왜곡 제거를 위한 적응적 루프 필터 등이 포함될 수 있다. 필터링을 거친 픽쳐는 출력되거나 다음 픽쳐에 대한 참조 픽쳐로 이용하기 위하여 복호 픽쳐 버퍼(DPB, 256)에 저장된다.Meanwhile, the filtering unit 230 improves image quality by performing filtering on a picture. This may include a deblocking filter for reducing block distortion and/or an adaptive loop filter for removing distortion of an entire picture. The filtered picture is output or stored in the decoded picture buffer (DPB) 256 to be used as a reference picture for the next picture.
예측부(250)는 인트라 예측부(252) 및 인터 예측부(254)를 포함한다. 예측부(250)는 전술한 엔트로피 디코딩부(210)를 통해 복호화된 부호화 타입, 각 영역에 대한 변환 계수, 인트라/인터 부호화 정보 등을 활용하여 예측 픽쳐를 생성한다. 복호화가 수행되는 현재 블록을 복원하기 위해서, 현재 블록이 포함된 현재 픽쳐 또는 다른 픽쳐들의 복호화된 영역이 이용될 수 있다. 복원에 현재 픽쳐만을 이용하는, 즉 인트라 예측만을 수행하는 픽쳐(또는, 타일/슬라이스)를 인트라 픽쳐 또는 I 픽쳐(또는, 타일/슬라이스), 인트라 예측과 인터 예측을 모두 수행할 수 있는 픽쳐(또는, 타일/슬라이스)를 인터 픽쳐(또는, 타일/슬라이스)라고 한다. 인터 픽쳐(또는, 타일/슬라이스) 중 각 블록의 샘플값들을 예측하기 위하여 최대 하나의 모션 벡터 및 참조 픽쳐 인덱스를 이용하는 픽쳐(또는, 타일/슬라이스)를 예측 픽쳐(predictive picture) 또는 P 픽쳐(또는, 타일/슬라이스)라고 하며, 최대 두 개의 모션 벡터 및 참조 픽쳐 인덱스를 이용하는 픽쳐(또는, 타일/슬라이스)를 쌍예측 픽쳐(Bi-predictive picture) 또는 B 픽쳐(또는, 타일/슬라이스) 라고 한다. 다시 말해서, P 픽쳐(또는, 타일/슬라이스)는 각 블록을 예측하기 위해 최대 하나의 모션 정보 세트를 이용하고, B 픽쳐(또는, 타일/슬라이스)는 각 블록을 예측하기 위해 최대 두 개의 모션 정보 세트를 이용한다. 여기서, 모션 정보 세트는 하나 이상의 모션 벡터와 하나의 참조 픽쳐 인덱스를 포함한다.The prediction unit 250 includes an
인트라 예측부(252)는 인트라 부호화 정보 및 현재 픽쳐 내의 복원된 샘플들을 이용하여 예측 블록을 생성한다. 전술한 바와 같이, 인트라 부호화 정보는 인트라 예측 모드, MPM(Most Probable Mode) 플래그, MPM 인덱스 중 적어도 하나를 포함할 수 있다. 인트라 예측부(252)는 현재 블록의 좌측 및/또는 상측에 위치한 복원된 픽셀들을 참조 픽셀들로 이용하여 현재 블록의 픽셀값들을 예측한다. 일 실시예에 따르면, 참조 픽셀들은 현재 블록의 좌측 경계에 인접한 픽셀들 및/또는 상측 경계에 인접한 픽셀들일 수 있다. 다른 실시예에 따르면, 참조 픽셀들은 현재 블록의 주변 블록의 픽셀들 중 현재 블록의 좌측 경계로부터 기 설정된 거리 이내에 인접한 픽셀들 및/또는 현재 블록의 상측 경계로부터 기 설정된 거리 이내에 인접한 픽셀들일 수 있다. 이때, 현재 블록의 주변 블록은 현재 블록에 인접한 좌측(L) 블록, 상측(A) 블록, 하좌측(Below Left, BL) 블록, 상우측(Above Right, AR) 블록 또는 상좌측(Above Left, AL) 블록 중 적어도 하나를 포함할 수 있다.The
인터 예측부(254)는 복호 픽쳐 버퍼(256)에 저장된 참조 픽쳐 및 인터 부호화 정보를 이용하여 예측 블록을 생성한다. 인터 부호화 정보는 참조 블록에 대한 현재 블록의 모션 정보(참조 픽쳐 인덱스, 모션 벡터 정보 등)을 포함할 수 있다. 인터 예측에는 L0 예측, L1 예측 및 쌍예측(Bi-prediction)이 있을 수 있다. L0 예측은 L0 픽쳐 리스트에 포함된 1개의 참조 픽쳐를 이용한 예측이고, L1 예측은 L1 픽쳐 리스트에 포함된 1개의 참조 픽쳐를 이용한 예측을 의미한다. 이를 위해서는 1세트의 모션 정보(예를 들어, 모션 벡터 및 참조 픽쳐 인덱스)가 필요할 수 있다. 쌍예측 방식에서는 최대 2개의 참조 영역을 이용할 수 있는데, 이 2개의 참조 영역은 동일한 참조 픽쳐에 존재할 수도 있고, 서로 다른 픽쳐에 각각 존재할 수도 있다. 즉, 쌍예측 방식에서는 최대 2세트의 모션 정보(예를 들어, 모션 벡터 및 참조 픽쳐 인덱스)가 이용될 수 있는데, 2개의 모션 벡터가 동일한 참조 픽쳐 인덱스에 대응될 수도 있고 서로 다른 참조 픽쳐 인덱스에 대응될 수도 있다. 이때, 참조 픽쳐들은 시간적으로 현재 픽쳐 이전이나 이후 모두에 표시(또는 출력)될 수 있다.The
인터 예측부(254)는 모션 벡터 및 참조 픽쳐 인덱스를 이용하여 현재 블록의 참조 블록을 획득할 수 있다. 상기 참조 블록은 참조 픽쳐 인덱스에 대응하는 참조 픽쳐 내에 존재한다. 또한, 모션 벡터에 의해서 특정된 블록의 픽셀값 또는 이의 보간(interpolation)된 값이 현재 블록의 예측값(predictor)으로 이용될 수 있다. 서브펠(sub-pel) 단위의 픽셀 정확도를 갖는 모션 예측을 위하여 이를 테면, 루마 신호에 대하여 8-탭 보간 필터가, 크로마 신호에 대하여 4-탭 보간 필터가 사용될 수 있다. 다만, 서브펠 단위의 모션 예측을 위한 보간 필터는 이에 한정되지 않는다. 이와 같이 인터 예측부(254)는 이전에 복원된 픽쳐로부터 현재 유닛의 텍스쳐를 모션 정보를 이용하여 예측하는 모션 보상(motion compensation)을 수행한다.The
상기 인트라 예측부(252) 또는 인터 예측부(254)로부터 출력된 예측값, 및 역변환부(225)로부터 출력된 레지듀얼 값이 더해져서 복원된 비디오 픽쳐가 생성된다. 즉, 비디오 신호 디코딩 장치(200)는 예측부(250)에서 생성된 예측 블록과 역변환부(225)로부터 획득된 레지듀얼을 이용하여 현재 블록을 복원한다.A reconstructed video picture is generated by adding a prediction value output from the
한편, 도 2의 블록도는 본 발명의 일 실시예에 따른 디코딩 장치(200)를 나타낸 것으로서, 분리하여 표시된 블록들은 디코딩 장치(200)의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 전술한 디코딩 장치(200)의 엘리먼트들은 디바이스의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 일 실시예에 따르면, 전술한 디코딩 장치(200)의 각 엘리먼트의 동작은 프로세서(미도시)에 의해 수행될 수 있다.Meanwhile, the block diagram of FIG. 2 shows the
도 3은 픽쳐 내에서 코딩 트리 유닛(Coding Tree Unit, CTU)이 코딩 유닛들(Coding Units, CUs)로 분할되는 실시예를 도시한다. 비디오 신호의 코딩 과정에서, 픽쳐는 코딩 트리 유닛(CTU)들의 시퀀스로 분할될 수 있다. 코딩 트리 유닛은 루마(luma) 샘플들의 NXN 블록과, 이에 대응하는 크로마(chroma) 샘플들의 2개의 블록들로 구성된다. 코딩 트리 유닛은 복수의 코딩 유닛들로 분할될 수 있다. 코딩 유닛은 상기에서 설명한 비디오 신호의 처리 과정, 즉 인트라/인터 예측, 변환, 양자화 및/또는 엔트로피 코딩 등의 과정에서 픽쳐를 처리하기 위한 기본 단위를 가리킨다. 하나의 픽쳐 내에서 코딩 유닛의 크기 및 모양은 일정하지 않을 수 있다. 코딩 유닛은 정사각형 혹은 직사각형의 모양을 가질 수 있다. 직사각형 코딩 유닛(혹은, 직사각형 블록)은 수직 코딩 유닛(혹은, 수직 블록)과 수평 코딩 유닛(혹은, 수평 블록)을 포함한다. 본 명세서에서, 수직 블록은 높이가 너비보다 큰 블록이며, 수평 블록은 너비가 높이보다 큰 블록이다. 또한, 본 명세서에서 정사각형이 아닌(non-square) 블록은 직사각형 블록을 가리킬 수 있지만, 본 발명은 이에 한정되지 않는다.3 shows an embodiment in which a coding tree unit (CTU) is divided into coding units (CUs) in a picture. In the process of coding a video signal, a picture may be divided into a sequence of coding tree units (CTUs). The coding tree unit is composed of an NXN block of luma samples and two blocks of chroma samples corresponding thereto. The coding tree unit may be divided into a plurality of coding units. The coding unit refers to a basic unit for processing a picture in the above-described video signal processing, that is, intra/inter prediction, transformation, quantization, and/or entropy coding. The size and shape of a coding unit in one picture may not be constant. The coding unit may have a square or rectangular shape. The rectangular coding unit (or rectangular block) includes a vertical coding unit (or vertical block) and a horizontal coding unit (or horizontal block). In this specification, a vertical block is a block having a height greater than a width, and a horizontal block is a block having a width greater than the height. In addition, in the present specification, a non-square block may refer to a rectangular block, but the present invention is not limited thereto.
도 3을 참조하면, 코딩 트리 유닛은 먼저 쿼드 트리(Quad Tree, QT) 구조로 분할된다. 즉, 쿼드 트리 구조에서 2NX2N 크기를 가지는 하나의 노드는 NXN 크기를 가지는 네 개의 노드들로 분할될 수 있다. 본 명세서에서 쿼드 트리는 4진(quaternary) 트리로도 지칭될 수 있다. 쿼드 트리 분할은 재귀적으로 수행될 수 있으며, 모든 노드들이 동일한 깊이로 분할될 필요는 없다.Referring to FIG. 3, a coding tree unit is first divided into a quad tree (QT) structure. That is, in a quad tree structure, one node having a size of 2NX2N may be divided into four nodes having a size of NXN. In this specification, the quad tree may also be referred to as a quaternary tree. Quad tree partitioning can be performed recursively, and not all nodes need to be partitioned to the same depth.
한편, 전술한 쿼드 트리의 리프 노드(leaf node)는 멀티-타입 트리(Multi-Type Tree, MTT) 구조로 더욱 분할될 수 있다. 본 발명의 실시예에 따르면, 멀티 타입 트리 구조에서는 하나의 노드가 수평 혹은 수직 분할의 2진(binary, 바이너리) 혹은 3진(ternary, 터너리) 트리 구조로 분할될 수 있다. 즉, 멀티-타입 트리 구조에는 수직 바이너리 분할, 수평 바이너리 분할, 수직 터너리 분할 및 수평 터너리 분할의 4가지 분할 구조가 존재한다. 본 발명의 실시예에 따르면, 상기 각 트리 구조에서 노드의 너비 및 높이는 모두 2의 거듭제곱 값을 가질 수 있다. 예를 들어, 바이너리 트리(Binary Tree, BT) 구조에서, 2NX2N 크기의 노드는 수직 바이너리 분할에 의해 2개의 NX2N 노드들로 분할되고, 수평 바이너리 분할에 의해 2개의 2NXN 노드들로 분할될 수 있다. 또한, 터너리 트리(Ternary Tree, TT) 구조에서, 2NX2N 크기의 노드는 수직 터너리 분할에 의해 (N/2)X2N, NX2N 및 (N/2)X2N의 노드들로 분할되고, 수평 바이너리 분할에 의해 2NX(N/2), 2NXN 및 2NX(N/2)의 노드들로 분할될 수 있다. 이러한 멀티-타입 트리 분할은 재귀적으로 수행될 수 있다.Meanwhile, a leaf node of the quad tree described above may be further divided into a multi-type tree (MTT) structure. According to an embodiment of the present invention, in a multi-type tree structure, one node may be divided into a horizontal or vertically divided binary (binary) or ternary (ternary) tree structure. That is, in the multi-type tree structure, there are four divisional structures: vertical binary division, horizontal binary division, vertical ternary division, and horizontal ternary division. According to an embodiment of the present invention, both widths and heights of nodes in each tree structure may have a power of 2. For example, in a binary tree (Binary Tree, BT) structure, a node having a size of 2NX2N may be divided into two NX2N nodes by vertical binary division, and divided into two 2NXN nodes by horizontal binary division. In addition, in a ternary tree (TT) structure, a node of 2NX2N size is divided into nodes of (N/2)X2N, NX2N and (N/2)X2N by vertical ternary division, and horizontal binary division 2NX(N/2), 2NXN, and 2NX(N/2) nodes by. This multi-type tree division can be performed recursively.
멀티-타입 트리의 리프 노드는 코딩 유닛이 될 수 있다. 코딩 유닛이 최대 변환 길이에 비해 너무 크지 않으면, 해당 코딩 유닛은 더 이상의 분할 없이 예측 및 변환의 단위로 사용된다. 한편, 전술한 쿼드 트리 및 멀티-타입 트리에서 다음의 파라메터들 중 적어도 하나가 사전에 정의되거나 PPS, SPS, VPS 등과 같은 상위 레벨 세트의 RBSP를 통해 전송될 수 있다. 1) CTU 크기: 쿼드 트리의 루트 노드(root node) 크기, 2) 최소 QT 크기(MinQtSize): 허용된 최소 QT 리프 노드 크기, 3) 최대 BT 크기(MaxBtSize): 허용된 최대 BT 루트 노드 크기, 4) 최대 TT 크기(MaxTtSize): 허용된 최대 TT 루트 노드 크기, 5) 최대 MTT 깊이(MaxMttDepth): QT의 리프 노드로부터의 MTT 분할의 최대 허용 깊이, 6) 최소 BT 크기(MinBtSize): 허용된 최소 BT 리프 노드 크기, 7) 최소 TT 크기(MinTtSize): 허용된 최소 TT 리프 노드 크기.Leaf nodes of a multi-type tree can be coding units. If the coding unit is not too large for the maximum transform length, the corresponding coding unit is used as a unit of prediction and transformation without further division. Meanwhile, in the aforementioned quad tree and multi-type tree, at least one of the following parameters may be defined in advance or transmitted through RBSP of a higher level set such as PPS, SPS, and VPS. 1) CTU size: the size of the root node of the quad tree, 2) the minimum QT size (MinQtSize): the minimum QT leaf node size allowed, 3) the maximum BT size (MaxBtSize): the maximum BT root node size allowed, 4) Maximum TT size (MaxTtSize): Maximum allowed TT root node size, 5) Maximum MTT depth (MaxMttDepth): Maximum allowed depth of MTT segmentation from leaf nodes of QT, 6) Minimum BT size (MinBtSize): allowed Minimum BT leaf node size, 7) Minimum TT size (MinTtSize): Minimum allowed TT leaf node size.
도 4는 쿼드 트리 및 멀티-타입 트리의 분할을 시그널링하는 방법의 일 실시예를 도시한다. 전술한 쿼드 트리 및 멀티-타입 트리의 분할을 시그널링하기 위해 기 설정된 플래그들이 사용될 수 있다. 도 4를 참조하면, 쿼드 트리 노드의 분할 여부를 지시하는 플래그 'qt_split_flag', 멀티-타입 트리 노드의 분할 여부를 지시하는 플래그 'mtt_split_flag', 멀티-타입 트리 노드의 분할 방향을 지시하는 플래그 'mtt_split_vertical_flag' 또는 멀티-타입 트리 노드의 분할 모양을 지시하는 플래그 'mtt_split_binary_flag' 중 적어도 하나가 사용될 수 있다.4 shows an embodiment of a method for signaling division of a quad tree and a multi-type tree. Preset flags may be used to signal the division of the quad tree and multi-type tree described above. 4, a flag'qt_split_flag' indicating whether to divide a quad tree node, a flag'mtt_split_flag' indicating whether to divide a multi-type tree node, and a flag'mtt_split_vertical_flag' indicating a splitting direction of a multi-type tree node. 'Or at least one of a flag'mtt_split_binary_flag' indicating the split shape of the multi-type tree node may be used.
본 발명의 실시예에 따르면, 코딩 트리 유닛은 쿼드 트리의 루트 노드이며, 쿼드 트리 구조로 우선 분할될 수 있다. 쿼드 트리 구조에서는 각각의 노드 'QT_node' 별로 'qt_split_flag'가 시그널링된다. 'qt_split_flag'의 값이 1일 경우 해당 노드는 4개의 정사각형 노드들로 분할되며, 'qt_split_flag'의 값이 0일 경우 해당 노드는 쿼드 트리의 리프 노드 'QT_leaf_node'가 된다.According to an embodiment of the present invention, the coding tree unit is a root node of a quad tree, and may be first divided into a quad tree structure. In the quad tree structure,'qt_split_flag' is signaled for each node'QT_node'. When the value of'qt_split_flag' is 1, the node is divided into 4 square nodes, and when the value of'qt_split_flag' is 0, the node becomes'QT_leaf_node', a leaf node of the quad tree.
각각의 쿼드 트리 리프 노드 'QT_leaf_node'는 멀티-타입 트리 구조로 더 분할될 수 있다. 멀티-타입 트리 구조에서는 각각의 노드 'MTT_node' 별로 'mtt_split_flag'가 시그널링된다. 'mtt_split_flag'의 값이 1일 경우 해당 노드는 복수의 직사각형 노드들로 분할되며, 'mtt_split_flag'의 값이 0일 경우 해당 노드는 멀티-타입 트리의 리프 노드 'MTT_leaf_node'가 된다. 멀티-타입 트리 노드 'MTT_node'가 복수의 직사각형 노드들로 분할될 경우(즉, 'mtt_split_flag'의 값이 1일 경우), 노드 'MTT_node'를 위한 'mtt_split_vertical_flag' 및 'mtt_split_binary_flag'가 추가로 시그널링될 수 있다. 'mtt_split_vertical_flag'의 값이 1일 경우 노드 'MTT_node'의 수직 분할이 지시되며, 'mtt_split_vertical_flag'의 값이 0일 경우 노드 'MTT_node'의 수평 분할이 지시된다. 또한, 'mtt_split_binary_flag'의 값이 1일 경우 노드 'MTT_node'는 2개의 직사각형 노드들로 분할되며, 'mtt_split_binary_flag'의 값이 0일 경우 노드 'MTT_node'는 3개의 직사각형 노드들로 분할된다.Each quad tree leaf node'QT_leaf_node' may be further divided into a multi-type tree structure. In the multi-type tree structure,'mtt_split_flag' is signaled for each node'MTT_node'. When the value of'mtt_split_flag' is 1, the corresponding node is divided into a plurality of rectangular nodes, and when the value of'mtt_split_flag' is 0, the corresponding node becomes'MTT_leaf_node' of the multi-type tree. When the multi-type tree node'MTT_node' is divided into a plurality of rectangular nodes (that is, when the value of'mtt_split_flag' is 1),'mtt_split_vertical_flag' and'mtt_split_binary_flag' for the node'MTT_node' will be additionally signaled I can. When the value of'mtt_split_vertical_flag' is 1, vertical division of the node'MTT_node' is indicated, and when the value of'mtt_split_vertical_flag' is 0, horizontal division of the node'MTT_node' is indicated. In addition, when the value of'mtt_split_binary_flag' is 1, the node'MTT_node' is divided into two rectangular nodes, and when the value of'mtt_split_binary_flag' is 0, the node'MTT_node' is divided into three rectangular nodes.
도 5 및 도 6은 본 발명의 실시예에 따른 인트라 예측 방법을 더욱 구체적으로 도시한다. 전술한 바와 같이, 인트라 예측부는 현재 블록의 좌측 및/또는 상측에 위치한 복원된 픽셀들을 참조 픽셀들로 이용하여 현재 블록의 픽셀값들을 예측한다.5 and 6 more specifically illustrate an intra prediction method according to an embodiment of the present invention. As described above, the intra prediction unit predicts pixel values of the current block by using reconstructed pixels located on the left and/or above of the current block as reference pixels.
먼저, 도 5는 인트라 예측 모드에서 현재 블록의 예측을 위해 사용되는 참조 샘플들의 일 실시예를 도시한다. 일 실시예에 따르면, 참조 픽셀들은 현재 블록의 좌측 경계에 인접한 픽셀들 및/또는 상측 경계에 인접한 픽셀들일 수 있다. 도 5에 도시된 바와 같이, 현재 블록의 크기가 WXH이고 현재 블록에 인접한 단일 참조 라인(line)의 픽셀들이 인트라 예측에 사용될 경우, 현재 블록의 좌측 및/또는 상측에 위치한 최대 2W+2H+1개의 인접 픽셀들을 사용하여 참조 픽셀들이 설정될 수 있다. 한편, 본 발명의 추가적인 실시예에 따르면, 현재 블록의 인트라 예측을 위해 다중 참조 라인의 픽셀들이 사용될 수 있다. 다중 참조 라인은 현재 블록으로부터 기 설정된 범위 이내에 위치한 n개의 라인들로 구성될 수 있다. 일 실시예에 따르면, 인트라 예측을 위해 다중 참조 라인의 픽셀들이 사용될 경우, 참조 픽셀들로 설정될 라인들을 지시하는 별도의 인덱스 정보가 시그널링될 수 있다. 참조 픽셀로 사용될 적어도 일부의 인접 픽셀이 아직 복원되지 않은 경우, 인트라 예측부는 기 설정된 규칙에 따른 참조 샘플 패딩 과정을 수행하여 참조 픽셀을 획득할 수 있다. 또한, 인트라 예측부는 인트라 예측의 오차를 줄이기 위해 참조 샘플 필터링 과정을 수행할 수 있다. 즉, 인접 픽셀들 및/또는 참조 샘플 패딩 과정에 의해 획득된 픽셀들에 필터링을 수행하여 참조 픽셀들이 획득할 수 있다. 인트라 예측부는 이와 같이 획득된 참조 픽셀들을 이용하여 현재 블록의 픽셀들을 예측한다.First, FIG. 5 shows an embodiment of reference samples used for prediction of a current block in an intra prediction mode. According to an embodiment, the reference pixels may be pixels adjacent to the left boundary of the current block and/or pixels adjacent to the upper boundary. As shown in FIG. 5, when the size of the current block is WXH and pixels of a single reference line adjacent to the current block are used for intra prediction, a maximum of 2W+2H+1 located on the left and/or above of the current block Reference pixels can be set using n adjacent pixels. Meanwhile, according to an additional embodiment of the present invention, pixels of multiple reference lines may be used for intra prediction of a current block. The multiple reference line may consist of n lines located within a preset range from the current block. According to an embodiment, when pixels of multiple reference lines are used for intra prediction, separate index information indicating lines to be set as reference pixels may be signaled. When at least some adjacent pixels to be used as reference pixels have not yet been reconstructed, the intra predictor may obtain a reference pixel by performing a reference sample padding process according to a preset rule. Also, the intra prediction unit may perform a reference sample filtering process to reduce an error in intra prediction. That is, reference pixels may be obtained by filtering adjacent pixels and/or pixels obtained by the reference sample padding process. The intra prediction unit predicts the pixels of the current block by using the obtained reference pixels.
다음으로, 도 6은 인트라 예측에 사용되는 예측 모드들의 일 실시예를 도시한다. 인트라 예측을 위해, 인트라 예측 방향을 지시하는 인트라 예측 모드 정보가 시그널링될 수 있다. 인트라 예측 모드 정보는 인트라 예측 모드 세트를 구성하는 복수의 인트라 예측 모드들 중 어느 하나를 지시한다. 현재 블록이 인트라 예측 블록일 경우, 디코더는 비트스트림으로부터 현재 블록의 인트라 예측 모드 정보를 수신한다. 디코더의 인트라 예측부는 추출된 인트라 예측 모드 정보에 기초하여 현재 블록에 대한 인트라 예측을 수행한다.Next, FIG. 6 shows an embodiment of prediction modes used for intra prediction. For intra prediction, intra prediction mode information indicating an intra prediction direction may be signaled. The intra prediction mode information indicates any one of a plurality of intra prediction modes constituting the intra prediction mode set. When the current block is an intra prediction block, the decoder receives intra prediction mode information of the current block from the bitstream. The intra prediction unit of the decoder performs intra prediction on the current block based on the extracted intra prediction mode information.
본 발명의 실시예에 따르면, 인트라 예측 모드 세트는 인트라 예측에 사용되는 모든 인트라 예측 모드들(예, 총 67개의 인트라 예측 모드들)을 포함할 수 있다. 더욱 구체적으로, 인트라 예측 모드 세트는 평면 모드, DC 모드 및 복수의(예, 65개의) 각도 모드들(즉, 방향 모드들)을 포함할 수 있다. 각각의 인트라 예측 모드는 기 설정된 인덱스(즉, 인트라 예측 모드 인덱스)를 통해 지시될 수 있다. 예를 들어, 도 6에 도시된 바와 같이 인트라 예측 모드 인덱스 0은 평면 모드를 지시하고, 인트라 예측 모드 인덱스 1은 DC 모드를 지시한다. 또한, 인트라 예측 모드 인덱스 2 내지 66은 서로 다른 각도 모드들을 각각 지시할 수 있다. 각도 모드들은 기 설정된 각도 범위 이내의 서로 다른 각도들을 각각 지시한다. 예를 들어, 각도 모드는 시계 방향으로 45도에서 -135도 사이의 각도 범위(즉, 제1 각도 범위) 이내의 각도를 지시할 수 있다. 상기 각도 모드는 12시 방향을 기준으로 정의될 수 있다. 이때, 인트라 예측 모드 인덱스 2는 수평 대각(Horizontal Diagonal, HDIA) 모드를 지시하고, 인트라 예측 모드 인덱스 18은 수평(Horizontal, HOR) 모드를 지시하고, 인트라 예측 모드 인덱스 34는 대각(Diagonal, DIA) 모드를 지시하고, 인트라 예측 모드 인덱스 50은 수직(Vertical, VER) 모드를 지시하며, 인트라 예측 모드 인덱스 66은 수직 대각(Vertical Diagonal, VDIA) 모드를 지시한다.According to an embodiment of the present invention, the intra prediction mode set may include all intra prediction modes (eg, a total of 67 intra prediction modes) used for intra prediction. More specifically, the intra prediction mode set may include a planar mode, a DC mode, and a plurality (eg, 65) angular modes (ie, directional modes). Each intra prediction mode may be indicated through a preset index (ie, an intra prediction mode index). For example, as shown in FIG. 6, intra
한편, 기 설정된 각도 범위는 현재 블록의 모양에 따라 서로 다르게 설정될 수 있다. 예를 들어, 현재 블록이 직사각형 블록일 경우 시계 방향으로 45도를 초과하거나 -135도 미만 각도를 지시하는 광각 모드가 추가적으로 사용될 수 있다. 현재 블록이 수평 블록일 경우, 각도 모드는 시계 방향으로 (45+offset1)도에서 (-135+offset1)도 사이의 각도 범위(즉, 제2 각도 범위) 이내의 각도를 지시할 수 있다. 이때, 제1 각도 범위를 벗어나는 각도 모드 67 내지 76이 추가적으로 사용될 수 있다. 또한, 현재 블록이 수직 블록일 경우, 각도 모드는 시계 방향으로 (45-offset2)도에서 (-135-offset2)도 사이의 각도 범위(즉, 제3 각도 범위) 이내의 각도를 지시할 수 있다. 이때, 제1 각도 범위를 벗어나는 각도 모드 -10 내지 -1이 추가적으로 사용될 수 있다. 본 발명의 실시예에 따르면, offset1 및 offset2의 값은 직사각형 블록의 너비와 높이 간의 비율에 따라 서로 다르게 결정될 수 있다. 또한, offset1 및 offset2는 양수일 수 있다.Meanwhile, the preset angle range may be set differently according to the shape of the current block. For example, when the current block is a rectangular block, a wide-angle mode indicating an angle exceeding 45 degrees or less than -135 degrees clockwise may be additionally used. When the current block is a horizontal block, the angle mode may indicate an angle within an angle range (ie, a second angle range) between (45+offset1) degrees and (-135+offset1) degrees in a clockwise direction. In this case, angle modes 67 to 76 outside the first angle range may be additionally used. In addition, when the current block is a vertical block, the angle mode may indicate an angle within an angle range (ie, a third angle range) between (45-offset2) degrees and (-135-offset2) degrees in a clockwise direction. . In this case, angle modes -10 to -1 out of the first angle range may be additionally used. According to an embodiment of the present invention, values of offset1 and offset2 may be determined differently according to a ratio between the width and height of the rectangular block. Further, offset1 and offset2 may be positive numbers.
본 발명의 추가적인 실시예에 따르면, 인트라 예측 모드 세트를 구성하는 복수의 각도 모드들은 기본 각도 모드와 확장 각도 모드를 포함할 수 있다. 이때, 확장 각도 모드는 기본 각도 모드에 기초하여 결정될 수 있다.According to a further embodiment of the present invention, a plurality of angular modes constituting the intra prediction mode set may include a basic angular mode and an extended angular mode. In this case, the extended angle mode may be determined based on the basic angle mode.
일 실시예에 따르면, 기본 각도 모드는 기존 HEVC(High Efficiency Video Coding) 표준의 인트라 예측에서 사용되는 각도에 대응하는 모드이고, 확장 각도 모드는 차세대 비디오 코덱 표준의 인트라 예측에서 새롭게 추가되는 각도에 대응하는 모드일 수 있다. 더욱 구체적으로, 기본 각도 모드는 인트라 예측 모드 {2, 4, 6, …, 66} 중 어느 하나에 대응하는 각도 모드이고, 확장 각도 모드는 인트라 예측 모드 {3, 5, 7, …, 65} 중 어느 하나에 대응하는 각도 모드일 수 있다. 즉, 확장 각도 모드는 제1 각도 범위 내에서 기본 각도 모드들 사이의 각도 모드일 수 있다. 따라서, 확장 각도 모드가 지시하는 각도는 기본 각도 모드가 지시하는 각도에 기초하여 결정될 수 있다.According to an embodiment, the default angle mode is a mode corresponding to an angle used in intra prediction of an existing High Efficiency Video Coding (HEVC) standard, and the extended angle mode corresponds to an angle newly added in intra prediction of the next generation video codec standard. It can be a mode to do. More specifically, the basic angular mode is an intra prediction mode {2, 4, 6, ... , 66}, and the extended angle mode is an intra prediction mode {3, 5, 7, ... , 65} may be an angular mode corresponding to any one of. That is, the extended angle mode may be an angle mode between basic angle modes within the first angle range. Accordingly, the angle indicated by the extended angle mode may be determined based on the angle indicated by the basic angle mode.
다른 실시예에 따르면, 기본 각도 모드는 기 설정된 제1 각도 범위 이내의 각도에 대응하는 모드이고, 확장 각도 모드는 상기 제1 각도 범위를 벗어나는 광각 모드일 수 있다. 즉, 기본 각도 모드는 인트라 예측 모드 {2, 3, 4, …, 66} 중 어느 하나에 대응하는 각도 모드이고, 확장 각도 모드는 인트라 예측 모드 {-10, -9, …, -1} 및 {67, 68, …, 76} 중 어느 하나에 대응하는 각도 모드일 수 있다. 확장 각도 모드가 지시하는 각도는 대응하는 기본 각도 모드가 지시하는 각도의 반대편 각도로 결정될 수 있다. 따라서, 확장 각도 모드가 지시하는 각도는 기본 각도 모드가 지시하는 각도에 기초하여 결정될 수 있다. 한편, 확장 각도 모드들의 개수는 이에 한정되지 않으며, 현재 블록의 크기 및/또는 모양에 따라 추가적인 확장 각도들이 정의될 수 있다. 예를 들어, 확장 각도 모드는 인트라 예측 모드 {-14, -13, …, -1} 및 {67, 68, …, 80} 중 어느 하나에 대응하는 각도 모드로 정의될 수도 있다. 한편, 인트라 예측 모드 세트에 포함되는 인트라 예측 모드들의 총 개수는 전술한 기본 각도 모드와 확장 각도 모드의 구성에 따라 가변할 수 있다.According to another embodiment, the basic angle mode is a mode corresponding to an angle within a preset first angle range, and the extended angle mode may be a wide angle mode outside the first angle range. That is, the basic angular mode is the intra prediction mode {2, 3, 4,… , 66}, and the extended angle mode is an intra prediction mode {-10, -9, ... , -1} and {67, 68,… , 76} may be an angular mode corresponding to any one of. The angle indicated by the extended angle mode may be determined as an angle opposite to the angle indicated by the corresponding basic angle mode. Accordingly, the angle indicated by the extended angle mode may be determined based on the angle indicated by the basic angle mode. Meanwhile, the number of expansion angle modes is not limited thereto, and additional expansion angles may be defined according to the size and/or shape of the current block. For example, the extended angle mode is the intra prediction mode {-14, -13,… , -1} and {67, 68,… , 80} may be defined as an angular mode corresponding to any one of. Meanwhile, the total number of intra prediction modes included in the intra prediction mode set may vary according to the configuration of the above-described basic angle mode and extended angle mode.
상기 실시예들에서, 확장 각도 모드들 간의 간격은 대응하는 기본 각도 모드들 간의 간격에 기초하여 설정될 수 있다. 예를 들어, 확장 각도 모드들 {3, 5, 7, …, 65} 간의 간격은 대응하는 기본 각도 모드들 {2, 4, 6, …, 66} 간의 간격에 기초하여 결정될 수 있다. 또한, 확장 각도 모드들 {-10, -9, …, -1} 간의 간격은 대응하는 반대편의 기본 각도 모드들 {56, 57, …, 65} 간의 간격에 기초하여 결정되고, 확장 각도 모드들 {67, 68, …, 76} 간의 간격은 대응하는 반대편의 기본 각도 모드들 {3, 4, …, 12} 간의 간격에 기초하여 결정될 수 있다. 확장 각도 모드들 간의 각도 간격은 대응하는 기본 각도 모드들 간의 각도 간격과 동일하도록 설정될 수 있다. 또한, 인트라 예측 모드 세트에서 확장 각도 모드들의 개수는 기본 각도 모드들의 개수 이하로 설정될 수 있다.In the above embodiments, the spacing between the extended angle modes may be set based on the spacing between the corresponding basic angle modes. For example, extended angle modes {3, 5, 7,… , 65} the spacing between the corresponding basic angular modes {2, 4, 6,… , 66} can be determined based on the interval. Also, the extended angle modes {-10, -9,… , -1} the spacing between the corresponding opposite basic angular modes {56, 57,… , 65}, determined based on the spacing between the extended angle modes {67, 68, ... , 76} the spacing between the corresponding opposite basic angular modes {3, 4,… , 12} may be determined based on the interval. The angular interval between the extended angle modes may be set to be the same as the angular interval between the corresponding basic angular modes. Also, the number of extended angle modes in the intra prediction mode set may be set to be less than or equal to the number of basic angle modes.
본 발명의 실시예에 따르면, 확장 각도 모드는 기본 각도 모드를 기초로 시그널링될 수 있다. 예를 들어, 광각 모드(즉, 확장 각도 모드)는 제1 각도 범위 이내의 적어도 하나의 각도 모드(즉, 기본 각도 모드)를 대체할 수 있다. 대체되는 기본 각도 모드는 광각 모드의 반대편에 대응하는 각도 모드일 수 있다. 즉, 대체되는 기본 각도 모드는 광각 모드가 지시하는 각도의 반대 방향의 각도에 대응하거나 또는 상기 반대 방향의 각도로부터 기 설정된 오프셋 인덱스만큼 차이 나는 각도에 대응하는 각도 모드이다. 본 발명의 실시예에 따르면, 기 설정된 오프셋 인덱스는 1이다. 대체되는 기본 각도 모드에 대응하는 인트라 예측 모드 인덱스는 광각 모드에 다시 매핑되어 해당 광각 모드를 시그널링할 수 있다. 예를 들어, 광각 모드 {-10, -9, …, -1}은 인트라 예측 모드 인덱스 {57, 58, …, 66}에 의해 각각 시그널링될 수 있고, 광각 모드 {67, 68, …, 76}은 인트라 예측 모드 인덱스 {2, 3, …, 11}에 의해 각각 시그널링될 수 있다. 이와 같이 기본 각도 모드를 위한 인트라 예측 모드 인덱스가 확장 각도 모드를 시그널링하도록 함으로, 각 블록의 인트라 예측에 사용되는 각도 모드들의 구성이 서로 다르더라도 동일한 세트의 인트라 예측 모드 인덱스들이 인트라 예측 모드의 시그널링에 사용될 수 있다. 따라서, 인트라 예측 모드 구성의 변화에 따른 시그널링 오버헤드가 최소화할 수 있다.According to an embodiment of the present invention, the extended angle mode may be signaled based on the basic angle mode. For example, the wide-angle mode (ie, the extended angle mode) may replace at least one angle mode (ie, the basic angle mode) within the first angle range. The replaced basic angle mode may be an angle mode corresponding to the opposite side of the wide angle mode. That is, the replaced basic angle mode is an angle mode that corresponds to an angle in a direction opposite to the angle indicated by the wide-angle mode or to an angle that differs by a preset offset index from the angle in the opposite direction. According to an embodiment of the present invention, the preset offset index is 1. The intra prediction mode index corresponding to the replaced basic angular mode may be remapped to the wide-angle mode to signal the corresponding wide-angle mode. For example, wide-angle mode {-10, -9,… , -1} is the intra prediction mode index {57, 58, ... , 66}, each can be signaled by the wide-angle mode {67, 68, ... , 76} is an intra prediction mode index {2, 3, ... , 11}, respectively. In this way, since the intra prediction mode index for the basic angular mode signals the extended angular mode, the intra prediction mode indices of the same set are applied to the signaling of the intra prediction mode even if the configurations of the angular modes used for intra prediction of each block are different. Can be used. Accordingly, signaling overhead due to a change in the intra prediction mode configuration can be minimized.
한편, 확장 각도 모드의 사용 여부는 현재 블록의 모양 및 크기 중 적어도 하나에 기초하여 결정될 수 있다. 일 실시예에 따르면, 현재 블록의 크기가 기 설정된 크기보다 클 경우 확장 각도 모드가 현재 블록의 인트라 예측을 위해 사용되고, 그렇지 않을 경우 기본 각도 모드만 현재 블록의 인트라 예측을 위해 사용될 수 있다. 다른 실시예에 따르면, 현재 블록이 정사각형이 아닌 블록인 경우 확장 각도 모드가 현재 블록의 인트라 예측을 위해 사용되고, 현재 블록이 정사각형 블록인 경우 기본 각도 모드만 현재 블록의 인트라 예측을 위해 사용될 수 있다.Meanwhile, whether to use the extended angle mode may be determined based on at least one of the shape and size of the current block. According to an embodiment, when the size of the current block is larger than a preset size, the extended angle mode is used for intra prediction of the current block, otherwise, only the basic angle mode may be used for intra prediction of the current block. According to another embodiment, when the current block is a non-square block, the extended angle mode is used for intra prediction of the current block, and when the current block is a square block, only the basic angle mode may be used for intra prediction of the current block.
인트라 예측부는 현재 블록의 인트라 예측 모드 정보에 기초하여, 현재 블록의 인트라 예측에 사용될 참조 픽셀들 및/또는 보간된 참조 픽셀들을 결정한다. 인트라 예측 모드 인덱스가 특정 각도 모드를 지시할 경우, 현재 블록의 현재 픽셀로부터 상기 특정 각도에 대응하는 참조 픽셀 또는 보간된 참조 픽셀이 현재 픽셀의 예측에 사용된다. 따라서, 인트라 예측 모드에 따라 서로 다른 세트의 참조 픽셀들 및/또는 보간된 참조 픽셀들이 인트라 예측에 사용될 수 있다. 참조 픽셀들 및 인트라 예측 모드 정보를 이용하여 현재 블록의 인트라 예측이 수행되고 나면, 디코더는 역변환부로부터 획득된 현재 블록의 잔차 신호를 현재 블록의 인트라 예측값과 더하여 현재 블록의 픽셀 값들을 복원한다.The intra prediction unit determines reference pixels and/or interpolated reference pixels to be used for intra prediction of the current block, based on intra prediction mode information of the current block. When the intra prediction mode index indicates a specific angular mode, a reference pixel corresponding to the specific angle from the current pixel of the current block or an interpolated reference pixel is used for prediction of the current pixel. Accordingly, different sets of reference pixels and/or interpolated reference pixels may be used for intra prediction according to the intra prediction mode. After intra prediction of the current block is performed using reference pixels and intra prediction mode information, the decoder restores pixel values of the current block by adding the residual signal of the current block obtained from the inverse transform unit with the intra prediction value of the current block.
변수 설명 cbWidth : Coding block Width, cbHeight : Coding block Height, tbWidth : Transform block width, tbHeight : Transform block HeightVariable Description cbWidth: Coding block Width, cbHeight: Coding block Height, tbWidth: Transform block width, tbHeight: Transform block Height
도면 7은 코딩 블록이 복수개의 변환 블록으로 분할되는 경우 화면내 예측 모드의 적용 방법을 나타낸 도면이다. 7 is a diagram illustrating a method of applying an intra prediction mode when a coding block is divided into a plurality of transform blocks.
화면내 예측 모드는 코딩 유닛/블록(이하 블록으로 칭함) 단위에서 결정될 수 있다. 코딩 유닛/블록은 복수개의 변환 블록으로 분할 될 수 있다. 화면내 예측 모드는 코딩 블록의 형태에 따라 그 해석이 달라 질 수 있다. 다음은 정사각 블록이 아닌 경우 화면내 예측 모드를 재해석하는 방법에 대한 내용이다. nTbW는 변환블록의 넓이, nTbH는 변환 블록의 높이일 수 있다. whRatio = Abs(Log2(nTbW/nTbH)). 이하, 시그널링된 화면내 예측 모드는 제1 예측모드로 칭하고 재해석된 모드는 제2 예측 모드로 칭한다. The intra prediction mode may be determined in units of coding units/blocks (hereinafter referred to as blocks). The coding unit/block may be divided into a plurality of transform blocks. The interpretation of the intra prediction mode may vary depending on the type of the coding block. The following is a description of a method of reinterpreting the intra prediction mode in the case of a non-square block. nTbW may be the width of the transform block, and nTbH may be the height of the transform block. whRatio = Abs(Log2(nTbW/nTbH)). Hereinafter, the signaled intra prediction mode is referred to as a first prediction mode and the reinterpreted mode is referred to as a second prediction mode.
제1 조건: nTbW > nTbH ,First condition: nTbW> nTbH,
제2 조건: 제1 화면내 예측 모드가 2와 같거나 큰 모드, Second condition: a mode in which the first intra prediction mode is equal to or greater than 2,
제3 조건: 제1 화면내 예측 모드가 whRatio >1 크면 (8+2*whRatio) 보다 작아야 하고, whRatio < 1 으면 8보다 작아야 한다. Third condition: If the first intra prediction mode is larger than whRatio >1, it should be smaller than (8+2*whRatio), and if whRatio <1, it should be smaller than 8.
상기 3가지 조건을 만족하면 변수 wideAngle 을 1로 설정하고 제2 화면내예측 모드는 (제1화면내예측 모드 + 65) 로 설정된다. If the above three conditions are satisfied, the variable wideAngle is set to 1 and the second in-screen prediction mode is set to (first in-screen prediction mode + 65).
제4 조건 : nTbH > nTbW,Fourth condition: nTbH> nTbW,
제5 조건: 제1화면내 예측 모드가 66과 같거나 작음, Condition 5: The prediction mode in the first screen is equal to or less than 66,
제6 조건 : 제1 화면내 예측 모드가 whRatio > 1 크면 (60-2*whRatio )크고, whRatio < 1 면 60보다 커야 한다. Sixth condition: If whRatio> 1 is greater than (60-2*whRatio ), the first intra prediction mode must be greater than (60-2*whRatio ), and whRatio <1 if it is greater than 60.
상기 제4,5,6조건을 모두 만족하면 변수 wideAngle을 1로 설정하고 제2 화면내 예측 모드는 (제1화면내예측모드 - 67)로 설정된다. When all the
화면내 예측 모드는 기본 각도 모드와 확장된 각도 모드로 구분할 수 있다. 기본 각도모드는 수직 각도 모드/수평 각도 모드 기준 +/-45 범위이내의 각도 모드들일 수 있고, 확장된 각도 모도는 같은 기준으로 +/-45도를 초과하는 각도 모드 일수 있다. 따라서, 시그널링된 모드 정보는 코딩 블록의 형태에 따라 기본 각도 모드를 사용하거나 확장된 각도 모드를 사용할 수 있다. 확장된 각도 모드는 코딩 블록의 형태에 기반한 가로대 세로/세로대 가로 비율에따라 사용할 수 있는 모드 수가 정해진다. 그 비율은 2:1, 4:1, 8:1, 16:1등이 될 수 있다. 예를 들어, 도7-a 에서처럼 화면내 예측 모드 2로 결정된 코딩 블록 cbWidth x cbHeight 이 도 7-b처럼 가로 방향으로 2개의 변환 블록으로 분할 될 수 있다. tbWidht_1 x tbHeight_1 크기를 갖는 제1 변환블록은 tbWidht_1 이 tbHeight_1보다 커서 수직 직사각형 블록 형태를 갖는다. 이때, 시그널링된 화면내 예측 모드2는 제1변환 블록의 형태를 기반으로 재해석 되어 확장된 각도 모드로 바뀔 수 있고 상기 해석 방법에 따라 (2+65)가 되어 제2 화면내 예측 모드는 67이 될 수 있다. 이는 코딩 블록 단위에서 결정된 화면내 예측 모드가 변환 블록 단위에서도 동일하게 사용될 수 없게 될 수 있다. 이로 인한 성능 변화도 야기될 수 있다. 코딩블록에 결정된 화면내 예측 모드를 변환 블록에서도 동일하게 적용하기 위해 wideAngle을 결정하는 방법에서 nTbW 와 nTbH는 코딩 블록의 cbWidth, cbHeight로 설정한다. The intra prediction mode can be divided into a basic angle mode and an extended angle mode. The basic angle mode may be angle modes within the range of +/-45 based on the vertical angle mode/horizontal angle mode, and the extended angle modality may be an angle mode exceeding +/-45 degrees based on the same standard. Accordingly, the signaled mode information may use a basic angular mode or an extended angular mode according to the type of the coding block. In the extended angular mode, the number of available modes is determined according to the horizontal-to-vertical/vertical-to-horizontal ratio based on the shape of the coding block. The ratio can be 2:1, 4:1, 8:1, 16:1, etc. For example, the coding block cbWidth x cbHeight determined as the
도 7에서 수직 직사각형 형태로 변환 블록이 분할 되는 것을 예로 들었으나 이에 한정하지 않는다. 수평 직사각형 및 정사각형태 혹은 조합된 여러 형태로 분할 가능하다. 7 illustrates that the transform block is divided into a vertical rectangular shape, but is not limited thereto. It can be divided into horizontal rectangular and square shapes, or a combination of various shapes.
도 8은 코딩 블록이 복수개의 변환 블록으로 분할된 예에서 화면내 예측 모드의 적용 방법을 나타낸다. 도8-a의 코딩 블록이 도8-b의 4개의 변환 블록으로 분할된 경우를 나타내며, 코딩 블록의 높이와 넓이의 크기가 같으면 4개의 변환 블록 각각의 높이와 넓이도 같은 크기가 되어 그 블록의 가로 대 세로 비율이 모두 1이 될 수 있다. 이때는 코딩블록에서 결정된 제1화면내 예측 모드는 변환 블록에서 재해석 과정 없이 제1 화면내 예측 모드를 적용할 수 있다. 다른 경우로 코딩블록의 높이와 넓이의 크기가 다른 경우이면 4개의 변환블록의 넓이와 높이도 다를 수 있다. 이경우에는 도 7에서 언급한 재해석 방법을 적용하여 코딩 블록에서 결정된 화면내 예측 모드를 그대로 적용할 수 있다. 8 shows a method of applying an intra prediction mode in an example in which a coding block is divided into a plurality of transform blocks. It shows the case where the coding block of Fig. 8-a is divided into the four transform blocks of Fig. 8-b, and if the height and the width of the coding block are the same, the height and width of each of the four transform blocks are the same. The width-to-height ratio of can be all 1. In this case, the first intra prediction mode determined in the coding block may be applied to the first intra prediction mode without a reinterpretation process in the transform block. In another case, if the height and the width of the coding block are different, the width and height of the four transform blocks may be different. In this case, the intra prediction mode determined in the coding block may be applied as it is by applying the reinterpretation method mentioned in FIG. 7.
도 9는 수직 직사각형 코딩블록이 2개의 변환 블록으로 분할된 경우로 화면내 예측 모드 적용 방법을 나타낸다. 도 9-a에서 코딩블록은 cbWidth < cbHeight 인 경우로 시그널링된 모드는 화면내 예측모드 66 이지만 도 7에서 언급한 재해석 과정을 적용하면 (66-67)로 화면내 예측 모드는 -1 번 모드가 된다. 도 9-b는 도 9-a 코딩블록으로부터 2개의 변환 블록으로 분할된 경우로 변환블록의 넓이와 높이가 같으면 예측 모드 재해석 과정 없이 화면내 예측 모드 66번을 사용하게 된다. 이와 반대로 변환 블록의 넓이와 크기가 서로 다른 경우 도 9-a의 경우처럼 재해석 과정을 거쳐 코딩 블록에 사용되는 동일한 화면내 예측 모드를 적용할 수 있다. 따라서, 변환된 블록에서도 코딩블록의 예측 모드를 적용하기 위해서는 도7에서 적용된 방법과 동일하게 재해석 과정에 필요한 변수 nTbW와 nTbH를 코딩블록의 넓이와 높이 값으로 설정하도록 한다. 9 shows a method of applying an intra prediction mode when a vertical rectangular coding block is divided into two transform blocks. In FIG. 9-a, when the coding block is cbWidth <cbHeight, the signaled mode is intra
도 10은 수평 직사각형 코딩블록이 2개의 변환 블록으로 분할된 경우로 화면내 예측 모드 적용 방법을 나타낸다. 도 10-a에서 코딩블록은 cbWidth > cbHeight인 경우로 시그널링된 모드는 화면내 예측 모드가 2번 이지만 도 7에서 언급한 재해석 과정을 적용하면 (2 + 65)로 제2 화면내 예측 모드는 67이 된다. 도 10-b는 도 10-a의 코딩 블록이 2개의 변환 블록으로 분할된 경우이다. 변환 블록의 넓이와 높이가 같으면 재해석 과정 없이 제1화면내 예측모드 2번을 적용하게 된다. 코딩블록과 동일한 예측 모드를 적용하기 위해서 도 7에서 적용된 방법과 동일하게 재해석 과정에 필요한 변수 nTbW와 nTbH를 코딩블록의 넓이와 높이 값으로 설정하도록 한다. 또한, 변환 블록의 넓이와 높이의 비율이 코딩블록의 높이와 넓이 비율과 같으면 재해석 과정을 거쳐 동일한 제2 화면내 예측 모드를 적용할 수 있다. 10 shows a method of applying an intra prediction mode when a horizontal rectangular coding block is divided into two transform blocks. In FIG. 10-A, the mode signaled in the case of cbWidth> cbHeight for the coding block is the
화면내 예측 방법 중 참조 샘플에 interpolation filter를 적용하여 예측하는 방법이 있다. Interpolation filter는 4-tap 계수를 사용하는 Cubic 필터 방식과 Gaussian 필터 방식을 적용할 수 있다. 둘 중 어떤 필터 방식을 결정하는 방식으로 wideAngle사용 여부 및 화면내 예측 모드에 기반한 결정 방법이 있을 수 있다. 그 중, wideAngle여부에 의해 필터 종류를 결정하는 방법에서 상기 도 7,8,9,10에서처럼 코딩블록이 복수개의 변환 블록으로 분할 되는 경우, 코딩블록과 변환 블록의 가로대 세로/세로대 가로 비율이 달라져 변수 wideAngle 값이 1인 경우에서 0인 경우로 혹은 반대의 상황인 0인 경우에서 1인 경우로 재설정 될 수 있다. 변수 wideAngle값이 1인 경우 변수 filterFlag는 1로 설정되어 예를 들어 Gaussian 필터를 사용하고 0이면 Cubic필터를 사용할 수 있다. 코딩블록의 filterFlag값과 변환 블록의 filterFlag값이 다르게 적용되면 그에 따른 성능 변화를 야기할 수 있다. 따라서, 코딩블록과 변환블록의 filterFlag를 동일하게 설정하는 방법으로 상기 도 7에서 확장된 각도모드로 재해석하는 과정의 변수 wideAngle 설정 방법과 동일하게 적용할 수 있다.Among the intra prediction methods, there is a method of predicting by applying an interpolation filter to a reference sample. As for the interpolation filter, a Cubic filter method and a Gaussian filter method using 4-tap coefficients can be applied. As a method of determining which of the two filter methods is used, there may be a determination method based on whether to use wideAngle and an intra prediction mode. Among them, when a coding block is divided into a plurality of transform blocks as in Figs. 7,8, 9, and 10 in the method of determining the filter type based on wideAngle, the horizontal-to-vertical/vertical-to-horizontal ratios of the coding block and the transform block are different. The variable wideAngle value can be reset from 1 to 0, or the opposite situation, 0 to 1. If the variable wideAngle value is 1, the variable filterFlag is set to 1, for example, a Gaussian filter is used, and if it is 0, a Cubic filter can be used. If the filterFlag value of the coding block and the filterFlag value of the transform block are applied differently, a performance change may be caused accordingly. Accordingly, the same method of setting the filterFlag of the coding block and the transform block can be applied in the same manner as the method of setting the variable wideAngle in the process of reinterpreting the extended angle mode in FIG. 7.
코딩블록은 해당 블록의 높이와 넓이 중 하나 이상이 최대 변환 크기보다 큰 경우 복수개의 변환 블록으로 분할 될 수 있고, 코딩 효율을 높이기 위한 방법으로 최대 변화 크기와 상관없이 복수개의 변환 블록으로 분할할 수 있는 화면내 서브 파티션(Intra subpartition: ISP) 방법이 있다. A coding block can be divided into a plurality of transform blocks if at least one of the height and width of the corresponding block is greater than the maximum transform size, and as a method to increase coding efficiency, it can be divided into a plurality of transform blocks regardless of the maximum change size. There is an Intra subpartition (ISP) method.
상기 실시예 들에서 적용된 제1 화면내 예측 모드는 2, 66으로 한정하지 않는다. 또한, 코딩블록과 변환 블록의 가로 대 세로/세로 대 가로 비율을 특정 비율로 한정하지 않는다. 또한 변환 블록의 개수도 2개 혹은 4개로 한정하지 않는다. 또한 코딩블록의 가로 대 세로/세로 대 가로 비율과 변환 블록의 가로 대 세로/세로 대 가로 비율이 다른 경우에도 제안된 방법을 적용할 수 있다. The first intra prediction mode applied in the above embodiments is not limited to 2 and 66. In addition, the horizontal-to-vertical/vertical-to-horizontal ratio of the coding block and the transform block is not limited to a specific ratio. Also, the number of transform blocks is not limited to two or four. In addition, the proposed method can be applied even when the horizontal to vertical/vertical to horizontal ratio of the coding block and the horizontal to vertical/vertical to horizontal ratio of the transform block are different.
다음은 화면내 예측 방법 중 모드2 부터 모드66까지의 예측 방법에 대한 내용이다. The following is the contents of prediction methods from
1.1.1.1.11.1.1.1.1 Specification of INTRA_ANGULAR2..INTRA_ANGULAR66 intra prediction modesSpecification of INTRA_ANGULAR2..INTRA_ANGULAR66 intra prediction modes
Inputs to this process are:Inputs to this process are:
the intra prediction mode predModeIntra,the intra prediction mode predModeIntra,
- a variable refIdx specifying the intra prediction reference line index,- a variable refIdx specifying the intra prediction reference line index,
- a variable nTbW specifying the transform block width,- a variable nTbW specifying the transform block width,
- a variable nTbH specifying the transform block height,- a variable nTbH specifying the transform block height,
- a variable refW specifying the reference samples width,- a variable refW specifying the reference samples width,
- a variable refH specifying the reference samples height,- a variable refH specifying the reference samples height,
- a variable nCbW specifying the coding block width,- a variable nCbW specifying the coding block width,
- a variable nCbH specifying the coding block height,- a variable nCbH specifying the coding block height,
- a variable cIdx specifying the colour component of the current block,- a variable cIdx specifying the color component of the current block,
the neighbouring samples p[ x ][ y ], with x = 1 refIdx, y = 1 refIdx..refH 1 and x = refIdx..refW 1, y = 1 refIdx.
the neighboring samples p[ x ][ y ], with x = 1 refIdx, y = 1 refIdx..
Outputs of this process are the modified intra prediction mode predModeIntra and the predicted samples predSamples[ x ][ y ], with x = 0..nTbW 1, y = 0..nTbH 1.Outputs of this process are the modified intra prediction mode predModeIntra and the predicted samples predSamples[ x ][ y ], with x = 0..nTbW 1, y = 0..
The variables new-nTbW and new-nTbH are derived as follows: 화면내 서브 파티션 적용 여부 및 컬러 컴포넌트가 루마인지 여부를 확인하는 과정 없이 적용할 수 있으며 아래와 같이 설정할 수 있다.The variables new-nTbW and new-nTbH are derived as follows: Can be applied without checking whether sub-partitions are applied in the screen and whether the color component is luma, and can be set as follows.
new-nTbW = nCbW;new-nTbW = nCbW;
new-nTbH = nCbH;new-nTbH = nCbH;
The variable nTbS is set equal to ( Log2 ( nTbW ) + Log2 ( nTbH ) ) >> 1.The variable nTbS is set equal to ( Log2 ( nTbW ) + Log2 ( nTbH ) ) >> 1.
The variable whRatio is set equal to Abs( Log2( new-nTbW / new-nTbH ) ).The variable whRatio is set equal to Abs( Log2( new-nTbW / new-nTbH ) ).
The variable wideAngle is set equal to 0.The variable wideAngle is set equal to 0.
For non-square blocks (new-nTbW is not equal to new-nTbH), the intra prediction mode predModeIntra is modified as follows:For non-square blocks (new-nTbW is not equal to new-nTbH), the intra prediction mode predModeIntra is modified as follows:
If all of the following conditions are true, wideAngle is set equal to 1 and predModeIntra is set equal to ( predModeIntra + 65 ). If all of the following conditions are true, wideAngle is set equal to 1 and predModeIntra is set equal to ( predModeIntra + 65 ).
new-nTbW is greater than new-nTbH new-nTbW is greater than new-nTbH
predModeIntra is greater than or equal to 2 predModeIntra is greater than or equal to 2
predModeIntra is less than ( whRatio > 1 ) ? ( 8 + 2 * whRatio ) : 8 predModeIntra is less than (whRatio > 1 ) ? ( 8 + 2 * whRatio ) : 8
- Otherwise, if all of the following conditions are true, wideAngle is set equal to 1 and predModeIntra is set equal to ( predModeIntra 67 ).- Otherwise, if all of the following conditions are true, wideAngle is set equal to 1 and predModeIntra is set equal to ( predModeIntra 67 ).
- new-nTbH is greater than new-nTbW -new-nTbH is greater than new-nTbW
- predModeIntra is less than or equal to 66 -predModeIntra is less than or equal to 66
predModeIntra is greater than ( whRatio > 1 ) ? ( 60 2 * whRatio ) : 60predModeIntra is greater than (whRatio > 1 ) ? ( 60 2 * whRatio ) : 60
다음은 인트라 블록에 대한 디코딩 과정은 나타낸 내용이다. The following is a description of a decoding process for an intra block.
1.1.1.21.1.1.2 General decoding process for intra blocksGeneral decoding process for intra blocks
Inputs to this process are:Inputs to this process are:
- a sample location ( xTb0, yTb0 ) specifying the top-left sample of the current transform block relative to the top-left sample of the current picture,- a sample location ( xTb0, yTb0 ) specifying the top-left sample of the current transform block relative to the top-left sample of the current picture,
- a variable nTbW specifying the width of the current transform block,- a variable nTbW specifying the width of the current transform block,
- a variable nTbH specifying the height of the current transform block,- a variable nTbH specifying the height of the current transform block,
- a variable predModeIntra specifying the intra prediction mode,- a variable predModeIntra specifying the intra prediction mode,
- a variable cIdx specifying the colour component of the current block.- a variable cIdx specifying the color component of the current block.
Output of this process is a modified reconstructed picture before in-loop filtering.Output of this process is a modified reconstructed picture before in-loop filtering.
The maximum transform block size maxTbSize is derived as follows:The maximum transform block size maxTbSize is derived as follows:
maxTbSize = ( cIdx = = 0 ) ? MaxTbSizeY : MaxTbSizeY / 2 (8-71)maxTbSize = ( cIdx = = 0 ) ? MaxTbSizeY : MaxTbSizeY / 2 (8-71)
The luma sample location is derived as follows:The luma sample location is derived as follows:
( xTbY, yTbY ) = ( cIdx = = 0 ) ? ( xTb0, yTb0 ) : ( xTb0 * 2, yTb0 * 2 ) (8-72)( XTbY, yTbY ) = ( cIdx = = 0 ) ? ( XTb0, yTb0 ) : ( xTb0 * 2, yTb0 * 2 ) (8-72)
Depending on maxTbSize, the following applies:Depending on maxTbSize, the following applies:
- If IntraSubPartSplitType is equal to NO_ISP_SPLIT and nTbW is greater than maxTbSize or nTbH is greater than maxTbSize, the following ordered steps apply.- If IntraSubPartSplitType is equal to NO_ISP_SPLIT and nTbW is greater than maxTbSize or nTbH is greater than maxTbSize, the following ordered steps apply.
1. The variables newTbW and newTbH are derived as follows: One. The variables newTbW and newTbH are derived as follows:
newTbW = ( nTbW > maxTbSize ) ? ( nTbW / 2 ) : nTbW (8-73)newTbW = ( nTbW > maxTbSize ) ? ( NTbW / 2 ) : nTbW (8-73)
newTbH = ( nTbH > maxTbSize ) ? ( nTbH / 2 ) : nTbH (8-74)newTbH = ( nTbH > maxTbSize ) ? ( NTbH / 2 ) : nTbH (8-74)
2. The general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0, yTb0 ), the transform block width nTbW set equal to newTbW and the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering. 2. The general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0,yTb0 ), the transform block width nTbW set equal to newTbW and the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering.
3. If nTbW is greater than maxTbSize, the general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0, yTb0 ) set equal to ( xTb0 + newTbW, yTb0 ), the transform block width nTbW set equal to newTbW and the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering. 3. If nTbW is greater than maxTbSize, the general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0, yTb0 ) set equal to ( xTb0 + newTbW, yTb0 ), the transform block width nTbW and set equal to new the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering.
4. If nTbH is greater than maxTbSize, the general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0, yTb0 ) set equal to ( xTb0, yTb0 + newTbH ), the transform block width nTbW set equal to newTbW and the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering. 4. If nTbH is greater than maxTbSize, the general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0, yTb0 ) set equal to ( xTb0, yTb0 + newTbH ), the transform block width nTbW set equal to the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering.
5. If nTbW is greater than maxTbSize and nTbH is greater than maxTbSize, the general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0, yTb0 ) set equal to ( xTb0 + newTbW, yTb0 + newTbH ), the transform block width nTbW set equal to newTbW and the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering. 5. If nTbW is greater than maxTbSize and nTbH is greater than maxTbSize, the general decoding process for intra blocks as specified in this clause is invoked with the location ( xTb0, yTb0 ) set equal to ( xTb0 + newTbW, yTb0 ), the transform block width nTbW set equal to newTbW and the height nTbH set equal to newTbH, the intra prediction mode predModeIntra, and the variable cIdx as inputs, and the output is a modified reconstructed picture before in-loop filtering.
- Otherwise, the following ordered steps apply:- Otherwise, the following ordered steps apply:
- The variables nTbH, nTbW are modifed as follows: -The variables nTbH, nTbW are modifed as follows:
nW = IntraSubPartitionsSplitType = = ISP_VER_SPLIT ? nTbW / NumIntraSubPartitions : nTbW (8-74)nW = IntraSubPartitionsSplitType = = ISP_VER_SPLIT? nTbW / NumIntraSubPartitions: nTbW (8-74)
nH = IntraSubPartitionsSplitType = = ISP_HOR_SPLIT ? nTbH / NumIntraSubPartitions : nTbH (8-74)nH = IntraSubPartitionsSplitType = = ISP_HOR_SPLIT? nTbH / NumIntraSubPartitions: nTbH (8-74)
numPartsX = IntraSubPartitionsSplitType = = ISP_VER_SPLIT ? NumIntraSubPartitions : 1 (8-74)numPartsX = IntraSubPartitionsSplitType = = ISP_VER_SPLIT? NumIntraSubPartitions: 1 (8-74)
numPartsY = IntraSubPartitionsSplitType = = ISP_HOR_SPLIT ? NumIntraSubPartitions : 1 (8-74)numPartsY = IntraSubPartitionsSplitType = = ISP_HOR_SPLIT? NumIntraSubPartitions: 1 (8-74)
- For xPartIdx = 0..numPartsX and yPartIdx = 0..numPartsY, the following applies: -For xPartIdx = 0..numPartsX and yPartIdx = 0..numPartsY, the following applies:
1. The general intra sample prediction process as specified in clause 8.3.4.2.1 is invoked with the location ( xTbCmp, yTbCmp ) set equal to ( xTb0 + nTbW * xPartIdx, yTb0 + nTbH * yPartIdx ), the intra prediction mode predModeIntra, the transform block width nTbW and height nTbH set equal to nW and nH, the coding block width nCbW and height nCbH set equal to nTbW and nTbH, and the variable cIdx as inputs, and the output is an (nTbW)x(nTbH) array predSamples. One. The general intra sample prediction process as specified in clause 8.3.4.2.1 is invoked with the location ( xTbCmp, yTbCmp ) set equal to ( xTb0 + nTbW * xPartIdx, yTb0 the intraprediction mode, the intraprediction n block width nTbW and height nTbH set equal to nW and nH, the coding block width nCbW and height nCbH set equal to nTbW and nTbH, and the variable cIdx as inputs, and the output is an (nTbW)x(nTbH) array predSamples.
2. The scaling and transformation process as specified in clause 8.5.2 is invoked with the luma location (xTbY + nTbW * xPartIdx, yTbY+nTbH*yPartIdx) , the variable cIdx, (the transform width nTbW and the transform height nTbH) is changed to (the transform block with nTbW and height nTbH set equal to nW and nH, and/or the coding block width nCbW and height nCbH set equal to nTbW and nTbH) as inputs, and the output is an (nTbW)x(nTbH) array resSamples.2.The scaling and transformation process as specified in clause 8.5.2 is invoked with the luma location (xTbY + nTbW * xPartIdx, yTbY+nTbH*yPartIdx), the variable cIdx, (the transform width nTbW and the transform height nTbH) is changed to (the transform block with nTbW and height nTbH set equal to nW and nH, and/or the coding block width nCbW and height nCbH set equal to nTbW and nTbH) as inputs, and the output is an (nTbW)x(nTbH ) array resSamples.
3. The picture reconstruction process for a colour component as specified in clause 8.5.5 is invoked with the transform block location ( xTbComp, yTbComp ) set equal to ( xTb0 + nTbW * xPartIdx, yTb0 + nTbW * xPartIdx ), the transform block width nTbW, the transform block height nTbH 대신 다음과 같이 설정할수 있다 the transform block width nTbW and height nTbH set equal to nW and nH,and/or the coding block width nCbW and height nCbH set equal to nTbW and nTbH, the variable cIdx, the (nTbW)x(nTbH) array predSamples, and the (nTbW)x(nTbH) array resSamples as inputs, and the output is a modified reconstructed picture before in-loop filtering. 3. The picture reconstruction process for a color component as specified in clause 8.5.5 is invoked with the transform block location ( xTbComp,yTbComp ) set equal to ( xTb0 +nTbW * xPartIdx,yTb0T, the transform block location yTb0T, the transform block location( yTb0Tx+ ) the transform block height nTbH can be set as follows instead of the transform block width nTbW and height nTbH set equal to nW and nH,and/or the coding block width nCbW and height nCbH set equal to nTbW and nTbH, the variable cIdx, the (nTbW)x(nTbH) array predSamples, and the (nTbW)x(nTbH) array resSamples as inputs, and the output is a modified reconstructed picture before in-loop filtering.
상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described embodiments of the present invention can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 프로세서의 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code can be stored in a memory and driven by a processor. The memory may be located inside or outside the processor, and data may be exchanged with the processor through various known means.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아는 것으로 해석해야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be interpreted that the embodiments described above are illustrative in all respects and are not limited. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.
100 : 인코딩 장치 200 : 디코딩 장치100: encoding device 200: decoding device
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190014146A KR20200096385A (en) | 2019-02-02 | 2019-02-02 | A method and an apparatus for processing a video signal using intra mode unification between coding block and transform block |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190014146A KR20200096385A (en) | 2019-02-02 | 2019-02-02 | A method and an apparatus for processing a video signal using intra mode unification between coding block and transform block |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200096385A true KR20200096385A (en) | 2020-08-12 |
Family
ID=72039104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190014146A KR20200096385A (en) | 2019-02-02 | 2019-02-02 | A method and an apparatus for processing a video signal using intra mode unification between coding block and transform block |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200096385A (en) |
-
2019
- 2019-02-02 KR KR1020190014146A patent/KR20200096385A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102618079B1 (en) | Video signal processing method and device using MPM configuration method for multiple reference lines | |
EP4002848A1 (en) | Video signal processing method and device | |
US11863760B2 (en) | Video signal processing method and device | |
US11539973B2 (en) | Method and device for processing video signal using multiple transform kernels | |
KR20230043814A (en) | A method and an apparatus for processing a video signal | |
US11949916B2 (en) | Method and apparatus for encoding and decoding video signals using multiple transform kernels | |
EP3985970A1 (en) | Video signal processing method and device using block dpcm prediction method | |
US20210051319A1 (en) | Video signal processing method and device using reference sample | |
JP2022522013A (en) | Intra-prediction-based video signal processing methods and equipment | |
US11870995B2 (en) | Method and device for processing video signal by using cross-component linear model | |
US20160088305A1 (en) | Method and apparatus for processing video signal | |
KR20200057991A (en) | Method and apparatus for deriving and generating dst-7, dct-8 transform kernel for video signal | |
KR20210033858A (en) | Derivation and mapping method of secondary transform kernel according to intra prediction in video codec | |
KR20200096385A (en) | A method and an apparatus for processing a video signal using intra mode unification between coding block and transform block | |
KR20210035413A (en) | Explicit peripheral kernel application to matrix-based intra prediction in video codecs | |
KR20210000829A (en) | Intra prediction method in video codecs | |
KR20210035602A (en) | Quadratic transform application according to intra prediction based on matrix transform in video codec | |
KR20210036479A (en) | Quadratic transformation block size restriction according to prediction condition based on matrix transform in video codec | |
KR20220055105A (en) | Filter application method using neural network in video codec | |
KR20200054052A (en) | A method and an apparatus for processing a video signal using intra block copy | |
KR20220055101A (en) | Method for applying in loop filter in video codec | |
KR20210034790A (en) | Secondary transform coding method in video codec | |
KR20210000828A (en) | Method and apparatus for processing video signal using secondary transform | |
KR20200041491A (en) | Video decoding method and device using efficient block partitioning structure and signaling method | |
KR20200137326A (en) | A method and an apparatus for processing a video signal using current picture referencing |