KR102389267B1 - A method and an apparatus for processing a video signal based on reference between components - Google Patents

A method and an apparatus for processing a video signal based on reference between components Download PDF

Info

Publication number
KR102389267B1
KR102389267B1 KR1020190025175A KR20190025175A KR102389267B1 KR 102389267 B1 KR102389267 B1 KR 102389267B1 KR 1020190025175 A KR1020190025175 A KR 1020190025175A KR 20190025175 A KR20190025175 A KR 20190025175A KR 102389267 B1 KR102389267 B1 KR 102389267B1
Authority
KR
South Korea
Prior art keywords
block
luminance
reference region
chrominance
prediction
Prior art date
Application number
KR1020190025175A
Other languages
Korean (ko)
Other versions
KR20190140820A (en
Inventor
심동규
박시내
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180067164A external-priority patent/KR101956756B1/en
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020190025175A priority Critical patent/KR102389267B1/en
Publication of KR20190140820A publication Critical patent/KR20190140820A/en
Priority to KR1020220047607A priority patent/KR20220051156A/en
Application granted granted Critical
Publication of KR102389267B1 publication Critical patent/KR102389267B1/en
Priority to KR1020230124076A priority patent/KR102660273B1/en
Priority to KR1020240052573A priority patent/KR20240054951A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명에 따른 비디오 신호 처리 방법 및 장치는, 휘도 블록의 샘플을 이용하여 색차 블록의 제1 예측값을 유도하고, 소정의 참조 영역을 기반으로, 보상 파라미터를 산출하며, 제1 예측값에 보상 파라미터를 적용하여, 색차 블록의 제2 예측값을 유도하고, 색차 블록의 제2 예측값에 기초하여, 색차 블록을 복원할 수 있다.A video signal processing method and apparatus according to the present invention derives a first predicted value of a chrominance block using a sample of a luminance block, calculates a compensation parameter based on a predetermined reference region, and adds the compensation parameter to the first predicted value By application, a second predicted value of the chrominance block may be derived, and the chrominance block may be reconstructed based on the second predicted value of the chrominance block.

Description

성분 간 참조 기반의 비디오 신호 처리 방법 및 장치{A METHOD AND AN APPARATUS FOR PROCESSING A VIDEO SIGNAL BASED ON REFERENCE BETWEEN COMPONENTS}A METHOD AND AN APPARATUS FOR PROCESSING A VIDEO SIGNAL BASED ON REFERENCE BETWEEN COMPONENTS

본 발명은 비디오 신호를 부호화/복호화하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for encoding/decoding a video signal.

고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 고효율의 영상 압축 기술들이 활용될 수 있다.The demand for high-resolution, high-quality images is increasing in various application fields. As the image data becomes higher resolution and higher quality, the amount of data relatively increases compared to the existing image data. The storage cost will increase. High-efficiency image compression techniques can be used to solve these problems that occur as image data becomes high-resolution and high-quality.

본 발명은, 예측 블록의 부호화/복호화 효율을 향상시키고자 한다. An object of the present invention is to improve encoding/decoding efficiency of a prediction block.

본 발명은, 성분 별 인트라 예측의 정확도를 향상시키고자 한다.The present invention aims to improve the accuracy of intra prediction for each component.

본 발명은, 적응적인 블록 분할을 통해서 부호화/복호화 효율을 향상시키고자 한다.An object of the present invention is to improve encoding/decoding efficiency through adaptive block division.

본 발명에 따른 비디오 신호 처리 방법 및 장치는, 휘도 블록의 샘플을 이용하여 색차 블록의 제1 예측값을 유도하고, 소정의 참조 영역을 기반으로, 보상 파라미터를 산출하며, 상기 제1 예측값에 상기 보상 파라미터를 적용하여, 상기 색차 블록의 제2 예측값을 유도하고, 상기 색차 블록의 제2 예측값에 기초하여, 상기 색차 블록을 복원할 수 있다.A video signal processing method and apparatus according to the present invention derives a first predicted value of a chrominance block using a sample of a luminance block, calculates a compensation parameter based on a predetermined reference region, and compensates the first predicted value A parameter may be applied to derive a second predicted value of the chrominance block, and the chrominance block may be reconstructed based on the second predicted value of the chrominance block.

본 발명에 따른 비디오 신호 처리 방법 및 장치에 있어서, 상기 산출하는 단계는, 상기 보상 파라미터를 산출하기 위해 참조되는 참조 영역를 결정하는 단계를 더 포함할 수 있다.In the video signal processing method and apparatus according to the present invention, the calculating may further include determining a reference region referred to for calculating the compensation parameter.

본 발명에 따른 비디오 신호 처리 방법 및 장치에 있어서, 상기 참조 영역은, 상기 휘도 블록 또는 상기 색차 블록 중 적어도 하나에 대해서 결정될 수 있다.In the video signal processing method and apparatus according to the present invention, the reference region may be determined for at least one of the luminance block and the chrominance block.

본 발명에 따른 비디오 신호 처리 방법 및 장치에 있어서, 상기 보상 파라미터는, 상기 휘도 블록의 참조 영역의 대표값 또는 상기 색차 블록의 참조 영역의 대표값 중 적어도 하나에 기초하여 산출될 수 있다.In the video signal processing method and apparatus according to the present invention, the compensation parameter may be calculated based on at least one of a representative value of a reference region of the luminance block and a representative value of a reference region of the chrominance block.

본 발명에 따른 비디오 신호 처리 방법 및 장치에 있어서, 상기 대표값은, 상기 참조 영역에 속한 전체 또는 일부 샘플의 평균값, 최소값, 최대값, 최빈값 또는 중간값 중 어느 하나로 유도될 수 있다.In the method and apparatus for processing a video signal according to the present invention, the representative value may be derived from any one of an average value, a minimum value, a maximum value, a mode, and a median value of all or some samples belonging to the reference region.

본 발명에 따른 비디오 신호 처리 방법 및 장치에 있어서, 상기 제1 예측값을 유도하는 단계는, 상기 색차 블록이 성분 간 참조 기반의 예측을 통해 복호화되는지 여부를 나타내는 정보에 기초하여 선택적으로 수행될 수 있다.In the video signal processing method and apparatus according to the present invention, the step of deriving the first prediction value may be selectively performed based on information indicating whether the chrominance block is decoded through inter-component reference-based prediction. .

본 발명에 따른 비디오 신호 처리 방법 및 장치에 있어서, 상기 색차 블록은 제1 색차 블록(Cr 블록)이고, 제2 색차 블록(Cb 블록)은, 상기 제1 색차 블록의 샘플을 이용하여 복원될 수 있다In the video signal processing method and apparatus according to the present invention, the chrominance block may be a first chrominance block (Cr block), and the second chrominance block (Cb block) may be reconstructed using samples of the first chrominance block. there is

본 발명에 따른 비디오 신호 처리 방법 및 장치에 있어서, 상기 휘도 블록 또는 색차 블록은, 쿼드 트리, 바이너리 트리 또는 트리플 트리 중 적어도 하나에 기초하여 가변적인 크기/형태로 분할된 것일 수 있다.In the video signal processing method and apparatus according to the present invention, the luminance block or the chrominance block may be divided into variable sizes/shapes based on at least one of a quad tree, a binary tree, and a triple tree.

본 발명에 따르면, 성분 간 참조 기반의 예측을 통해 예측 부호화/복호화 효율을 향상시킬 수 있다.According to the present invention, prediction encoding/decoding efficiency can be improved through inter-component reference-based prediction.

또한, 본 발명에 따르면, 트리 구조의 블록 분할을 통해 부호화/복호화 효율을 향상시킬 수 있다.In addition, according to the present invention, encoding/decoding efficiency can be improved through block division of a tree structure.

도 1은 본 발명의 일실시예로서, 부호화 장치의 개략적인 블록도를 도시한 것이다.
도 2는 본 발명의 일실시예로서, 복호화 장치의 개략적인 블록도를 도시한것이다.
도 3은 본 발명이 적용되는 일실시예로서, 블록 분할 타입을 도시한 것이다.
도 4는 본 발명이 적용되는 일실시예로서, 트리 구조 기반의 블록 분할 방법을 도시한 것이다.
도 5는 본 발명이 적용되는 일실시예로서, 성분 간 참조를 통해 색차 블록을 복원하는 과정을 도시한 것이다.
도 6 및 도 7은 본 발명이 적용되는 일실시예로서, 성분 간 참조를 위한 참조 영역의 일예를 도시한 것이다.
도 8은 본 발명이 적용되는 일실시예로서, 색차 블록의 성분 간 참조에 이용되는 휘도 블록의 영역을 결정하는 방법을 도시한 것이다.
1 is a schematic block diagram of an encoding apparatus according to an embodiment of the present invention.
2 is a schematic block diagram of a decoding apparatus according to an embodiment of the present invention.
3 illustrates a block division type as an embodiment to which the present invention is applied.
4 illustrates a block partitioning method based on a tree structure as an embodiment to which the present invention is applied.
5 illustrates a process of reconstructing a color difference block through reference between components as an embodiment to which the present invention is applied.
6 and 7 show an example of a reference region for inter-component reference as an embodiment to which the present invention is applied.
8 illustrates a method of determining a region of a luminance block used for reference between components of a chrominance block according to an embodiment to which the present invention is applied.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. Hereinafter, the same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

도 1은 본 발명의 일실시예로서, 부호화 장치의 개략적인 블록도를 도시한 것이다.1 is a schematic block diagram of an encoding apparatus according to an embodiment of the present invention.

도 1을 참조하면, 부호화 장치(100)는 픽쳐 분할부(110), 예측부(120, 125), 변환부(130), 양자화부(135), 재정렬부(160), 엔트로피 부호화부(165), 역양자화부(140), 역변환부(145), 필터부(150) 및 메모리(155)를 포함할 수 있다.Referring to FIG. 1 , the encoding apparatus 100 includes a picture division unit 110 , prediction units 120 and 125 , a transform unit 130 , a quantization unit 135 , a rearrangement unit 160 , and an entropy encoding unit 165 . ), an inverse quantization unit 140 , an inverse transform unit 145 , a filter unit 150 , and a memory 155 .

도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어로 이루어짐을 의미할 수 있다. 다만, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고, 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.Each of the components shown in FIG. 1 is independently illustrated to represent different characteristic functions in the image encoding apparatus, which may mean that each component is made of separate hardware. However, each component is included in a list for convenience of description, and at least two components of each component are combined to form one component, or one component is divided into a plurality of components to perform a function, Integrated embodiments and separate embodiments of each of these components are also included in the scope of the present invention without departing from the essence of the present invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components are not essential components for performing essential functions in the present invention, but may be optional components for merely improving performance. The present invention can be implemented by including only essential components to implement the essence of the present invention, except for components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement Also included in the scope of the present invention.

픽쳐 분할부(110)는 입력된 픽쳐를 적어도 하나의 블록으로 분할할 수 있다. 이때, 블록은 부호화 단위(CU), 예측 단위(PU) 또는 변환 단위(TU)를 의미할 수 있다. 상기 분할은 쿼드 트리(Quadtree), 바이너리 트리(Biniary tree), 트리플 트리(Triple tree) 중 적어도 하나에 기반하여 수행될 수 있다. 쿼드 트리는 상위 블록을 너비와 높이가 상위 블록의 절반인 하위 블록으로 사분할하는 방식이다. 바이너리 트리는 상위 블록을 너비 또는 높이 중 어느 하나가 상위 블록의 절반인 하위 블록으로 이분할하는 방식이다. 바이너리 트리에서는 상위 블록이 높이가 절반이 전술한 바이너리 트리 기반의 분할을 통해, 블록은 정방형뿐만 아니라 비정방형의 형태를 가질 수 있다.The picture divider 110 may divide the input picture into at least one block. In this case, a block may mean a coding unit (CU), a prediction unit (PU), or a transformation unit (TU). The division may be performed based on at least one of a quadtree, a binary tree, and a triple tree. The quad tree divides the upper block into lower blocks whose width and height are half that of the upper block. Binary tree is a method of dividing the upper block into lower blocks whose either width or height is half that of the upper block. In a binary tree, a block may have a non-square shape as well as a square shape through the binary tree-based division in which the upper block is half the height.

이하, 본 발명의 실시예에서는 부호화 단위는 부호화를 수행하는 단위의 의미로 사용할 수도 있고, 복호화를 수행하는 단위의 의미로 사용할 수도 있다.Hereinafter, in an embodiment of the present invention, a coding unit may be used as a unit for performing encoding or may be used as a meaning for a unit for performing decoding.

예측부(120, 125)는 인터 예측을 수행하는 인터 예측부(120)와 인트라 예측을 수행하는 인트라 예측부(125)를 포함할 수 있다. 예측 단위에 대해 인터 예측을 사용할 것인지 또는 인트라 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 인트라 예측 모드, 모션 벡터, 참조 픽쳐 등)를 결정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 예측 단위로 결정되고, 예측의 수행은 변환 단위로 수행될 수도 있다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(130)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(165)에서 부호화되어 복호화 장치에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(120, 125)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.The prediction units 120 and 125 may include an inter prediction unit 120 performing inter prediction and an intra prediction unit 125 performing intra prediction. Whether to use inter prediction or to perform intra prediction for a prediction unit may be determined, and specific information (eg, intra prediction mode, motion vector, reference picture, etc.) according to each prediction method may be determined. In this case, a processing unit in which prediction is performed and a processing unit in which a prediction method and specific content are determined may be different. For example, a prediction method and a prediction mode may be determined in a prediction unit, and prediction may be performed in a transformation unit. A residual value (residual block) between the generated prediction block and the original block may be input to the transform unit 130 . Also, prediction mode information, motion vector information, etc. used for prediction may be encoded by the entropy encoder 165 together with the residual value and transmitted to the decoding apparatus. When a specific encoding mode is used, the original block may be encoded and transmitted to the decoder without generating the prediction block through the predictors 120 and 125 .

인터 예측부(120)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 단위를 예측할 수도 있고, 경우에 따라서는 현재 픽쳐 내의 부호화가 완료된 일부 영역의 정보를 기초로 예측 단위를 예측할 수도 있다. 인터 예측부(120)는 참조 픽쳐 보간부, 모션 예측부, 움직임 보상부를 포함할 수 있다. The inter prediction unit 120 may predict a prediction unit based on information on at least one of a picture before or after the current picture, and in some cases, prediction based on information of a partial region in the current picture that has been encoded Units can also be predicted. The inter prediction unit 120 may include a reference picture interpolator, a motion prediction unit, and a motion compensator.

참조 픽쳐 보간부에서는 메모리(155)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.The reference picture interpolator may receive reference picture information from the memory 155 and generate pixel information of integer pixels or less in the reference picture. In the case of luminance pixels, a DCT-based 8-tap interpolation filter in which filter coefficients are different to generate pixel information of integer pixels or less in units of 1/4 pixels may be used. In the case of the color difference signal, a DCT-based 4-tap interpolation filter in which filter coefficients are different to generate pixel information of integer pixels or less in units of 1/8 pixels may be used.

모션 예측부는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 모션 예측을 수행할 수 있다. 모션 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 모션 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 모션 벡터값을 가질 수 있다. 모션 예측부에서는 모션 예측 방법을 다르게 하여 현재 예측 단위를 예측할 수 있다. 모션 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법 등 다양한 방법이 사용될 수 있다.The motion prediction unit may perform motion prediction based on the reference picture interpolated by the reference picture interpolator. As a method for calculating the motion vector, various methods such as Full search-based Block Matching Algorithm (FBMA), Three Step Search (TSS), and New Three-Step Search Algorithm (NTS) may be used. The motion vector may have a motion vector value of 1/2 or 1/4 pixel unit based on the interpolated pixel. The motion prediction unit may predict the current prediction unit by using a different motion prediction method. As the motion prediction method, various methods such as a skip method, a merge method, and an AMVP (Advanced Motion Vector Prediction) method may be used.

인트라 예측부(125)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 단위를 생성할 수 있다. 현재 예측 단위의 주변 블록이 인터 예측을 수행한 블록이어서, 참조 픽셀이 인터 예측을 수행한 픽셀일 경우, 인터 예측을 수행한 블록에 포함되는 참조 픽셀을 주변의 인트라 예측을 수행한 블록의 참조 픽셀 정보로 대체하여 사용할 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.The intra prediction unit 125 may generate a prediction unit based on reference pixel information around the current block, which is pixel information in the current picture. When the neighboring block of the current prediction unit is a block on which inter prediction is performed, and thus the reference pixel is a pixel on which inter prediction is performed, the reference pixel included in the block on which the inter prediction is performed is a reference pixel of the block on which the intra prediction is performed. information can be used instead. That is, when the reference pixel is not available, the unavailable reference pixel information may be replaced with at least one reference pixel among the available reference pixels.

인트라 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 성분을 예측하기 위한 모드와 색차 성분을 예측하기 위한 모드가 상이할 수 있고, 휘도 성분을 예측하기 위해 사용된 인트라 예측 모드 또는 예측/복원된 휘도 성분을 이용하여 색차 성분을 예측할 수 있다.In intra prediction, the prediction mode may have a directional prediction mode in which reference pixel information is used according to a prediction direction and a non-directional mode in which directional information is not used when prediction is performed. A mode for predicting a luminance component may be different from a mode for predicting a chrominance component, and the chrominance component may be predicted using an intra prediction mode used for predicting the luminance component or a predicted/restored luminance component.

인트라 예측 방법은 인트라 예측 모드에 따라 참조 화소에 AIS(Adaptive Intra Smoothing) 필터를 적용한 후 예측 블록을 생성할 수 있다. 참조 화소에 적용되는 AIS 필터의 종류는 상이할 수 있다. 인트라 예측 방법을 수행하기 위해 현재 예측 단위의 인트라 예측 모드는 현재 예측 단위의 주변에 존재하는 예측 단위의 인트라 예측 모드로부터 예측할 수 있다. 주변 예측 단위로부터 예측된 모드 정보를 이용하여 현재 예측 단위의 예측 모드를 예측하는 경우, 현재 예측 단위와 주변 예측 단위의 인트라 예측 모드가 동일하면 소정의 플래그 정보를 이용하여 현재 예측 단위와 주변 예측 단위의 인트라 예측 모드가 동일하다는 정보를 전송할 수 있고, 만약 현재 예측 단위와 주변 예측 단위의 인트라 예측 모드가 서로 상이하면 엔트로피 부호화를 수행하여 현재 블록의 인트라 예측 모드 정보를 부호화할 수 있다.The intra prediction method may generate a prediction block after applying an adaptive intra smoothing (AIS) filter to a reference pixel according to an intra prediction mode. The type of AIS filter applied to the reference pixel may be different. In order to perform the intra prediction method, the intra prediction mode of the current prediction unit may be predicted from the intra prediction mode of the prediction unit existing around the current prediction unit. When the prediction mode of the current prediction unit is predicted using mode information predicted from the neighboring prediction unit, if the intra prediction mode of the current prediction unit and the neighboring prediction unit are the same, the current prediction unit and the neighboring prediction unit are used using predetermined flag information It is possible to transmit information that the intra-prediction modes are the same, and if the intra-prediction modes of the current prediction unit and the neighboring prediction units are different from each other, entropy encoding may be performed to encode intra-prediction mode information of the current block.

또한, 예측부(120, 125)에서 생성된 예측 단위와 원본 블록 간의 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(130)로 입력될 수 있다. Also, a residual block including residual information that is a difference value between the prediction unit generated by the prediction units 120 and 125 and the original block may be generated. The generated residual block may be input to the transform unit 130 .

변환부(130)에서는 잔차 데이터를 포함한 잔차 블록을 DCT, DST 등과 같은 변환 타입을 사용하여 변환시킬 수 있다. 이때, 변환 타입은 잔차 블록을 생성하기 위해 사용된 예측 단위의 인트라 예측 모드에 기반하여 결정될 수 있다. The transform unit 130 may transform the residual block including the residual data by using a transform type such as DCT or DST. In this case, the transform type may be determined based on the intra prediction mode of the prediction unit used to generate the residual block.

양자화부(135)는 변환부(130)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(135)에서 산출된 값은 역양자화부(140)와 재정렬부(160)에 제공될 수 있다.The quantization unit 135 may quantize values transformed in the frequency domain by the transform unit 130 . The quantization coefficient may vary according to blocks or the importance of an image. The value calculated by the quantization unit 135 may be provided to the inverse quantization unit 140 and the rearrangement unit 160 .

재정렬부(160)는 양자화된 잔차 블록에 대해 계수값의 재정렬을 수행할 수 있다. 재정렬부(160)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태의 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(160)에서는 소정의 스캔 타입을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. The reordering unit 160 may reorder coefficient values on the quantized residual block. The reordering unit 160 may change the coefficient in the form of a two-dimensional block into a form of a one-dimensional vector through a coefficient scanning method. For example, the reordering unit 160 may scan from DC coefficients to coefficients in a high frequency region using a predetermined scan type, and may change it into a one-dimensional vector form.

엔트로피 부호화부(165)는 재정렬부(160)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.The entropy encoding unit 165 may perform entropy encoding based on the values calculated by the reordering unit 160 . For entropy encoding, various encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be used.

엔트로피 부호화부(165)는 재정렬부(160) 및 예측부(120, 125)로부터 부호화 단위의 잔차 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보 및 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다. The entropy encoding unit 165 receives the residual coefficient information and block type information, prediction mode information, division unit information, prediction unit information and transmission unit information, and motion vector of the coding unit from the reordering unit 160 and the prediction units 120 and 125 . Various information such as information, reference frame information, interpolation information of a block, and filtering information may be encoded.

엔트로피 부호화부(165)에서는 재정렬부(160)에서 입력된 부호화 단위의 계수값을 엔트로피 부호화할 수 있다.The entropy encoder 165 may entropy-encode the coefficient values of the coding units input from the reordering unit 160 .

역양자화부(140) 및 역변환부(145)에서는 양자화부(135)에서 양자화된 값들을 역양자화하고 변환부(130)에서 변환된 값들을 역변환한다. 역양자화부(140) 및 역변환부(145)에서 생성된 잔차값(Residual)은 예측부(120, 125)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다.The inverse quantizer 140 and the inverse transform unit 145 inversely quantize the values quantized by the quantizer 135 and inversely transform the values transformed by the transform unit 130 . The residual values generated by the inverse quantizer 140 and the inverse transform unit 145 are combined with the prediction units predicted through the motion estimation unit, the motion compensator, and the intra prediction unit included in the prediction units 120 and 125 and restored. You can create a Reconstructed Block.

필터부(150)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다.The filter unit 150 may include at least one of a deblocking filter, an offset correcting unit, and an adaptive loop filter (ALF).

디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.The deblocking filter may remove block distortion caused by the boundary between blocks in the reconstructed picture. In order to determine whether to perform deblocking, it may be determined whether to apply the deblocking filter to the current block based on pixels included in several columns or rows included in the block. When a deblocking filter is applied to a block, a strong filter or a weak filter can be applied according to the required deblocking filtering strength. In addition, in applying the deblocking filter, horizontal filtering and vertical filtering may be concurrently processed when vertical filtering and horizontal filtering are performed.

오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.The offset correcting unit may correct an offset from the original image in units of pixels with respect to the image on which the deblocking has been performed. In order to perform offset correction on a specific picture, a method of dividing pixels included in an image into a certain number of regions, determining the region to be offset and applying the offset to the region, or taking edge information of each pixel into account can be used to apply

ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 상관없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수도 있다. Adaptive loop filtering (ALF) may be performed based on a value obtained by comparing the filtered reconstructed image and the original image. After dividing the pixels included in the image into a predetermined group, one filter to be applied to the corresponding group is determined, and filtering can be performed differentially for each group. As for information related to whether to apply ALF, the luminance signal may be transmitted for each coding unit (CU), and the shape and filter coefficients of the ALF filter to be applied may vary according to each block. In addition, the ALF filter of the same type (fixed type) may be applied regardless of the characteristics of the block to be applied.

메모리(155)는 필터부(150)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행 시 예측부(120, 125)에 제공될 수 있다.The memory 155 may store the reconstructed block or picture calculated through the filter unit 150 , and the stored reconstructed block or picture may be provided to the predictors 120 and 125 when inter prediction is performed.

도 2는 본 발명의 일실시예로서, 복호화 장치의 개략적인 블록도를 도시한것이다.2 is a schematic block diagram of a decoding apparatus according to an embodiment of the present invention.

도 2를 참조하면, 복호화 장치(200)는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230, 235), 필터부(240), 메모리(245)가 포함될 수 있다.Referring to FIG. 2 , the decoding apparatus 200 includes an entropy decoding unit 210 , a reordering unit 215 , an inverse quantization unit 220 , an inverse transform unit 225 , prediction units 230 and 235 , and a filter unit 240 . ), a memory 245 may be included.

도 2에 나타난 각 구성부들은 복호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어로 이루짐을 의미할 수 있다. 다만, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고, 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.Each of the constituent units shown in FIG. 2 is independently illustrated to represent different characteristic functions in the decoding apparatus, which may mean that each constituent unit is made of separate hardware. However, each component is listed as each component for convenience of description, and at least two components of each component are combined to form one component, or one component can be divided into a plurality of components to perform a function, such as Integrated embodiments and separate embodiments of each component are also included in the scope of the present invention without departing from the essence of the present invention.

엔트로피 복호화부(210)는 입력 비트스트림에 대해 엔트로피 복호화를 수행할 수 있다. 예를 들어, 엔트로피 복호화를 위해, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다. The entropy decoding unit 210 may perform entropy decoding on the input bitstream. For example, for entropy decoding, various methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied.

엔트로피 복호화부(210)에서는 부호화 장치에서 수행된 인트라 예측 및 인터 예측에 관련된 정보를 복호화할 수 있다.The entropy decoding unit 210 may decode information related to intra prediction and inter prediction performed by the encoding apparatus.

재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림에 대해 재정렬을 수행할 수 있다. 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부(215)에서는 부호화 장치에서 수행된 계수 스캐닝에 관련된 정보를 제공받고, 해당 부호화 장치에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다.The reordering unit 215 may reorder the bitstream entropy decoded by the entropy decoding unit 210 . Coefficients expressed in the form of a one-dimensional vector may be restored and rearranged as coefficients in the form of a two-dimensional block. The reordering unit 215 may receive information related to coefficient scanning performed by the encoding apparatus, and may perform rearrangement by performing a reverse scanning method based on the scanning order performed by the encoding apparatus.

역양자화부(220)는 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다. The inverse quantization unit 220 may perform inverse quantization based on the quantization parameter and the reordered coefficient values of the blocks.

역변환부(225)는 역양자화된 변환 계수를 소정의 변환 타입으로 역변환을 수행할 수 있다. 이때, 변환 타입은, 예측 모드(인터/인트라 예측), 블록의 크기/형태, 인트라 예측 모드, 성분 타입(휘도/색차 성분), 분할 타입(QT, BT, TT 등) 등에 관한 정보 중 적어도 하나를 기반으로 결정될 수 있다.The inverse transform unit 225 may perform inverse transform on the inverse quantized transform coefficient into a predetermined transform type. In this case, the transform type is at least one of information about a prediction mode (inter/intra prediction), block size/shape, intra prediction mode, component type (luminance/chrominance component), partition type (QT, BT, TT, etc.) can be determined based on

예측부(230, 235)는 엔트로피 복호화부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(245)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. The prediction units 230 and 235 may generate a prediction block based on the prediction block generation related information provided from the entropy decoding unit 210 and previously decoded block or picture information provided from the memory 245 .

예측부(230, 235)는 예측 단위 판별부, 인터 예측부 및 인트라 예측부를 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(210)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 인트라 예측 모드 관련 정보, 인터 예측 방법의 모션 예측 관련 정보 등 다양한 정보를 입력 받고, 현재 부호화 단위(CU)에서 예측 단위를 구분하고, 예측 단위가 인터 예측을 수행하는지 아니면 인트라 예측을 수행하는지 여부를 판별할 수 있다. 인터 예측부(230)는 부호화 장치에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용하여, 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 인터 예측을 수행할 수 있다. 또는, 현재 예측 단위가 포함된 현재 픽쳐 내에서 기-복원된 일부 영역의 정보를 기초로 인터 예측을 수행할 수도 있다. 이를 위해, 상기 기-복원된 일부 영역이 참조 픽쳐 리스트에 추가될 수 있다.The prediction units 230 and 235 may include a prediction unit determiner, an inter prediction unit, and an intra prediction unit. The prediction unit determiner receives various information such as prediction unit information input from the entropy decoder 210 , intra prediction mode related information of the intra prediction method, and motion prediction related information of the inter prediction method, and predicts in the current coding unit (CU). The units may be distinguished, and it may be determined whether the prediction unit performs inter prediction or intra prediction. The inter prediction unit 230 uses information necessary for inter prediction of the current prediction unit provided from the encoding apparatus, and based on information included in at least one of a picture before or after the current picture including the current prediction unit. Inter prediction may be performed on the current prediction unit. Alternatively, inter prediction may be performed based on information on a pre-restored partial region in the current picture including the current prediction unit. To this end, the pre-restored partial region may be added to the reference picture list.

인터 예측을 수행하기 위해 부호화 단위를 기준으로, 해당 부호화 단위에 포함된 예측 단위의 모션 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode), 현재 픽쳐 참조 모드 중 어떠한 방법인지 여부를 판단할 수 있다.In order to perform inter prediction, based on a coding unit, a motion prediction method of a prediction unit included in a corresponding coding unit is a skip mode, a merge mode, an AMVP mode, and a current picture reference mode. It can be determined which method is used.

인트라 예측부(235)는 현재 픽쳐 내의 화소 정보를 기초로 예측 블록을 생성할 수 있다. 예측 단위가 인트라 예측을 수행한 예측 단위인 경우, 부호화 장치에서 제공된 예측 단위의 인트라 예측 모드 정보를 기초로, 인트라 예측을 수행할 수 있다. 인트라 예측부(235)에는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로서, 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 부호화 장치에서 제공된 예측 단위의 예측 모드 및 AIS 필터 정보를 이용하여, 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.The intra prediction unit 235 may generate a prediction block based on pixel information in the current picture. When the prediction unit is a prediction unit on which intra prediction is performed, intra prediction may be performed based on intra prediction mode information of the prediction unit provided by the encoding apparatus. The intra prediction unit 235 may include an adaptive intra smoothing (AIS) filter, a reference pixel interpolator, and a DC filter. The AIS filter is a part that performs filtering on the reference pixel of the current block, and can be applied by determining whether to apply the filter according to the prediction mode of the current prediction unit. AIS filtering may be performed on the reference pixel of the current block by using the prediction mode and AIS filter information of the prediction unit provided by the encoding apparatus. When the prediction mode of the current block is a mode in which AIS filtering is not performed, the AIS filter may not be applied.

참조 화소 보간부는 예측 단위의 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소를 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우, 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.When the prediction mode of the prediction unit is a prediction unit in which intra prediction is performed based on a pixel value obtained by interpolating the reference pixel, the reference pixel interpolator may interpolate the reference pixel to generate a reference pixel of a pixel unit having an integer value or less. When the prediction mode of the current prediction unit is a prediction mode that generates a prediction block without interpolating the reference pixel, the reference pixel may not be interpolated. The DC filter may generate a prediction block through filtering when the prediction mode of the current block is the DC mode.

복원된 블록 또는 픽쳐는 필터부(240)로 제공될 수 있다. 필터부(240)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.The reconstructed block or picture may be provided to the filter unit 240 . The filter unit 240 may include a deblocking filter, an offset correcting unit, and an ALF.

부호화 장치로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 복호화 장치의 디블록킹 필터에서는 부호화 장치에서 제공된 디블록킹 필터 관련 정보를 제공받고, 복호화 장치에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. Information on whether a deblocking filter is applied to a corresponding block or picture and information on whether a strong filter or a weak filter is applied when the deblocking filter is applied may be provided from the encoding apparatus. The deblocking filter of the decoding apparatus may receive deblocking filter related information provided from the encoding apparatus, and the decoding apparatus may perform deblocking filtering on the corresponding block.

오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.The offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction applied to the image during encoding and information on the offset value.

ALF는 부호화기로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.ALF may be applied to a coding unit based on information on whether ALF is applied, ALF coefficient information, etc. provided from the encoder. Such ALF information may be provided by being included in a specific parameter set.

메모리(245)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다.The memory 245 may store the reconstructed picture or block to be used as a reference picture or reference block, and may also provide the reconstructed picture to an output unit.

도 3은 본 발명이 적용되는 일실시예로서, 블록 분할 타입을 도시한 것이다.3 illustrates a block division type as an embodiment to which the present invention is applied.

하나의 블록(이하, 제1 블록이라 함)은 수직 라인 또는 수평 라인 중 적어도 하나에 의해서 복수의 서브 블록(이하, 제2 블록이라 함)으로 분할될 수 있다. 상기 수직 라인과 수평 라인은 1개, 2개 또는 그 이상일 수 있다. 여기서, 제1 블록은 영상 부호화/복호화의 기본 단위인 코딩 블록(CU), 예측 부호화/복호화의 기본 단위인 예측 블록(PU), 또는 변환 부호화/복호화의 기본 단위인 변환 블록(TU)일 수 있다. 상기 제1 블록은 정방형 블록일 수도 있고, 비정방형 블록일 수도 있다.One block (hereinafter, referred to as a first block) may be divided into a plurality of sub-blocks (hereinafter, referred to as a second block) by at least one of a vertical line and a horizontal line. The vertical line and the horizontal line may be one, two or more. Here, the first block may be a coding block (CU), which is a basic unit of image encoding/decoding, a prediction block (PU), which is a basic unit of prediction encoding/decoding, or a transform block (TU), which is a basic unit of transform encoding/decoding. there is. The first block may be a square block or a non-square block.

상기 제1 블록의 분할은, 쿼드 트리(quad tree), 바이너리 트리(binary tree), 트리플 트리(triple tree) 등에 기초하여 수행될 수 있으며, 이하 도 3을 참조하여 자세히 살펴 보기로 한다.The division of the first block may be performed based on a quad tree, a binary tree, a triple tree, and the like, and will be described in detail below with reference to FIG. 3 .

도 3(a)는 쿼드 트리 분할(QT)을 도시한 것이다. QT는, 제1 블록을 4개의 제2 블록으로 사분할하는 분할 타입이다. 예를 들어, 2Nx2N의 제1 블록이 QT로 분할되는 경우, 제1 블록은 NxN 크기를 가진 4개의 제2 블록으로 사분할될 수 있다. QT는 정방형 블록에만 적용되도록 제한될 수 있으나, 비정방형 블록에 적용하는 것도 가능하다.Figure 3 (a) shows a quad tree partitioning (QT). QT is a division type in which a first block is divided into four second blocks. For example, when a first block of 2Nx2N is divided into QTs, the first block may be divided into four second blocks having a size of NxN. QT may be limited to be applied only to square blocks, but it is also possible to apply to non-square blocks.

도 3(b)는 수평 바이너리 트리(이하, Horizontal BT라 함) 분할을 도시한 것이다. Horizontal BT는, 1개의 수평 라인에 의해서 제1 블록이 2개의 제2 블록으로 이분할되는 분할 타입이다. 상기 이분할은 대칭 혹은 비대칭으로 수행될 수 있다. 예를 들어, 2Nx2N의 제1 블록이 Horizontal BT로 분할되는 경우, 제1 블록은 높이의 비율이 (a:b)인 2개의 제2 블록으로 분할될 수 있다. 여기서, a와 b는 동일한 값일 수도 있고, a는 b보다 크거나 작을 수도 있다.FIG. 3(b) shows the division of a horizontal binary tree (hereinafter referred to as Horizontal BT). Horizontal BT is a division type in which a first block is divided into two second blocks by one horizontal line. The dichotomy may be performed symmetrically or asymmetrically. For example, when a first block of 2Nx2N is divided into Horizontal BT, the first block may be divided into two second blocks having a height ratio of (a:b). Here, a and b may have the same value, and a may be larger or smaller than b.

도 3(c)는 수직 바이너리 트리(이하, Vertical BT라 함) 분할을 도시한 것이다. Vertical BT는, 1개의 수직 라인에 의해서 제1 블록이 2개의 제2 블록으로 이분할되는 분할 타입이다. 상기 이분할은 대칭 혹은 비대칭으로 수행될 수 있다. 예를 들어, 2Nx2N의 제1 블록이 Vertical BT로 분할되는 경우, 제1 블록은 너비의 비율이 (a:b)인 2개의 제2 블록으로 분할될 수 있다. 여기서, a와 b는 동일한 값일 수도 있고, a는 b보다 크거나 작을 수도 있다.FIG. 3( c ) illustrates partitioning of a vertical binary tree (hereinafter, referred to as Vertical BT). Vertical BT is a division type in which a first block is divided into two second blocks by one vertical line. The dichotomy may be performed symmetrically or asymmetrically. For example, when a first block of 2Nx2N is divided into vertical BT, the first block may be divided into two second blocks having a width ratio of (a:b). Here, a and b may have the same value, and a may be larger or smaller than b.

도 3(d)는 수평 트리플 트리(이하, Horizontal TT라 함) 분할을 도시한 것이다. Horizontal TT는, 2개의 수평 라인에 의해서 제1 블록이 3개의 제2 블록으로 삼분할되는 분할 타입이다. 예를 들어, 2Nx2N의 제1 블록이 Horizontal TT로 분할되는 경우, 제1 블록은 높이의 비율이 (a:b:c)인 3개의 제2 블록으로 분할될 수 있다. 여기서, a, b, c는 동일한 값일 수 있다. 또는, a와 c는 동일하고, b는 a보다 크거나 작을 수 있다.3( d ) is a diagram illustrating a horizontal triple tree (hereinafter referred to as Horizontal TT) partitioning. Horizontal TT is a division type in which a first block is divided into three second blocks by two horizontal lines. For example, when the first block of 2Nx2N is divided by Horizontal TT, the first block may be divided into three second blocks having a height ratio of (a:b:c). Here, a, b, and c may have the same value. Alternatively, a and c may be the same, and b may be greater than or less than a.

도 3(e)는 수직 트리플 트리(이하, Vertical TT라 함) 분할을 도시한 것이다. Vertical TT는, 2개의 수직 라인에 의해서 제1 블록이 3개의 제2 블록으로 삼분할되는 분할 타입이다. 예를 들어, 2Nx2N의 제1 블록이 Vertical TT로 분할되는 경우, 제1 블록은 너비의 비율이 (a:b:c)인 3개의 제2 블록으로 분할될 수 있다. 여기서, a, b, c는 동일한 값일 수도 있고, 서로 다른 값일 수도 있다. 또는, a와 c는 동일하고, b는 a보다 크거나 작을 수 있다. 또는, a와 b는 동일하고, c는 a보다 크거나 작을 수 있다. 또는, b와 c는 동일하고, a는 b보다 크거나 작을 수 있다.FIG. 3(e) illustrates a vertical triple tree (hereinafter referred to as Vertical TT) partitioning. Vertical TT is a division type in which a first block is divided into three second blocks by two vertical lines. For example, when the first block of 2Nx2N is divided by vertical TT, the first block may be divided into three second blocks having a width ratio of (a:b:c). Here, a, b, and c may have the same value or different values. Alternatively, a and c may be the same, and b may be greater than or less than a. Alternatively, a and b may be the same, and c may be greater than or less than a. Alternatively, b and c may be the same, and a may be greater than or less than b.

전술한 분할은, 부호화 장치로부터 시그날링되는 분할 정보에 기초하여 수행될 수 있다. 상기 분할 정보는, 분할 타입 정보, 분할 방향 정보 또는 분할 비율 정보 중 적어도 하나를 포함할 수 있다. The above-described division may be performed based on division information signaled from the encoding apparatus. The division information may include at least one of division type information, division direction information, and division ratio information.

상기 분할 타입 정보는, 부호화/복호화 장치에 기-정의된 분할 타입 중 어느 하나를 특정할 수 있다. 상기 기-정의된 분할 타입은, QT, Horizontal BT, Vertical BT, Horizontal TT, Vertical TT 또는 비분할 모드(No split) 중 적어도 하나를 포함할 수 있다. 또는, 상기 분할 타입 정보는, QT, BT 또는 TT가 적용되는지 여부에 관한 정보를 의미할 수도 있으며, 이는 플래그 혹은 인덱스의 형태로 부호화될 수 있다. 상기 분할 방향 정보는, BT 또는 TT의 경우, 수평 방향으로 분할되는지 아니면 수직 방향으로 분할되는지를 나타낼 수 있다. 상기 분할 비율 정보는, BT 또는 TT의 경우, 제2 블록의 너비 및/또는 높이의 비율을 나타낼 수 있다. The partition type information may specify any one of partition types pre-defined in the encoding/decoding apparatus. The pre-defined splitting type may include at least one of QT, Horizontal BT, Vertical BT, Horizontal TT, Vertical TT, and No split mode. Alternatively, the partition type information may mean information on whether QT, BT, or TT is applied, which may be encoded in the form of a flag or an index. The division direction information may indicate whether the division is divided in a horizontal direction or a vertical direction in the case of BT or TT. The division ratio information may indicate a ratio of a width and/or a height of the second block in the case of BT or TT.

도 4는 본 발명이 적용되는 일실시예로서, 트리 구조 기반의 블록 분할 방법을 도시한 것이다.4 illustrates a block partitioning method based on a tree structure as an embodiment to which the present invention is applied.

도 4에 도시된 블록(400)은 8Nx8N 크기이고, 분할 뎁스가 k인 정방형 블록(이하, 제1 블록이라 함)이라 가정한다. 제1 블록의 분할 정보가 QT 분할을 지시하는 경우, 제1 블록은 4개의 서브 블록(이하, 제2 블록이라 함)으로 사분할될 수 있다. 상기 제2 블록은 4Nx4N 크기이고, (k+1)의 분할 뎁스를 가질 수 있다.It is assumed that the block 400 illustrated in FIG. 4 is a square block (hereinafter, referred to as a first block) having a size of 8Nx8N and a division depth of k. When the partition information of the first block indicates QT partitioning, the first block may be divided into four sub-blocks (hereinafter, referred to as a second block). The second block may have a size of 4Nx4N and may have a division depth of (k+1).

상기 4개의 제2 블록은, QT, BT, TT 또는 비분할 모드 중 어느 하나에 기초하여 다시 분할될 수 있다. 예를 들어, 제2 블록의 분할 정보가 수평 방향으로의 바이너리 트리(Horizontal BT)를 나타내는 경우, 상기 제2 블록은 도 4의 제2 블록(410)과 같이 2개의 서브 블록(이하, 제3 블록이라 함)으로 이분할될 수 있다. 이때, 상기 제3 블록은, 4Nx2N 크기이고, (k+2)의 분할 뎁스를 가질 수 있다.The four second blocks may be divided again based on any one of QT, BT, TT, or non-split mode. For example, when the partition information of the second block indicates a binary tree (Horizontal BT) in the horizontal direction, the second block is divided into two sub-blocks (hereinafter, referred to as the third block 410 ) as in the second block 410 of FIG. 4 . It can be divided into blocks). In this case, the third block may have a size of 4Nx2N and may have a division depth of (k+2).

상기 제3 블록도 QT, BT, TT 또는 비분할 모드 중 어느 하나에 기초하여 다시 분할될 수 있다. 예를 들어, 상기 제3 블록의 분할 정보가 수직 방향으로의 바이너리 트리(Vertical BT)를 나타내는 경우, 상기 제3 블록은 도 4에 도시된 바와 같이 2개의 서브 블록(411, 412)으로 이분할될 수 있다. 이때, 상기 서브 블록(411, 412)은, 2Nx2N 크기이고, (k+3)의 분할 뎁스를 가질 수 있다. 또는, 상기 제3 블록의 분할 정보가 수평 방향으로의 바이너리 트리(Horizontal BT)를 나타내는 경우, 상기 제3 블록은 도 4에 도시된 바와 같이 2개의 서브 블록(413, 414)으로 이분할될 수 있다. 이때, 상기 서브 블록(413, 414)은, 4NxN 크기이고, (k+3)의 분할 뎁스를 가질 수 있다.The third block may also be divided again based on any one of QT, BT, TT, or non-split mode. For example, when the partition information of the third block indicates a binary tree (Vertical BT) in the vertical direction, the third block is divided into two sub-blocks 411 and 412 as shown in FIG. 4 . can be In this case, the sub-blocks 411 and 412 may have a size of 2Nx2N and may have a division depth of (k+3). Alternatively, when the partition information of the third block indicates a horizontal binary tree (Horizontal BT), the third block may be divided into two sub-blocks 413 and 414 as shown in FIG. 4 . there is. In this case, the sub-blocks 413 and 414 may have a size of 4NxN and may have a division depth of (k+3).

상기 분할은, 주변 블록과 독립적 혹은 병렬적으로 수행될 수도 있고, 소정의 우선순위에 따라 순차적으로 수행될 수도 있다. The division may be performed independently or in parallel with neighboring blocks, or may be performed sequentially according to a predetermined priority.

분할 대상인 현재 블록의 분할 정보는, 현재 블록의 상위 블록의 분할 정보 또는 주변 블록의 분할 정보 중 적어도 하나에 기초하여 종속적으로 결정될 수도 있다. 예를 들어, 상기 제2 블록이 Horizontal BT로 분할되고, 상단의 제3 블록이 Vertical BT로 분할된 경우, 하단의 제3 블록은 Vertical BT로 분할될 필요가 없다. 하단의 제3 블록이 Vertical BT로 분할될 경우, 이는 제2 블록이 QT로 분할되는 것과 동일한 결과가 나오기 때문이다. 따라서, 하단의 제3 블록의 분할 정보(특히, 분할 방향 정보)는 부호화가 생략될 수 있고, 복호화 장치는 하단의 제3 블록이 수평 방향으로 분할되도록 설정할 수 있다.The division information of the current block to be divided may be determined dependently based on at least one of the division information of the upper block of the current block and the division information of the neighboring blocks. For example, when the second block is divided into Horizontal BT and the upper third block is divided into Vertical BT, the third block at the bottom does not need to be divided into Vertical BT. This is because, when the lower third block is divided into vertical BT, the same result is obtained as the second block is divided into QT. Accordingly, the encoding of the partition information (particularly, the partition direction information) of the lower third block may be omitted, and the decoding apparatus may set the lower third block to be partitioned in the horizontal direction.

상기 상위 블록은 상기 현재 블록의 분할 뎁스보다 작은 분할 뎁스를 가진 블록을 의미할 수 있다. 예를 들어, 현재 블록의 분할 뎁스가 (k+2)인 경우, 상위 블록의 분할 뎁스는 (k+1)일 수 있다. 상기 주변 블록은, 현재 블록의 상단 혹은 좌측에 인접한 블록일 수 있다. 상기 주변 블록은, 현재 블록과 동일한 분할 뎁스를 가진 블록일 수 있다.The upper block may mean a block having a division depth smaller than a division depth of the current block. For example, when the division depth of the current block is (k+2), the division depth of the upper block may be (k+1). The neighboring block may be a block adjacent to the top or left side of the current block. The neighboring block may be a block having the same division depth as the current block.

전술한 분할은, 부호화/복호화의 최소 단위까지 반복적으로 수행될 수 있다. 최소 단위로 분할된 경우, 해당 블록에 대한 분할 정보는 부호화 장치로부터 더 이상 시그날링되지 아니한다. 상기 최소 단위에 대한 정보는, 최소 단위의 크기 또는 형태 중 적어도 하나를 포함할 수 있다. 상기 최소 단위의 크기는, 블록의 너비, 높이, 너비와 높이 중 최소값 혹은 최대값, 너비와 높이의 합, 픽셀 개수, 분할 뎁스 등으로 표현될 수 있다. 상기 최소 단위에 대한 정보는, 비디오 시퀀스, 픽쳐, 슬라이스 또는 블록 단위 중 적어도 하나에서 시그날링될 수 있다. 또는, 상기 최소 단위에 대한 정보는 부호화/복호화 장치에 기-약속된 값일 수도 있다. 상기 최소 단위에 대한 정보는, CU, PU, TU에 대해서 각각 시그날링될 수 있다. 하나의 최소 단위에 대한 정보가 CU, PU, TU에 동일하게 적용될 수도 있다.The aforementioned division may be repeatedly performed up to a minimum unit of encoding/decoding. In the case of splitting into the smallest unit, the splitting information on the corresponding block is no longer signaled from the encoding apparatus. The information on the minimum unit may include at least one of a size and a shape of the minimum unit. The size of the minimum unit may be expressed as a block width, a height, a minimum value or a maximum value among width and height, a sum of the width and height, the number of pixels, a division depth, and the like. The information on the minimum unit may be signaled in at least one of a video sequence, a picture, a slice, or a block unit. Alternatively, the information on the minimum unit may be a value pre-promised to the encoding/decoding apparatus. The information on the minimum unit may be signaled for each CU, PU, and TU. Information on one minimum unit may be equally applied to a CU, a PU, and a TU.

도 5는 본 발명이 적용되는 일실시예로서, 성분 간 참조를 통해 색차 블록을 복원하는 과정을 도시한 것이다.5 illustrates a process of reconstructing a color difference block through reference between components as an embodiment to which the present invention is applied.

본 발명의 성분 간 참조는, 현재 블록의 휘도 성분(이하, 휘도 블록이라 함)을 기반으로 현재 블록의 색차 성분(이하, 색차 블록이라 함)을 예측/복원하는 방법을 의미할 수 있다.Inter-component reference of the present invention may refer to a method of predicting/restoring a chrominance component (hereinafter, referred to as a chrominance block) of the current block based on a luminance component (hereinafter, referred to as a luminance block) of the current block.

도 5를 참조하면, 휘도 블록의 샘플을 이용하여 색차 블록의 제1 예측값을 유도할 수 있다(S500). Referring to FIG. 5 , a first predicted value of a chrominance block may be derived using a sample of the luminance block ( S500 ).

상기 색차 블록의 제1 예측값의 위치에 대응하는 휘도 블록의 샘플이, 상기 색차 블록의 제1 예측값으로 설정될 수 있다. 또는, 상기 제1 예측값은, 상기 휘도 블록을 상기 색차 블록의 해상도로 리사이징(resizing)하여 유도될 수 있다. 상기 리사이징은, 다운-샘플링, 서브-샘플링 등의 필터링을 기반으로 수행될 수 있다. A sample of the luminance block corresponding to the position of the first predicted value of the chrominance block may be set as the first predicted value of the chrominance block. Alternatively, the first predicted value may be derived by resizing the luminance block to the resolution of the chrominance block. The resizing may be performed based on filtering such as down-sampling and sub-sampling.

한편, 색차 블록이 복수의 휘도 블록에 대응하는 경우가 존재할 수 있다. 이 경우, 복수의 휘도 블록 내에서, 상기 색차 블록에 대응하는 영역을 결정하는 과정이 수반될 수 있으며, 이에 대해서는 도 8을 참조하여 살펴 보기로 한다.Meanwhile, there may exist a case where the color difference block corresponds to a plurality of luminance blocks. In this case, a process of determining a region corresponding to the chrominance block within the plurality of luminance blocks may be involved, which will be described with reference to FIG. 8 .

상기 휘도 블록의 샘플은, 예측값 또는 복원값일 수 있다. 상기 예측값은, 인트라 예측 또는 인터 예측을 통해 획득될 수 있다. 상기 복원값은, 상기 예측값에 잔차 샘플(Residual, 잔차값)을 더한 제1 값일 수도 있고, 상기 제1 값에 인-루프 필터를 적용하여 획득되는 제2 값일 수도 있다. A sample of the luminance block may be a predicted value or a restored value. The prediction value may be obtained through intra prediction or inter prediction. The restored value may be a first value obtained by adding a residual sample to the prediction value, or may be a second value obtained by applying an in-loop filter to the first value.

상기 인트라 예측은, 소정의 인트라 예측 모드와 상기 휘도 블록의 주변 영역을 기반으로 수행될 수 있다. The intra prediction may be performed based on a predetermined intra prediction mode and a peripheral area of the luminance block.

상기 인트라 예측 모드는, 2개의 비방향성 모드와 p개의 방향성 모드 중 어느 하나로 결정될 수 있다. 여기서, p는 33, 65, 129 또는 그 이상일 수 있다. 상기 p는, 부호화/복호화 장치에 기-약속된 고정된 값일 수도 있고, 부호화 정보에 기초하여 가변적으로 결정될 수도 있다. 여기서, 여기서, 부호화 정보는, 부호화 장치에서 부호화되어 시그날링되는 정보뿐만 아니라, 복호화 장치에서 상기 시그날링되는 정보에 기초하여 유도되는 정보까지 포함할 수 있다. 예를 들어, 상기 부호화 정보는, 블록 크기/형태, 블록의 가용성, 분할 타입, 분할 횟수, 성분 타입, 예측 모드, 인트라 예측 모드에 관한 정보, 인터 모드, 움직임 정보, 변환 타입, 변환 스킵 모드, 넌-제로 잔차 계수에 관한 정보, 스캔 순서, 칼라 포맷, 인-루프 필터 정보 등을 포함할 수 있다.The intra prediction mode may be determined as one of two non-directional modes and p directional modes. Here, p may be 33, 65, 129 or more. The p may be a fixed value pre-promised to the encoding/decoding apparatus, or may be variably determined based on encoding information. Here, the encoding information may include not only information encoded and signaled by the encoding apparatus, but also information derived based on the information signaled by the decoding apparatus. For example, the encoding information may include block size/form, block availability, partition type, number of partitions, component type, prediction mode, information on intra prediction mode, inter mode, motion information, transform type, transform skip mode, It may include information about non-zero residual coefficients, scan order, color format, in-loop filter information, and the like.

상기 블록 크기는, 너비 또는 높이 중 어느 하나, 너비와 높이 중 최소값/최대값, 너비와 높이의 합, 블록에 속한 샘플의 개수 등으로 표현될 수 있다. 상기 블록의 가용성은, 블록 위치, 병렬 처리 영역의 범위, 복호화 순서 등을 고려하여 판단될 수 있다. 상기 예측 모드는, 인트라 모드 또는 인터 모드를 나타내는 정보를 의미할 수 있다. 상기 인트라 예측 모드에 관한 정보는, 인트라 예측 모드가 비방향성 모드인지 여부, 인트라 예측 모드가 수직/수평 모드인지 여부, 인트라 예측 모드의 방향성, 부호화/복호화 장치에 기-정의된 인트라 예측 모드의 개수 등에 관한 정보를 포함할 수 있다. 상기 인터 모드는, 머지/스킵 모드, AMVP 모드 또는 현재 픽쳐 참조 모드를 나타내는 정보를 의미할 수 있다. 상기 현재 픽쳐 참조 모드는, 현재 픽쳐의 기-복원된 영역을 이용하여 현재 블록을 예측하는 방법을 의미한다. 상기 현재 픽쳐는 상기 현재 블록이 속한 픽쳐일 수 있다. 상기 현재 픽쳐는 인터 예측을 위한 참조 픽쳐 리스트에 추가될 수 있으며, 상기 현재 픽쳐는 참조 픽쳐 리스트 내에서 근거리(short-term) 참조 픽쳐 또는 장거리(long-term) 참조 픽쳐 다음에 배열될 수 있다. 상기 움직임 정보는, 예측 방향 플래그, 움직임 벡터, 참조 픽쳐 인덱스 등을 포함할 수 있다. 상기 부호화 정보는, 현재 블록 및/또는 주변 블록에 관한 것일 수 있다.The block size may be expressed as any one of width and height, a minimum/maximum value of width and height, a sum of width and height, the number of samples belonging to a block, and the like. The availability of the block may be determined in consideration of a block position, a range of a parallel processing region, a decoding order, and the like. The prediction mode may mean information indicating an intra mode or an inter mode. The information about the intra prediction mode includes whether the intra prediction mode is a non-directional mode, whether the intra prediction mode is a vertical/horizontal mode, the directionality of the intra prediction mode, and the number of intra prediction modes pre-defined in the encoding/decoding device. It may include information about The inter mode may mean information indicating a merge/skip mode, an AMVP mode, or a current picture reference mode. The current picture reference mode refers to a method of predicting a current block using a pre-reconstructed region of the current picture. The current picture may be a picture to which the current block belongs. The current picture may be added to a reference picture list for inter prediction, and the current picture may be arranged after a short-term reference picture or a long-term reference picture in the reference picture list. The motion information may include a prediction direction flag, a motion vector, a reference picture index, and the like. The encoding information may relate to a current block and/or a neighboring block.

상기 주변 영역은, 복호화 순서에 따라 상기 휘도 블록 이전에 복원된 영역으로서, 상기 휘도 영역의 좌측, 상단, 우측, 하단 또는 각 코너에 인접한 영역 중 적어도 하나를 포함할 수 있다. The peripheral region is a region restored before the luminance block according to a decoding order, and may include at least one of left, upper, right, lower, or adjacent regions of each corner of the luminance region.

상기 주변 영역은, 1개, 2개, 3개, 4개 또는 그 이상의 라인을 포함할 있다. 예를 들어, 상기 휘도 블록의 상단에 위치한 하나 또는 그 이상의 수평 라인이 주변 영역으로 결정될 수 있고, 상기 휘도 블록의 좌측에 위치한 하나 또는 그 이상의 수직 라인이 주변 영역으로 결정될 수 있다. 상기 주변 영역에 속한 라인의 개수는, 부호화/복호화 장치에 기-약속된 고정된 개수(예를 들어, 1개)일 수도 있고, 부호화 정보에 기초하여 가변적으로 결정될 수도 있다. 여기서, 부호화 정보는, 부호화 장치에서 부호화되어 시그날링되는 정보뿐만 아니라, 복호화 장치에서 상기 시그날링되는 정보에 기초하여 유도되는 정보까지 포함할 수 있다. 예를 들어, 상기 부호화 정보는, 블록 크기/형태, 블록의 가용성, 분할 타입, 분할 횟수, 성분 타입, 예측 모드, 인트라 예측 모드에 관한 정보, 인터 모드, 움직임 정보, 변환 타입, 변환 스킵 모드, 넌-제로 잔차 계수에 관한 정보, 스캔 순서, 칼라 포맷, 인-루프 필터 정보 등을 포함할 수 있다.The peripheral region may include one, two, three, four or more lines. For example, one or more horizontal lines positioned at the top of the luminance block may be determined as the peripheral region, and one or more vertical lines positioned at the left of the luminance block may be determined as the peripheral region. The number of lines belonging to the peripheral region may be a fixed number (eg, one) pre-promised to the encoding/decoding apparatus, or may be variably determined based on encoding information. Here, the encoding information may include not only information encoded and signaled by the encoding apparatus, but also information derived based on the information signaled by the decoding apparatus. For example, the encoding information may include block size/form, block availability, partition type, number of partitions, component type, prediction mode, information on intra prediction mode, inter mode, motion information, transform type, transform skip mode, It may include information about non-zero residual coefficients, scan order, color format, in-loop filter information, and the like.

상기 블록 크기는, 너비 또는 높이 중 어느 하나, 너비와 높이 중 최소값/최대값, 너비와 높이의 합, 블록에 속한 샘플의 개수 등으로 표현될 수 있다. 상기 블록의 가용성은, 블록 위치, 병렬 처리 영역의 범위, 복호화 순서 등을 고려하여 판단될 수 있다. 상기 예측 모드는, 인트라 모드 또는 인터 모드를 나타내는 정보를 의미할 수 있다. 상기 인트라 예측 모드에 관한 정보는, 인트라 예측 모드가 비방향성 모드인지 여부, 인트라 예측 모드가 수직/수평 모드인지 여부, 인트라 예측 모드의 방향성, 부호화/복호화 장치에 기-정의된 인트라 예측 모드의 개수 등에 관한 정보를 포함할 수 있다. 상기 인터 모드는, 머지/스킵 모드, AMVP 모드 또는 현재 픽쳐 참조 모드를 나타내는 정보를 의미할 수 있다. 상기 현재 픽쳐 참조 모드는, 현재 픽쳐의 기-복원된 영역을 이용하여 현재 블록을 예측하는 방법을 의미한다. 상기 현재 픽쳐는 상기 현재 블록이 속한 픽쳐일 수 있다. 상기 현재 픽쳐는 인터 예측을 위한 참조 픽쳐 리스트에 추가될 수 있으며, 상기 현재 픽쳐는 참조 픽쳐 리스트 내에서 근거리(short-term) 참조 픽쳐 또는 장거리(long-term) 참조 픽쳐 다음에 배열될 수 있다. 상기 움직임 정보는, 예측 방향 플래그, 움직임 벡터, 참조 픽쳐 인덱스 등을 포함할 수 있다. 상기 부호화 정보는, 현재 블록 및/또는 주변 블록에 관한 것일 수 있다.The block size may be expressed by any one of width and height, a minimum/maximum value of width and height, a sum of width and height, the number of samples belonging to a block, and the like. The availability of the block may be determined in consideration of a block location, a range of a parallel processing region, a decoding order, and the like. The prediction mode may mean information indicating an intra mode or an inter mode. The information on the intra prediction mode includes whether the intra prediction mode is a non-directional mode, whether the intra prediction mode is a vertical/horizontal mode, the directionality of the intra prediction mode, and the number of intra prediction modes pre-defined in the encoding/decoding device. It may include information about The inter mode may mean information indicating a merge/skip mode, an AMVP mode, or a current picture reference mode. The current picture reference mode refers to a method of predicting a current block using a pre-reconstructed region of the current picture. The current picture may be a picture to which the current block belongs. The current picture may be added to a reference picture list for inter prediction, and the current picture may be arranged after a short-term reference picture or a long-term reference picture in the reference picture list. The motion information may include a prediction direction flag, a motion vector, a reference picture index, and the like. The encoding information may relate to a current block and/or a neighboring block.

도 5를 참조하면, 소정의 참조 영역을 기반으로, 보상 파라미터를 산출할 수 있다(S510).Referring to FIG. 5 , a compensation parameter may be calculated based on a predetermined reference region ( S510 ).

부호화/복호화 장치는, 색차 블록의 보상 파라미터를 산출하기 위해 참조되는 영역을 결정할 수 있으며, 이를 이하 참조 영역이라 한다. 상기 참조 영역을 결정하는 방법에 대해서는 도 6 및 도 7을 참조하여 살펴 보기로 한다.The encoding/decoding apparatus may determine a reference region to calculate the compensation parameter of the chrominance block, which is hereinafter referred to as a reference region. A method of determining the reference region will be described with reference to FIGS. 6 and 7 .

상기 참조 영역은, 성분 타입 별로 각각 정의될 수 있다. 즉, 상기 참조 영역은, 휘도 블록의 참조 영역(이하, 휘도 참조 영역) 또는 색차 블록의 참조 영역(이하, 색차 참조 영역) 중 적어도 하나를 포함할 수 있다. 상기 색차 블록은, Cb 블록 또는 Cr 블록 중 적어도 하나를 포함할 수 있다. 전술한 참조 영역은, 해당 블록의 주변에 인접한 기-복원된 영역일 수 있고, 여기서 기-복원된 영역은 인-루프 필터가 적용되기 전의 복원 영역일 수도 있고, 인-루프 필터가 적용된 후의 복원 영역일 수도 있다. The reference region may be defined for each component type. That is, the reference region may include at least one of a reference region of a luminance block (hereinafter, referred to as a luminance reference region) or a reference region of a chrominance block (hereinafter, a chrominance reference region). The color difference block may include at least one of a Cb block and a Cr block. The aforementioned reference region may be a pre-restored region adjacent to the periphery of the block, wherein the pre-reconstructed region may be a restoration region before the in-loop filter is applied, or restoration after the in-loop filter is applied. It may be an area.

상기 보상 파라미터는, 휘도 참조 영역의 대표값과 휘도 블록 간의 선형성이 색차 참조 영역의 대표값과 색차 블록 간의 선형성과 동일/유사함에 기초하여 산출될 수 있다. 상기 보상 파라미터는, 가중치(weighting factor), 오프셋(offset) 또는 필터 계수(filter coefficient) 중 적어도 하나의 형태로 산출될 수 있다.The compensation parameter may be calculated based on whether the linearity between the representative value of the luminance reference region and the luminance block is the same as/similar to the linearity between the representative value of the chrominance reference region and the chrominance block. The compensation parameter may be calculated in the form of at least one of a weighting factor, an offset, and a filter coefficient.

상기 휘도 참조 영역의 대표값은, 휘도 참조 영역에 속한 전체 또는 일부 샘플을 이용하여 유도될 수 있다.The representative value of the luminance reference region may be derived using all or some samples belonging to the luminance reference region.

상기 일부 샘플의 위치는, 부호화/복호화 장치에 기-약속된 것일 수 있다(제1 실시예). 예를 들어, 상기 일부 샘플의 위치는, 상기 휘도 블록의 좌상단 샘플에 좌측, 상단 또는 좌상단 중 적어도 하나에 인접한 위치일 수 있다. 상기 일부 샘플의 위치는, 휘도 블록의 샘플의 위치에 종속적으로 결정될 수도 있다(제2 실시예). 예를 들어, 상기 일부 샘플은, 휘도 블록의 샘플과 동일한 x좌표 또는 y좌표를 가진 것일 수 있다. 상기 일부 샘플은, 휘도 블록의 인트라 예측 모드에 종속적으로 결정될 수도 있다(제3 실시예). 예를 들어, 인트라 예측 모드는 소정의 각도를 가진 라인(angular line)으로 표현될 수 있으며, 이때 일부 샘플은 상기 휘도 블록의 샘플과 동일한 angular line 상에 위치한 것일 수 있다. 상기 angular line 상에 정수 샘플(integer pel)이 존재하지 않는 경우, 상기 angular line의 양쪽에 위치한 정수 샘플이 상기 일부 샘플로 이용될 수 있다. 상기 일부 샘플은, 전술한 제1 실시예 내지 제3 실시예 중 적어도 둘의 조합을 통해 결정될 수도 있다. 상기 일부 샘플의 개수는, 1개, 2개, 3개, 4개, 5개 또는 그 이상일 수 있다. 상기 개수는, 부호화/복호화 장치에 기-약속된 고정된 값일 수도 있고, 휘도 블록의 샘플의 위치, 인트라 예측 모드가 비방향성 모드인지 여부, 방향성 모드의 각도, 휘도 블록의 크기/형태 등을 고려하여 가변적으로 결정될 수도 있다.The positions of the partial samples may be pre-promised to the encoding/decoding device (first embodiment). For example, the position of the partial sample may be a position adjacent to at least one of a left, an upper, or an upper left of the upper-left sample of the luminance block. The positions of the partial samples may be determined dependently on the positions of the samples in the luminance block (second embodiment). For example, the partial sample may have the same x-coordinate or y-coordinate as a sample of the luminance block. The some samples may be determined depending on the intra prediction mode of the luminance block (third embodiment). For example, the intra prediction mode may be expressed as an angular line having a predetermined angle, and in this case, some samples may be located on the same angular line as the samples of the luminance block. When there is no integer sample (integer pel) on the angular line, integer samples located on both sides of the angular line may be used as the partial sample. The partial sample may be determined through a combination of at least two of the first to third embodiments described above. The number of the partial samples may be 1, 2, 3, 4, 5 or more. The number may be a fixed value pre-promised to the encoding/decoding device, and the position of the sample of the luminance block, whether the intra prediction mode is the non-directional mode, the angle of the directional mode, the size/shape of the luminance block, etc. are taken into consideration may be variably determined.

상기 대표값은, 휘도 참조 영역에 속한 전체 또는 일부 샘플의 평균값, 최소값, 최대값, 최빈값 또는 중간값으로 유도될 수 있다. 또는, 상기 대표값은, 휘도 참조 영역에 속한 전체 또는 일부 샘플에 소정의 필터를 적용하여 유도될 수 있다. 상기 필터는, 부호화/복호화 장치에 기-정의된 것일 수 있다. 상기 기-정의된 필터는 1개, 2개 또는 그 이상일 수 있으며, 휘도 블록의 크기/형태, 예측 모드, 인트라 예측 모드에 관한 정보, 필터 강도 등을 고려하여 복수의 필터 중 어느 하나가 선택적으로 이용될 수도 있다. 상기 복수의 필터 중 어느 하나는, 필터의 길이, 필터 강도 또는 필터 계수 중 적어도 하나가 다른 하나의 필터와 상이할 수 있다. 상기 인트라 예측 모드에 관한 정보는, 인트라 예측 모드가 비방향성 모드인지 여부, 인트라 예측 모드가 수직/수평 모드인지 여부, 인트라 예측 모드의 방향성, 부호화/복호화 장치에 기-정의된 인트라 예측 모드의 개수 등에 관한 정보를 포함할 수 있다. The representative value may be derived as an average value, a minimum value, a maximum value, a mode value, or a median value of all or some samples belonging to the luminance reference region. Alternatively, the representative value may be derived by applying a predetermined filter to all or some samples belonging to the luminance reference region. The filter may be pre-defined in the encoding/decoding device. The pre-defined filters may be one, two, or more, and any one of the plurality of filters may be selectively selected in consideration of the size/shape of the luminance block, the prediction mode, information about the intra prediction mode, filter strength, etc. may be used. Any one of the plurality of filters may be different from the other filter in at least one of a filter length, a filter strength, and a filter coefficient. The information on the intra prediction mode includes whether the intra prediction mode is a non-directional mode, whether the intra prediction mode is a vertical/horizontal mode, the directionality of the intra prediction mode, and the number of intra prediction modes pre-defined in the encoding/decoding device. It may include information about

상기 색차 참조 영역의 대표값도 전술한 휘도 참조 영역의 대표값과 동일/유사한 방법으로 유도될 수 있는바, 자세한 설명은 생략하기로 한다.The representative value of the chrominance reference region may also be derived in the same/similar manner to the representative value of the luminance reference region described above, and a detailed description thereof will be omitted.

도 5를 참조하면, S500의 제1 예측값에 S510의 보상 파라미터를 적용하여, 상기 색차 블록의 제2 예측값을 유도할 수 있다(S520).Referring to FIG. 5 , the second prediction value of the color difference block may be derived by applying the compensation parameter of S510 to the first prediction value of S500 ( S520 ).

전술한 바와 같이, 보상 파라미터는, 가중치 및/또는 오프셋의 형태로 산출될 수 있다. 이때, 상기 색차 블록의 제2 예측값은, 상기 제1 예측값에 가중치를 곱해서 유도될 수도 있고, 상기 제1 예측값에 오프셋을 가산 혹은 감산하여 유도될 수도 있다. 수학식 1과 같이, 상기 제1 예측값에 가중치와 오프셋을 둘다 적용하여 유도될 수도 있다.As described above, the compensation parameter may be calculated in the form of a weight and/or an offset. In this case, the second predicted value of the color difference block may be derived by multiplying the first predicted value by a weight, or may be derived by adding or subtracting an offset to the first predicted value. As in Equation 1, it may be derived by applying both a weight and an offset to the first prediction value.

Figure 112019022447519-pat00001
Figure 112019022447519-pat00001

상기 수학식 1에서, PredC2는 제2 예측값을 의미하고, PredC1는 제1 예측값 또는 휘도 블록의 샘플을 의미하며, a와 b는 가중치와 오프셋을 각각 의미한다.In Equation 1, Pred C2 denotes a second predicted value, Pred C1 denotes a first predicted value or a sample of a luminance block, and a and b denote a weight and an offset, respectively.

또는, 상기 보상 파라미터는 n-tap 필터의 필터 계수의 형태로 산출될 수도 있다. 상기 n-tap 필터의 입력 값은, 제1 예측값(또는, 휘도 블록의 샘플), 휘도 참조 영역의 대표값 또는 색차 참조 영역의 대표값 중 적어도 하나를 포함할 수 있다. 상기 n-tap 필터의 출력 값은, 상기 색차 블록의 제2 예측값일 수 있다.Alternatively, the compensation parameter may be calculated in the form of filter coefficients of an n-tap filter. The input value of the n-tap filter may include at least one of a first prediction value (or a sample of a luminance block), a representative value of a luminance reference region, and a representative value of a chrominance reference region. The output value of the n-tap filter may be a second prediction value of the color difference block.

도 5를 참조하면, S520에서 유도된 색차 블록의 제2 예측값에 기초하여, 상기 색차 블록을 복원할 수 있다(S530).Referring to FIG. 5 , the chrominance block may be reconstructed based on the second predicted value of the chrominance block derived in S520 ( S530 ).

성분 간 참조에 기반한 예측의 경우, 상기 제2 예측값이 복원값으로 설정될 수도 있다. 즉, 성분 간 참조에 기반한 예측의 경우, 복호화 장치는 잔차 샘플을 복호화하는 과정을 생략할 수 있다. 또는, 성분 간 참조에 기반한 예측의 경우라도, 상기 색차 블록의 제2 예측값에 잔차 샘플을 가산하여, 색차 블록의 복원값을 생성할 수도 있다.In the case of prediction based on inter-component reference, the second prediction value may be set as a reconstructed value. That is, in the case of prediction based on inter-component reference, the decoding apparatus may omit the process of decoding the residual sample. Alternatively, even in the case of prediction based on inter-component reference, a reconstructed value of the chrominance block may be generated by adding a residual sample to the second predicted value of the chrominance block.

한편, 전술한 성분 간 참조 기반의 예측 방법은, 부호화 장치로부터 시그날링되는 정보에 기초하여 선택적으로 수행될 수 있다(제1 실시예). 상기 정보는, 색차 블록이 성분 간 참조 기반의 예측을 통해 복호화되는지 여부를 나타낼 수 있으며, 이는 플래그 또는 인덱스의 형태로 시그날링될 수 있다. Meanwhile, the aforementioned inter-component reference-based prediction method may be selectively performed based on information signaled from the encoding apparatus (first embodiment). The information may indicate whether the color difference block is decoded through inter-component reference-based prediction, which may be signaled in the form of a flag or an index.

또는, 복호화 장치는, 소정의 부호화 정보에 기초하여, 성분 간 참조 기반의 예측을 통해 색차 블록을 복호화할지 여부를 결정할 수도 있다(제2 실시예). 여기서, 부호화 정보는, 부호화 장치에서 부호화되어 시그날링되는 정보뿐만 아니라, 복호화 장치에서 상기 시그날링되는 정보에 기초하여 유도되는 정보까지 포함할 수 있다. 예를 들어, 상기 부호화 정보는, 블록 크기/형태, 블록의 가용성, 분할 타입, 분할 횟수, 성분 타입, 예측 모드, 인트라 예측 모드에 관한 정보, 인터 모드, 움직임 정보, 변환 타입, 변환 스킵 모드, 넌-제로 잔차 계수에 관한 정보, 스캔 순서, 칼라 포맷, 인-루프 필터 정보 등을 포함할 수 있다.Alternatively, the decoding apparatus may determine whether to decode the chrominance block through inter-component reference-based prediction, based on predetermined encoding information (second embodiment). Here, the encoding information may include not only information encoded and signaled by the encoding apparatus, but also information derived based on the information signaled by the decoding apparatus. For example, the encoding information may include block size/form, block availability, partition type, number of partitions, component type, prediction mode, information on intra prediction mode, inter mode, motion information, transform type, transform skip mode, It may include information about non-zero residual coefficients, scan order, color format, in-loop filter information, and the like.

상기 블록 크기는, 너비 또는 높이 중 어느 하나, 너비와 높이 중 최소값/최대값, 너비와 높이의 합, 블록에 속한 샘플의 개수 등으로 표현될 수 있다. 상기 블록의 가용성은, 블록 위치, 병렬 처리 영역의 범위, 복호화 순서 등을 고려하여 판단될 수 있다. 상기 예측 모드는, 인트라 모드 또는 인터 모드를 나타내는 정보를 의미할 수 있다. 상기 인트라 예측 모드에 관한 정보는, 인트라 예측 모드가 비방향성 모드인지 여부, 인트라 예측 모드가 수직/수평 모드인지 여부, 인트라 예측 모드의 방향성, 부호화/복호화 장치에 기-정의된 인트라 예측 모드의 개수 등에 관한 정보를 포함할 수 있다. 상기 인터 모드는, 머지/스킵 모드, AMVP 모드 또는 현재 픽쳐 참조 모드를 나타내는 정보를 의미할 수 있다. 상기 현재 픽쳐 참조 모드는, 현재 픽쳐의 기-복원된 영역을 이용하여 현재 블록을 예측하는 방법을 의미한다. 상기 현재 픽쳐는 상기 현재 블록이 속한 픽쳐일 수 있다. 상기 현재 픽쳐는 인터 예측을 위한 참조 픽쳐 리스트에 추가될 수 있으며, 상기 현재 픽쳐는 참조 픽쳐 리스트 내에서 근거리(short-term) 참조 픽쳐 또는 장거리(long-term) 참조 픽쳐 다음에 배열될 수 있다. 상기 움직임 정보는, 예측 방향 플래그, 움직임 벡터, 참조 픽쳐 인덱스 등을 포함할 수 있다. 상기 부호화 정보는, 현재 블록 및/또는 주변 블록에 관한 것일 수 있다. The block size may be expressed by any one of width and height, a minimum/maximum value of width and height, a sum of width and height, the number of samples belonging to a block, and the like. The availability of the block may be determined in consideration of a block location, a range of a parallel processing region, a decoding order, and the like. The prediction mode may mean information indicating an intra mode or an inter mode. The information on the intra prediction mode includes whether the intra prediction mode is a non-directional mode, whether the intra prediction mode is a vertical/horizontal mode, the directionality of the intra prediction mode, and the number of intra prediction modes pre-defined in the encoding/decoding device. It may include information about The inter mode may mean information indicating a merge/skip mode, an AMVP mode, or a current picture reference mode. The current picture reference mode refers to a method of predicting a current block using a pre-reconstructed region of the current picture. The current picture may be a picture to which the current block belongs. The current picture may be added to a reference picture list for inter prediction, and the current picture may be arranged after a short-term reference picture or a long-term reference picture in the reference picture list. The motion information may include a prediction direction flag, a motion vector, a reference picture index, and the like. The encoding information may relate to a current block and/or a neighboring block.

또는, 휘도 블록이 특정 조건을 만족하는 경우에 한하여, 성분 간 참조 기반의 예측이 수행될 수 있다(제3 실시예). 상기 특정 조건의 예로, 휘도 블록이 인트라 모드로 부호화된 경우, 휘도 블록의 인트라 예측 모드가 비방향성 모드인 경우, 휘도 블록의 인트라 예측 모드가 수직/수평 모드인 경우, 휘도 블록의 크기가 소정의 문턱값과 같거나 작은 경우, 휘도 블록이 머지/스킵 모드로 부호화된 경우, 휘도 블록의 잔차 계수가 O인 경우(e.g., coded_block_flag=0), 휘도 블록에 속한 넌-제로 잔차 계수의 개수가 소정의 문턱값 이하인 경우, 휘도 블록의 인-루프 필터 정보(e.g., 디블록킹 필터, SAO, ALF)가 주변 블록의 인-루프 필터 정보로부터 유도되는 경우 등이 있다. 상기 성분 간 참조 기반의 예측은, 전술한 제1 실시예 내지 제3 실시예 중 적어도 둘의 조합에 기초하여 선택적으로 수행될 수도 있다.Alternatively, inter-component reference-based prediction may be performed only when the luminance block satisfies a specific condition (third embodiment). As an example of the specific condition, when the luminance block is encoded in the intra mode, the intra prediction mode of the luminance block is the non-directional mode, when the intra prediction mode of the luminance block is the vertical/horizontal mode, the size of the luminance block is a predetermined The number of non-zero residual coefficients belonging to the luminance block is predetermined when equal to or less than the threshold value, when the luminance block is encoded in merge/skip mode, when the residual coefficient of the luminance block is 0 (e.g., coded_block_flag=0) In a case below the threshold value of , there is a case in which in-loop filter information (e.g., deblocking filter, SAO, ALF) of a luminance block is derived from in-loop filter information of a neighboring block. The inter-component reference-based prediction may be selectively performed based on a combination of at least two of the first to third embodiments described above.

상기 색차 블록은 제1 색차 블록(Cr 블록)과 제2 색차 블록(Cb 블록)을 포함할 수 있다. 전술한 성분 간 참조 기반의 예측을 통해, 휘도 블록의 샘플을 이용하여 제1 색차 블록과 제2 색차 블록을 각각 복호화할 수 있다.The chrominance block may include a first chrominance block (Cr block) and a second chrominance block (Cb block). Through the above-described inter-component reference-based prediction, the first chrominance block and the second chrominance block may be respectively decoded using samples of the luminance block.

또는, 성분 간 참조 기반의 예측은 휘도 블록과 색차 블록 간에 적용될 수도 있고, 제1 색차 블록과 제2 색차 블록 간에 동일/유사하게 적용될 수 있다. 이 경우, 성분 간 참조 기반의 예측을 통해, 휘도 블록의 샘플을 이용하여 제1 색차 블록을 예측/복원할 수 있다. 그런 다음, 성분 간 참조 기반의 예측을 통해, 상기 제1 색차 블록의 샘플을 이용하여 제2 색차 블록을 예측/복원할 수 있다.Alternatively, the inter-component reference-based prediction may be applied between the luminance block and the chrominance block, or equally/similarly applied between the first chrominance block and the second chrominance block. In this case, the first chrominance block may be predicted/reconstructed using the sample of the luminance block through inter-component reference-based prediction. Then, the second chrominance block may be predicted/reconstructed using the sample of the first chrominance block through inter-component reference-based prediction.

또는, 성분 간 참조 기반의 예측을 통해, 휘도 블록의 샘플을 이용하여 제1 색차 블록을 예측/복원할 수 있다. 그런 다음, 상기 휘도 블록과 상기 제1 색차 블록의 가중합을 통해 상기 제2 색차 블록을 예측/복원할 수도 있다. 상기 가중합을 위한 가중치는, 전술한 참조 영역의 전체 또는 일부 샘플에 기초하여 산출될 수 있다. 또는, 상기 가중치는, 부호화 장치에서 부호화되어 시그날링될 수도 있고, 부호화/복호화 장치에 기-약속된 값으로 결정될 수도 있다.Alternatively, the first chrominance block may be predicted/reconstructed using a sample of the luminance block through inter-component reference-based prediction. Then, the second chrominance block may be predicted/reconstructed through the weighted sum of the luminance block and the first chrominance block. The weight for the weighted sum may be calculated based on all or some samples of the aforementioned reference region. Alternatively, the weight may be encoded and signaled by the encoding apparatus, or may be determined as a value pre-promised to the encoding/decoding apparatus.

전술한 실시예에서는, 제1 색차 블록 -> 제2 색차 블록의 순서로 복원하나, 제2 색차 블록 -> 제1 색차 블록의 순서로 복원하는 것도 가능하다. 상기 순서는, 부호화/복호화 장치에 기-약속된 순서에 따를 수 있다. 또는, 상기 순서를 특정하는 정보가 부호화되어 시그날링될 수도 있으며, 복호화 장치는 상기 시그날링되는 정보에 따라 순차적으로 색차 블록을 복원할 수 있다.In the above-described embodiment, the restoration is performed in the order of the first chrominance block -> the second chrominance block, but it is also possible to restore in the order of the second chrominance block -> the first chrominance block. The order may follow a pre-promised order to the encoding/decoding device. Alternatively, the information specifying the order may be encoded and signaled, and the decoding apparatus may sequentially reconstruct the color difference block according to the signaled information.

도 6 및 도 7은 본 발명이 적용되는 일실시예로서, 성분 간 참조를 위한 참조 영역의 일예를 도시한 것이다.6 and 7 show an example of a reference region for inter-component reference as an embodiment to which the present invention is applied.

휘도/색차 블록의 주변에 인접한 영역으로서, 소정의 복호화 순서에 따라상기 휘도/색차 블록 이전에 기-복원된 영역이 참조 영역으로 이용될 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 휘도/색차 블록의 좌측 또는 상단에 인접한 영역이 참조 영역으로 이용될 수 있다. 또는, 도 7에 도시된 바와 같이, 상기 참조 영역은, 휘도/색차 블록의 우상단 및 좌하단에 인접한 영역까지 확장될 수 있다. 또한, 도 6 및 도 7에 도시되지 않았으나, 휘도/색차 블록의 좌상단에 인접한 영역, 그리고 복호화 순서에 따라 기-복원된 우측, 하단 또는 우하단에 인접한 영역도 참조 영역으로 이용될 수도 있다. As a region adjacent to the periphery of the luminance/chrominance block, a region pre-restored before the luminance/chrominance block according to a predetermined decoding order may be used as a reference region. For example, as shown in FIG. 6 , an area adjacent to the left or upper end of the luminance/chrominance block may be used as a reference area. Alternatively, as shown in FIG. 7 , the reference region may extend to regions adjacent to the upper right and lower left ends of the luminance/chrominance block. In addition, although not shown in FIGS. 6 and 7 , a region adjacent to the upper left end of the luminance/chrominance block and a region adjacent to the right, lower, or lower right end pre-restored according to the decoding order may also be used as reference regions.

참조 영역은, 휘도 블록의 부호화 정보 또는 주변 블록의 부호화 정보 중 적어도 하나에 기초하여 결정될 수 있다. 상기 결정은, 상기 참조 영역의 위치, 개수, 크기(너비/높이), 형태, 길이 또는 후보 참조 영역 간의 우선 순위 중 적어도 하나의 결정을 포함할 수 있다. 후보 참조 영역은, 참조 영역으로 이용 가능한 하나 또는 그 이상의 후보 영역을 의미하며, 참조 영역은 상기 후보 참조 영역 중 어느 하나로 결정될 수 있다. 상기 주변 블록은, 복호화 순서에 따라 상기 휘도 블록 이전에 복원된 블록을 의미할 수 있다. 예를 들어, 상기 주변 블록은, 상기 휘도 블록에 좌측, 상단, 우측, 하단 또는 각 코너 중 적어도 하나에 인접한 블록일 수 있다.The reference region may be determined based on at least one of encoding information of a luminance block and encoding information of a neighboring block. The determination may include determining at least one of a position, number, size (width/height), shape, length, or priority between candidate reference areas of the reference area. The candidate reference region means one or more candidate regions usable as a reference region, and the reference region may be determined as any one of the candidate reference regions. The neighboring block may mean a block reconstructed before the luminance block according to a decoding order. For example, the neighboring block may be a block adjacent to at least one of left, upper, right, lower, or each corner of the luminance block.

여기서, 부호화 정보는, 부호화 장치에서 부호화되어 시그날링되는 정보뿐만 아니라, 복호화 장치에서 상기 시그날링되는 정보에 기초하여 유도되는 정보까지 포함할 수 있다. 예를 들어, 상기 부호화 정보는, 블록 크기/형태, 블록의 가용성, 분할 타입, 분할 횟수, 성분 타입, 예측 모드, 인트라 예측 모드에 관한 정보, 인터 모드, 움직임 정보, 변환 타입, 변환 스킵 모드, 넌-제로 잔차 계수에 관한 정보, 스캔 순서, 칼라 포맷, 인-루프 필터 정보 등을 포함할 수 있다.Here, the encoding information may include not only information encoded and signaled by the encoding apparatus, but also information derived based on the information signaled by the decoding apparatus. For example, the encoding information may include block size/form, block availability, partition type, number of partitions, component type, prediction mode, information on intra prediction mode, inter mode, motion information, transform type, transform skip mode, It may include information about non-zero residual coefficients, scan order, color format, in-loop filter information, and the like.

상기 블록 크기는, 너비 또는 높이 중 어느 하나, 너비와 높이 중 최소값/최대값, 너비와 높이의 합, 블록에 속한 샘플의 개수 등으로 표현될 수 있다. 상기 블록의 가용성은, 블록 위치, 병렬 처리 영역의 범위, 복호화 순서 등을 고려하여 판단될 수 있다. 상기 예측 모드는, 인트라 모드 또는 인터 모드를 나타내는 정보를 의미할 수 있다. 상기 인트라 예측 모드에 관한 정보는, 인트라 예측 모드가 비방향성 모드인지 여부, 인트라 예측 모드가 수직/수평 모드인지 여부, 인트라 예측 모드의 방향성, 부호화/복호화 장치에 기-정의된 인트라 예측 모드의 개수 등에 관한 정보를 포함할 수 있다. 상기 인터 모드는, 머지/스킵 모드, AMVP 모드 또는 현재 픽쳐 참조 모드를 나타내는 정보를 의미할 수 있다. 상기 현재 픽쳐 참조 모드는, 현재 픽쳐의 기-복원된 영역을 이용하여 현재 블록을 예측하는 방법을 의미한다. 상기 현재 픽쳐는 상기 현재 블록이 속한 픽쳐일 수 있다. 상기 현재 픽쳐는 인터 예측을 위한 참조 픽쳐 리스트에 추가될 수 있으며, 상기 현재 픽쳐는 참조 픽쳐 리스트 내에서 근거리(short-term) 참조 픽쳐 또는 장거리(long-term) 참조 픽쳐 다음에 배열될 수 있다. 상기 움직임 정보는, 예측 방향 플래그, 움직임 벡터, 참조 픽쳐 인덱스 등을 포함할 수 있다.The block size may be expressed by any one of width and height, a minimum/maximum value of width and height, a sum of width and height, the number of samples belonging to a block, and the like. The availability of the block may be determined in consideration of a block location, a range of a parallel processing region, a decoding order, and the like. The prediction mode may mean information indicating an intra mode or an inter mode. The information on the intra prediction mode includes whether the intra prediction mode is a non-directional mode, whether the intra prediction mode is a vertical/horizontal mode, the directionality of the intra prediction mode, and the number of intra prediction modes pre-defined in the encoding/decoding device. It may include information about The inter mode may mean information indicating a merge/skip mode, an AMVP mode, or a current picture reference mode. The current picture reference mode refers to a method of predicting a current block using a pre-reconstructed region of the current picture. The current picture may be a picture to which the current block belongs. The current picture may be added to a reference picture list for inter prediction, and the current picture may be arranged after a short-term reference picture or a long-term reference picture in the reference picture list. The motion information may include a prediction direction flag, a motion vector, a reference picture index, and the like.

예를 들어, 휘도 블록이 인트라 모드로 부호화된 경우, 인트라 예측에 사용되는 주변 샘플의 영역이, 상기 휘도/색차 블록의 참조 영역으로 결정될 수 있다. 이때, 상기 인트라 예측에서 상기 주변 샘플에 필터링이 적용된 경우, 상기 휘도/색차 블록의 참조 영역은 상기 필터링이 적용된 주변 샘플의 영역일 수도 있고, 상기 필터링이 적용되기 전의 주변 샘플의 영역일 수도 있다. 상기 참조 영역에 속한 샘플 라인의 개수는 상기 주변 샘플의 영역에 속한 샘플 라인의 개수와 동일하게 설정될 수도 있고, 상기 참조 영역은 상기 주변 샘플의 영역과 다른 N 혹은 M개의 샘플 라인으로 구성될 수도 있다.For example, when the luminance block is encoded in the intra mode, a region of a neighboring sample used for intra prediction may be determined as a reference region of the luminance/chrominance block. In this case, when filtering is applied to the neighboring samples in the intra prediction, the reference region of the luminance/chrominance block may be the region of the neighboring samples to which the filtering is applied or the region of the neighboring samples before the filtering is applied. The number of sample lines belonging to the reference area may be set to be the same as the number of sample lines belonging to the area of the neighboring sample, and the reference area may include N or M sample lines different from the area of the neighboring sample. there is.

또는, 일예에 따라 상기 휘도 블록의 부호화 정보는, 주변 블록의 부호화 정보에 기초하여 유도될 수 있다. 예를 들어, 상기 휘도 블록의 인트라 예측 모드가 주변 블록 기반의 MPM(Most Probable Mode)으로부터 유도되는 경우, 상기 휘도 블록이 머지/스킵 모드 또는 AMVP 모드로 부호화된 경우, 상기 휘도 블록의 SAO 필터 정보가 주변 블록의 SAO 필터 정보로부터 유도되는 경우 등이 있다. 이 경우, 상기 주변 블록의 전체 또는 일부 영역이 상기 참조 영역으로 결정될 수 있다.Alternatively, according to an example, the encoding information of the luminance block may be derived based on encoding information of a neighboring block. For example, when the intra prediction mode of the luma block is derived from a neighboring block-based Most Probable Mode (MPM), when the luma block is encoded in a merge/skip mode or an AMVP mode, SAO filter information of the luma block There is a case in which is derived from SAO filter information of a neighboring block. In this case, all or a partial area of the neighboring block may be determined as the reference area.

또는, 휘도 블록의 크기가 문턱값보다 작거나 같은 경우, 좌측과 상단의 참조 영역이 이용되고, 그렇지 않은 경우, 좌측 또는 상단 중 어느 하나의 참조 영역이 이용될 수 있다. 휘도 블록이 NxM의 비정방형인 경우(N>M), 상단의 참조 영역이 이용되고, 휘도 블록이 NxM의 비정방형인 경우(N<M), 좌측의 참조 영역이 이용될 수 있다. 휘도 블록의 인트라 예측 모드가 비방향성 모드인 경우, 좌측과 상단의 참조 영역이 이용되고, 그렇지 않은 경우에는 인트라 예측 모드의 방향성을 고려하여 좌측 또는 상단 중 어느 하나의 참조 영역이 이용될 수 있다. 이 경우, 상기 방향성이 수직인 경우, 상단의 참조 영역이 이용되고, 상기 방향성이 수평인 경우, 좌측의 참조 영역이 이용될 수 있다.Alternatively, when the size of the luminance block is less than or equal to the threshold, the left and upper reference regions are used. Otherwise, either the left or the upper reference region may be used. When the luminance block is NxM non-square (N>M), the upper reference region is used, and when the luminance block is NxM non-square (N<M), the left reference region may be used. When the intra prediction mode of the luminance block is the non-directional mode, the left and upper reference regions are used. Otherwise, either the left or the upper reference region may be used in consideration of the directionality of the intra prediction mode. In this case, when the direction is vertical, the upper reference area may be used, and when the direction is horizontal, the left reference area may be used.

또는, 상기 참조 영역에 관한 정보가 부호화 장치로부터 시그날링될 수도 있다. 복호화 장치는, 상기 시그날링되는 정보에 기초하여 상기 참조 영역을 결정할 수 있다. 상기 참조 영역에 관한 정보는, 참조 영역을 특정하는 정보로서, 참조 영역의 위치, 개수, 크기(너비/높이), 형태, 길이 또는 후보 참조 영역 간의 우선 순위에 관한 정보 중 적어도 하나를 포함할 수 있다. 상기 정보는, 비디오 시퀀스, 픽쳐 또는 소정의 조각 영역(예를 들어, 슬라이스, 타일, 블록 그룹, 블록 등) 중 적어도 하나에서 시그날링될 수 있다.Alternatively, information on the reference region may be signaled from the encoding apparatus. The decoding apparatus may determine the reference region based on the signaled information. The information on the reference region is information for specifying the reference region, and may include at least one of the position, number, size (width/height), shape, length, or priority of the reference region, or information about priority between candidate reference regions. there is. The information may be signaled in at least one of a video sequence, a picture, or a predetermined fragment area (eg, a slice, a tile, a block group, a block, etc.).

이를 위해, 부호화 장치는, 가용한 m개의 참조 영역이 존재하는 경우, 각 참조 영역에 0 내지 (m-1)의 인덱스를 할당할 수 있으며, m개의 참조 영역 중 어느 하나를 부호화할 수 있다. 상기 정보는, 휘도 블록과 색차 블록 각각에 대해서 시그날링될 수 있고, 휘도 블록과 색차 블록은 서로 상이한 위치의 참조 영역을 이용할 수 있다. 또는, 상기 정보는 휘도 블록에 대해서만 시그날링될 수 있다. 이 경우, 색차 블록의 참조 영역은, 상기 시그날링된 휘도 블록의 정보에 종속적으로 결정될 수 있다. To this end, when there are m available reference regions, the encoding apparatus may allocate an index of 0 to (m-1) to each reference region, and may encode any one of the m reference regions. The information may be signaled for each of the luminance block and the chrominance block, and the luminance block and the chrominance block may use reference regions at different positions. Alternatively, the information may be signaled only for the luminance block. In this case, the reference region of the chrominance block may be determined dependently on the signaled information of the luminance block.

전술한 방법에 따라, 참조 영역이 적응적으로 결정될 수 있다. 다만, 결정된 참조 영역이 비가용한 경우가 존재할 수 있다. 여기서, 비가용한 경우라 함은, 상기 결정된 참조 영역이 미-복호화된 경우, 상기 결정된 참조 영역이 픽쳐의 외부에 위치하는 경우 등을 의미할 수 있다. 상기 미-복호화된 경우는, 상기 결정된 참조 영역이 휘도/색차 블록과 동일한 병렬 처리 영역에 속하거나, 상기 결정된 참조 영역이 휘도/색차 블록 이후의 복호화 순서를 가지는 경우를 의미할 수 있다. According to the above-described method, the reference region may be adaptively determined. However, there may exist a case in which the determined reference region is unavailable. Here, the unavailable case may mean a case in which the determined reference region is not-decoded, a case in which the determined reference region is located outside a picture, and the like. The non-decoded case may mean that the determined reference region belongs to the same parallel processing region as the luminance/chrominance block, or the determined reference region has a decoding order after the luminance/chrominance block.

이와 같이, 상기 결정된 참조 영역이 비가용인 경우, 해당 참조 영역이 성분 간 참조 기반의 예측에 이용되지 않도록 제한될 수 있다. 이를 위해, 해당 참조 영역의 이용 여부에 관한 플래그 정보가 이용될 수 있다. 또는, 상기 비가용한 참조 영역은, 가용한 참조 영역으로 대체될 수도 있다. 상기 가용한 참조 영역은, 상기 비가용한 참조 영역의 특정 방향으로 인접한 영역일 수 있다. 상기 특정 방향은, 좌측, 우측, 상단, 하단 또는 대각 중 어느 하나일 수 있다. 상기 특정 방향은, 부호화/복호화 장치에 기-약속된 것일 수도 있고, 비가용한 참조 영역의 위치를 고려하여 가변적으로 결정될 수도 있다.In this way, when the determined reference region is unavailable, the reference region may be limited not to be used for inter-component reference-based prediction. For this, flag information regarding whether a corresponding reference region is used may be used. Alternatively, the unavailable reference area may be replaced with an available reference area. The available reference area may be an area adjacent to the unavailable reference area in a specific direction. The specific direction may be any one of left, right, top, bottom, or diagonal. The specific direction may be pre-promised to the encoding/decoding apparatus, or may be variably determined in consideration of the location of an unavailable reference region.

참조 영역에 속한 샘플 라인의 개수는, 1개, 2개, 또는 그 이상일 수 있다. 도 6에 도시된 바와 같이, 휘도 블록의 상단 참조 영역은 NL개의 수평 라인을, 좌측 참조 영역은 ML개의 수직 라인을 포함할 수 있다. 색차 블록의 상단 참조 영역은 NC개의 수평 라인을, 좌측 참조 영역은 MC개의 수직 라인을 포함할 수 있다. 이때, 상단 참조 영역의 샘플 라인의 개수(NL, NC)는, 좌측 참조 영역의 샘플 라인의 개수(ML, MC)와 동일할 수 있다. 또는, 상단 참조 영역의 샘플 라인의 개수(NL, NC)와 좌측 참조 영역의 샘플 라인의 개수(ML, MC) 중 어느 하나는, 다른 하나보다 크거나 작을 수도 있다.The number of sample lines belonging to the reference region may be one, two, or more. 6 , the upper reference area of the luminance block may include N L horizontal lines, and the left reference area may include M L vertical lines. The upper reference area of the color difference block may include N C horizontal lines, and the left reference area may include M C vertical lines. In this case, the number of sample lines (N L , N C ) of the upper reference region may be the same as the number of sample lines (M L , M C ) of the left reference region. Alternatively, any one of the number of sample lines (N L , N C ) of the upper reference region and the number of sample lines (M L , M C ) of the left reference region may be larger or smaller than the other.

상기 NL, ML, NC, MC의 값은, 0보다 크거나 같은 정수일 수 있다. 상기 NL, ML, NC, MC의 값은, 부호화/복호화 장치에 기-약속된 값으로 설정될 수도 있고, 전술한 부호화 정보에 기초하여 가변적으로 결정될 수도 있다. 또는, 부호화 장치로부터 상기 상기 샘플 라인의 개수에 관한 정보가 부호화되어 시그날링될 수 있고, 복호화 장치는 상기 시그날링되는 정보에 기초하여 상기 NL, ML, NC, MC의 값을 결정할 수 있다.The values of N L , M L , N C , and M C may be integers greater than or equal to zero. The values of N L , M L , N C , and M C may be set to a value pre-promised to the encoding/decoding apparatus, or may be variably determined based on the above-described encoding information. Alternatively, the information on the number of the sample lines may be encoded and signaled by the encoding apparatus, and the decoding apparatus determines the values of N L , M L , N C , and M C based on the signaled information. can

한편, 휘도 참조 영역에 속한 샘플 라인의 개수와 색차 참조 영역에 속한 샘플 라인의 개수 간의 비율은, 칼라 포맷에 기초하여 결정될 수 있다. 예를 들어, 칼라 포맷이 4:2:0인 경우, 휘도 참조 영역에 속한 샘플 라인의 개수와 색차 참조 영역에 속한 샘플 라인의 개수 간의 비율(NL:NC 또는 ML:MC)은 2:1일수 있다.Meanwhile, a ratio between the number of sample lines included in the luminance reference region and the number of sample lines included in the chrominance reference region may be determined based on a color format. For example, when the color format is 4:2:0, the ratio (N L :N C or M L :M C ) between the number of sample lines included in the luminance reference region and the number of sample lines included in the chrominance reference region is It could be 2:1.

상기 결정된 비율에 기초하여, 휘도 참조 영역 또는 색차 참조 영역 중 적어도 하나에 대해 업-샘플링 또는 다운-샘플링을 수행할 수 있으며, 상기 샘플링 과정을 통해 휘도와 색차 간의 참조 영역의 비율을 맞추는 것이 가능하다. Based on the determined ratio, up-sampling or down-sampling may be performed on at least one of the luminance reference region and the chrominance reference region, and it is possible to match the ratio of the reference region between the luminance and the chrominance through the sampling process .

또한, 상기 칼라 포맷에 관계없이, 휘도와 색차 간의 참조 영역의 비율이 1:1일 수도 있다. 즉, 색차 참조 영역에 속한 샘플 라인의 개수는, 휘도 참조 영역에 속한 참조 라인의 개수에 종속적으로 설정될 수 있다(예를 들어, NL=NC 또는 ML=MC). 상기 비율에 관한 실시예는, 휘도 참조 영역의 길이와 색차 참조 영역의 길이 간의 비율에도 동일/유사하게 적용될 수 있다.Also, regardless of the color format, the ratio of the reference region between the luminance and the chrominance may be 1:1. That is, the number of sample lines included in the chrominance reference region may be set dependently on the number of reference lines included in the luminance reference region (eg, N L =N C or M L =M C ). The embodiment related to the ratio may be equally/similarly applied to the ratio between the length of the luminance reference region and the length of the chrominance reference region.

전술한 바와 같이, 참조 영역이 복수의 샘플 라인을 포함할 수 있으며, 이러한 경우 도 5에서 언급한 일부 샘플은 상기 복수의 샘플 라인 중 하나의 동일한 샘플 라인에 속할 수 있다. 또는, 상기 일부 샘플 중 적어도 하나는, 다른 하나와 다른 샘플 라인에 속할 수도 있다. As described above, the reference region may include a plurality of sample lines, and in this case, some samples mentioned in FIG. 5 may belong to the same sample line among the plurality of sample lines. Alternatively, at least one of the partial samples may belong to a sample line different from the other one.

한편, 도 6 및 도 7에 도시된 블록의 형태는 NxN의 정방형이나, 이는 블록의 크기나 형태를 한정하는 것은 아니며, 전술한 분할 타입에 의해 다양한 크기/형태를 가질 수 있다.Meanwhile, the shape of the block shown in FIGS. 6 and 7 is an NxN square, but this does not limit the size or shape of the block, and may have various sizes/shapes according to the above-described division type.

도 8은 본 발명이 적용되는 일실시예로서, 색차 블록의 성분 간 참조에 이용되는 휘도 블록의 영역을 결정하는 방법을 도시한 것이다.8 illustrates a method of determining a region of a luminance block used for reference between components of a chrominance block according to an embodiment to which the present invention is applied.

부호화/복호화 장치는, 색차 블록의 성분 간 참조를 위해 이용되는 휘도 블록의 영역(이하, 휘도 영역이라 함)을 결정할 수 있다. 따라서, 전술한 실시예에서의 휘도 블록은, 색차 블록에 대응하는 휘도 블록으로 해석될 수도 있고, 상기 휘도 영역으로 해석될 수도 있다.The encoding/decoding apparatus may determine a region (hereinafter, referred to as a luminance region) of a luminance block used for inter-component reference of the chrominance block. Accordingly, the luminance block in the above-described embodiment may be interpreted as a luminance block corresponding to the chrominance block or may be interpreted as the luminance region.

하나의 색차 블록이 하나의 휘도 블록에 대응되는 경우(즉, 휘도 블록:색차 블록=1:1)가 존재할 수 있다. 여기서, 상기 휘도/색차 블록은 더 이상 분할되지 않는 블록을 의미할 수 있다. 이 경우, 도 5에서 살펴본 바와 같이, 본 발명의 휘도 영역은, 상기 색차 블록에 대응하는 휘도 블록으로 결정될 수 있다. 상기 결정된 휘도 영역은, 상기 색차 블록의 해상도에 대응되도록 리사이징될 수 있음은 물론이다.There may exist a case where one chrominance block corresponds to one luminance block (ie, luminance block:chrominance block=1:1). Here, the luminance/chrominance block may mean a block that is no longer divided. In this case, as shown in FIG. 5 , the luminance region of the present invention may be determined as a luminance block corresponding to the color difference block. Of course, the determined luminance area may be resized to correspond to the resolution of the color difference block.

한편, 도 8에 도시된 바와 같이, 전술한 분할 타입 또는 칼라 포맷 중 적어도 하나에 의해서, 하나의 색차 블록이 N개의 서브-블록으로 구성된 휘도 블록에 대응되는 경우(즉, 휘도 블록 EL:색차 블록 AC=N:1)가 존재할 수 있다. 이 경우, 상기 휘도 영역은, 상기 색차 블록에 대응하는 휘도 블록으로 결정되고, 상기 색차 블록의 해상도에 대응되도록 리사이징될 수 있다. 또는, 상기 색차 블록과 중첩되는 휘도 블록의 영역이, 상기 휘도 영역으로 결정될 수도 있다. 또는, 휘도 블록:색차 블록=N:1인 경우, 복호화 장치에서 전술한 성분 간 참조 기반의 예측이 수행되지 않도록 제한될 수도 있다.Meanwhile, as shown in FIG. 8 , when one chrominance block corresponds to a luminance block composed of N sub-blocks according to at least one of the aforementioned division type or color format (that is, luminance block E L : color difference Blocks A C =N:1) may exist. In this case, the luminance area may be determined as a luminance block corresponding to the chrominance block, and may be resized to correspond to the resolution of the chrominance block. Alternatively, the region of the luminance block overlapping the chrominance block may be determined as the luminance region. Alternatively, when the luminance block: the chrominance block=N:1, the decoding apparatus may be restricted so that the aforementioned inter-component reference-based prediction is not performed.

또는, 전술한 분할 타입 또는 칼라 포맷 중 적어도 하나에 의해서, M개의 서브-블록으로 구성된 색차 블록이 N개의 서브-블록으로 구성된 휘도 블록에 대응되는 경우(즉, 휘도 블록:색차 블록=N:M)가 존재할 수 있다. 이 경우, 상기 휘도 영역은, 상기 휘도 블록과 색차 블록 간의 대응 관계, 즉 N:M의 대응 관계를 고려하여 결정될 수 있다. 또는, 상기 색차 블록과 중첩되는 휘도 블록의 영역이, 상기 휘도 영역으로 결정될 수도 있다. Alternatively, when a chrominance block composed of M sub-blocks corresponds to a luminance block composed of N sub-blocks according to at least one of the aforementioned division type or color format (that is, luminance block:chrominance block=N:M ) may exist. In this case, the luminance region may be determined in consideration of the correspondence between the luminance block and the chrominance block, that is, the N:M correspondence. Alternatively, the region of the luminance block overlapping the chrominance block may be determined as the luminance region.

상기 결정된 휘도 영역은, 인트라 모드로 부호화된 블록 또는 인터 모드로 부호화된 블록 중 적어도 하나를 포함할 수 있다. 상기 휘도 영역이, 인트라/인터 모드로 각각 부호화된 블록을 포함하는 경우, 성분 간 참조 기반의 예측이 수행되지 않도록 제한될 수 있다. 또는, 상기 휘도 영역이, 인트라/인터 모드로 각각 부호화된 블록을 포함하는 경우라도, 상기 휘도 영역의 주변 샘플을 이용하여 보상 파라미터를 산출하는 것도 가능하다. 또한, 상기 휘도 영역에 인터 모드로 부호화된 블록이 포함된 경우, 도 6에서 살펴본 바와 같이, 참조 영역이 확장될 수 있으며, 여기서 자세한 설명은 생략하기로 한다. 또는, 상기 휘도 영역이 인트라/인터 모드로 각각 부호화된 블록을 포함하는 경우, 인터 모드로 부호화된 블록의 주변 샘플만이 휘도 참조 영역으로 이용될 수 있다. 이때, 색차 참조 영역 역시 상기 인터 모드로 부호화된 블록의 주변 샘플에 대응하는 영역만으로 결정될 수 있다. 또는, 상기 휘도 영역이 인트라/인터 모드로 각각 부호화된 블록을 포함하는 경우, 부호화 장치는 휘도/색차 참조 영역을 특정하는 정보를 부호화하여 시그날링할 수 있으며, 복호화 장치는 상기 정보에 기초하여 휘도/색차 참조 영역을 특정할 수 있다. 또는, 휘도 블록:색차 블록=N:M인 경우, 복호화 장치에서 전술한 성분 간 참조 기반의 예측이 수행되지 않도록 제한될 수도 있다.The determined luminance region may include at least one of an intra-mode coded block and an inter-mode coded block. When the luminance region includes blocks each coded in the intra/inter mode, it may be limited so that inter-component reference-based prediction is not performed. Alternatively, even when the luminance region includes blocks each coded in intra/inter mode, it is possible to calculate a compensation parameter using neighboring samples of the luminance region. Also, when the luminance region includes a block encoded in the inter mode, the reference region may be expanded as shown in FIG. 6 , and a detailed description thereof will be omitted. Alternatively, when the luminance region includes blocks each coded in the intra/inter mode, only neighboring samples of the blocks coded in the inter mode may be used as the luminance reference region. In this case, the color difference reference region may also be determined only from the region corresponding to the neighboring samples of the block encoded in the inter mode. Alternatively, when the luminance region includes blocks each encoded in the intra/inter mode, the encoding apparatus may encode and signal information specifying the luminance/chrominance reference region, and the decoding apparatus may perform luminance based on the information. /Specifies the color difference reference area. Alternatively, when the luminance block: the chrominance block = N: M, the decoding apparatus may be limited so that the aforementioned inter-component reference-based prediction is not performed.

상기 휘도 영역의 결정은, 휘도 블록의 분할 정보, 색차 블록의 분할 정보, 또는 휘도 블록과 색차 블록 간의 분할 정보의 대응 관계 중 적어도 하나를 고려하여 수행될 수 있다. 상기 분할 정보는, 분할된 블록의 너비, 높이, 너비와 높이의 비, 블록에 속한 샘플의 개수, 블록에 속한 서브-블록의 개수, 상기 서브-블록의 형태 또는 분할 타입 중 적어도 하나를 포함할 수 있다.The determination of the luminance region may be performed in consideration of at least one of division information of a luminance block, division information of a chrominance block, or a correspondence relationship between division information between a luminance block and a chrominance block. The partition information may include at least one of a width of a divided block, a height, a ratio of a width to a height, the number of samples included in the block, the number of sub-blocks included in the block, a shape of the sub-block, or a partition type can

상기 휘도 영역의 결정은, 상기 휘도 블록의 분할 정보와 상기 색차 블록의 분할 정보 간의 비교 결과에 기초하여 수행될 수 있다. 예를 들어, 상기 색차 블록의 분할 정보가 상기 휘도 블록의 분할 정보와 동일한 경우, 상기 휘도 영역은, 상기 색차 블록에 대응하는 휘도 블록으로 결정될 수 있다. 반면, 상기 색차 블록의 분할 정보가 상기 휘도 블록의 분할 정보와 동일하지 않은 경우, 상기 휘도 영역은, 소정의 규칙 또는 부호화 장치에서 시그날링되는 정보에 의해 상기 휘도 블록의 일부 영역으로 결정될 수 있다. 상기 정보는, 상기 휘도 영역을 특정하기 위한 정보일 수 있다.The determination of the luminance region may be performed based on a comparison result between the division information of the luminance block and the division information of the chrominance block. For example, when the division information of the chrominance block is the same as the division information of the luminance block, the luminance region may be determined as a luminance block corresponding to the chrominance block. On the other hand, when the division information of the chrominance block is not the same as the division information of the luminance block, the luminance region may be determined as a partial region of the luminance block according to a predetermined rule or information signaled by an encoding device. The information may be information for specifying the luminance region.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Example methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, other steps may be included in addition to the illustrated steps, steps may be excluded from some steps, and/or other steps may be included except for some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present disclosure do not list all possible combinations but are intended to describe representative aspects of the present disclosure, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause an operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executable on a device or computer.

Claims (13)

휘도 블록의 샘플을 이용하여 색차 블록의 제1 예측값을 유도하는 단계;
소정의 참조 영역을 기반으로, 보상 파라미터를 산출하는 단계;
상기 제1 예측값에 상기 보상 파라미터를 적용하여, 상기 색차 블록의 제2 예측값을 유도하는 단계; 및
상기 색차 블록의 제2 예측값에 기초하여, 상기 색차 블록을 복원하는 단계를 포함하되,
상기 보상 파라미터를 산출하는 단계는, 상기 보상 파라미터를 산출하기 위해 참조되는 상기 참조 영역을 결정하는 단계를 포함하고,
상기 참조 영역은, 상기 휘도 블록에 인접한 휘도 참조 영역 및 상기 색차 블록에 인접한 색차 참조 영역을 포함하고,
상기 휘도 참조 영역은, 복수 개의 샘플 라인들을 포함하고,
상기 휘도 참조 영역에 속하는 샘플 라인의 개수는, 상기 휘도 참조 영역의 가용성에 따라 가변적으로 결정되는, 비디오 신호 처리 방법.
deriving a first predicted value of the chrominance block by using the samples of the luminance block;
calculating a compensation parameter based on a predetermined reference region;
deriving a second prediction value of the color difference block by applying the compensation parameter to the first prediction value; and
reconstructing the chrominance block based on a second predicted value of the chrominance block;
Calculating the compensation parameter includes determining the reference region referred to for calculating the compensation parameter,
the reference region includes a luminance reference region adjacent to the luminance block and a chrominance reference region adjacent to the chrominance block;
The luminance reference region includes a plurality of sample lines,
and the number of sample lines belonging to the luminance reference region is variably determined according to availability of the luminance reference region.
삭제delete 제1항에 있어서,
상기 보상 파라미터는, 상기 휘도 참조 영역의 대표값 또는 상기 색차 참조 영역의 대표값 중 적어도 하나에 기초하여 산출되는 비디오 신호 처리 방법.
According to claim 1,
The compensation parameter is calculated based on at least one of a representative value of the luminance reference region and a representative value of the chrominance reference region.
제3항에 있어서,
상기 색차 참조 영역의 대표값은, 상기 색차 참조 영역에 속한 일부 샘플들의 평균값, 최소값, 최대값, 최빈값 또는 중간값 중 어느 하나로 유도되는 비디오 신호 처리 방법.
4. The method of claim 3,
The representative value of the color difference reference region is derived from any one of an average value, a minimum value, a maximum value, a mode, and an intermediate value of some samples belonging to the color difference reference region.
제1항에 있어서,
상기 제1 예측값을 유도하는 단계는, 상기 색차 블록이 성분 간 참조 기반의 예측을 통해 복호화되는지 여부를 나타내는 정보에 기초하여 선택적으로 수행되는 비디오 신호 처리 방법.
According to claim 1,
The deriving of the first prediction value is selectively performed based on information indicating whether the color difference block is decoded through inter-component reference-based prediction.
제1항에 있어서,
상기 색차 블록은 제1 색차 블록(Cr 블록)이고,
제2 색차 블록(Cb 블록)은, 상기 휘도 블록의 샘플 또는 상기 제1 색차 블록의 샘플 중 적어도 하나를 이용하여 복원되는 비디오 신호 처리 방법.
According to claim 1,
The color difference block is a first color difference block (Cr block),
A video signal processing method in which a second chrominance block (Cb block) is reconstructed using at least one of a sample of the luminance block and a sample of the first chrominance block.
휘도 블록의 샘플을 이용하여 색차 블록의 제1 예측값을 유도하고, 소정의 참조 영역을 기반으로, 보상 파라미터를 산출하며, 상기 제1 예측값에 상기 보상 파라미터를 적용하여, 상기 색차 블록의 제2 예측값을 유도하는 예측부; 및
상기 색차 블록의 제2 예측값에 기초하여, 상기 색차 블록을 복원하는 복원부를 포함하되,
상기 예측부는, 상기 보상 파라미터를 산출하기 위해 참조되는 상기 참조 영역을 결정하고,
상기 참조 영역은, 상기 휘도 블록에 인접한 휘도 참조 영역 및 상기 색차 블록에 인접한 색차 참조 영역을 포함하고,
상기 휘도 참조 영역은, 복수 개의 샘플 라인들을 포함하고,
상기 휘도 참조 영역에 속하는 샘플 라인의 개수는, 상기 휘도 참조 영역의 가용성에 따라 가변적으로 결정되는, 비디오 신호 처리 장치.
A first predicted value of the chrominance block is derived using a sample of the luminance block, a compensation parameter is calculated based on a predetermined reference region, and the compensation parameter is applied to the first predicted value to obtain a second predicted value of the chrominance block a prediction unit for inducing and
a restoration unit for reconstructing the color difference block based on a second predicted value of the color difference block;
The prediction unit determines the reference region referred to for calculating the compensation parameter,
the reference region includes a luminance reference region adjacent to the luminance block and a chrominance reference region adjacent to the chrominance block;
The luminance reference region includes a plurality of sample lines,
and the number of sample lines belonging to the luminance reference region is variably determined according to availability of the luminance reference region.
삭제delete 제7항에 있어서,
상기 보상 파라미터는, 상기 휘도 참조 영역의 대표값 또는 상기 색차 참조 영역의 대표값 중 적어도 하나에 기초하여 산출되는 비디오 신호 처리 장치.
8. The method of claim 7,
The compensation parameter is calculated based on at least one of a representative value of the luminance reference region and a representative value of the chrominance reference region.
제9항에 있어서,
상기 색차 참조 영역의 대표값은, 상기 색차 참조 영역에 속한 일부 샘플들의 평균값, 최소값, 최대값, 최빈값 또는 중간값 중 어느 하나로 유도되는 비디오 신호 처리 장치.
10. The method of claim 9,
The representative value of the color difference reference region is derived from any one of an average value, a minimum value, a maximum value, a mode, and a median value of some samples belonging to the color difference reference region.
제7항에 있어서, 상기 예측부는,
상기 색차 블록이 성분 간 참조 기반의 예측을 통해 복호화되는지 여부를 나타내는 정보에 기초하여, 상기 제1 예측값을 유도하는 비디오 신호 처리 장치.
The method of claim 7, wherein the prediction unit,
A video signal processing apparatus for deriving the first prediction value based on information indicating whether the color difference block is decoded through inter-component reference-based prediction.
제7항에 있어서,
상기 색차 블록은 제1 색차 블록(Cr 블록)이고,
제2 색차 블록(Cb 블록)은, 상기 휘도 블록의 샘플 또는 상기 제1 색차 블록의 샘플 중 적어도 하나를 이용하여 복원되는 비디오 신호 처리 장치.
8. The method of claim 7,
The color difference block is a first color difference block (Cr block),
A second chrominance block (Cb block) is a video signal processing apparatus that is reconstructed using at least one of a sample of the luminance block and a sample of the first chrominance block.
비트스트림을 저장하는 컴퓨터로 판독가능한 기록 매체에 있어서,
상기 비트스트림은, 색차 블록의 제2 예측값에 기초하여 생성된 잔차 블록을 포함하고,
상기 색차 블록의 제2 예측값은, 보상 파라미터를 상기 색차 블록의 제1 예측값에 적용하여 유도되고,
상기 보상 파라미터는, 소정의 참조 영역을 기반으로 산출되고,
상기 색차 블록의 제1 예측값은, 휘도 블록의 샘플을 이용하여 유도되고,
상기 참조 영역은, 상기 휘도 블록에 인접한 휘도 참조 영역 및 상기 색차 블록에 인접한 색차 참조 영역을 포함하고,
상기 휘도 참조 영역은, 복수 개의 샘플 라인들을 포함하고,
상기 휘도 참조 영역에 속하는 샘플 라인의 개수는, 상기 휘도 참조 영역의 가용성에 따라 가변적으로 결정되는 컴퓨터로 판독가능한 기록 매체.
A computer-readable recording medium storing a bitstream, comprising:
The bitstream includes a residual block generated based on a second prediction value of the chrominance block,
The second predicted value of the chrominance block is derived by applying a compensation parameter to the first predicted value of the chrominance block,
The compensation parameter is calculated based on a predetermined reference region,
The first predicted value of the chrominance block is derived using samples of the luminance block,
the reference region includes a luminance reference region adjacent to the luminance block and a chrominance reference region adjacent to the chrominance block;
The luminance reference region includes a plurality of sample lines,
The number of sample lines belonging to the luminance reference region is variably determined according to availability of the luminance reference region.
KR1020190025175A 2018-06-12 2019-03-05 A method and an apparatus for processing a video signal based on reference between components KR102389267B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190025175A KR102389267B1 (en) 2018-06-12 2019-03-05 A method and an apparatus for processing a video signal based on reference between components
KR1020220047607A KR20220051156A (en) 2019-03-05 2022-04-18 A method and an apparatus for processing a video signal based on reference between components
KR1020230124076A KR102660273B1 (en) 2018-06-12 2023-09-18 A method and an apparatus for processing a video signal based on reference between components
KR1020240052573A KR20240054951A (en) 2018-06-12 2024-04-19 A method and an apparatus for processing a video signal based on reference between components

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180067164A KR101956756B1 (en) 2018-06-12 2018-06-12 A method and an apparatus for processing a video signal based on reference between components
KR1020190025175A KR102389267B1 (en) 2018-06-12 2019-03-05 A method and an apparatus for processing a video signal based on reference between components

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180067164A Division KR101956756B1 (en) 2018-06-12 2018-06-12 A method and an apparatus for processing a video signal based on reference between components

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220047607A Division KR20220051156A (en) 2018-06-12 2022-04-18 A method and an apparatus for processing a video signal based on reference between components

Publications (2)

Publication Number Publication Date
KR20190140820A KR20190140820A (en) 2019-12-20
KR102389267B1 true KR102389267B1 (en) 2022-04-20

Family

ID=81395492

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020190025175A KR102389267B1 (en) 2018-06-12 2019-03-05 A method and an apparatus for processing a video signal based on reference between components
KR1020230124076A KR102660273B1 (en) 2018-06-12 2023-09-18 A method and an apparatus for processing a video signal based on reference between components
KR1020240052573A KR20240054951A (en) 2018-06-12 2024-04-19 A method and an apparatus for processing a video signal based on reference between components

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020230124076A KR102660273B1 (en) 2018-06-12 2023-09-18 A method and an apparatus for processing a video signal based on reference between components
KR1020240052573A KR20240054951A (en) 2018-06-12 2024-04-19 A method and an apparatus for processing a video signal based on reference between components

Country Status (1)

Country Link
KR (3) KR102389267B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023204624A1 (en) * 2022-04-20 2023-10-26 엘지전자 주식회사 Method and device for encoding/decoding image on basis of convolutional cross-component model (cccm) prediction, and recording medium for storing bitstream
WO2024078416A1 (en) * 2022-10-12 2024-04-18 维沃移动通信有限公司 Chromaticity component prediction method and apparatus, and device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013141187A (en) * 2012-01-06 2013-07-18 Sony Corp Image processing apparatus and image processing method
US10455249B2 (en) * 2015-03-20 2019-10-22 Qualcomm Incorporated Downsampling process for linear model prediction mode

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
J. Chen, et al. Algorithm Description of Joint Exploration Test Model 7 (JEM 7). JVET of ITU-T and ISO/IEC. JVET-G1001 Ver.1, Aug. 19, 2017, pp.1-44*
K. Zhang, et al. Enhanced Cross-Component Linear Model for Chroma Intra-Prediction in Video Coding. IEEE Trans. on Image Processing. Apr. 26, 2018. Vol.27, No.8, pp.3983-3997
X. Zhang, et al. Chroma Intra Prediction Based on Inter-Channel Correlation for HEVC. IEEE Trans. on Image Processing. Jan. 2014. Vol.23, No.1, pp.274-286
이종석 외 3명. CCLM에서 화면 내 예측 모드에 따른 참조 샘플 선택 방법. 2018년 한국방송미디어공학회 하계학술대회. 2018년 6월. pp.188-189

Also Published As

Publication number Publication date
KR20230136900A (en) 2023-09-27
KR20240054951A (en) 2024-04-26
KR102660273B1 (en) 2024-04-23
KR20190140820A (en) 2019-12-20

Similar Documents

Publication Publication Date Title
US20210144375A1 (en) Method and apparatus for processing video signal
US11765348B2 (en) Method and an apparatus for processing a video signal based on inter-component reference
KR102383104B1 (en) Method and apparatus for processing a video signal
KR20220002844A (en) Method and apparatus for processing a video signal based on intra prediction
KR102061201B1 (en) Methods of transformation based on block information and appratuses using the same
KR20170108367A (en) Method and apparatus for processing a video signal based on intra prediction
CN112262575A (en) Method and apparatus for encoding/decoding residual block based on quantization parameter
KR102660273B1 (en) A method and an apparatus for processing a video signal based on reference between components
KR20190140423A (en) A method and an apparatus for encoding/decoding a residual block using scaling
KR102575576B1 (en) A video encoding/decoding method and apparatus
KR102390733B1 (en) A method and an apparatus for encoding/decoding a residual block based on quantization parameter
KR20220051156A (en) A method and an apparatus for processing a video signal based on reference between components
KR102525555B1 (en) A method and an apparatus for encoding/decoding a residual block based on quantization parameter
KR102390731B1 (en) A method and an apparatus for encoding/decoding residual coefficient
KR102410326B1 (en) Method and apparatus for encoding/decoding a video signal
KR20220054277A (en) A method and an apparatus for encoding/decoding residual coefficient
KR20210075552A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210111602A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210103731A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210078768A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210082877A (en) Method for encoding/decoding video signal and apparatus therefor
KR20210078773A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210103763A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210082876A (en) Method for encoding/decoding video signal and apparatus therefor
KR20200076809A (en) A method and an apparatus for processing a video signal devided into independent encoding units

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant