KR20210153547A - method and apparatus for encoding/decoding a VIDEO SIGNAL, and a recording medium storing a bitstream - Google Patents

method and apparatus for encoding/decoding a VIDEO SIGNAL, and a recording medium storing a bitstream Download PDF

Info

Publication number
KR20210153547A
KR20210153547A KR1020210074102A KR20210074102A KR20210153547A KR 20210153547 A KR20210153547 A KR 20210153547A KR 1020210074102 A KR1020210074102 A KR 1020210074102A KR 20210074102 A KR20210074102 A KR 20210074102A KR 20210153547 A KR20210153547 A KR 20210153547A
Authority
KR
South Korea
Prior art keywords
prediction
unit
reference pixel
angle
intra prediction
Prior art date
Application number
KR1020210074102A
Other languages
Korean (ko)
Inventor
임성원
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to US17/343,006 priority Critical patent/US11758150B2/en
Publication of KR20210153547A publication Critical patent/KR20210153547A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An object of the present disclosure is to provide a method and device for efficiently performing intra-prediction in encoding/decoding a video signal. According to the present invention, an image decoding method comprises: a step of determining a reference pixel line of a current block; a step of determining an intra-prediction mode of the current block; and a step of deriving a prediction sample of the current block based on a reference pixel belonging to a reference pixel line and the intra-prediction mode. In this case, a prediction sample is determined based on a prediction angle of the intra-prediction mode and an inverse-angle variable derived based on the prediction angle. When the predicted angle has a predefined value, the inverse-angle variable has a default value.

Description

비디오 신호 부호화/복호화 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체{method and apparatus for encoding/decoding a VIDEO SIGNAL, and a recording medium storing a bitstream}A method and apparatus for encoding/decoding a video signal, and a recording medium storing a bitstream

본 개시는 비디오 신호 처리 방법 및 장치에 관한 것이다.The present disclosure relates to a video signal processing method and apparatus.

최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 고효율의 영상 압축 기술들이 활용될 수 있다.Recently, the demand for high-resolution and high-quality images such as HD (High Definition) images and UHD (Ultra High Definition) images is increasing in various application fields. As the image data becomes higher resolution and higher quality, the amount of data increases relatively compared to the existing image data. The storage cost will increase. High-efficiency image compression techniques can be used to solve these problems that occur as image data becomes high-resolution and high-quality.

영상 압축 기술로 현재 픽쳐의 이전 또는 이후 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 화면 간 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 인트라 예측 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.Interprediction technology that predicts pixel values included in the current picture from pictures before or after the current picture as an image compression technology, and intra prediction technology that predicts pixel values included in the current picture using pixel information in the current picture, appeared Various technologies exist, such as entropy encoding technology in which a short code is assigned to a value with a high frequency and a long code is assigned to a value with a low frequency of appearance.

한편, 고해상도 영상에 대한 수요가 증가함과 함께, 새로운 영상 서비스로서 입체 영상 컨텐츠에 대한 수요도 함께 증가하고 있다. 고해상도 및 초고해상도의 입체 영상 콘텐츠를 효과적으로 제공하기 위한 비디오 압축 기술에 대하여 논의가 진행되고 있다.Meanwhile, as the demand for high-resolution images increases, the demand for stereoscopic image content as a new image service is also increasing. A video compression technology for effectively providing high-resolution and ultra-high-resolution stereoscopic image content is being discussed.

본 개시는 비디오 신호를 부호화/복호화함에 있어서, 인트라 예측을 효율적으로 수행하는 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present disclosure is to provide a method and apparatus for efficiently performing intra prediction in encoding/decoding a video signal.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be able

본 개시에 따른 영상 복호화 방법은, 현재 블록의 참조 화소 라인을 결정하는 단계, 상기 현재 블록의 인트라 예측 모드를 결정하는 단계, 및 상기 참조 화소 라인에 속하는 참조 화소 및 상기 인트라 예측 모드를 기초로 상기 현재 블록의 예측 샘플을 유도하는 단계를 포함한다. 이때, 상기 예측 샘플은, 상기 인트라 예측 모드의 예측 각도 및 상기 예측 각도를 기초로 유도되는 역-각도 변수를 기초로 결정되고, 상기 예측 각도가 기 정의된 값을 갖는 경우, 상기 역-각도 변수는 디폴트 값을 가질 수 있다. In an image decoding method according to the present disclosure, determining a reference pixel line of a current block, determining an intra prediction mode of the current block, and the reference pixel belonging to the reference pixel line and the intra prediction mode based on the and deriving a prediction sample of the current block. In this case, the prediction sample is determined based on the prediction angle of the intra prediction mode and an inverse-angle variable derived based on the prediction angle, and when the prediction angle has a predefined value, the inverse-angle variable may have a default value.

본 개시에 따른 영상 부호화 방법은, 현재 블록의 참조 화소 라인을 결정하는 단계, 상기 현재 블록의 인트라 예측 모드를 결정하는 단계, 및 상기 참조 화소 라인에 속하는 참조 화소 및 상기 인트라 예측 모드를 기초로 상기 현재 블록의 예측 샘플을 유도하는 단계를 포함한다. 이때, 상기 예측 샘플은, 상기 인트라 예측 모드의 예측 각도 및 상기 예측 각도를 기초로 유도되는 역-각도 변수를 기초로 결정되고, 상기 예측 각도가 기 정의된 값을 갖는 경우, 상기 역-각도 변수는 디폴트 값을 가질 수 있다. An image encoding method according to the present disclosure includes determining a reference pixel line of a current block, determining an intra prediction mode of the current block, and based on a reference pixel belonging to the reference pixel line and the intra prediction mode and deriving a prediction sample of the current block. In this case, the prediction sample is determined based on the prediction angle of the intra prediction mode and an inverse-angle variable derived based on the prediction angle, and when the prediction angle has a predefined value, the inverse-angle variable may have a default value.

본 개시에 따른 영상 복호화/부호화 방법에 있어서, 상기 역-각도 변수에 기초하여, 상기 참조 화소 라인에 속하는 참조 화소들이 1D 어레이로 배열될 수 있다.In the image decoding/encoding method according to the present disclosure, reference pixels belonging to the reference pixel line may be arranged in a 1D array based on the inverse-angle variable.

본 개시에 따른 영상 복호화/부호화 방법에 있어서, 상기 예측 각도의 값이 기 정의된 값 또는 기 정의된 범위에 속하는지 여부에 기초하여, 상기 역-각도 변수를 업데이트할 것인지 여부가 결정될 수 있다.In the image decoding/encoding method according to the present disclosure, based on whether the value of the prediction angle belongs to a predefined value or a predefined range, it may be determined whether to update the inverse-angle variable.

본 개시에 따른 영상 복호화/부호화 방법에 있어서, 상기 역-각도 변수를 업데이트 하지 않는 것으로 결정되는 경우, 상기 역-각도 변수는 상기 디폴트값을 유지할 수 있다. In the image decoding/encoding method according to the present disclosure, when it is determined not to update the inverse-angle variable, the inverse-angle variable may maintain the default value.

본 개시에 따른 영상 복호화/부호화 방법에 있어서, 상기 디폴트값은 0일 수 있다. In the image decoding/encoding method according to the present disclosure, the default value may be 0.

본 개시에 의하면, 개선된 인트라 예측 방법을 제공함으로서, 부호화/복호화 효율을 향상시킬 수 있다. According to the present disclosure, encoding/decoding efficiency can be improved by providing an improved intra prediction method.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.

도 1은 본 개시의 일실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 2는 본 개시의 일실시예에 따른 영상 복호화 장치를 나타낸 블록도이다.
도 3은 본 개시에 따른 인트라 예측 방법을 도시한 것이다.
도 4는 기-정의된 인트라 예측 모드를 도시한 것이다.
1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present disclosure.
2 is a block diagram illustrating an image decoding apparatus according to an embodiment of the present disclosure.
3 illustrates an intra prediction method according to the present disclosure.
4 shows a pre-defined intra prediction mode.

본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present disclosure can make various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present disclosure to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present disclosure. In describing each figure, like reference numerals have been used for like elements.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present disclosure, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in the present application is used only to describe specific embodiments, and is not intended to limit the present disclosure. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 개시의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present disclosure will be described in more detail with reference to the accompanying drawings. Hereinafter, the same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

도 1은 본 개시의 일실시예에 따른 영상 부호화 장치를 나타낸 블록도이다. 1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present disclosure.

도 1을 참조하면, 영상 부호화 장치(100)는 픽쳐 분할부(110), 예측부(120, 125), 변환부(130), 양자화부(135), 재정렬부(160), 엔트로피 부호화부(165), 역양자화부(140), 역변환부(145), 필터부(150) 및 메모리(155)를 포함할 수 있다.Referring to FIG. 1 , the image encoding apparatus 100 includes a picture division unit 110 , prediction units 120 and 125 , a transform unit 130 , a quantization unit 135 , a rearrangement unit 160 , and an entropy encoding unit ( 165 ), an inverse quantization unit 140 , an inverse transform unit 145 , a filter unit 150 , and a memory 155 .

도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 개시의 본질에서 벗어나지 않는 한 본 개시의 권리범위에 포함된다.Each of the constituent units shown in FIG. 1 is independently illustrated to represent different characteristic functions in the image encoding apparatus, and does not mean that each constituent unit is composed of separate hardware or one software constituent unit. That is, each component is listed as each component for convenience of description, and at least two components of each component are combined to form one component, or one component can be divided into a plurality of components to perform a function, and each of these components Integrated embodiments and separate embodiments of components are also included in the scope of the present disclosure without departing from the essence of the present disclosure.

또한, 일부의 구성 요소는 본 개시에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 개시는 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 개시의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 개시의 권리범위에 포함된다.In addition, some of the components are not essential components to perform an essential function in the present disclosure, but may be optional components for merely improving performance. The present disclosure may be implemented by including only essential components to implement the essence of the present disclosure except for components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement Also included in the scope of the present disclosure.

픽쳐 분할부(110)는 입력된 픽쳐를 적어도 하나의 처리 단위로 분할할 수 있다. 이때, 처리 단위는 예측 단위(Prediction Unit: PU)일 수도 있고, 변환 단위(Transform Unit: TU)일 수도 있으며, 부호화 단위(Coding Unit: CU)일 수도 있다. 픽쳐 분할부(110)에서는 하나의 픽쳐에 대해 복수의 부호화 단위, 예측 단위 및 변환 단위의 조합으로 분할하고 소정의 기준(예를 들어, 비용 함수)으로 하나의 부호화 단위, 예측 단위 및 변환 단위 조합을 선택하여 픽쳐를 부호화 할 수 있다.The picture divider 110 may divide the input picture into at least one processing unit. In this case, the processing unit may be a prediction unit (PU), a transform unit (TU), or a coding unit (CU). The picture splitter 110 divides one picture into a combination of a plurality of coding units, prediction units, and transformation units, and combines one coding unit, prediction unit, and transformation unit based on a predetermined criterion (eg, a cost function). can be selected to encode the picture.

예를 들어, 하나의 픽쳐는 복수개의 부호화 단위로 분할될 수 있다. 픽쳐에서 부호화 단위를 분할하기 위해서는 쿼드 트리 구조(Quad Tree Structure)와 같은 재귀적인 트리 구조를 사용할 수 있는데 하나의 영상 또는 최대 크기 부호화 단위(largest coding unit)를 루트로 하여 다른 부호화 단위로 분할되는 부호화 유닛은 분할된 부호화 단위의 개수만큼의 자식 노드를 가지고 분할될 수 있다. 일정한 제한에 따라 더 이상 분할되지 않는 부호화 단위는 리프 노드가 된다. 즉, 하나의 코딩 유닛에 대하여 정방형 분할만이 가능하다고 가정하는 경우, 하나의 부호화 단위는 최대 4개의 다른 부호화 단위로 분할될 수 있다.For example, one picture may be divided into a plurality of coding units. In order to split a coding unit in a picture, a recursive tree structure such as a quad tree structure may be used. A coding in which one image or a largest coding unit is used as a root and is divided into other coding units. A unit may be divided having as many child nodes as the number of divided coding units. A coding unit that is no longer split according to certain restrictions becomes a leaf node. That is, if it is assumed that only square splitting is possible for one coding unit, one coding unit may be split into up to four different coding units.

이하, 본 개시의 실시예에서는 부호화 단위는 부호화를 수행하는 단위의 의미로 사용할 수도 있고, 복호화를 수행하는 단위의 의미로 사용할 수도 있다.Hereinafter, in an embodiment of the present disclosure, a coding unit may be used as a unit for performing encoding or may be used as a meaning for a unit for performing decoding.

예측 단위는 하나의 부호화 단위 내에서 동일한 크기의 적어도 하나의 정사각형 또는 직사각형 등의 형태를 가지고 분할된 것일 수도 있고, 하나의 부호화 단위 내에서 분할된 예측 단위 중 어느 하나의 예측 단위가 다른 하나의 예측 단위와 상이한 형태 및/또는 크기를 가지도록 분할된 것일 수도 있다.A prediction unit may be split in the form of at least one square or rectangle of the same size within one coding unit, and one prediction unit among the split prediction units within one coding unit is a prediction of another. It may be divided to have a shape and/or size different from the unit.

부호화 단위를 기초로 인트라 예측을 수행하는 예측 단위를 생성시 최소 부호화 단위가 아닌 경우, 복수의 예측 단위 NxN으로 분할하지 않고 인트라 예측을 수행할 수 있다.When generating a prediction unit for performing intra prediction based on a coding unit, if it is not the smallest coding unit, intra prediction may be performed without dividing the prediction unit into a plurality of NxN prediction units.

예측부(120, 125)는 인터 예측을 수행하는 인터 예측부(120)와 인트라 예측을 수행하는 인트라 예측부(125)를 포함할 수 있다. 예측 단위에 대해 인터 예측을 사용할 것인지 또는 인트라 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 인트라 예측 모드, 모션 벡터, 참조 픽쳐 등)를 결정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 예측 단위로 결정되고, 예측의 수행은 변환 단위로 수행될 수도 있다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(130)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(165)에서 부호화되어 복호화 장치에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(120, 125)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.The prediction units 120 and 125 may include an inter prediction unit 120 performing inter prediction and an intra prediction unit 125 performing intra prediction. Whether to use inter prediction or to perform intra prediction for a prediction unit may be determined, and specific information (eg, intra prediction mode, motion vector, reference picture, etc.) according to each prediction method may be determined. In this case, a processing unit in which prediction is performed and a processing unit in which a prediction method and specific content are determined may be different. For example, a prediction method and a prediction mode may be determined in a prediction unit, and prediction may be performed in a transformation unit. A residual value (residual block) between the generated prediction block and the original block may be input to the transform unit 130 . Also, prediction mode information, motion vector information, etc. used for prediction may be encoded by the entropy encoder 165 together with the residual value and transmitted to the decoding apparatus. When a specific encoding mode is used, the original block may be encoded and transmitted to the decoder without generating the prediction block through the predictors 120 and 125 .

인터 예측부(120)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 단위를 예측할 수도 있고, 경우에 따라서는 현재 픽쳐 내의 부호화가 완료된 일부 영역의 정보를 기초로 예측 단위를 예측할 수도 있다. 인터 예측부(120)는 참조 픽쳐 보간부, 모션 예측부, 움직임 보상부를 포함할 수 있다. The inter prediction unit 120 may predict a prediction unit based on information on at least one of a picture before or after the current picture, and in some cases, prediction based on information of a partial region in the current picture that has been encoded Units can also be predicted. The inter prediction unit 120 may include a reference picture interpolator, a motion prediction unit, and a motion compensator.

참조 픽쳐 보간부에서는 메모리(155)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.The reference picture interpolator may receive reference picture information from the memory 155 and generate pixel information of integer pixels or less in the reference picture. In the case of luminance pixels, a DCT-based 8-tap interpolation filter in which filter coefficients are different to generate pixel information of integer pixels or less in units of 1/4 pixels may be used. In the case of the color difference signal, a DCT-based 4-tap interpolation filter in which filter coefficients are different to generate pixel information of integer pixels or less in units of 1/8 pixels may be used.

모션 예측부는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 모션 예측을 수행할 수 있다. 모션 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 모션 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 모션 벡터값을 가질 수 있다. 모션 예측부에서는 모션 예측 방법을 다르게 하여 현재 예측 단위를 예측할 수 있다. 모션 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법, 인트라 블록 카피(Intra Block Copy) 방법 등 다양한 방법이 사용될 수 있다.The motion prediction unit may perform motion prediction based on the reference picture interpolated by the reference picture interpolator. As a method for calculating the motion vector, various methods such as Full search-based Block Matching Algorithm (FBMA), Three Step Search (TSS), and New Three-Step Search Algorithm (NTS) may be used. The motion vector may have a motion vector value of 1/2 or 1/4 pixel unit based on the interpolated pixel. The motion prediction unit may predict the current prediction unit by using a different motion prediction method. Various methods, such as a skip method, a merge method, an AMVP (Advanced Motion Vector Prediction) method, an intra block copy method, etc., may be used as the motion prediction method.

인트라 예측부(125)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 단위를 생성할 수 있다. 현재 예측 단위의 주변 블록이 인터 예측을 수행한 블록이어서, 참조 픽셀이 인터 예측을 수행한 픽셀일 경우, 인터 예측을 수행한 블록에 포함되는 참조 픽셀을 주변의 인트라 예측을 수행한 블록의 참조 픽셀 정보로 대체하여 사용할 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.The intra prediction unit 125 may generate a prediction unit based on reference pixel information around the current block, which is pixel information in the current picture. When the neighboring block of the current prediction unit is a block on which inter prediction is performed, and thus the reference pixel is a pixel on which inter prediction is performed, the reference pixel included in the block on which the inter prediction is performed is a reference pixel of the block on which the intra prediction is performed. information can be used instead. That is, when the reference pixel is not available, the unavailable reference pixel information may be replaced with at least one reference pixel among the available reference pixels.

인트라 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 정보를 예측하기 위해 사용된 인트라 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.In intra prediction, the prediction mode may have a directional prediction mode in which reference pixel information is used according to a prediction direction and a non-directional mode in which directional information is not used when prediction is performed. A mode for predicting luminance information and a mode for predicting chrominance information may be different, and intra prediction mode information used for predicting luminance information or predicted luminance signal information may be utilized to predict chrominance information.

인트라 예측을 수행할 때 예측 단위의 크기와 변환 단위의 크기가 동일할 경우, 예측 단위의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 단위에 대한 인트라 예측을 수행할 수 있다. 그러나 인트라 예측을 수행할 때 예측 단위의 크기와 변환 단위의 크기가 상이할 경우, 변환 단위를 기초로 한 참조 픽셀을 이용하여 인트라 예측을 수행할 수 있다. 또한, 최소 부호화 단위에 대해서만 NxN 분할을 사용하는 인트라 예측을 사용할 수 있다.When intra prediction is performed, if the size of the prediction unit and the size of the transformation unit are the same, intra prediction for the prediction unit based on the pixel present on the left side, the pixel present on the upper left side, and the pixel present on the upper side of the prediction unit can be performed. However, when the size of the prediction unit is different from the size of the transformation unit when intra prediction is performed, intra prediction may be performed using a reference pixel based on the transformation unit. In addition, intra prediction using NxN splitting may be used only for the smallest coding unit.

인트라 예측 방법은 예측 모드에 따라 참조 화소에 AIS(Adaptive Intra Smoothing) 필터를 적용한 후 예측 블록을 생성할 수 있다. 참조 화소에 적용되는 AIS 필터의 종류는 상이할 수 있다. 인트라 예측 방법을 수행하기 위해 현재 예측 단위의 인트라 예측 모드는 현재 예측 단위의 주변에 존재하는 예측 단위의 인트라 예측 모드로부터 예측할 수 있다. 주변 예측 단위로부터 예측된 모드 정보를 이용하여 현재 예측 단위의 예측 모드를 예측하는 경우, 현재 예측 단위와 주변 예측 단위의 인트라 예측 모드가 동일하면 소정의 플래그 정보를 이용하여 현재 예측 단위와 주변 예측 단위의 예측 모드가 동일하다는 정보를 전송할 수 있고, 만약 현재 예측 단위와 주변 예측 단위의 예측 모드가 상이하면 엔트로피 부호화를 수행하여 현재 블록의 예측 모드 정보를 부호화할 수 있다.The intra prediction method may generate a prediction block after applying an adaptive intra smoothing (AIS) filter to a reference pixel according to a prediction mode. The type of AIS filter applied to the reference pixel may be different. In order to perform the intra prediction method, the intra prediction mode of the current prediction unit may be predicted from the intra prediction mode of the prediction unit existing around the current prediction unit. When the prediction mode of the current prediction unit is predicted using mode information predicted from the neighboring prediction unit, if the intra prediction mode of the current prediction unit and the neighboring prediction unit is the same, the current prediction unit and the neighboring prediction unit are used using predetermined flag information It is possible to transmit information indicating that the prediction modes of , and if the prediction modes of the current prediction unit and the neighboring prediction units are different from each other, entropy encoding may be performed to encode the prediction mode information of the current block.

또한, 예측부(120, 125)에서 생성된 예측 단위를 기초로 예측을 수행한 예측 단위와 예측 단위의 원본 블록과 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(130)로 입력될 수 있다. In addition, a residual block including residual information that is a difference value from the original block of the prediction unit and the prediction unit in which prediction is performed based on the prediction unit generated by the prediction units 120 and 125 may be generated. The generated residual block may be input to the transform unit 130 .

변환부(130)에서는 원본 블록과 예측부(120, 125)를 통해 생성된 예측 단위의 잔차값(residual)정보를 포함한 잔차 블록을 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), KLT와 같은 변환 방법을 사용하여 변환시킬 수 있다. 잔차 블록을 변환하기 위해 DCT를 적용할지, DST를 적용할지 또는 KLT를 적용할지는 잔차 블록을 생성하기 위해 사용된 예측 단위의 인트라 예측 모드 정보를 기초로 결정할 수 있다. The transform unit 130 converts the original block and the residual block including residual information of the prediction units generated by the prediction units 120 and 125 to DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), and KLT It can be converted using the same conversion method. Whether to apply DCT, DST, or KLT to transform the residual block may be determined based on intra prediction mode information of a prediction unit used to generate the residual block.

양자화부(135)는 변환부(130)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(135)에서 산출된 값은 역양자화부(140)와 재정렬부(160)에 제공될 수 있다.The quantization unit 135 may quantize values transformed in the frequency domain by the transform unit 130 . The quantization coefficient may vary according to blocks or the importance of an image. The value calculated by the quantization unit 135 may be provided to the inverse quantization unit 140 and the rearrangement unit 160 .

재정렬부(160)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.The rearrangement unit 160 may rearrange the coefficient values on the quantized residual values.

재정렬부(160)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(160)에서는 지그-재그 스캔(Zig-Zag Scan)방법을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. 변환 단위의 크기 및 인트라 예측 모드에 따라 지그-재그 스캔 대신 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측 모드에 따라 지그-재그 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.The rearrangement unit 160 may change the two-dimensional block form coefficient into a one-dimensional vector form through a coefficient scanning method. For example, the rearranging unit 160 may use a Zig-Zag Scan method to scan from DC coefficients to coefficients in a high frequency region, and may change them into a one-dimensional vector form. A vertical scan for scanning a two-dimensional block shape coefficient in a column direction and a horizontal scan for scanning a two-dimensional block shape coefficient in a row direction may be used instead of the zig-zag scan according to the size of the transform unit and the intra prediction mode. That is, it may be determined whether any of the zig-zag scan, the vertical scan, and the horizontal scan is used according to the size of the transform unit and the intra prediction mode.

엔트로피 부호화부(165)는 재정렬부(160)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다. The entropy encoding unit 165 may perform entropy encoding based on the values calculated by the reordering unit 160 . For entropy encoding, various encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be used.

엔트로피 부호화부(165)는 재정렬부(160) 및 예측부(120, 125)로부터 부호화 단위의 잔차값 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보 및 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다. The entropy encoder 165 receives the residual value coefficient information, block type information, prediction mode information, division unit information, prediction unit information and transmission unit information, motion of the coding unit from the reordering unit 160 and the prediction units 120 and 125 . Various information such as vector information, reference frame information, interpolation information of a block, and filtering information may be encoded.

엔트로피 부호화부(165)에서는 재정렬부(160)에서 입력된 부호화 단위의 계수값을 엔트로피 부호화할 수 있다.The entropy encoder 165 may entropy-encode the coefficient values of the coding units input from the reordering unit 160 .

역양자화부(140) 및 역변환부(145)에서는 양자화부(135)에서 양자화된 값들을 역양자화하고 변환부(130)에서 변환된 값들을 역변환한다. 역양자화부(140) 및 역변환부(145)에서 생성된 잔차값(Residual)은 예측부(120, 125)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다. The inverse quantizer 140 and the inverse transform unit 145 inversely quantize the values quantized by the quantizer 135 and inversely transform the values transformed by the transform unit 130 . The residual values generated by the inverse quantizer 140 and the inverse transform unit 145 are combined with the prediction units predicted through the motion estimation unit, the motion compensator, and the intra prediction unit included in the prediction units 120 and 125 and restored. You can create a Reconstructed Block.

필터부(150)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다.The filter unit 150 may include at least one of a deblocking filter, an offset correcting unit, and an adaptive loop filter (ALF).

디블록킹 필터는 복원된 픽쳐에서 블록 간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.The deblocking filter may remove block distortion caused by the boundary between blocks in the reconstructed picture. In order to determine whether to perform deblocking, it may be determined whether to apply the deblocking filter to the current block based on pixels included in several columns or rows included in the block. When a deblocking filter is applied to a block, a strong filter or a weak filter can be applied according to the required deblocking filtering strength. In addition, in applying the deblocking filter, horizontal filtering and vertical filtering may be concurrently processed when vertical filtering and horizontal filtering are performed.

오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.The offset correcting unit may correct an offset from the original image in units of pixels with respect to the image on which the deblocking has been performed. In order to perform offset correction on a specific picture, a method of dividing pixels included in an image into a certain number of regions, determining the region to be offset and applying the offset to the region, or taking edge information of each pixel into account can be used to apply

ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 상관없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수도 있다. Adaptive loop filtering (ALF) may be performed based on a value obtained by comparing the filtered reconstructed image and the original image. After dividing the pixels included in the image into a predetermined group, one filter to be applied to the corresponding group is determined, and filtering can be performed differentially for each group. As for information related to whether to apply ALF, the luminance signal may be transmitted for each coding unit (CU), and the shape and filter coefficients of the ALF filter to be applied may vary according to each block. In addition, the ALF filter of the same type (fixed type) may be applied regardless of the characteristics of the block to be applied.

메모리(155)는 필터부(150)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행 시 예측부(120, 125)에 제공될 수 있다.The memory 155 may store the reconstructed block or picture calculated through the filter unit 150 , and the stored reconstructed block or picture may be provided to the predictors 120 and 125 when inter prediction is performed.

도 2는 본 개시의 일실시예에 따른 영상 복호화 장치를 나타낸 블록도이다.2 is a block diagram illustrating an image decoding apparatus according to an embodiment of the present disclosure.

도 2를 참조하면, 영상 복호화 장치(200)는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230, 235), 필터부(240), 메모리(245)가 포함될 수 있다.Referring to FIG. 2 , the image decoding apparatus 200 includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, prediction units 230 and 235, and a filter unit ( 240) and a memory 245 may be included.

영상 부호화 장치에서 영상 비트스트림이 입력된 경우, 입력된 비트스트림은 영상 부호화 장치와 반대의 절차로 복호화될 수 있다.When an image bitstream is input by the image encoding apparatus, the input bitstream may be decoded by a procedure opposite to that of the image encoding apparatus.

엔트로피 복호화부(210)는 영상 부호화 장치의 엔트로피 부호화부에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화 장치에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다. The entropy decoding unit 210 may perform entropy decoding in a procedure opposite to that performed by the entropy encoding unit of the image encoding apparatus. For example, various methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied corresponding to the method performed by the image encoding apparatus.

엔트로피 복호화부(210)에서는 부호화 장치에서 수행된 인트라 예측 및 인터 예측에 관련된 정보를 복호화할 수 있다.The entropy decoding unit 210 may decode information related to intra prediction and inter prediction performed by the encoding apparatus.

재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 부호화부에서 재정렬한 방법을 기초로 재정렬을 수행할 수 있다. 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부(215)에서는 부호화부에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 해당 부호화부에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다.The reordering unit 215 may perform rearrangement based on a method of rearranging the entropy-decoded bitstream by the entropy decoding unit 210 by the encoder. Coefficients expressed in the form of a one-dimensional vector may be restored and rearranged as coefficients in the form of a two-dimensional block. The reordering unit 215 may receive information related to the coefficient scanning performed by the encoder and perform the rearrangement by performing a reverse scanning method based on the scanning order performed by the corresponding encoder.

역양자화부(220)는 부호화 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다. The inverse quantizer 220 may perform inverse quantization based on the quantization parameter provided by the encoding apparatus and the reordered coefficient values of the blocks.

역변환부(225)는 영상 부호화 장치에서 수행한 양자화 결과에 대해 변환부에서 수행한 변환 즉, DCT, DST, 및 KLT에 대해 역변환 즉, 역 DCT, 역 DST 및 역 KLT를 수행할 수 있다. 역변환은 영상 부호화 장치에서 결정된 전송 단위를 기초로 수행될 수 있다. 영상 복호화 장치의 역변환부(225)에서는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 변환 기법(예를 들어, DCT, DST, KLT)이 선택적으로 수행될 수 있다.The inverse transform unit 225 may perform inverse transforms, ie, inverse DCT, inverse DST, and inverse KLT, on the transforms performed by the transform unit, ie, DCT, DST, and KLT, on the quantization result performed by the image encoding apparatus. Inverse transform may be performed based on a transmission unit determined by the image encoding apparatus. The inverse transform unit 225 of the image decoding apparatus may selectively perform a transformation technique (eg, DCT, DST, KLT) according to a plurality of pieces of information such as a prediction method, a size of a current block, and a prediction direction.

예측부(230, 235)는 엔트로피 복호화부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(245)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. The prediction units 230 and 235 may generate a prediction block based on the prediction block generation related information provided from the entropy decoding unit 210 and previously decoded block or picture information provided from the memory 245 .

전술한 바와 같이 영상 부호화 장치에서의 동작과 동일하게 인트라 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 동일할 경우, 예측 단위의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 단위에 대한 인트라 예측을 수행하지만, 인트라 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 상이할 경우, 변환 단위를 기초로 한 참조 픽셀을 이용하여 인트라 예측을 수행할 수 있다. 또한, 최소 부호화 단위에 대해서만 NxN 분할을 사용하는 인트라 예측을 사용할 수도 있다.As described above, when intra prediction is performed in the same manner as in the operation of the image encoding apparatus, when the size of the prediction unit and the size of the transformation unit are the same, the pixel present at the left side of the prediction unit, the pixel present at the upper left side, and the upper side Intra prediction is performed on the prediction unit based on existing pixels, but when the size of the prediction unit and the size of the transformation unit are different when performing intra prediction, intra prediction is performed using the reference pixel based on the transformation unit can do. Also, intra prediction using NxN splitting may be used only for the smallest coding unit.

예측부(230, 235)는 예측 단위 판별부, 인터 예측부 및 인트라 예측부를 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(210)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 예측 모드 정보, 인터 예측 방법의 모션 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위에서 예측 단위를 구분하고, 예측 단위가 인터 예측을 수행하는지 아니면 인트라 예측을 수행하는지 여부를 판별할 수 있다. 인터 예측부(230)는 영상 부호화 장치에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 인터 예측을 수행할 수 있다. 또는, 현재 예측 단위가 포함된 현재 픽쳐 내에서 기-복원된 일부 영역의 정보를 기초로 인터 예측을 수행할 수도 있다.The prediction units 230 and 235 may include a prediction unit determiner, an inter prediction unit, and an intra prediction unit. The prediction unit determining unit receives various information such as prediction unit information input from the entropy decoder 210, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and divides the prediction unit from the current coding unit, and predicts It may be determined whether the unit performs inter prediction or intra prediction. The inter prediction unit 230 uses information required for inter prediction of the current prediction unit provided from the image encoding apparatus based on the information included in at least one picture before or after the current picture including the current prediction unit. Inter prediction may be performed on the prediction unit. Alternatively, inter prediction may be performed based on information on a pre-restored partial region in the current picture including the current prediction unit.

인터 예측을 수행하기 위해 부호화 단위를 기준으로 해당 부호화 단위에 포함된 예측 단위의 모션 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode), 인트라 블록 카피 모드 중 어떠한 방법인지 여부를 판단할 수 있다.In order to perform inter prediction, a motion prediction method of a prediction unit included in a corresponding coding unit based on a coding unit is selected from among skip mode, merge mode, AMVP mode, and intra block copy mode. You can decide which way to go.

인트라 예측부(235)는 현재 픽쳐 내의 화소 정보를 기초로 예측 블록을 생성할 수 있다. 예측 단위가 인트라 예측을 수행한 예측 단위인 경우, 영상 부호화 장치에서 제공된 예측 단위의 인트라 예측 모드 정보를 기초로 인트라 예측을 수행할 수 있다. 인트라 예측부(235)에는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 영상 부호화 장치에서 제공된 예측 단위의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.The intra prediction unit 235 may generate a prediction block based on pixel information in the current picture. When the prediction unit is a prediction unit on which intra prediction is performed, intra prediction may be performed based on intra prediction mode information of the prediction unit provided by the image encoding apparatus. The intra prediction unit 235 may include an adaptive intra smoothing (AIS) filter, a reference pixel interpolator, and a DC filter. The AIS filter is a part that performs filtering on the reference pixel of the current block, and can be applied by determining whether to apply the filter according to the prediction mode of the current prediction unit. AIS filtering may be performed on the reference pixel of the current block by using the prediction mode and AIS filter information of the prediction unit provided by the image encoding apparatus. When the prediction mode of the current block is a mode in which AIS filtering is not performed, the AIS filter may not be applied.

참조 화소 보간부는 예측 단위의 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소를 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.When the prediction mode of the prediction unit is a prediction unit in which intra prediction is performed based on a pixel value obtained by interpolating the reference pixel, the reference pixel interpolator may interpolate the reference pixel to generate a reference pixel of a pixel unit having an integer value or less. When the prediction mode of the current prediction unit is a prediction mode that generates a prediction block without interpolating the reference pixel, the reference pixel may not be interpolated. The DC filter may generate a prediction block through filtering when the prediction mode of the current block is the DC mode.

복원된 블록 또는 픽쳐는 필터부(240)로 제공될 수 있다. 필터부(240)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.The reconstructed block or picture may be provided to the filter unit 240 . The filter unit 240 may include a deblocking filter, an offset correcting unit, and an ALF.

영상 부호화 장치로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 영상 복호화 장치의 디블록킹 필터에서는 영상 부호화 장치에서 제공된 디블록킹 필터 관련 정보를 제공받고 영상 복호화 장치에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. Information on whether a deblocking filter is applied to a corresponding block or picture and information on whether a strong filter or a weak filter is applied when the deblocking filter is applied may be provided from the image encoding apparatus. The deblocking filter of the image decoding apparatus may receive deblocking filter-related information provided from the image encoding apparatus, and the image decoding apparatus may perform deblocking filtering on the corresponding block.

오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.The offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction applied to the image during encoding and information on the offset value.

ALF는 부호화 장치로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.ALF may be applied to a coding unit based on information on whether ALF is applied, ALF coefficient information, etc. provided from the encoding apparatus. Such ALF information may be provided by being included in a specific parameter set.

메모리(245)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다. The memory 245 may store the reconstructed picture or block to be used as a reference picture or reference block, and may also provide the reconstructed picture to an output unit.

전술한 바와 같이 이하, 본 개시의 실시예에서는 설명의 편의상 코딩 유닛(Coding Unit)을 부호화 단위라는 용어로 사용하지만, 부호화 뿐만 아니라 복호화를 수행하는 단위가 될 수도 있다.As described above, hereinafter, in the embodiments of the present disclosure, a coding unit is used as a term for a coding unit for convenience of description, but may also be a unit for performing decoding as well as coding.

또한, 현재 블록은, 부호화/복호화 대상 블록을 나타내는 것으로, 부호화/복호화 단계에 따라, 코딩 트리 블록(또는 코딩 트리 유닛), 부호화 블록(또는 부호화 유닛), 변환 블록(또는 변환 유닛) 또는 예측 블록(또는 예측 유닛) 등을 나타내는 것일 수 있다. 본 명세서에서, '유닛'은 특정 부호화/복호화 프로세스를 수행하기 위한 기본 단위를 나타내고, '블록'은 소정 크기의 화소 어레이를 나타낼 수 있다. 별도의 구분이 없는 한, '블록'과 '유닛'은 동등한 의미로 사용될 수 있다. 예컨대, 후술되는 실시예에서, 부호화 블록(코딩 블록) 및 부호화 유닛(코딩 유닛)은 상호 동등한 의미인 것으로 이해될 수 있다.In addition, the current block denotes an encoding/decoding target block, and depending on the encoding/decoding step, a coding tree block (or coding tree unit), a coding block (or a coding unit), a transform block (or a transform unit), or a prediction block (or prediction unit) and the like. In this specification, a 'unit' may indicate a basic unit for performing a specific encoding/decoding process, and a 'block' may indicate a pixel array of a predetermined size. Unless otherwise specified, 'block' and 'unit' may be used interchangeably. For example, in the embodiments to be described later, it may be understood that the coding block (coding block) and the coding unit (coding unit) have the same meaning.

도 3은 본 개시에 따른 인트라 예측 방법을 도시한 것이다.3 illustrates an intra prediction method according to the present disclosure.

도 3을 참조하면, 현재 부호화/복호화되는 블록(이하, 현재 블록이라 함)의 인트라 예측을 위한 참조 화소 라인을 결정할 수 있다(S300).Referring to FIG. 3 , a reference pixel line for intra prediction of a currently encoded/decoded block (hereinafter, referred to as a current block) may be determined ( S300 ).

본 개시에 따른 참조 화소 라인은, 현재 블록에 인접한 주변 블록에 속할 수 있다. 상기 주변 블록은 좌측 블록, 상단 블록, 좌상단 블록, 좌하단 블록, 우상단 블록, 우측 블록, 우하단 블록, 또는 하단 블록 중 적어도 하나를 포함할 수 있다. 또한, 참조 화소 라인은, 현재 블록과 동일한 픽쳐에 속하나, 현재 블록에 인접하지 않은 공간적 블록에 속할 수도 있고, 현재 블록과는 다른 픽쳐에 속한 시간적 블록에 속할 수도 있다. 여기서, 시간적 블록은, 전술한 현재 블록의 주변 블록과 동일 위치의 블록일 수 있다.The reference pixel line according to the present disclosure may belong to a neighboring block adjacent to the current block. The neighboring block may include at least one of a left block, an upper block, an upper left block, a lower left block, an upper right block, a right block, a lower right block, and a lower block. Also, the reference pixel line may belong to a spatial block belonging to the same picture as the current block but not adjacent to the current block, or may belong to a temporal block belonging to a picture different from the current block. Here, the temporal block may be a block at the same location as a neighboring block of the aforementioned current block.

상기 참조 화소 라인은, 현재 블록 이전에 기-부호화/복호화된 블록에만 속하도록 제한될 수도 있고, 현재 블록 이후에 부호화/복호화되는 블록에 속할 수도 있다. 이 경우 별도의 패딩 과정이 수반될 수도 있다. The reference pixel line may be limited to belong only to a block pre-encoded/decoded before the current block, or may belong to a block encoded/decoded after the current block. In this case, a separate padding process may be accompanied.

상기 참조 화소 라인은, 복수의 참조 화소 라인 후보 중 어느 하나로 결정될 수 있다. 복수의 참조 화소 라인 후보는, 현재 블록에 인접한 제1 참조 화소 라인, 상기 제1 참조 화소 라인에 인접한 제2 참조 화소 라인, …, 상기 제(n-1) 참조 화소 라인에 인접한 제n 참조 화소 라인 중 적어도 하나를 포함할 수 있다. 여기서, n은 2, 3, 4, 또는 그 이상의 정수일 수 있다.The reference pixel line may be determined as any one of a plurality of reference pixel line candidates. The plurality of reference pixel line candidates include a first reference pixel line adjacent to the current block, a second reference pixel line adjacent to the first reference pixel line, ... , at least one of an nth reference pixel line adjacent to the (n−1)th reference pixel line. Here, n may be an integer of 2, 3, 4, or more.

일 예로, 복수의 참조 화소 라인 후보는, 제1 내지 제4 참조 화소 라인으로 구성될 수도 있고, 제1 내지 제3 참조 화소 라인만으로 구성되거나, 제1 및 제3 참조 화소 라인만으로 구성될 수도 있다. For example, the plurality of reference pixel line candidates may include first to fourth reference pixel lines, only first to third reference pixel lines, or only first and third reference pixel lines. .

전술한 제1 내지 제n 참조 화소 라인 중 어느 하나가 선택적으로 이용될 수 있으며, 이를 위해 참조 화소 라인의 위치를 특정하기 위한 정보가 이용될 수 있다. 상기 정보는 부호화 장치에서 시그날링될 수 있다. 일 예로, 비트스트림을 통해, 복수의 참조 화소 라인들 중 하나의 인덱스를 지시하는 인덱스 정보가 시그날링될 수 있다. 상기 인덱스 정보에 의해, 현재 블록의 참조 화소 라인의 인덱스 refIdx가 결정될 수 있다. 참조 화소 라인의 인덱스 refIdx의 값이 0인 것은, 현재 블록에 인접하는 참조 화소 라인을 가리킨다. 참조 화소 라인의 인덱스 refIdx의 값이 n인 것은, 상기 인접 참조 화소 라인으로부터 n개의 라인만큼 떨어진 참조 화소 라인을 가리킨다.Any one of the above-described first to nth reference pixel lines may be selectively used, and for this purpose, information for specifying a position of the reference pixel line may be used. The information may be signaled by the encoding device. For example, index information indicating an index of one of a plurality of reference pixel lines may be signaled through a bitstream. Based on the index information, the index refIdx of the reference pixel line of the current block may be determined. The value of the index refIdx of the reference pixel line being 0 indicates the reference pixel line adjacent to the current block. The value of the index refIdx of the reference pixel line of n indicates a reference pixel line separated by n lines from the adjacent reference pixel line.

또는, 현재 블록과의 인접성을 고려하여, 각 참조 화소 라인의 인덱스 refIdx를 결정할 수 있다. 일 예로, 3개의 참조 화소 라인들 중 하나가 선택되는 경우, 3개의 참조 화소 라인들 중 현재 블록과 가장 인접하는 참조 화소 라인의 인덱스를 0으로 설정하고, 현재 블록과 가장 먼 참조 화소 라인의 인덱스를 2로 설정할 수 있다. 상기 두 참조 화소 사이의 참조 화소 라인의 인덱스는 1로 설정될 수 있다. Alternatively, the index refIdx of each reference pixel line may be determined in consideration of proximity to the current block. For example, when one of the three reference pixel lines is selected, the index of the reference pixel line closest to the current block among the three reference pixel lines is set to 0, and the index of the reference pixel line farthest from the current block is set. can be set to 2. An index of the reference pixel line between the two reference pixels may be set to 1.

또는, 소정의 부호화 파라미터에 기반하여 현재 블록의 참조 화소 라인을 결정할 수 있다. Alternatively, the reference pixel line of the current block may be determined based on a predetermined encoding parameter.

상기 부호화 파라미터는, 블록의 크기, 형태, 위치, 성분 타입(Y/Cb/Cr), 예측 모드(intra/inter), 인트라 예측 모드, 또는 비방향성 모드인지 여부 중 적어도 하나를 포함할 수 있다. 여기서, 블록은, 현재 블록 및/또는 주변 블록을 의미할 수도 있고, 코딩 블록, 예측 블록 및/또는 변환 블록을 의미할 수도 있다. 또한, 현재 블록이 이용 가능한 참조 화소 라인 후보의 개수도 전술한 부호화 파라미터에 기초하여 가변적으로 결정될 수도 있고, 상기 개수를 특정하기 위한 정보가 별도로 시그날링될 수도 있다. The encoding parameter may include at least one of a block size, a shape, a position, a component type (Y/Cb/Cr), a prediction mode (intra/inter), an intra prediction mode, or a non-directional mode. Here, a block may mean a current block and/or a neighboring block, or a coding block, a prediction block, and/or a transform block. In addition, the number of reference pixel line candidates available for the current block may also be variably determined based on the above-described encoding parameter, and information for specifying the number may be separately signaled.

도 3을 참조하면, 현재 블록의 인트라 예측 모드를 결정할 수 있다(S310).Referring to FIG. 3 , an intra prediction mode of the current block may be determined ( S310 ).

현재 블록의 인트라 예측 모드는, 부호화/복호화 장치에 기-정의된 인트라 예측 모드들 중 어느 하나로 결정될 수 있다. 상기 기-정의된 인트라 예측 모드는, 도 4에 도시된 바와 같이, 2개의 비방향성 모드와 65개의 방향성 모드로 구성될 수 있다.The intra prediction mode of the current block may be determined as any one of intra prediction modes pre-defined in the encoding/decoding apparatus. The pre-defined intra prediction mode may be composed of two non-directional modes and 65 directional modes, as shown in FIG. 4 .

방향성 모드는, 평면 모드(Planar mode) 또는 DC 모드 중 적어도 하나를 포함하고, 비방향성 모드는, 소정의 각도/방향성을 가진 모드(e.g., 수직 모드, 수평 모드, 대각석 모드 등)를 포함할 수 있다.The directional mode includes at least one of a planar mode or a DC mode, and the non-directional mode includes a mode (eg, vertical mode, horizontal mode, diagonal mode, etc.) having a predetermined angle/direction. can

도 3을 참조하면, 상기 결정된 참조 화소 라인과 인트라 예측 모드에 기반하여, 현재 블록의 인트라 예측을 수행할 수 있다(S320).Referring to FIG. 3 , intra prediction of the current block may be performed based on the determined reference pixel line and the intra prediction mode ( S320 ).

즉, 참조 화소 라인의 화소 중 상기 결정된 인트라 예측 모드에 대응하는 화소가 참조 화소로 특정되고, 특정된 참조 화소를 이용하여 예측 화소를 유도할 수 있다. That is, a pixel corresponding to the determined intra prediction mode among pixels of the reference pixel line is specified as a reference pixel, and a prediction pixel can be derived using the specified reference pixel.

현재 블록의 예측 화소는 참조 화소를 참조하여 유도될 수 있다. 이때, 예측 화소를 유도하는데 참조되는 참조 화소는 인트라 예측 모드의 방향에 기초하여 결정될 수 있다. A prediction pixel of the current block may be derived with reference to a reference pixel. In this case, the reference pixel referenced for deriving the prediction pixel may be determined based on the direction of the intra prediction mode.

도 5는 인덱스가 58인 방향성 인트라 예측 모드가 선택된 경우의 예시이다.5 is an example of a case in which a directional intra prediction mode having an index of 58 is selected.

현재 블록의예측 화소를 유도하기 위해, 인트라 예측 모드의 방향에 기초하여, 현재 블록 주변의 참조 화소를 결정할 수 있다. In order to derive the prediction pixel of the current block, a reference pixel around the current block may be determined based on the direction of the intra prediction mode.

이때, 인트라 예측 모드의 방향에 의해 특정되는 위치가 정수 위치가 아닌 경우, 참조 화소들을 보간하여 분수 위치 참조 화소를 생성할 수 있다. 생성된 분수 위치 참조 화소의 값을 해당 위치의 예측 화소로 설정한다. In this case, when the position specified by the direction of the intra prediction mode is not an integer position, a fractional position reference pixel may be generated by interpolating the reference pixels. The value of the generated fractional position reference pixel is set as the predicted pixel of the corresponding position.

분수 위치 참조 화소를 생성하기 위해 사용되는 보간 필터의 타입은, 복수의 보간 필터 타입들 중에서 선택될 수 있다. 상기 복수의 보간 필터 타입들은, 큐빅 콘볼루션 필터(Cubit-convolution filter) 및 가우시안 필터(Gaussian filter)를 포함할 수 있다.The type of interpolation filter used to generate the fractional position reference pixel may be selected from among a plurality of interpolation filter types. The plurality of interpolation filter types may include a cubic convolution filter and a Gaussian filter.

복수의 보간 필터 타입들 중 하나를 선택하기 위해, 인코더 및 디코너 내 내부 변수가 정의되어 있을 수 있다. 내부 변수는, 2개의 필터 타입 후보들 중 하나를 특정하는 플래그 filterFlag 또는 복수의 필터 타입 후보들 중 하나를 특정하는 인덱스 filterIdx일 수 있다. 일 예로, 상기 내부 변수 filterFlag의 값이 0인 것은, 큐빅 콘볼루션 필터가 선택됨을 나타내고, 내부 변수 filterFlag의 값이 1인 것은, 가우시안 필터가 선택된 것을 나타낸다. In order to select one of a plurality of interpolation filter types, internal variables in the encoder and the decoder may be defined. The internal variable may be a flag filterFlag that specifies one of two filter type candidates or an index filterIdx that specifies one of a plurality of filter type candidates. For example, a value of the internal variable filterFlag of 0 indicates that a cubic convolution filter is selected, and a value of 1 of the internal variable filterFlag indicates that a Gaussian filter is selected.

후술되는 실시예에서는, 내부 변수가 2개의 필터 타입 후보들 중 하나를 지시하는 플래그 filterFlag인 것으로 가정한다.In the embodiment to be described later, it is assumed that the internal variable is a flag filterFlag indicating one of two filter type candidates.

내부 변수 filterFlag는, 참조 화소에 스무딩 필터가 적용되었는지 여부, 참조 화소 라인의 인덱스, 화면 내 예측 모드 또는 블록 크기 중 적어도 하나에 기초하여 유도될 수 있다. The internal variable filterFlag may be derived based on at least one of whether a smoothing filter is applied to a reference pixel, an index of a reference pixel line, an intra prediction mode, or a block size.

일 예로, 참조 화소에 스무딩 필터가 적용된 경우, 또는 참조 화소 라인의 인덱스 refIdx가 0이 아닌 경우, 내부 변수 filterFlag의 값이 1로 설정될 수 있다. For example, when a smoothing filter is applied to the reference pixel or when the index refIdx of the reference pixel line is not 0, the value of the internal variable filterFlag may be set to 1.

위 조건들을 만족하지 않는 경우, 현재 블록의 인트라 예측 모드 및 현재 블록의크기를 고려하여, 내부 변수 filterFlag의 값을 유도할 수 있다. 먼저, 현재 블록의 인트라 예측 모드와 수평 방향 인트라 예측 모드 또는 수직 방향 인트라 예측 모드와의 차분값을 나타내는 변수 minDistVerHor를 유도할 수 있다. 구체적으로, 현재 블록의 인트라 예측 모드의 인덱스와 수직 방향 인트라 예측 모드의 인덱스 사이의 차분값 또는 현재 블록의 인트라 예측 모드의 인덱스와 수평 방향 인트라 예측 모드의 인덱스 사이의 차분값 중 최소값을 변수 minDistVerHor의 값으로 설정할 수 있다. 즉, 다음의 수학식 1과 같이, 변수 mistDistVerHor의 값이 유도될 수 있다.If the above conditions are not satisfied, the value of the internal variable filterFlag may be derived in consideration of the intra prediction mode of the current block and the size of the current block. First, a variable minDistVerHor indicating a difference value between the intra prediction mode of the current block and the horizontal intra prediction mode or the vertical intra prediction mode may be derived. Specifically, the minimum value of the difference between the index of the intra prediction mode of the current block and the index of the vertical intra prediction mode or the difference between the index of the intra prediction mode of the current block and the index of the horizontal intra prediction mode is defined as the minimum value of the variable minDistVerHor. It can be set to a value. That is, the value of the variable mistDistVerHor can be derived as in Equation 1 below.

Figure pat00001
Figure pat00001

상기 수학식 1에서, 변수 CurrIntraPredMode는 현재 블록의 인트라 예측 모드의 인덱스를 나타낸다. 50은 수직 방향 인트라 예측 모드의 인덱스이고, 18은 수평 방향 인트라 예측 모드의 인덱스이다. Min(A,B)는 A와 B중 작은 값을 출력하는 함수이고, abs(X)는 X의 절대값을 출력하는 함수이다. In Equation 1, the variable CurrIntraPredMode indicates the index of the intra prediction mode of the current block. 50 is an index of a vertical intra prediction mode, and 18 is an index of a horizontal intra prediction mode. Min(A,B) is a function that outputs the smaller of A and B, and abs(X) is a function that outputs the absolute value of X.

변수 minDistVerHor과 임계값을 비교하여, 변수 filterFlag의 값을 유도할 수 있다.By comparing the variable minDistVerHor with the threshold, the value of the variable filterFlag can be derived.

이때, 임계값은, 현재 블록의 크기에 기초하여 적응적으로 결정될 수 있다. 일 예로, 표 1은, 현재 블록의 크기 nTbS와, 임계값 intraHorVerDistThres 사이의 매핑 관계를 나타낸다. In this case, the threshold value may be adaptively determined based on the size of the current block. As an example, Table 1 shows a mapping relationship between a size nTbS of a current block and a threshold intraHorVerDistThres.

nTbS=2nTbS=2 nTbS=3nTbS=3 nTbS=4nTbS=4 nTbS=5nTbS=5 nTbS=6nTbS=6 nTbS=7nTbS=7 intraHorVerDIstThres[nTbS]intraHorVerDIstThres[nTbS] 2424 1414 22 00 00 00

현재 블록의 크기를 나타내는 변수 nTbS는 현재 블록의 너비 또는 높이 중 적어도 하나에 기초하여 유도될 수 있다. 수학식 2는 변수 nTbS를 유도하는 예를 나타낸다.The variable nTbS indicating the size of the current block may be derived based on at least one of a width or a height of the current block. Equation 2 shows an example of deriving the variable nTbS.

Figure pat00002
Figure pat00002

상기 수학식 2에서, 변수 nTbW 및 변수 nTbH는 각각 현재 블록의 너비 및 높이를 나타낸다. In Equation 2, the variable nTbW and the variable nTbH represent the width and height of the current block, respectively.

변수 minDistVerHor 가 변수 intraHorVerDistThres[nTbS]보다 큰 경우, 변수 filterFlag의 값이 1로 설정될 수 있다. 반면, 변수 minDistVerHor가 변수 intraHorVerDistThres[nTbS] 보다 작은 경우, 변수 filterFlag의 값이 0으로 설정될 수 있다.When the variable minDistVerHor is greater than the variable intraHorVerDistThres[nTbS], the value of the variable filterFlag may be set to 1. On the other hand, when the variable minDistVerHor is smaller than the variable intraHorVerDistThres[nTbS], the value of the variable filterFlag may be set to 0.

또는, 비트스트림을 통해 시그날링되는 정보(예컨대, 필터 타입 플래그)에 기초하여, 변수 filterFlag의 값을 유도할 수도 있다.Alternatively, the value of the variable filterFlag may be derived based on information signaled through the bitstream (eg, a filter type flag).

컬러 성분별 독립적으로 필터 타입이 결정될 수 있다. 즉, 휘도 성분의 필터 타입과 색차 성분의 필터 타입이 독립적으로 결정될 수 있다.A filter type may be independently determined for each color component. That is, the filter type of the luminance component and the filter type of the chrominance component may be independently determined.

또는, 색차 성분에 대해서는 휘도 성분과 동일한 타입의 보간 필터를 사용하도록 설정할 수도 있다. Alternatively, it may be set to use the same type of interpolation filter as the luminance component for the chrominance component.

또는, 색차 성분의 필터 타입을 휘도 성분과 동일하게 설정하되, 각 성분별 필터 특성을 상이하게 설정할 수 있다. 여기서, 필터 특성은, 필터 탭 수 또는 필터 계수 중 적어도 하나를 나타낸다. Alternatively, the filter type of the color difference component may be set to be the same as that of the luminance component, but filter characteristics for each component may be set differently. Here, the filter characteristic indicates at least one of the number of filter taps and filter coefficients.

또는, 휘도 성분에 대해서는, 4탭 가우시안 필터 및 큐빅 콘볼루션 필터 중 하나를 선택하여 사용하되, 컬러 성분에 대해서는, 분수 화소 위치를 기초로 가중치가 결정되는 2탭 필터를 이용하도록 설정될 수도 있다.Alternatively, for the luminance component, one of a 4-tap Gaussian filter and a cubic convolution filter is selected and used, but for the color component, a 2-tap filter whose weight is determined based on fractional pixel positions may be used.

현재 블록의 인트라 예측 모드에 따라, 예측 각도가 상이할 수 있다. 일 예로, 표 2는 인트라 예측 모드별 예측 각도를 나타낸다.A prediction angle may be different according to the intra prediction mode of the current block. As an example, Table 2 shows prediction angles for each intra prediction mode.

Figure pat00003
Figure pat00003

표 2에서, 변수 predModeIntra는 인트라 예측 모드의 인덱스를 나타내고, 변수 intraPredAngle는 예측 각도를 나타낸다. In Table 2, a variable predModeIntra indicates an index of an intra prediction mode, and a variable intraPredAngle indicates a prediction angle.

인트라 예측 각도에 기초하여, 참조 화소를 특정하기 위한 변수 invAngle을 유도할 수 있다. 일 예로, 변수 invAngle은 다음의 수학식 3에 기초하여 유도될 수 있다. Based on the intra prediction angle, a variable invAngle for specifying a reference pixel may be derived. As an example, the variable invAngle may be derived based on Equation 3 below.

Figure pat00004
Figure pat00004

변수 invAngle을 역-각도 변수라 호칭할 수도 있다. 상기 변수 invAngle의 값에 따라, 2D 형태의 참조 샘플 어레이들을 1D 형태로 배열할 ‹š, 좌측 참조 샘플들을 수평 방향으로 재배치할 것인지 또는 상단 참조 샘플들을 수직 방향으로 재배치할 것인지 여부가 결정될 수 있다. The variable invAngle can also be called an inverse angle variable. According to the value of the variable invAngle, it may be determined whether to arrange 2D reference sample arrays in 1D form, whether to rearrange left reference samples in a horizontal direction, or whether to rearrange upper reference samples in a vertical direction.

상술한 변수들 이외에, 참조 화소들을 1D 형태로 배열하여 생성되는 참조 화소 어레이 ref[x], 참조 화소 어레이 내 참조 화소를 특정하기 위한 변수 iIdx 및 참조 화소의 위치(예컨대, 정수 위치 또는 분수 위치)를 특정하기 위한 변수 iFact 중 적어도 하나를 추가 유도하여, 예측 화소를 유도할 수 있다. In addition to the above variables, a reference pixel array ref[x] generated by arranging reference pixels in a 1D form, a variable iIdx for specifying a reference pixel in the reference pixel array, and a position of the reference pixel (eg, an integer position or a fractional position) A prediction pixel may be derived by further derivating at least one of the variables iFact for specifying .

이때, 상기 변수들은, 현재 블록의 인트라 예측 모드가 좌상단 대각 방향 모드(즉, 인덱스 34인 인트라 예측 모드) 이상인 경우와 그렇지 않은 경우(즉, 인트라 예측 모드의 인덱스가 34보다 작은 경우)에 있어서, 유도 방법이 상이할 수 있다. 이에, 현재 블록의 인트라 예측 모드가 좌상단 대각 방향 모드 이상인 경우와 그렇지 않은 경우를 나누어, 예측 화소의 유도 방법을 설명하기로 한다. In this case, the variables are, in cases where the intra prediction mode of the current block is greater than or equal to the upper-left diagonal mode (that is, the intra prediction mode having the index 34), and when it is not (ie, the index of the intra prediction mode is less than 34), The induction method may be different. Accordingly, a method of deriving a prediction pixel will be described by dividing the case in which the intra prediction mode of the current block is greater than or equal to the upper left diagonal direction mode and the case in which the intra prediction mode is not.

먼저, 현재 블록의 인트라 예측 모드의 인덱스가 좌상단 대각 방향 모드 이상인 경우(즉, predModeIntra가 34이상인 경우), 예측 화소 유도 방법에 대해 설명하기로 한다. First, when the index of the intra prediction mode of the current block is greater than or equal to the upper-left diagonal mode (ie, when predModeIntra is greater than or equal to 34), a method of deriving a prediction pixel will be described.

참조 화소 라인에 속하는 참조 화소들은 다음의 수학식 4와 같이 참조 화소 버퍼ref[x]에 저장할 수 있다. Reference pixels belonging to the reference pixel line may be stored in the reference pixel buffer ref[x] as shown in Equation 4 below.

Figure pat00005
Figure pat00005

수학식 4에서, ref[x]는, 참조 화소 버퍼 내 x 위치에 저장된 복원 화소의 값을 나타낸다. In Equation 4, ref[x] represents the value of the restored pixel stored at the x position in the reference pixel buffer.

수학식 4에서, p[a][b]는, (a, b) 위치의 복원 화소 또는 스무딩 필터가 적용된 복원 화소를 나타낸다. refIdx는, 참조 화소 라인의 인덱스를 나타낸다. 현재 블록의 상단에 위치하는 참조 화소들의 경우, a는, (-1-refIdx)부터 (refW-1) 사이의 값을 갖고, b는, (-1-refIdx)의 값을 가질 수 있다. refW는, 수평 방향 참조 화소들의 개수를 나타내는 것으로, 2nTbW 또는 (nTbW + nTbH)로 설정될 수 있다. 현재 블록의 좌측에 위치하는 참조 화소들의 경우, a는 (-1-refIdx)의 값을 갖고, b는, (-1-refIdx) 부터 (refH-1) 사이의 값을 가질 수 있다. refH는, 수직 방향 참조 화소들의 개수를 나타내는 것으로, 2nTbH 또는 (nTbW + nTbH)로 설정될 수 있다. In Equation 4, p[a][b] represents a restored pixel at the position (a, b) or a restored pixel to which a smoothing filter is applied. refIdx indicates the index of the reference pixel line. For reference pixels positioned at the top of the current block, a may have a value between (-1-refIdx) and (refW-1), and b may have a value of (-1-refIdx). refW indicates the number of horizontal reference pixels, and may be set to 2nTbW or (nTbW + nTbH). For reference pixels located on the left side of the current block, a may have a value of (-1-refIdx), and b may have a value between (-1-refIdx) and (refH-1). refH indicates the number of vertical reference pixels, and may be set to 2nTbH or (nTbW + nTbH).

즉, 2D 형태로 배열된 참조 화소들을 1D 형태의 참조 화소 버퍼에 재배열할 수 있다.That is, reference pixels arranged in a 2D form may be rearranged in a 1D reference pixel buffer.

예측 각도 intraPredAngle 또는 변수 invAngle 중 적어도 하나에 기초하여, (x, y) 위치의 예측 화소를 유도하는데 이용되는 참조 화소가 특정될 수 있다. 일 예로, 변수 intraPredAngle의 값이 0보다 작은 경우, (x, y) 위치의 예측 화소를 유도하는데 이용되는 참조 화소 ref[ x ]는 다음의 수학식 5에 기초하여 유도될 수 있다.Based on at least one of the prediction angle intraPredAngle or the variable invAngle, the reference pixel used to derive the prediction pixel at the (x, y) position may be specified. For example, when the value of the variable intraPredAngle is less than 0, the reference pixel ref[x,] used to derive the prediction pixel at the (x, y) position may be derived based on Equation 5 below.

Figure pat00006
Figure pat00006

반면, 예측 각도 intraPredAngle의 값이 0 이상인 경우, (x, y) 위치의 예측 화소를 유도하는데 이용되는 참조 화소 ref[x]는 다음의 수학식 6에 기초하여 유도될 수 있다. On the other hand, when the value of the prediction angle intraPredAngle is 0 or more, the reference pixel ref[x] used to derive the prediction pixel at the (x, y) position may be derived based on Equation 6 below.

Figure pat00007
Figure pat00007

이때, x의 값이 1 부터 (Max(1, nTbW/nTbH)*refIdx+1) 사이인 참조 화소 버퍼 ref[refW+refIdx+x]의 값은 모두 p[-1+refW][-1-refIdx ]과 동일하게 설정될 수 있다.In this case, the values of the reference pixel buffer ref[refW+refIdx+x] whose value of x is between 1 and (Max(1, nTbW/nTbH)*refIdx+1) are all p[-1+refW][-1- refIdx ].

다음으로, 참조 화소 버퍼 내 참조 화소를 특정하기 위한 변수 iIdx와 분수 화소의 위치를 나타내는 변수 iFact를 유도할 수 있다. 일 예로, 수학식 7 및 수학식 8은 위 두 변수를 유도하는 예를 나타낸다.Next, a variable iIdx for specifying the reference pixel in the reference pixel buffer and a variable iFact indicating the position of the fractional pixel can be derived. As an example, Equations 7 and 8 show examples of deriving the above two variables.

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

보간 필터가 이용되는 경우, 선택된 보간 필터 타입에 따라, 참조 화소들을 보간하여 예측 샘플을 유도할 수 있다. 이때, 컬러 성분에 따라, 필터 계수가 상이하게 설정될 수 있다.When an interpolation filter is used, a prediction sample may be derived by interpolating reference pixels according to the selected interpolation filter type. In this case, filter coefficients may be set differently according to color components.

일 예로, 휘도 성분에 대해서는, 필터 계수 fT[j]가 다음의 수학식 9와 같이 결정될 수 있다.As an example, for the luminance component, the filter coefficient fT[j] may be determined as in Equation 9 below.

Figure pat00010
Figure pat00010

4탭의 보간 필터가 이용되는 경우, j는 0부터 3 사이의 값으로 설정될 수 있다. fG는 가우시안 필터의 필터 계수를 나타내고, fC는, 큐빅 콘볼루션 필터의 필터 계수를 나타낸다.When a 4-tap interpolation filter is used, j may be set to a value between 0 and 3. fG represents the filter coefficients of the Gaussian filter, and fC represents the filter coefficients of the cubic convolution filter.

각 필터 타입의 필터 계수들이 부호화기 및 복호화기에 기 저장되어 있을 수 있다. 일 예로, 표 3은 각 필터 타입의 필터 계수들을 나타낸다.Filter coefficients of each filter type may be pre-stored in the encoder and the decoder. As an example, Table 3 shows filter coefficients of each filter type.

Figure pat00011
Figure pat00011

필터 계수가 결정되면, 다음의 수학식 10에 기초하여 예측 화소가 유도될 수 있다. When the filter coefficients are determined, a prediction pixel may be derived based on Equation 10 below.

Figure pat00012
Figure pat00012

색차 성분에 대해서는, 변수 iFact에 기초하여, 보간 필터를 사용할 것인지 여부를 결정할 수 있다. 일 예로, 변수 iFact가 정수 위치를 가리키는 경우(즉, iFact의 값이 0인 경우), 다음의 수학식 11에 기초하여 예측 화소를 유도할 수 있다. For the chrominance component, whether to use the interpolation filter may be determined based on the variable iFact. As an example, when the variable iFact indicates an integer position (ie, when the value of iFact is 0), a prediction pixel may be derived based on Equation 11 below.

Figure pat00013
Figure pat00013

반면, 변수 iFact가 분수 위치를 가리키는 경우(즉, iFact의 값이 0이 아닌 경우), 다음의 수학식 12에 기초하여 예측 화소를 유도할 수 있다.On the other hand, when the variable iFact indicates a fractional position (ie, the value of iFact is not 0), a prediction pixel may be derived based on Equation 12 below.

Figure pat00014
Figure pat00014

다음으로, 현재 블록의 인트라 예측 모드가 좌상단 대각 방향의 인덱스보다 작은 경우(즉, predModeIntra가 34보다 작은 경우), 예측 화소 유도 방법에 대해 설명한다. 이 경우, 다음과 같이 참조 화소 버퍼를 정의할 수 있다.Next, when the intra prediction mode of the current block is smaller than the index in the upper left diagonal direction (ie, when predModeIntra is smaller than 34), a prediction pixel derivation method will be described. In this case, the reference pixel buffer can be defined as follows.

Figure pat00015
Figure pat00015

이때, 예측 각도를 나타내는 변수 intraPredAngle가 0보다 작은 경우, 참조 화소 버퍼 ref[x]가 수학식 14와 같이 확장될 수 있다.In this case, when the variable intraPredAngle representing the prediction angle is less than 0, the reference pixel buffer ref[x] may be expanded as in Equation 14.

Figure pat00016
Figure pat00016

반면, 예측 각도를 나타내는 변수 intraPredAngle이 0보다 큰 경우, 참조 화소 버퍼 ref[x]가 수학식 15와 같이 확장될 수 있다.On the other hand, when the variable intraPredAngle representing the prediction angle is greater than 0, the reference pixel buffer ref[x] may be expanded as in Equation 15.

Figure pat00017
Figure pat00017

이때, x의 값이 1 부터 (Max(1, nTbH/nTbW)*refIdx+1) 사이인 참조 화소 버퍼 ref[refH+refIdx+x]의 값은 모두 p[-1-refIdx][-1+refH]과 동일하게 설정될 수 있다.In this case, the values of the reference pixel buffer ref[refH+refIdx+x] with the value of x between 1 and (Max(1, nTbH/nTbW)*refIdx+1) are all p[-1-refIdx][-1+ refH].

그리고, 다음의 수학식 16 및 수학식 17에 기초하여, 변수 iIdx 및 변수 iFact를 유도할 수 있다. And, based on Equations 16 and 17, the variable iIdx and the variable iFact may be derived.

Figure pat00018
Figure pat00018

Figure pat00019
Figure pat00019

보간 필터가 이용되는 경우, 선택된 보간 필터 타입에 따라, 참조 화소들을 보간하여 예측 샘플을 유도할 수 있다. 이때, 컬러 성분에 따라, 필터 계수가 상이하게 설정될 수 있다.When an interpolation filter is used, a prediction sample may be derived by interpolating reference pixels according to the selected interpolation filter type. In this case, filter coefficients may be set differently according to color components.

일 예로, 휘도 성분에 대해서는, 수학식 8의 예시에서와 같이, 필터 계수 fT[j]가 결정될 수 있다.As an example, for the luminance component, as in the example of Equation 8, the filter coefficient fT[j] may be determined.

필터 계수가 결정되면, 다음의 수학식 17에 기초하여 예측 화소가 유도될 수 있다.When the filter coefficients are determined, a prediction pixel may be derived based on Equation 17 below.

Figure pat00020
Figure pat00020

색차 성분에 대해서는, 변수 iFact에 기초하여, 보간 필터를 사용할 것인지 여부를 결정할 수 있다. 일 예로, 변수 iFact가 정수 위치를 가리키는 경우(즉, iFact의 값이 0인 경우), 다음의 수학식 19에 기초하여 예측 화소를 유도할 수 있다. For the chrominance component, whether to use the interpolation filter may be determined based on the variable iFact. As an example, when the variable iFact indicates an integer position (ie, when the value of iFact is 0), a prediction pixel may be derived based on Equation 19 below.

Figure pat00021
Figure pat00021

반면, 변수 iFact가 분수 위치를 가리키는 경우(즉, iFact의 값이 0이 아닌 경우), 다음의 수학식 20에 기초하여 예측 화소를 유도할 수 있다.On the other hand, when the variable iFact indicates a fractional position (ie, the value of iFact is not 0), a prediction pixel may be derived based on Equation 20 below.

Figure pat00022
Figure pat00022

상술한 예에서는, 예측 각도를 나타내는 변수 intraPredAngle에 기초하여, 참조 화소 버퍼 내 참조 화소의 저장 위치를 특정하기 위한 변수 invAngle이 유도되는 것으로 예시되었다. 다만, 본 개시에서는, 특정 인트라 예측 모드에 대해서는, 변수 invAngle을 유도하는 과정을 생략할 수 있다. 일 예로, 변수 intraPredAngle이 기 설정된 값을 갖거나, 기 정의된 범위 내에 속하는 경우, 변수 invAngle의 유도 과정(예컨대, 수학식 3)을 생략할 수 있다. 여기서, 기 설정된 값은, 0, 1 또는 2와 같은 정수이고, 기 정의된 범위는, 0, -1~1 또는, -2~2 사이 등으로 설정될 수 있다. In the above-described example, it is exemplified that the variable invAngle for specifying the storage location of the reference pixel in the reference pixel buffer is derived based on the variable intraPredAngle indicating the prediction angle. However, in the present disclosure, for a specific intra prediction mode, the process of deriving the variable invAngle may be omitted. For example, when the variable intraPredAngle has a preset value or falls within a preset range, the derivation process (eg, Equation 3) of the variable invAngle may be omitted. Here, the preset value is an integer such as 0, 1, or 2, and the predefined range may be set to 0, -1 to 1, or -2 to 2, or the like.

즉, 상술한 수학식 3은, 변수 intraPredAngle이 기 설정된 값을 갖지 않는 경우, 또는, 변수 intraPredAngle의 절대값이 기 설정된 상수값보다 큰 경우에 한하여 수행될 수 있다. That is, Equation 3 described above may be performed only when the variable intraPredAngle does not have a preset value or when the absolute value of the variable intraPredAngle is greater than a preset constant value.

변수 invAngle의 유도 과정이 생략되는 경우, 예측 샘플 유도 절차 상에서 변수 invAngle을 이용하는 절차가 수행되지 않도록 설정하거나, 변수 invAngle가 디폴트 값(예컨대, 0)으로 설정하여, 변수 invAngle을 이용하는 절차를 수행할 수 있다. If the derivation process of the variable invAngle is omitted, the procedure using the variable invAngle is set not to be performed in the prediction sample derivation procedure, or the variable invAngle is set to a default value (eg, 0) to perform the procedure using the variable invAngle. have.

다른 예로, 변수 invAngle을 디폴트 값으로 초기화한 뒤, 인트라 예측 모드의 인덱스 PredModeIntra 또는 인트라 예측 모드의 예측 각도 intraPredAngle 중 적어도 하나에 기초하여, 변수 invAngle의 값을 업데이트할 것인 것 여부를 결정할 수 있다. 이때, 변수 invAngle의 디폴트 값은 0, 1, 또는 2와 같은 정수일 수 있다. As another example, after initializing the variable invAngle to a default value, it may be determined whether to update the value of the variable invAngle based on at least one of the index PredModeIntra of the intra prediction mode and the prediction angle intraPredAngle of the intra prediction mode. In this case, the default value of the variable invAngle may be an integer such as 0, 1, or 2.

일 예로, 변수 intraPredAngle이 기 설정된 값을 갖거나, 기 정의된 범위 내에 속하는 경우, 변수 invAngle의 값을 업데이트하지 않을 수 있다. 반면, 변수 intraPredAngle이 기 설정된 값이 아니거나, 변수 intraPredAngle의 절대값이 기 설정된 값보다 큰 경우에 한하여, 변수 invAngle의 값을 업데이트할 수 있다. 여기서, 기 설정된 값은, 0, 1 또는 2와 같은 정수이고, 기 정의된 범위는, 0, -1~1 또는, -2~2 사이 등으로 설정될 수 있다. For example, when the variable intraPredAngle has a preset value or falls within a preset range, the value of the variable invAngle may not be updated. On the other hand, only when the variable intraPredAngle is not a preset value or the absolute value of the variable intraPredAngle is greater than the preset value, the value of the variable invAngle may be updated. Here, the preset value is an integer such as 0, 1, or 2, and the predefined range may be set to 0, -1 to 1, or -2 to 2, or the like.

복호화 과정 또는 부호화 과정을 중심으로 설명된 실시예들을, 부호화 과정 또는 복호화 과정에 적용하는 것은, 본 개시의 범주에 포함되는 것이다. 소정의 순서로 설명된 실시예들을, 설명된 것과 상이한 순서로 변경하는 것 역시, 본 개시의 범주에 포함되는 것이다.Applying the decoding process or the embodiments described based on the encoding process to the encoding process or the decoding process is included in the scope of the present disclosure. It is also within the scope of the present disclosure to change the embodiments described in a certain order in an order different from that described.

상술한 실시예는 일련의 단계 또는 순서도를 기초로 설명되고 있으나, 이는 발명의 시계열적 순서를 한정한 것은 아니며, 필요에 따라 동시에 수행되거나 다른 순서로 수행될 수 있다. 또한, 상술한 실시예에서 블록도를 구성하는 구성요소(예를 들어, 유닛, 모듈 등) 각각은 하드웨어 장치 또는 소프트웨어로 구현될 수도 있고, 복수의 구성요소가 결합하여 하나의 하드웨어 장치 또는 소프트웨어로 구현될 수도 있다. 상술한 실시예는 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Although the above-described embodiment has been described based on a series of steps or a flowchart, this does not limit the time-series order of the invention, and may be performed simultaneously or in a different order, if necessary. In addition, each of the components (eg, unit, module, etc.) constituting the block diagram in the above-described embodiment may be implemented as a hardware device or software, or a plurality of components may be combined to form one hardware device or software. may be implemented. The above-described embodiment may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present disclosure, and vice versa.

Claims (11)

현재 블록의 참조 화소 라인을 결정하는 단계;
상기 현재 블록의 인트라 예측 모드를 결정하는 단계; 및
상기 참조 화소 라인에 속하는 참조 화소 및 상기 인트라 예측 모드를 기초로 상기 현재 블록의 예측 샘플을 유도하는 단계를 포함하되,
상기 예측 샘플은, 상기 인트라 예측 모드의 예측 각도 및 상기 예측 각도를 기초로 유도되는 역-각도 변수를 기초로 결정되고,
상기 예측 각도가 기 정의된 값을 갖는 경우, 상기 역-각도 변수는 디폴트 값을 갖는 것을 특징으로 하는, 영상 복호화 방법.
determining a reference pixel line of the current block;
determining an intra prediction mode of the current block; and
deriving a prediction sample of the current block based on a reference pixel belonging to the reference pixel line and the intra prediction mode,
The prediction sample is determined based on a prediction angle of the intra prediction mode and an inverse-angle variable derived based on the prediction angle,
When the prediction angle has a predefined value, the inverse-angle variable has a default value.
제1 항에 있어서,
상기 역-각도 변수에 기초하여, 상기 참조 화소 라인에 속하는 참조 화소들이 1D 어레이로 배열되는 것을 특징으로 하는, 영상 복호화 방법.
According to claim 1,
The image decoding method, characterized in that, based on the inverse-angle variable, reference pixels belonging to the reference pixel line are arranged in a 1D array.
제1 항에 있어서,
상기 예측 각도의 값이 기 정의된 값 또는 기 정의된 범위에 속하는지 여부에 기초하여, 상기 역-각도 변수를 업데이트할 것인지 여부가 결정되는 것을 특징으로 하는, 영상 복호화 방법.
According to claim 1,
Whether to update the inverse-angle variable is determined based on whether the value of the prediction angle belongs to a predefined value or a predefined range.
제3 항에 있어서,
상기 역-각도 변수를 업데이트 하지 않는 것으로 결정되는 경우, 상기 역-각도 변수는 상기 디폴트값을 유지하는 것을 특징으로 하는, 영상 복호화 방법.
4. The method of claim 3,
When it is determined not to update the inverse-angle variable, the inverse-angle variable maintains the default value.
제1 항에 있어서,
상기 디폴트값은 0인 것을 특징으로 하는, 영상 복호화 방법.
According to claim 1,
The video decoding method, characterized in that the default value is 0.
현재 블록의 참조 화소 라인을 결정하는 단계;
상기 현재 블록의 인트라 예측 모드를 결정하는 단계; 및
상기 참조 화소 라인에 속하는 참조 화소 및 상기 인트라 예측 모드를 기초로 상기 현재 블록의 예측 샘플을 유도하는 단계를 포함하되,
상기 예측 샘플은, 상기 인트라 예측 모드의 예측 각도 및 상기 예측 각도를 기초로 유도되는 역-각도 변수를 기초로 결정되고,
상기 예측 각도가 기 정의된 값을 갖는 경우, 상기 역-각도 변수는 디폴트 값을 갖는 것을 특징으로 하는, 영상 부호화 방법.
determining a reference pixel line of the current block;
determining an intra prediction mode of the current block; and
deriving a prediction sample of the current block based on a reference pixel belonging to the reference pixel line and the intra prediction mode,
The prediction sample is determined based on a prediction angle of the intra prediction mode and an inverse-angle variable derived based on the prediction angle,
When the prediction angle has a predefined value, the inverse-angle variable has a default value.
제6 항에 있어서,
상기 역-각도 변수에 기초하여, 상기 참조 화소 라인에 속하는 참조 화소들이 1D 어레이로 배열되는 것을 특징으로 하는, 영상 부호화 방법.
7. The method of claim 6,
based on the inverse-angle variable, the reference pixels belonging to the reference pixel line are arranged in a 1D array.
제6 항에 있어서,
상기 예측 각도의 값이 기 정의된 값 또는 기 정의된 범위에 속하는지 여부에 기초하여, 상기 역-각도 변수를 업데이트할 것인지 여부가 결정되는 것을 특징으로 하는, 영상 부호화 방법.
7. The method of claim 6,
Whether to update the inverse-angle variable is determined based on whether the value of the prediction angle belongs to a predefined value or a predefined range.
제8 항에 있어서,
상기 역-각도 변수를 업데이트 하지 않는 것으로 결정되는 경우, 상기 역-각도 변수는 상기 디폴트값을 유지하는 것을 특징으로 하는, 영상 부호화 방법.
9. The method of claim 8,
When it is determined not to update the inverse-angle variable, the inverse-angle variable maintains the default value.
제6 항에 있어서,
상기 디폴트값은 0인 것을 특징으로 하는, 영상 부호화 방법.
7. The method of claim 6,
The video encoding method, characterized in that the default value is 0.
현재 블록의 참조 화소 라인을 결정하는 단계;
상기 현재 블록의 인트라 예측 모드를 결정하는 단계; 및
상기 참조 화소 라인에 속하는 참조 화소 및 상기 인트라 예측 모드를 기초로 상기 현재 블록의 예측 샘플을 유도하는 단계를 포함하되,
상기 예측 샘플은, 상기 인트라 예측 모드의 예측 각도 및 상기 예측 각도를 기초로 유도되는 역-각도 변수를 기초로 결정되고,
상기 예측 각도가 기 정의된 값을 갖는 경우, 상기 역-각도 변수는 디폴트 값을 갖는 것을 특징으로 하는, 영상 부호화 방법에 의해 부호화되는 비트스트림을 저장하는 컴퓨터로 판독가능한 기록 매체.

determining a reference pixel line of the current block;
determining an intra prediction mode of the current block; and
deriving a prediction sample of the current block based on a reference pixel belonging to the reference pixel line and the intra prediction mode,
The prediction sample is determined based on a prediction angle of the intra prediction mode and an inverse-angle variable derived based on the prediction angle,
When the predicted angle has a predefined value, the inverse-angle variable has a default value.

KR1020210074102A 2020-06-10 2021-06-08 method and apparatus for encoding/decoding a VIDEO SIGNAL, and a recording medium storing a bitstream KR20210153547A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/343,006 US11758150B2 (en) 2020-06-10 2021-06-09 Method and apparatus for encoding/decoding a video signal, and a recording medium storing a bitstream

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200070335 2020-06-10
KR20200070335 2020-06-10

Publications (1)

Publication Number Publication Date
KR20210153547A true KR20210153547A (en) 2021-12-17

Family

ID=79033808

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210074102A KR20210153547A (en) 2020-06-10 2021-06-08 method and apparatus for encoding/decoding a VIDEO SIGNAL, and a recording medium storing a bitstream

Country Status (1)

Country Link
KR (1) KR20210153547A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023128489A1 (en) * 2021-12-28 2023-07-06 주식회사 케이티 Image encoding/decoding method and apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023128489A1 (en) * 2021-12-28 2023-07-06 주식회사 케이티 Image encoding/decoding method and apparatus

Similar Documents

Publication Publication Date Title
KR102383104B1 (en) Method and apparatus for processing a video signal
US20210281837A1 (en) Method and device for video signal processing
KR102424419B1 (en) Method and apparatus for processing a video signal
KR20220002844A (en) Method and apparatus for processing a video signal based on intra prediction
US20230291929A1 (en) Method and device for video signal processing
US11985312B2 (en) Image encoding/decoding method and device using intra prediction
KR20210100217A (en) Intra prediction method of chrominance block using luminance sample, and apparatus using same
KR20130050899A (en) Encoding method and apparatus, and decoding method and apparatus of image
KR101743665B1 (en) Method and apparatus for processing a video signal based on intra prediction
KR20210153547A (en) method and apparatus for encoding/decoding a VIDEO SIGNAL, and a recording medium storing a bitstream
US11758150B2 (en) Method and apparatus for encoding/decoding a video signal, and a recording medium storing a bitstream
KR102410326B1 (en) Method and apparatus for encoding/decoding a video signal
KR20230137250A (en) Method and apparatus for encoding/decoding image
KR20240024755A (en) Method for encoding/decoding a video signal and recording medium storing a bitsteram generated based on the method
KR20230092798A (en) Method and apparatus for encoding/decoding image
KR20220134476A (en) Method for encoding/decoding a video signal and recording medium storing a bitsteram generated based on the method
KR20210103763A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210103731A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210111602A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210117101A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210117579A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210081831A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210075552A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210078773A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210078768A (en) Video signal encoding method and apparatus and video decoding method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination