KR102357282B1 - Method and apparatus for encoding/decoding an image - Google Patents

Method and apparatus for encoding/decoding an image Download PDF

Info

Publication number
KR102357282B1
KR102357282B1 KR1020170127938A KR20170127938A KR102357282B1 KR 102357282 B1 KR102357282 B1 KR 102357282B1 KR 1020170127938 A KR1020170127938 A KR 1020170127938A KR 20170127938 A KR20170127938 A KR 20170127938A KR 102357282 B1 KR102357282 B1 KR 102357282B1
Authority
KR
South Korea
Prior art keywords
reference pixel
prediction
pixel
block
image
Prior art date
Application number
KR1020170127938A
Other languages
Korean (ko)
Other versions
KR20180041575A (en
Inventor
문주희
임성원
원동재
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to US16/341,590 priority Critical patent/US11039148B2/en
Priority to CN202410023964.1A priority patent/CN117615135A/en
Priority to CN202410026450.1A priority patent/CN117834860A/en
Priority to CN201780063589.1A priority patent/CN109845254B/en
Priority to CN202410026037.5A priority patent/CN117834859A/en
Priority to CN202410028685.4A priority patent/CN117692635A/en
Priority to CN202410026775.XA priority patent/CN117596390A/en
Priority to CN202410023919.6A priority patent/CN117615134A/en
Priority to CN202410029164.0A priority patent/CN117857784A/en
Priority to CN202410023716.7A priority patent/CN117615133A/en
Priority to JP2019520095A priority patent/JP6953523B2/en
Priority to CN202410023686.XA priority patent/CN117615132A/en
Priority to PCT/KR2017/011219 priority patent/WO2018070790A1/en
Priority to CN202410023671.3A priority patent/CN117615131A/en
Priority to EP17860513.5A priority patent/EP3528497A4/en
Publication of KR20180041575A publication Critical patent/KR20180041575A/en
Priority to US17/318,144 priority patent/US11792409B2/en
Priority to US17/318,020 priority patent/US20210281853A1/en
Priority to KR1020210062095A priority patent/KR102635240B1/en
Priority to JP2021159186A priority patent/JP7442200B2/en
Priority to JP2021159171A priority patent/JP2022020629A/en
Priority to KR1020220010846A priority patent/KR102639887B1/en
Publication of KR102357282B1 publication Critical patent/KR102357282B1/en
Application granted granted Critical
Priority to US17/988,094 priority patent/US20230101636A1/en
Priority to US17/988,100 priority patent/US20230073580A1/en
Priority to JP2024018920A priority patent/JP2024050883A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

본 발명에 따른 영상의 부호화/복호화 방법 및 장치는, 복수의 참조 화소 라인들 중 적어도 하나의 참조 화소 라인을 선택하고, 상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소 값에 기초하여 상기 현재 블록 내의 하나의 화소의 예측값을 유도할 수 있다.An image encoding/decoding method and apparatus according to the present invention selects at least one reference pixel line from among a plurality of reference pixel lines, and based on at least one pixel value included in the selected at least one reference pixel line A prediction value of one pixel in the current block may be derived.

Description

영상의 부호화/복호화 방법 및 장치{METHOD AND APPARATUS FOR ENCODING/DECODING AN IMAGE}Image encoding/decoding method and apparatus

본 발명은 영상 신호 부호화/복호화 방법 및 장치에 관한 것으로서, 보다 구체적으로는 개선된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for encoding/decoding a video signal, and more particularly, to a method and apparatus for encoding/decoding an image using improved intra prediction.

최근, 인터넷에서는 동영상과 같은 멀티미디어 데이터의 수요가 급격히 증가하고 있다. 하지만 채널(Channel)의 대역폭(Bandwidth)이 발전하는 속도는 급격히 증가하고 있는 멀티미디어 데이터의 양을 따라가기 힘든 상황이다. 이러한 문제를 해결하기 위하여 국제 표준화 기구인 ITU-T의 VCEG(Video Coding Expert Group)과 ISO/IEC의 MPEG(Moving Picture Expert Group)에서는 꾸준히 공동 연구를 통하여 보다 향상된 동영상 압축 표준을 연구하는 중이다.Recently, the demand for multimedia data such as moving pictures is rapidly increasing on the Internet. However, it is difficult to keep up with the rapidly increasing amount of multimedia data at the rate of development of the bandwidth of the channel. In order to solve this problem, VCEG (Video Coding Expert Group) of ITU-T, an international standardization organization, and MPEG (Moving Picture Expert Group) of ISO/IEC are continuously researching improved video compression standards through joint research.

동영상 압축은 크게 화면 내 예측, 화면 간 예측, 변환, 양자화, 엔트로피(Entropy coding)부호화, 인루프 필터(In-loop filter)로 구성된다. 이 중, 화면 내 예측은 현재 블록주변에 존재하는 복원된 화소들을 이용하여 현재 블록을 위한 예측 블록을 생성하는 기술을 말한다. Video compression is largely composed of intra prediction, inter prediction, transformation, quantization, entropy coding, and in-loop filter. Among them, intra prediction refers to a technology of generating a prediction block for the current block using reconstructed pixels existing around the current block.

종래의 화면 내 예측은, 정수 위치의 참조 화소들을 이용한 보간 과정을 통해 분수 위치의 화소들을 생성하고, 이렇게 생성된 분수 위치의 화소들을 이용하여 예측 블록을 생성한다. 이 때 어떤 정수 위치의 참조 화소들을 이용하느냐 여부와 어떤 보간 방식을 적용하였는지 여부에 따라 원래 화소값과 그 예측값 간의 오차에 영향을 주게된다.In the conventional intra prediction, fractional-position pixels are generated through an interpolation process using integer-positioned reference pixels, and a prediction block is generated using the generated fractional-position pixels. In this case, the error between the original pixel value and the predicted value is affected depending on whether reference pixels at an integer position are used and whether an interpolation method is applied.

본 발명은 영상을 부호화/복호화함에 있어서, 복수의 참조 화소 라인들을 이용하여 인트라 예측을 수행함으로써, 인트라 예측의 효율을 향상시키는 것에 주된 목적이 있다.A main object of the present invention is to improve intra prediction efficiency by performing intra prediction using a plurality of reference pixel lines in encoding/decoding an image.

본 발명은 영상을 부호화/복호화함에 있어서, 복수의 보간 방식 중에서 선택된 보간 방식을 이용하여 인트라 예측 블록을 유도함으로써, 인트라 예측의 효율을 향상시키는 것에 주된 목적이 있다.A main object of the present invention is to improve intra prediction efficiency by inducing an intra prediction block using an interpolation method selected from among a plurality of interpolation methods in encoding/decoding an image.

본 발명은 영상을 부호화/복호화함에 있어서, 복수의 참조 화소 라인들을 이용하여 인트라 예측을 수행한 경우, 인트라 예측 블록과 주변 영역 간의 불연속성을 감소시킬 수 있는 필터링 방법을 제공하는데 주된 목적이 있다.A main object of the present invention is to provide a filtering method capable of reducing discontinuity between an intra prediction block and a neighboring region when intra prediction is performed using a plurality of reference pixel lines in encoding/decoding an image.

본 발명에 따른 영상의 복호화 방법 및 장치는, 복수의 참조 화소 라인들 중 적어도 하나의 참조 화소 라인을 선택하고, 상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소 값에 기초하여 상기 현재 블록 내의 하나의 화소의 예측값을 유도할 수 있다.In an image decoding method and apparatus according to the present invention, at least one reference pixel line is selected from among a plurality of reference pixel lines, and based on the value of at least one pixel included in the selected at least one reference pixel line, the current A prediction value of one pixel in a block can be derived.

본 발명에 따른 영상의 복호화 방법 및 장치는, 입력 비트스트림으로부터 참조 화소 라인 인덱스 정보를 얻어, 상기 참조 화소 라인 인덱스 정보에 기초하여, 상기 복수의 참조 화소 라인들 중에서 상기 적어도 하나의 참조 화소 라인을 선택할 수 있다.An image decoding method and apparatus according to the present invention obtains reference pixel line index information from an input bitstream, and selects the at least one reference pixel line from among the plurality of reference pixel lines based on the reference pixel line index information. You can choose.

본 발명에 따른 영상의 복호화 방법 및 장치는, 상기 현재 블록 내의 각 화소의 위치에 기초하여 상기 현재 블록 내의 각 화소마다 적어도 하나의 참조 화소 라인을 선택할 수 있다. The image decoding method and apparatus according to the present invention may select at least one reference pixel line for each pixel in the current block based on the position of each pixel in the current block.

본 발명에 따른 영상의 복호화 방법 및 장치는, 복수의 보간 방식 중 하나를 선택하고, 상기 선택된 보간 방식을 이용하여, 상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소를 이용하여 보간을 수행하여 상기 예측값을 얻을 수 있다. 상기 선택된 보간 방식은, 복수의 보간 방식 중 하나를 나타내는 인덱스 정보에 기초하여 선택될 수 있다.An image decoding method and apparatus according to the present invention selects one of a plurality of interpolation methods and performs interpolation using at least one pixel included in the selected at least one reference pixel line by using the selected interpolation method. can be performed to obtain the predicted value. The selected interpolation method may be selected based on index information indicating one of a plurality of interpolation methods.

본 발명에 따른 영상의 복호화 방법 및 장치는, 상기 현재 블록의 모든 화소들의 예측값을 유도하여 상기 현재 블록의 예측 블록을 얻고, 상기 예측 블록을 필터링할 수 있다.The method and apparatus for decoding an image according to the present invention may derive a prediction value of all pixels of the current block to obtain a prediction block of the current block, and filter the prediction block.

본 발명에 따른 영상의 복호화 방법 및 장치는, 상기 현재 블록의 크기 또는 상기 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록의 소정 영역을 필터링할 수 있다. The image decoding method and apparatus according to the present invention may filter a predetermined region of the current block according to the size of the current block or an intra prediction mode of the current block.

본 발명에 따른 영상의 부호화 방법 및 장치는, 복수의 참조 화소 라인들 중 적어도 하나의 참조 화소 라인을 선택하고, 상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소 값에 기초하여 상기 현재 블록 내의 하나의 화소의 예측값을 얻을 수 있다.In an image encoding method and apparatus according to the present invention, at least one reference pixel line is selected from among a plurality of reference pixel lines, and based on at least one pixel value included in the selected at least one reference pixel line, the current A prediction value of one pixel in a block can be obtained.

본 발명에 따른 영상의 부호화 방법 및 장치는, 상기 선택된 적어도 하나의 참조 화소 라인을 지시하는 참조 화소 라인 인덱스 정보를 부호화하고, 상기 부호화된 참조 화소 라인 인덱스 정보를 비트스트림에 포함시킬 수 있다.The image encoding method and apparatus according to the present invention may encode reference pixel line index information indicating the selected at least one reference pixel line, and include the encoded reference pixel line index information in a bitstream.

본 발명에 따른 영상의 부호화 방법 및 장치는, 상기 현재 블록 내의 각 화소의 위치에 기초하여 상기 현재 블록 내의 각 화소마다 적어도 하나의 참조 화소 라인을 선택할 수 있다.The image encoding method and apparatus according to the present invention may select at least one reference pixel line for each pixel in the current block based on the position of each pixel in the current block.

본 발명에 따른 영상의 부호화 방법 및 장치는, 상기 현재 블록의 인트라 예측 모드에 기초하여 상기 현재 블록 내의 각 화소마다 적어도 하나의 참조 화소 라인을 선택할 수 있다. The image encoding method and apparatus according to the present invention may select at least one reference pixel line for each pixel in the current block based on the intra prediction mode of the current block.

본 발명에 따른 영상의 부호화 방법 및 장치는, 복수의 보간 방식 중 하나를 선택하고, 상기 선택된 보간 방식을 이용하여, 상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소를 이용하여 보간을 수행하여 상기 예측값을 얻을 수 있다.An image encoding method and apparatus according to the present invention selects one of a plurality of interpolation methods and performs interpolation using at least one pixel included in the selected at least one reference pixel line by using the selected interpolation method. can be performed to obtain the predicted value.

본 발명에 따른 영상의 부호화 방법 및 장치는, 상기 복수의 보간 방식 중 하나를 나타내는 인덱스 정보를 부호화하여 비트스트림에 포함시킬 수 있다. An image encoding method and apparatus according to the present invention, Index information indicating one of the plurality of interpolation methods may be encoded and included in the bitstream.

본 발명에 따른 영상의 부호화 방법 및 장치는, 상기 현재 블록의 모든 화소들의 예측값을 유도하여 상기 현재 블록의 예측 블록을 얻은 후 상기 예측 블록을 필터링할 수 있다.The method and apparatus for encoding an image according to the present invention may derive the prediction values of all pixels of the current block to obtain the prediction block of the current block, and then filter the prediction block.

본 발명에 따른 영상의 부호화 방법 및 장치는, 상기 현재 블록의 크기 또는 상기 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록의 소정 영역을 필터링할 수 있다.An image encoding method and apparatus according to the present invention may filter a predetermined region of the current block according to the size of the current block or an intra prediction mode of the current block.

본 발명에 따르면, 보다 효과적인 인트라 예측 기술을 적용함으로써, 영상의 압축 효율과 재생된 영상의 화질을 향상시킬 수 있다. 또한, 본 발명에 따른, 인트라 예측 블록과 주변 영역 간의 불연속성을 감소시킬 수 있는 필터링 방법을 적용함으로써 재생된 영상의 화질을 향상시킬 수 있다.According to the present invention, by applying a more effective intra prediction technique, it is possible to improve the image compression efficiency and the image quality of the reproduced image. Also, by applying the filtering method capable of reducing the discontinuity between the intra prediction block and the surrounding area according to the present invention, the quality of the reproduced image can be improved.

도 1은 본 발명의 일실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 2는 인트라 예측 모드의 일 예를 설명하기 위한 도면이다.
도 3은 평면 모드를 설명하기 위한 도면이다.
도 4는 DC 모드를 설명하기 위한 도면이다.
도 5는 예측 블록을 생성하는 일 예를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 영상 복호화 장치를 나타낸 블록도이다.
도 7a 및 도 7b는 보간을 이용하여 화면 내 예측 화소를 유도하는 방법을 설명하기 위한 도면이다.
도 8은 보간 방법 또는 보간 계수들을 선택하는 묵시적인 방법을 설명하기 위한 도면이다.
도 9는 영상 부호화 장치에 의해 화면 내 예측 모드가 선택되는 과정을 설명하기 위한 순서도이다.
도 10은 영상 부호화 장치에 의해 복수의 보간 방식들 중 하나가 선택되는 과정을 설명하기 위한 순서도이다.
도 11은 영상 부호화 장치에 의해 보간 방식 인덱스 정보를 부호화하는 과정을 설명하는 순서도이다.
도 12는 영상 복호화 장치에 의해 보간 방식 인덱스 정보가 복호화되는 과정을 설명하는 순서도이다.
도 13은 본 발명의 일 실시예에 따른, 복수의 참조 화소 라인들을 이용한 화면 내 예측 화소의 유도를 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따른, 화면 내 예측 화소값을 유도하는 과정을 설명하기 위한 흐름도이다.
도 15는 예측 블록마다 인트라 예측에 이용될 참조 화소 라인을 적응적으로 결정하는 과정을 설명하기 위한 흐름도이다.
도 16은 참조 화소 라인 인덱스 정보가 영상 부호화 장치에 의해 부호화되는 과정을 나타낸 흐름도이다.
도 17은 참조 화소 라인 인덱스 정보가 영상 복호화 장치에 의해 복호화되는 과정을 나타낸 흐름도이다.
도 18 및 도 19는 참조 화소 라인 인덱스의 전송 없이 참조 화소 라인을 결정하는 방법을 설명하기 위한 도면이다.
도 20은 예측 블록과 참조 화소 라인간의 스무딩을 설명하기 위한 도면이다.
도 21은 공통의 참조 화소 라인을 현재 블록 내의 모든 변환 블록들에 이용되는 경우를 도시한다.
도 22a 내지 22d는 각 변환 블록 마다 참조 화소 라인을 선택하여 인트라 예측에 이용되는 경우를 도시한다.
1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.
2 is a diagram for explaining an example of an intra prediction mode.
3 is a diagram for explaining a planar mode.
4 is a diagram for explaining a DC mode.
5 is a diagram for explaining an example of generating a prediction block.
6 is a block diagram illustrating an image decoding apparatus according to an embodiment of the present invention.
7A and 7B are diagrams for explaining a method of deriving an intra prediction pixel using interpolation.
8 is a diagram for explaining an interpolation method or an implicit method of selecting interpolation coefficients.
9 is a flowchart illustrating a process of selecting an intra prediction mode by an image encoding apparatus.
10 is a flowchart illustrating a process in which one of a plurality of interpolation methods is selected by an image encoding apparatus.
11 is a flowchart illustrating a process of encoding interpolation method index information by an image encoding apparatus.
12 is a flowchart illustrating a process of decoding interpolation method index information by an image decoding apparatus.
13 is a diagram for explaining derivation of a prediction pixel in a screen using a plurality of reference pixel lines, according to an embodiment of the present invention.
14 is a flowchart for explaining a process of deriving a predicted pixel value in a screen according to an embodiment of the present invention.
15 is a flowchart illustrating a process of adaptively determining a reference pixel line to be used for intra prediction for each prediction block.
16 is a flowchart illustrating a process in which reference pixel line index information is encoded by an image encoding apparatus.
17 is a flowchart illustrating a process in which reference pixel line index information is decoded by an image decoding apparatus.
18 and 19 are diagrams for explaining a method of determining a reference pixel line without transmitting a reference pixel line index.
20 is a diagram for explaining smoothing between a prediction block and a reference pixel line.
21 shows a case in which a common reference pixel line is used for all transform blocks in the current block.
22A to 22D illustrate a case in which a reference pixel line is selected for each transform block and used for intra prediction.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 상세하게 설명한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, the same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

도 1은 본 발명의 일실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.

도 1을 참조하면, 영상 부호화 장치(100)는 영상 분할부(101),화면 내 예측부(102), 화면 간 예측부(103), 감산부(104), 변환부(105), 양자화부(106), 엔트로피 부호화부(107), 역양자화부(108), 역변환부(109), 증산부(110), 필터부(111) 및 메모리(112)를 포함할 수 있다.Referring to FIG. 1 , the image encoding apparatus 100 includes an image division unit 101 , an intra prediction unit 102 , an inter prediction unit 103 , a subtraction unit 104 , a transform unit 105 , and a quantization unit. 106 , an entropy encoding unit 107 , an inverse quantization unit 108 , an inverse transform unit 109 , a multiplication unit 110 , a filter unit 111 , and a memory 112 .

도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.Each of the constituent units shown in FIG. 1 is independently illustrated to represent different characteristic functions in the image encoding apparatus, and does not mean that each constituent unit is composed of separate hardware or one software constituent unit. That is, each component is listed as each component for convenience of description, and at least two components of each component are combined to form one component, or one component can be divided into a plurality of components to perform a function, and each of these components Integrated embodiments and separate embodiments of the components are also included in the scope of the present invention without departing from the essence of the present invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components are not essential components for performing essential functions in the present invention, but may be optional components for merely improving performance. The present invention can be implemented by including only essential components to implement the essence of the present invention, except for components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement Also included in the scope of the present invention.

영상 분할부(100)는 입력된 영상을 적어도 하나의 블록으로 분할할 수 있다. 이 때, 입력된 영상은 픽처, 슬라이스, 타일, 세그먼트 등 다양한 형태와 크기를 가질 수 있다. 블록은 부호화 단위(CU), 예측 단위(PU) 또는 변환 단위(TU)를 의미할 수 있다. 상기 분할은 쿼드 트리(Quadtree) 또는 바이너리 트리(Biniary tree) 중 적어도 하나에 기반하여 수행될 수 있다. 쿼드 트리는 상위 블록을 너비와 높이가 상위 블록의 절반인 하위 블록으로 사분할하는 방식이다. 바이너리 트리는 상위 블록을 너비 또는 높이 중 어느 하나가 상위 블록의 절반인 하위 블록으로 이분할하는 방식이다. 전술한 바이너리 트리 기반의 분할을 통해, 블록은 정방형뿐만 아니라 비정방형의 형태를 가질 수 있다.The image dividing unit 100 may divide the input image into at least one block. In this case, the input image may have various shapes and sizes, such as a picture, a slice, a tile, and a segment. A block may mean a coding unit (CU), a prediction unit (PU), or a transformation unit (TU). The division may be performed based on at least one of a quadtree and a binary tree. The quad tree divides the upper block into lower blocks whose width and height are half that of the upper block. Binary tree is a method of dividing the upper block into lower blocks whose either width or height is half that of the upper block. Through the binary tree-based partitioning described above, a block may have a non-square shape as well as a square shape.

이하, 본 발명의 실시예에서는 부호화 단위는 부호화를 수행하는 단위의 의미로 사용할 수도 있고, 복호화를 수행하는 단위의 의미로 사용할 수도 있다.Hereinafter, in an embodiment of the present invention, a coding unit may be used as a unit for performing encoding or may be used as a meaning for a unit for performing decoding.

예측부(102, 103)는 인터 예측을 수행하는 화면 간 예측부(103)와 인트라 예측을 수행하는 화면 내 예측부(102)를 포함할 수 있다. 예측 단위에 대해 인터 예측을 사용할 것인지 또는 인트라 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 인트라 예측 모드, 모션 벡터, 참조 픽쳐 등)를 결정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 예측 단위로 결정되고, 예측의 수행은 변환 단위로 수행될 수도 있다.The prediction units 102 and 103 may include an inter prediction unit 103 performing inter prediction and an intra prediction unit 102 performing intra prediction. Whether to use inter prediction or to perform intra prediction for a prediction unit may be determined, and specific information (eg, intra prediction mode, motion vector, reference picture, etc.) according to each prediction method may be determined. In this case, a processing unit in which prediction is performed and a processing unit in which a prediction method and specific content are determined may be different. For example, a prediction method and a prediction mode may be determined in a prediction unit, and prediction may be performed in a transformation unit.

생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(105)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(107)에서 부호화되어 복호화기에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(102, 103)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.A residual value (residual block) between the generated prediction block and the original block may be input to the transform unit 105 . In addition, prediction mode information, motion vector information, etc. used for prediction may be encoded in the entropy encoder 107 together with a residual value and transmitted to a decoder. When a specific encoding mode is used, it is also possible to encode the original block as it is without generating the prediction block through the predictors 102 and 103 and transmit it to the decoder.

화면 내 예측부(102)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 블록을 생성할 수 있다. 인트라 예측이 수행될 현재 블록의 주변 블록의 예측 모드가 인터 예측인 경우, 인터 예측이 적용된 주변 블록에 포함되는 참조 픽셀을, 인트라 예측이 적용된 주변의 다른 블록 내의 참조 픽셀로 대체될 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를, 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.The intra prediction unit 102 may generate a prediction block based on reference pixel information around the current block, which is pixel information in the current picture. When the prediction mode of the neighboring block of the current block to which intra prediction is to be performed is inter prediction, a reference pixel included in the neighboring block to which the inter prediction is applied may be replaced with a reference pixel in another neighboring block to which the intra prediction is applied. That is, when the reference pixel is not available, the unavailable reference pixel information may be replaced with at least one reference pixel among the available reference pixels to be used.

인트라 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 정보를 예측하기 위해 사용된 인트라 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.In intra prediction, the prediction mode may have a directional prediction mode in which reference pixel information is used according to a prediction direction and a non-directional mode in which directional information is not used when prediction is performed. A mode for predicting luminance information and a mode for predicting chrominance information may be different, and intra prediction mode information used for predicting luminance information or predicted luminance signal information may be utilized to predict chrominance information.

화면 내 예측부(102)는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 필터로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 적응적으로 결정할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.The intra prediction unit 102 may include an adaptive intra smoothing (AIS) filter, a reference pixel interpolator, and a DC filter. The AIS filter is a filter that performs filtering on reference pixels of the current block, and may adaptively determine whether to apply the filter according to the prediction mode of the current prediction unit. When the prediction mode of the current block is a mode in which AIS filtering is not performed, the AIS filter may not be applied.

화면 내 예측부(102)의 참조 화소 보간부는 예측 단위의 인트라 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 분수 단위 위치의 참조 화소를 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.When the intra prediction mode of the intra prediction unit 102 is a prediction unit that performs intra prediction based on a pixel value obtained by interpolating the reference pixel, the reference pixel interpolation unit of the intra prediction unit 102 interpolates the reference pixel to the reference pixel at the fractional unit position. can create When the prediction mode of the current prediction unit is a prediction mode that generates a prediction block without interpolating the reference pixel, the reference pixel may not be interpolated. The DC filter may generate a prediction block through filtering when the prediction mode of the current block is the DC mode.

예측부(102, 103)에서 생성된 예측 단위와 예측 단위의 원본 블록 간의 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(130)로 입력되어 변환될 수 있다. A residual block including residual information that is a difference value between the prediction unit generated by the prediction units 102 and 103 and the original block of the prediction unit may be generated. The generated residual block may be input to the transform unit 130 and transformed.

도 2는 인트라 예측 모드의 일 예를 설명하기 위한 도면이다. 도 2에 도시된 인트라 예측 모드는 총 35가지의 모드를 가지고 있다. 0번 모드는 평면 모드(Planar mode), 1번 모드는 DC 모드, 2 내지 34번 모드는 각도 모드(Angular mode)를 나타낸다. 2 is a diagram for explaining an example of an intra prediction mode. The intra prediction mode shown in FIG. 2 has a total of 35 modes. Mode 0 indicates a planar mode, mode 1 indicates a DC mode, and modes 2 to 34 indicate an angular mode.

도 3은 평면 모드를 설명하기 위한 도면이다. 현재 블록 내의 첫 번째 화소 P1의 예측값을 생성하기 위해 Y축으로 같은 위치에 있는 복원된 화소와 현재 블록의 우측 상단에 존재하는 복원된 화소 T를 도시된 바와 같이 선형 보간 하여 생성한다. 마찬가지로 두 번째 화소 P2의 예측값을 생성하기 위해 X축으로 같은 위치에 있는 복원된 화소와 현재 블록의 좌측 하단에 존재하는 복원된 화소 L을 도시된 바와 같이 선형 보간 하여 생성한다. 두 개의 예측 화소 P1과 P2를 평균한 값이 최종적인 예측 화소가 된다. 평면 모드에서는 위와 같은 방식으로 예측 화소들을 유도하여 현재 블록의 예측 블록을 생성한다. 3 is a diagram for explaining a planar mode. In order to generate the predicted value of the first pixel P1 in the current block, the reconstructed pixel located at the same position along the Y axis and the reconstructed pixel T present at the upper right of the current block are linearly interpolated as shown. Similarly, in order to generate the predicted value of the second pixel P2, the reconstructed pixel located at the same position along the X-axis and the reconstructed pixel L existing at the lower left of the current block are linearly interpolated and generated as shown. A value obtained by averaging the two prediction pixels P1 and P2 becomes the final prediction pixel. In the planar mode, a prediction block of the current block is generated by inducing prediction pixels in the same manner as above.

도 4는 DC 모드를 설명하기 위한 도면이다. 현재 블록 주변의 복원된 화소들의 평균을 계산한 다음, 그 평균 값을 현재 블록 내의 모든 화소들의 예측값으로 이용한다. 4 is a diagram for explaining a DC mode. After calculating the average of the reconstructed pixels around the current block, the average value is used as a predicted value of all pixels in the current block.

도 5는 도 2의 10번 모드(수평 모드)와 26번 모드(수직 모드)를 이용하여 예측 블록을 생성하는 일 예를 설명하기 위한 도면이다. 10번 모드를 이용하는 경우, 현재 블록의 좌측에 접하는 각 참조화소를 오른쪽 방향으로 복사하여 현재 블록의 예측 블록을 생성한다. 마찬가지로 26번 모드는, 현재 블록의 상측에 접하는 각 참조 화소를 아래쪽 방향으로 복사하여 현재 블록의 예측 블록을 생성한다.FIG. 5 is a diagram for explaining an example of generating a prediction block using mode 10 (horizontal mode) and mode 26 (vertical mode) of FIG. 2 . When mode 10 is used, a prediction block of the current block is generated by copying each reference pixel adjacent to the left side of the current block in the right direction. Similarly, in mode 26, a prediction block of the current block is generated by copying each reference pixel adjacent to the upper side of the current block in a downward direction.

다시 도 1을 참조하면, 화면 간 예측부(103)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 단위를 예측할 수도 있고, 경우에 따라서는 현재 픽쳐 내의 부호화가 완료된 일부 영역의 정보를 기초로 예측 단위를 예측할 수도 있다. 화면 간 예측부(103)는 참조 픽쳐 보간부, 모션 예측부, 움직임 보상부를 포함할 수 있다. Referring back to FIG. 1 , the inter prediction unit 103 may predict a prediction unit based on information on at least one of a picture before or after the current picture, and in some cases, encoding in the current picture is completed. A prediction unit may be predicted based on information on a partial area. The inter prediction unit 103 may include a reference picture interpolator, a motion prediction unit, and a motion compensator.

참조 픽쳐 보간부에서는 메모리(112)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. The reference picture interpolator may receive reference picture information from the memory 112 and generate pixel information of integer pixels or less in the reference picture. In the case of luminance pixels, a DCT-based 8-tap interpolation filter in which filter coefficients are different to generate pixel information of integer pixels or less in units of 1/4 pixels may be used. In the case of the color difference signal, a DCT-based 4-tap interpolation filter in which filter coefficients are different to generate pixel information of integer pixels or less in units of 1/8 pixels may be used.

모션 예측부는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 모션 예측을 수행할 수 있다. 모션 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 모션 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 모션 벡터값을 가질 수 있다. 모션 예측부에서는 모션 예측 방법을 다르게 하여 현재 예측 단위를 예측할 수 있다. 모션 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법 등 다양한 방법이 사용될 수 있다.The motion prediction unit may perform motion prediction based on the reference picture interpolated by the reference picture interpolator. As a method for calculating the motion vector, various methods such as Full search-based Block Matching Algorithm (FBMA), Three Step Search (TSS), and New Three-Step Search Algorithm (NTS) may be used. The motion vector may have a motion vector value of 1/2 or 1/4 pixel unit based on the interpolated pixel. The motion prediction unit may predict the current prediction unit by using a different motion prediction method. As the motion prediction method, various methods such as a skip method, a merge method, and an AMVP (Advanced Motion Vector Prediction) method may be used.

감산부(104)는, 현재 부호화하려는 블록과 화면 내 예측부(102) 혹은 화면 간 예측부(103)에서 생성된 예측 블록을 감산하여 현재 블록의 잔차 블록을 생성한다.The subtraction unit 104 generates a residual block of the current block by subtracting the block to be currently encoded and the prediction block generated by the intra prediction unit 102 or the inter prediction unit 103 .

변환부(105)에서는 잔차 데이터를 포함한 잔차 블록을 DCT, DST, KLT(Karhunen Loeve Transform) 등과 같은 변환 방법을 사용하여 변환시킬 수 있다. 이때 변환 방법은 잔차 블록을 생성하기 위해 사용된 예측 단위의 인트라 예측 모드에 기반하여 결정될 수 있다. 예를 들어, 인트라 예측 모드에 따라, 가로 방향으로는 DCT를 사용하고, 세로 방향으로는 DST를 사용할 수도 있다.The transform unit 105 may transform the residual block including the residual data using a transform method such as DCT, DST, or Karhunen Loeve Transform (KLT). In this case, the transform method may be determined based on the intra prediction mode of the prediction unit used to generate the residual block. For example, according to the intra prediction mode, DCT may be used in a horizontal direction and DST may be used in a vertical direction.

양자화부(106)는 변환부(105)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(106)에서 산출된 값은 역양자화부(108)와 엔트로피 부호화부(107)에 제공될 수 있다.The quantization unit 106 may quantize the values transformed in the frequency domain by the transform unit 105 . The quantization coefficient may vary according to blocks or the importance of an image. The value calculated by the quantizer 106 may be provided to the inverse quantizer 108 and the entropy encoder 107 .

상기 변환부(105) 및/또는 양자화부(106)는, 영상 부호화 장치(100)에 선택적으로 포함될 수 있다. 즉, 영상 부호화 장치(100)는, 잔차 블록의 잔차 데이터에 대해 변환 또는 양자화 중 적어도 하나를 수행하거나, 변환 및 양자화를 모두 스킵하여 잔차 블록을 부호화할 수 있다. 영상 부호화 장치(100)에서 변환 또는 양자화 중 어느 하나가 수행되지 않거나, 변환 및 양자화 모두 수행되지 않더라도, 엔트로피 부호화부(107)의 입력으로 들어가는 블록을 통상적으로 변환 블록이라 일컫는다. 엔트로피 부호화부(107)는 입력 데이터를 엔트로피 부호화한다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.The transform unit 105 and/or the quantizer 106 may be selectively included in the image encoding apparatus 100 . That is, the image encoding apparatus 100 may encode the residual block by performing at least one of transform or quantization on the residual data of the residual block, or skipping both transform and quantization. Even if either transform or quantization is not performed in the image encoding apparatus 100 or neither transform nor quantization is performed, a block entering the input of the entropy encoder 107 is generally referred to as a transform block. The entropy encoding unit 107 entropy-encodes input data. For entropy encoding, various encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be used.

엔트로피 부호화부(107)는 예측부(102, 103)로부터 부호화 단위의 잔차값 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보 및 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다. 엔트로피 부호화부(107)에서, 변환 블록의 계수는, 변환 블록 내 부분 블록 단위로, 0이 아닌 계수, 절대값이 1 또는 2보다 큰 계수, 그리고 계수의 부호 등을 나타내는 여러 종류의 플래그를 부호화될 수 있다. 상기 플래그만으로 부호화되지 않는 계수는, 플래그를 통해 부호화된 계수와 실제 변환 블록의 계수 간의 차이의 절대값을 통해 부호화될 수 있다. 역양자화부(108) 및 역변환부(109)에서는 양자화부(106)에서 양자화된 값들을 역양자화하고 변환부(105)에서 변환된 값들을 역변환한다. 역양자화부(108) 및 역변환부(109)에서 생성된 잔차값(Residual)은 예측부(102, 103)에 포함된 움직임 추정부, 움직임 보상부 및 화면 내 예측부(102)를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다. 증산기(110)는, 예측부(102, 103)에서 생성된 예측 블록과, 역 변환부(109)를 통해 생성된 잔차 블록을 증산하여 복원 블록을 생성한다.The entropy encoder 107 receives the residual value coefficient information and block type information of the coding unit, prediction mode information, partition unit information, prediction unit information and transmission unit information, motion vector information, and reference frame information from the prediction units 102 and 103 . , block interpolation information, filtering information, etc. can be encoded. In the entropy encoding unit 107, the coefficients of the transform block are encoded in units of sub-blocks within the transform block, and various kinds of flags indicating non-zero coefficients, coefficients having absolute values greater than 1 or 2, and signs of coefficients are encoded. can be Coefficients that are not encoded using only the flag may be encoded using an absolute value of a difference between a coefficient encoded through the flag and a coefficient of an actual transform block. The inverse quantizer 108 and the inverse transform unit 109 inversely quantize the values quantized by the quantizer 106 and inversely transform the values transformed by the transform unit 105 . The residual values generated by the inverse quantization unit 108 and the inverse transform unit 109 are predicted through the motion estimation unit, the motion compensator, and the intra prediction unit 102 included in the prediction units 102 and 103 . It may be combined with a prediction unit to generate a reconstructed block. The multiplier 110 multiplies the prediction block generated by the prediction units 102 and 103 and the residual block generated through the inverse transform unit 109 to generate a reconstructed block.

필터부(111)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다.The filter unit 111 may include at least one of a deblocking filter, an offset correcting unit, and an adaptive loop filter (ALF).

디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.The deblocking filter may remove block distortion caused by the boundary between blocks in the reconstructed picture. In order to determine whether to perform deblocking, it may be determined whether to apply the deblocking filter to the current block based on pixels included in several columns or rows included in the block. When a deblocking filter is applied to a block, a strong filter or a weak filter can be applied according to the required deblocking filtering strength. In addition, in applying the deblocking filter, horizontal filtering and vertical filtering may be concurrently processed when vertical filtering and horizontal filtering are performed.

오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.The offset correcting unit may correct an offset from the original image in units of pixels with respect to the image on which the deblocking has been performed. In order to perform offset correction on a specific picture, a method of dividing pixels included in an image into a certain number of regions, determining the region to be offset and applying the offset to the region, or taking edge information of each pixel into account can be used to apply

ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 상관없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수도 있다. Adaptive loop filtering (ALF) may be performed based on a value obtained by comparing the filtered reconstructed image and the original image. After dividing the pixels included in the image into a predetermined group, one filter to be applied to the corresponding group is determined, and filtering can be performed differentially for each group. As for information related to whether to apply ALF, the luminance signal may be transmitted for each coding unit (CU), and the shape and filter coefficients of the ALF filter to be applied may vary according to each block. In addition, the ALF filter of the same type (fixed type) may be applied regardless of the characteristics of the block to be applied.

메모리(112)는 필터부(111)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행 시 예측부(102, 103)에 제공될 수 있다.The memory 112 may store the reconstructed block or picture calculated through the filter unit 111 , and the stored reconstructed block or picture may be provided to the predictors 102 and 103 when inter prediction is performed.

도 6은 본 발명의 일 실시예에 따른 영상 복호화 장치(600)를 나타낸 블록도이다. 6 is a block diagram illustrating an image decoding apparatus 600 according to an embodiment of the present invention.

도 6을 참조하면, 영상 복호화 장치(600)는 엔트로피 복호화부(601), 역양자화부(602), 역변환부(603), 증산부(604), 필터부(605), 메모리(606) 및 예측부(607, 608)를 포함할 수 있다.Referring to FIG. 6 , the image decoding apparatus 600 includes an entropy decoding unit 601 , an inverse quantization unit 602 , an inverse transform unit 603 , an increment unit 604 , a filter unit 605 , a memory 606 and It may include prediction units 607 and 608 .

영상 부호화 장치(100)에 의해 생성된 영상 비트스트림이 영상 복호화 장치(600)로 입력되는 경우, 입력된 비트스트림은 영상 부호화 장치(100)에서 수행된 과정과 반대의 과정에 따라 복호될 수 있다.When an image bitstream generated by the image encoding apparatus 100 is input to the image decoding apparatus 600 , the input bitstream may be decoded according to a process opposite to that performed by the image encoding apparatus 100 . .

엔트로피 복호화부(601)는 영상 부호화 장치(100)의 엔트로피 부호화부(107)에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화기에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다. 엔트로피 복호화부(601)에서, 변환 블록의 계수는, 변환 블록 내 부분 블록 단위로, 0이 아닌 계수, 절대값이 1 또는 2보다 큰 계수, 그리고 계수의 부호 등을 나타내는 여러 종류의 플래그를 기반으로 복호화될 수 있다. 상기 플래그만으로 표현되지 않는 계수는, 플래그를 통해 표현되는 계수와 시그날링된 계수의 합을 통해 복호화될 수 있다.The entropy decoding unit 601 may perform entropy decoding in a procedure opposite to that performed by the entropy encoding unit 107 of the image encoding apparatus 100 . For example, various methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied corresponding to the method performed by the image encoder. In the entropy decoding unit 601, the coefficients of the transform block are based on various kinds of flags indicating non-zero coefficients, coefficients with absolute values greater than 1 or 2, and signs of coefficients in units of partial blocks within the transform block. can be decrypted as Coefficients that are not expressed only by the flag may be decoded through the sum of the coefficients expressed through the flags and the signaled coefficients.

엔트로피 복호화부(601)에서는 부호화기에서 수행된 인트라 예측 및 인터 예측에 관련된 정보를 복호화할 수 있다.역 양자화부(602)는 양자화된 변환 블록에 역 양자화를 수행하여 변환 블록을 생성한다. 도 1의 역 양자화부(108)와 실질적으로 동일하게 동작한다.The entropy decoding unit 601 may decode information related to intra prediction and inter prediction performed by the encoder. The inverse quantization unit 602 performs inverse quantization on a quantized transform block to generate a transform block. It operates substantially the same as the inverse quantization unit 108 of FIG. 1 .

역 변환부(603)은 변환 블록에 역 변환을 수행하여 잔차 블록을 생성한다. 이때, 변환 방법은 예측 방법(인터 또는 인트라 예측), 블록의 크기 및/또는 형태, 인트라 예측 모드 등에 관한 정보를 기반으로 결정될 수 있다. 도 1의 역 변환부(109)와 실질적으로 동일하게 동작한다. The inverse transform unit 603 generates a residual block by performing inverse transform on the transform block. In this case, the transformation method may be determined based on information about a prediction method (inter or intra prediction), a size and/or a shape of a block, an intra prediction mode, and the like. It operates substantially the same as the inverse transform unit 109 of FIG. 1 .

증산부(604)는, 화면 내 예측부(607) 혹은 화면 간 예측부(608)에서 생성된 예측 블록과 역 변환부(603)를 통해 생성된 잔차 블록를 증산하여 복원 블록을 생성한다. 도 1의 증산부(110)과 실질적으로 동일하게 동작한다.The incrementer 604 generates a reconstructed block by multiplying the prediction block generated by the intra prediction unit 607 or the inter prediction unit 608 and the residual block generated by the inverse transform unit 603 . It operates substantially the same as the increment 110 of FIG. 1 .

필터부(605)는, 복원된 블록들에 발생하는 여러 종류의 노이즈를 감소시킨다.The filter unit 605 reduces various types of noise generated in the reconstructed blocks.

필터부(605)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.The filter unit 605 may include a deblocking filter, an offset correction unit, and an ALF.

영상 부호화 장치(100)로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 영상 복호화 장치(600)의 디블록킹 필터에서는 영상 부호화 장치(100)에서 제공된 디블록킹 필터 관련 정보를 제공받고 영상 복호화 장치(600)에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. Information on whether a deblocking filter is applied to a corresponding block or picture and information on whether a strong filter or a weak filter is applied when the deblocking filter is applied from the image encoding apparatus 100 may be provided. The deblocking filter of the image decoding apparatus 600 may receive the deblocking filter related information provided from the image encoding apparatus 100 , and the image decoding apparatus 600 may perform deblocking filtering on the corresponding block.

오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.The offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction applied to the image during encoding and information on the offset value.

ALF는 영상 부호화 장치(100)로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라미터 셋에 포함되어 제공될 수 있다. 필터부(605)는 도 1의 필터부(111)와 실질적으로 동일하게 동작한다.ALF may be applied to a coding unit based on information on whether ALF is applied, ALF coefficient information, etc. provided from the image encoding apparatus 100 . Such ALF information may be provided by being included in a specific parameter set. The filter unit 605 operates substantially the same as the filter unit 111 of FIG. 1 .

메모리(606)는 증산부(604)에 의해 생성된 복원 블록을 저장한다. 도 1의 메모리(112)와 실질적으로 동일하게 동작한다.The memory 606 stores the restoration block generated by the incrementer 604 . It operates substantially the same as the memory 112 of FIG. 1 .

예측부(607, 608)는 엔트로피 복호화부(601)에서 제공된 예측 블록 생성 관련 정보와 메모리(606)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. The prediction units 607 and 608 may generate a prediction block based on the prediction block generation related information provided from the entropy decoding unit 601 and previously decoded block or picture information provided from the memory 606 .

예측부(607, 608)는 화면 내 예측부(607) 및 화면 간 예측부(608)를 포함할 수 있다. 별도로 도시되지는 아니하였으나, 예측부(607, 608)는 예측 단위 판별부를 더 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(601)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 예측 모드 정보, 인터 예측 방법의 모션 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위에서 예측 단위를 구분하고, 예측 단위가 인터 예측을 수행하는지 아니면 인트라 예측을 수행하는지 여부를 판별할 수 있다. 화면 간 예측부(608)는 영상 부호화 장치(100)에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 인터 예측을 수행할 수 있다. 또는, 현재 예측 단위가 포함된 현재 픽쳐 내에서 기-복원된 일부 영역의 정보를 기초로 인터 예측을 수행할 수도 있다.The prediction units 607 and 608 may include an intra prediction unit 607 and an inter prediction unit 608 . Although not shown separately, the prediction units 607 and 608 may further include a prediction unit determining unit. The prediction unit determining unit receives various information such as prediction unit information input from the entropy decoder 601, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and divides the prediction unit from the current coding unit, and predicts It may be determined whether the unit performs inter prediction or intra prediction. The inter prediction unit 608 uses information required for inter prediction of the current prediction unit provided from the image encoding apparatus 100 to provide information included in at least one of a picture before or after the current picture including the current prediction unit. Inter prediction may be performed on the current prediction unit based on . Alternatively, inter prediction may be performed based on information on a pre-restored partial region in the current picture including the current prediction unit.

화면 간 예측을 수행하기 위해 부호화 단위를 기준으로 해당 부호화 단위에 포함된 예측 단위의 모션 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode) 중 어떠한 방법인지 여부를 판단할 수 있다.Whether a method of predicting a motion of a prediction unit included in a corresponding coding unit based on a coding unit to perform inter prediction is a skip mode, a merge mode, or an AMVP mode can be judged

화면 내 예측부(607)는, 현재 부호화하려는 블록 주변에 위치한, 그리고 기 복원된 화소들을 이용하여 예측 블록을 생성한다. The intra prediction unit 607 generates a prediction block using previously reconstructed pixels located around the block to be currently encoded.

화면 내 예측부(607)는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 필터로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 적응적으로 결정할 수 있다. 영상 부호화 장치(100)에서 제공된 예측 단위의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.The intra prediction unit 607 may include an Adaptive Intra Smoothing (AIS) filter, a reference pixel interpolator, and a DC filter. The AIS filter is a filter that performs filtering on reference pixels of the current block, and may adaptively determine whether to apply the filter according to the prediction mode of the current prediction unit. AIS filtering may be performed on the reference pixel of the current block by using the prediction mode and AIS filter information of the prediction unit provided by the image encoding apparatus 100 . When the prediction mode of the current block is a mode in which AIS filtering is not performed, the AIS filter may not be applied.

화면 내 예측부(607)의 참조 화소 보간부는 예측 단위의 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 분수 단위 위치의 참조 화소를 생성할 수 있다. 생성된 분수 단위 위치의 참조 화소가 현재 블록 내의 화소의 예측 화소로 이용될 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.The reference pixel interpolation unit of the intra prediction unit 607 interpolates the reference pixel to select the reference pixel at the fractional unit position when the prediction mode of the prediction unit is a prediction unit that performs intra prediction based on a pixel value obtained by interpolating the reference pixel. can create The generated reference pixel at the fractional unit position may be used as a prediction pixel of a pixel in the current block. When the prediction mode of the current prediction unit is a prediction mode that generates a prediction block without interpolating the reference pixel, the reference pixel may not be interpolated. The DC filter may generate a prediction block through filtering when the prediction mode of the current block is the DC mode.

화면 내 예측부(607)는 도 1의 화면 내 예측부(102)와 실질적으로 동일하게 동작한다.The intra prediction unit 607 operates substantially the same as the intra prediction unit 102 of FIG. 1 .

화면 간 예측부(608)는, 메모리(606)에 저장된 참조 픽처, , 움직임 정보를 이용하여 인터 예측 블록을 생성한다. 화면 간 예측부(608)는 도 1의 화면 간 예측부(103)와 실질적으로 동일하게 동작한다.The inter prediction unit 608 generates an inter prediction block by using reference pictures stored in the memory 606 , and motion information. The inter prediction unit 608 operates substantially the same as the inter prediction unit 103 of FIG. 1 .

본 발명은 특히 인트라 예측에 관한 것으로서, 이하에 본 발명의 다양한 실시예들을 도면들을 참조하면서 보다 상세하게 설명한다.The present invention particularly relates to intra prediction. Hereinafter, various embodiments of the present invention will be described in more detail with reference to the drawings.

<화면 내 예측을 위한 보간> < Interpolation for in-screen prediction>

도 7a 및 도 7b는 보간을 이용하여 화면 내 예측 화소를 유도하는 방법을 설명하기 위한 도면이다. 도 2의 화면 내 예측 모드들 중 하나인 m번 모드의 예측 각도가 도 7a와 같다고 가정하면, m번 모드를 이용하여 화면 내 예측을 수행하는 경우 예측에 이용될 참조 화소 X는 정수 화소 위치에 존재하지 않는다. 따라서 참조 화소 X의 왼쪽과 오른쪽의 정수 화소 위치에 존재하는 참조 화소인 A와 B를 이용하여 보간을 수행하여 분수 화소 위치의 참조 화소 X를 생성한다. 생성된 참조 화소 X는 현재 블록 내의 P위치의 화소의 예측 화소로 이용된다. 7A and 7B are diagrams for explaining a method of deriving an intra prediction pixel using interpolation. Assuming that the prediction angle of mode m, which is one of the intra prediction modes of FIG. 2, is the same as that of FIG. 7A, when intra prediction is performed using mode m, the reference pixel X to be used for prediction is an integer pixel position. does not exist. Therefore, the reference pixel X at the fractional pixel position is generated by performing interpolation using the reference pixels A and B that exist at the integer pixel positions to the left and right of the reference pixel X. The generated reference pixel X is used as a prediction pixel of the pixel at the P position in the current block.

도 7b는 화소 X, A, B 간의 관계를 설명하기 위한 도면이다. 도 7b를 참조하면, 화소 X와 A 간의 거리는 S1이고, 화소 B와 X 간의 거리는 S2이다. 거리 S1과 S2의 비율에 따라 다양한 보간 방법을 사용하여 화소 X 를 유도할 수 있다. 이때 사용되는 보간 방법에는 선형 보간(linear interpolation), 큐빅컨볼루션 보간(cubic convolution interpolation), B-spline 보간(B-spline interpolation) 등 다양한 보간 방법이 적용 될 수 있다. 7B is a diagram for explaining the relationship between the pixels X, A, and B; Referring to FIG. 7B , the distance between the pixels X and A is S1, and the distance between the pixels B and X is S2. Depending on the ratio of the distances S1 and S2, various interpolation methods can be used to derive the pixel X. Various interpolation methods such as linear interpolation, cubic convolution interpolation, and B-spline interpolation may be applied to the interpolation method used at this time.

영상 복호화 장치(100)가, 가용한 복수의 보간 방법들 중 어떤 보간 방법이 적용되었는지 또는 어떤 보간 계수 세트가 사용되었는지 여부를 알게 하기 위한 방법으로는 여러가지가 있다. 첫번째 방법은 영상 부호화 장치(100)가, 가용한 복수의 보간 방법들 중 어떤 보간 방법이 적용되었는지를 나타내는 인덱스 정보를 영상 복호화 장치(600)로 전송하는 방법이다. 이 때 영상 부호화 장치(100)는, 보간 방법을 지시하는 인덱스 정보를 블록 단위나 상위의 헤더를 통해 설정하는 것도 가능하다. 여기서 상위 헤더를 통해 설정한다는 것은 슬라이스 세크멘트 헤더(slice segment header), 픽처 파라메터 세트(picture parameter set), 시퀀스 파라메터 세트(sequence parameter set) 등 블록 단위보다 더 큰 단위의 헤더를 이용하여 설정한다는 것을 의미한다. 상위 헤더에 포함된, 보간 방법을 지시하는 인덱스 정보는 영상 부호화 장치(100)에 의해 부호화되어 영상 복호화 장치(600)로 전송될 수 있다.There are various methods for allowing the image decoding apparatus 100 to know which interpolation method is applied among a plurality of available interpolation methods or which interpolation coefficient set is used. The first method is a method in which the image encoding apparatus 100 transmits index information indicating which interpolation method among a plurality of available interpolation methods is applied to the image decoding apparatus 600 . In this case, the video encoding apparatus 100 may set index information indicating the interpolation method in units of blocks or through a higher header. Here, the setting through the upper header means that the setting is performed using a header of a larger unit than the block unit, such as a slice segment header, a picture parameter set, and a sequence parameter set. it means. Index information indicating the interpolation method included in the upper header may be encoded by the image encoding apparatus 100 and transmitted to the image decoding apparatus 600 .

다른 방법으로는, 기 설정된 복수의 보간 계수 세트들을 부호화 장치(100)와 복호화 장치(600)가 동일하게 저장하고, 어떤 세트가 선택되어 부호화에 사용되었는지를 알려주는 보간 계수 인덱스 정보를 블록 단위나 상위 헤더를 통해 복호화 장치(600)로 알릴 수 있다. As another method, the encoding apparatus 100 and the decoding apparatus 600 equally store a plurality of preset interpolation coefficient sets, and interpolation coefficient index information indicating which set is selected and used for encoding is stored in blocks or blocks. It may be notified to the decryption apparatus 600 through the upper header.

또 다른 방법으로는, 전술한 보간 방법을 지시하는 인덱스 정보 또는 어떠한 보간 계수 세트가 사용되는지를 지시하는 보간 계수 인덱스 정보를 영상 부호화 장치(100)가 영상 복호화 장치(600)로 전송하는 대신에, 영상 부호화 장치(100)와 영상 복호화 장치(600)가 묵시적인(implicit) 방식으로 동일하게 보간 계수들을 유도할 수 있다.As another method, instead of the image encoding apparatus 100 transmitting the index information indicating the above-described interpolation method or interpolation coefficient index information indicating which interpolation coefficient set is used to the image decoding apparatus 600, The image encoding apparatus 100 and the image decoding apparatus 600 may equally derive the interpolation coefficients in an implicit method.

구체적으로, 이미 복원된 화소들을 이용하여 영상 부호화 장치(100)와 영상 복호화 장치(600)가 동일한 방식을 통해 보간 계수들을 유도할 수 있다. 예를 들어, R개의 참조 화소들(즉, 이미 복원된 화소들)을 이용해서 R x K (K는 임의의 실수)배로 하나의 보간 필터를 이용하여 확대또는 축소한다. 그 후 동일한 보간 필터를 이용하여 역과정을 통해 원래 R개의 참조 화소들을 복원한다. 복원된 R개의 참조 화소들의 값과 원래 참조 화소들의 값 간의 차이가 얼마나 되는지에 따라 최적의 보간 필터를 결정할 수 있다. Specifically, the image encoding apparatus 100 and the image decoding apparatus 600 may derive interpolation coefficients through the same method using previously reconstructed pixels. For example, using R reference pixels (ie, pixels already reconstructed), it is enlarged or reduced by using one interpolation filter by a factor of R x K (K is an arbitrary real number). Thereafter, the original R reference pixels are reconstructed through an inverse process using the same interpolation filter. An optimal interpolation filter may be determined according to how much difference there is between the values of the restored R reference pixels and the values of the original reference pixels.

도 8은 영상 부호화 장치(100) 또는 영상 복호화 장치(600)가 묵시적인(implicit) 방식으로 보간 방법 및/또는 보간 계수들을 선택하는 다른 방법을 설명하기 위한 도면이다. 도 8을 참조하여 설명하면, 화소 P가 포함된 4x4 블록이, 인트라 예측을 통해 복호될 현재 블록에 해당한다. 현재 블록 주변에 위치한, 기 복원된 화소들로 이루어진 복수의 참조 화소 라인들이 보간 방법 내지 보간 계수 결정에 이용된다. 도 8에 도시된 바와 같이 각 참조 화소 라인은 수평 방향의 한 줄의 소정 개수의 화소들과 수직 방향의 한 줄의 소정 개수의 화소들을 포함할 수 있다. 또는, 참조 화소 라인은 수평 방향의 한 줄의 소정 개수의 화소들로 구성되거나, 수직 방향의 한 줄의 소정 개수의 화소들로 구성될 수도 있다.FIG. 8 is a diagram for explaining an interpolation method and/or another method of selecting interpolation coefficients by the image encoding apparatus 100 or the image decoding apparatus 600 implicitly. Referring to FIG. 8 , a 4x4 block including the pixel P corresponds to a current block to be decoded through intra prediction. A plurality of reference pixel lines including previously reconstructed pixels located around the current block are used for an interpolation method or an interpolation coefficient determination. 8 , each reference pixel line may include a predetermined number of pixels in one horizontal line and a predetermined number of pixels in one vertical line. Alternatively, the reference pixel line may be composed of a predetermined number of pixels in one horizontal line or a predetermined number of pixels in one vertical line.

도 8을 다시 참조하면, 참조 화소 라인 0 내의 화소들을 참조 화소 라인 1 내의 화소들을 이용하여 예측한다. 이 때 현재 블록의 인트라 예측 모드와 동일한 N번의 방향성 모드가 예측에 사용된다. 예컨대, 참조 화소 라인 0 내의 화소 R의 예측 화소에 해당하는 참조 화소 X는 정수 위치의 화소가 아니므로, 참조 화소 X는 도 7a 및 7b에서와 같이 두 개의 정수 위치 참조 화소들을 이용하여 보간을 통해 유도될 수 있다. 이 때 특정 보간 방식 및 보간 계수들이 사용된다. Referring back to FIG. 8 , pixels in reference pixel line 0 are predicted using pixels in reference pixel line 1 . In this case, the same N directional modes as the intra prediction mode of the current block are used for prediction. For example, since the reference pixel X corresponding to the prediction pixel of the pixel R in the reference pixel line 0 is not an integer-positioned pixel, the reference pixel X is interpolated using two integer-positioned reference pixels as in FIGS. 7A and 7B . can be induced. In this case, a specific interpolation method and interpolation coefficients are used.

이와 같은 방식으로, 참조 화소 라인 0 내의 화소들의 예측 값들을 생성한 후, 각 예측 값과 원래의 각 화소 값 간의 차분 값을 계산한 후 각 차분값들을 합산한다. 영상 부호화 장치(100) 또는 영상 복호화 장치(600)에서 가용한 보간 방식들 및 보간 계수들을 사용하여 위 과정을 반복하여 각 차분값들의 합산이 최소가 되는 때의 보간 방식 및/또는 보간 계수들을 최종적으로 선택한다.In this way, after generating predicted values of pixels in the reference pixel line 0, a difference value between each predicted value and each original pixel value is calculated, and then the respective difference values are summed. By repeating the above process using the interpolation methods and interpolation coefficients available in the image encoding apparatus 100 or the image decoding apparatus 600, the interpolation method and/or interpolation coefficients when the sum of the respective difference values is minimized is finally obtained to select

전술한 보간은, 영상 부호화 장치(100)의 화면 내 예측부(102) 및 영상 복호화 장치(600)의 화면 내 예측부(607)의 각각에 포함된 참조 화소 보간부에 의해 수행될 수 있다.The aforementioned interpolation may be performed by a reference pixel interpolator included in each of the intra prediction unit 102 of the image encoding apparatus 100 and the intra prediction unit 607 of the image decoding apparatus 600 .

도 9는 영상 부호화 장치(100)에 의해 최적의 화면 내 예측 모드가 선택되는 과정을 설명하기 위한 순서도이다. 이 때 블록 단위 또는 상위 헤더 등에 의해 보간 방법은 설정되었다고 가정한다. 9 is a flowchart illustrating a process in which an optimal intra prediction mode is selected by the image encoding apparatus 100 . At this time, it is assumed that the interpolation method is set by block unit or upper header.

도 9를 참조하여 설명하면, 화면 내 예측 모드 번호를 나타내는 변수 m은 0으로 초기화되고, 최적의 cost값을 저장할 변수인 COST_BEST = MAX_VALUE로 초기화된다 (S901). 여기서 MAX_VALUE는 COST_BEST 변수에 저장 가능한 최대 값이며, 실제로 cost계산시 나올 수 없는 아주 큰 값이다. 변수 M에는 기 설정된 화면 내 예측 모드의 총 개수가 설정된다 (S901). 현재 블록에 최적의 화면 내 예측 모드를 나타내는 BEST_INTRA_MODE는 0으로 초기화된다(S901). Referring to FIG. 9 , the variable m indicating the prediction mode number in the screen is initialized to 0, and is initialized to COST_BEST = MAX_VALUE, which is a variable to store the optimal cost value (S901). Here, MAX_VALUE is the maximum value that can be stored in the COST_BEST variable, and it is a very large value that cannot be obtained when calculating the cost. The total number of prediction modes in a preset screen is set in the variable M (S901). BEST_INTRA_MODE indicating the optimal intra prediction mode for the current block is initialized to 0 (S901).

그 후 화면 내 예측 모드 m에 따라, 예측 블록의 각 화소 위치에 해당하는 보간 위치를 찾고, 기 설정된 보간 방식 혹은 상위 헤더에서 설정된 다수의 보간 방식 중 하나를 이용하여 보간 값을 생성한 후 예측 블록이 생성된다(S902). 그리고 생성된 예측 블록을 이용하여 m에 해당하는 cost값인 COST_m이 계산된다(S903). 여기서 COST_m은 화면 내 모드를 부호화 하는데 필요한 비트수, 예측 블록과 현재 블록과의 차이를 이용하여 계산될 수 있다. COST_m이 COST_BEST보다 작거나 같다면(S904), 최적의 화면 내 예측 모드를 저장하는 변수인 BEST_INTRA_MODE에 m을 저장하고, COST_BEST 변수엔 cost_m을 저장하며 m은 1증가시킨다(S905). 만약 COST_m이COST_BEST보다 크다면 m만 1 증가시킨다(S906). 마지막으로 m이 화면 내 예측 모드의 최대 개수에 도달 했다면 종료하며 그게 아니라면 S902로 돌아가 반복한다. 여기서 보간 방식이 영상 부호화 장치(100) 또는 영상 복호화 장치(600)에서 기 설정된 방식을 사용된다면, 도 7과 도 8의 방식을 이용하여 S1과 S2를 설정하고 기설정된 보간 방식을 이용하여 화소 X를 생성한다. 예측 블록안의 모든 화소에는 동일한 방식을 이용하여 예측 블록을 생성한다. 혹은, 다수의 보간 방식이 사용된다면 단계 S902의 내용이 변경될 수 있다. After that, according to the intra prediction mode m, an interpolation position corresponding to each pixel position of the prediction block is found, an interpolation value is generated using a preset interpolation method or one of a plurality of interpolation methods set in the upper header, and then the prediction block is generated (S902). Then, COST_m, which is a cost value corresponding to m, is calculated using the generated prediction block (S903). Here, COST_m may be calculated using the number of bits required to encode the intra-picture mode and the difference between the prediction block and the current block. If COST_m is less than or equal to COST_BEST (S904), m is stored in BEST_INTRA_MODE, which is a variable for storing the optimal in-screen prediction mode, cost_m is stored in the COST_BEST variable, and m is incremented by 1 (S905). If COST_m is greater than COST_BEST, only m is increased by 1 (S906). Finally, if m reaches the maximum number of prediction modes in the screen, it ends. Otherwise, it returns to S902 and repeats. Here, if the interpolation method uses a predetermined method in the image encoding apparatus 100 or the image decoding apparatus 600, S1 and S2 are set using the methods of FIGS. 7 and 8, and the pixel X is set using the predetermined interpolation method. to create A prediction block is generated using the same method for all pixels in the prediction block. Alternatively, if multiple interpolation methods are used, the contents of step S902 may be changed.

또한 예측 블록마다 적응적으로 다수의 보간 방식을 적용 할 수도 있다. 이때 도 9에 도시된 단계들 중 단계 S902의 내용이 변경된다. In addition, multiple interpolation methods may be adaptively applied to each prediction block. At this time, the contents of step S902 among the steps shown in FIG. 9 are changed.

도 10은 영상 부호화 장치(100)에 의해 복수의 보간 방식들 중 하나가 선택되는 과정을 설명하기 위한 순서도이다. 10 is a flowchart illustrating a process in which one of a plurality of interpolation methods is selected by the image encoding apparatus 100 .

도 10을 참조하여 설명하면, 영상 부호화 장치(100)는 보간 방식 인덱스를 나타내는 변수 i는 0으로 초기화하고, 최적의 cost값을 저장할 변수인 COST_BEST_i = MAX_VALUE로 초기화한다. 여기서 MAX_VALUE는 COST_BEST_i 변수에 저장 가능한 최대 값이며, 실제로 cost계산시 나올 수 없는 아주 큰 값이다. 변수 i에는 기 설정된, 사용 가능한 보간 방식의 총 개수를 설정한다. 현재 블록에 사용되는 최적의 보간 방식을 저장하는 변수인 BEST_INTERPOLATION에는 0으로 초기화한다(S1001). 그 후 보간 방식 인덱스 i에 따라, 예측 블록의 각 화소 위치에 해당하는 보간 값을 생성한 후 예측 블록을 생성한다(S1002). 그리고 생성된 예측 블록을 이용하여 i에 해당하는 cost값인COST_i을 계산한다(S1003). 여기서 COST_i은 보간 방식 인덱스를 부호화 하는데 필요한 비트수, 예측 블록과 현재 블록과의 차이를 이용하여 계산한다. COST_i가 COST_BEST_i보다 작거나 같다면(S1004) 최적의 보간 방식을 저장하는 변수인 BEST_INTERPOLATION에 i를 저장하고, COST_BEST_i 변수엔 cost_i를 저장하며 i는 1증가시킨다(S1005). 만약 COST_i가COST_BEST_i보다 크다면 i만 1 증가시킨다(S1006). 마지막으로 i가 사용 가능한 보간 방식의 최대 개수에 도달 했다면 종료하며 그게 아니라면 S1002로 돌아가 반복한다. 이러한 방식이 사용되는 경우, 도 9에 도시된 단계 S903에서 부호화 되는 화면 내 예측 모드의 비트 수에 추가적으로 보간 방식 인덱스를 부호화한 비트 수가 추가되어 COST_m이 계산된다.Referring to FIG. 10 , the image encoding apparatus 100 initializes a variable i indicating an interpolation method index to 0 and COST_BEST_i = MAX_VALUE, which is a variable to store an optimal cost value. Here, MAX_VALUE is the maximum value that can be stored in the COST_BEST_i variable, and it is a very large value that cannot be obtained when calculating the cost. The total number of preset and usable interpolation methods is set in variable i. BEST_INTERPOLATION, which is a variable that stores the optimal interpolation method used in the current block, is initialized to 0 (S1001). Thereafter, an interpolation value corresponding to each pixel position of the prediction block is generated according to the interpolation method index i, and then the prediction block is generated ( S1002 ). Then, COST_i, which is a cost value corresponding to i, is calculated using the generated prediction block (S1003). Here, COST_i is calculated using the number of bits required to encode the interpolation index and the difference between the prediction block and the current block. If COST_i is less than or equal to COST_BEST_i (S1004), i is stored in BEST_INTERPOLATION, which is a variable for storing the optimal interpolation method, cost_i is stored in the COST_BEST_i variable, and i is incremented by 1 (S1005). If COST_i is greater than COST_BEST_i, only i is increased by 1 (S1006). Finally, if i reaches the maximum number of available interpolation methods, it ends. Otherwise, it returns to S1002 and repeats. When this method is used, the number of bits encoded with the interpolation method index is additionally added to the number of bits of the intra prediction mode encoded in step S903 shown in FIG. 9 to calculate COST_m.

도 11은 영상 부호화 장치(100)에 의해 예측 블록마다 적응적으로 다수의 보간 방식이 적용되는 경우 보간 방식 인덱스 정보를 부호화하는 과정을 설명하는 순서도이다. 먼저, 예측 블록마다 화면 내 예측 모드의 예측 여부를 부호화한다(S1101). 그 후 예측이 되었는지 여부를 판단한 후(S1102) 만약 예측이 되었다면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보에서 어떤 후보가 선택되었는지를 알려주는 인덱스를 부호화한다(S1103). 그게 아니라면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보를 제외하고 나머지 모드를 재정렬하여 현재 선택된 화면 내 예측 모드를 이진화 후 부호화한다(S1104). 그 후 사용된 보간 방식 인덱스를 부호화하고(S1105) 종료한다.11 is a flowchart illustrating a process of encoding interpolation method index information when a plurality of interpolation methods are adaptively applied to each prediction block by the image encoding apparatus 100 . First, whether prediction of an intra prediction mode is predicted for each prediction block is encoded (S1101). Thereafter, after determining whether prediction has been made (S1102), if prediction is made, an index indicating which candidate is selected from prediction candidates of the intra prediction mode generated from the neighboring block is encoded (S1103). Otherwise, the remaining modes are rearranged except for prediction candidates of the intra prediction mode generated in the neighboring blocks, and the currently selected intra prediction mode is binarized and then encoded ( S1104 ). Thereafter, the used interpolation method index is coded (S1105) and the process is finished.

도 12는 영상 복호화 장치(600)에 의해 보간 방식 인덱스 정보가 복호화되는 과정을 설명하는 순서도이다. 먼저, 예측 블록마다 화면 내 예측 모드의 예측 여부를 복호화한다(S1201). 그 후 예측이 되었는지 여부를 판단한 후(S1202) 만약 예측이 되었다면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보에서 어떤 후보가 선택되었는지를 알려주는 인덱스를 복호화한다(S1203). 그게 아니라면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보를 제외하고 나머지 모드를 재정렬하여 현재 선택된 화면 내 예측 모드를 복호화한다(S2104). 그 후 부호화기에서 사용된 보간 방식 인덱스를 복호화하고(S1205) 종료한다.12 is a flowchart illustrating a process of decoding interpolation method index information by the image decoding apparatus 600 . First, it is decoded whether the prediction mode in the picture is predicted for each prediction block (S1201). Thereafter, after determining whether prediction has been made ( S1202 ), if prediction is made, an index indicating which candidate is selected from prediction candidates of the intra prediction mode generated from the neighboring block is decoded ( S1203 ). Otherwise, the currently selected intra prediction mode is decoded by rearranging the remaining modes except for prediction candidates of the intra prediction mode generated from the neighboring blocks (S2104). Thereafter, the interpolation method index used in the encoder is decoded (S1205) and the process is finished.

<복수의 참조 화소 라인들을 이용한 화면 내 예측 화소의 유도><Induction of prediction pixels in the screen using a plurality of reference pixel lines>

이하에서는, 본 발명의 다른 실시예에 따른, 복수의 참조 화소 라인들을 이용한 화면 내 예측 화소의 유도에 대해 설명한다.Hereinafter, derivation of an intra prediction pixel using a plurality of reference pixel lines according to another embodiment of the present invention will be described.

도 13은 본 발명의 일 실시예에 따른, 복수의 참조 화소 라인들을 이용한 화면 내 예측 화소의 유도를 설명하기 위한 도면이다. 13 is a diagram for explaining derivation of a prediction pixel in a screen using a plurality of reference pixel lines, according to an embodiment of the present invention.

종래 인트라 예측에는 하나의 참조 화소 라인이 사용되었다. 도 13에 도시된 참조 화소 라인 0이 그것이다. 참조 화소 라인 0은, 현재 블록의 상단에 접하는 소정 개수의 참조 화소들과 현재 블록의 좌측에 접하는 소정 개수의 참조 화소들로 이루어진다. 본 발명은, 다양한 참조 화소 라인들 및 그 참조 화소 라인들에 속하는 참조 화소들을 이용하여 예측 화소 내지 예측 블록을 유도함으로써 인트라 예측의 정확성을 향상 시킬 수 있다. 본 실시예는, 영상 부호화 장치(100)의 화면 내 예측부(102) 및 영상 복호화 장치(600)의 화면 내 예측부(607) 각각에 의해 동일하게 수행될 수 있다.In the conventional intra prediction, one reference pixel line is used. The reference pixel line 0 shown in Fig. 13 is that. The reference pixel line 0 includes a predetermined number of reference pixels in contact with the upper end of the current block and a predetermined number of reference pixels in contact with the left side of the current block. According to the present invention, the accuracy of intra prediction can be improved by deriving a prediction pixel or a prediction block using various reference pixel lines and reference pixels belonging to the reference pixel lines. The present embodiment may be equally performed by each of the intra prediction unit 102 of the image encoding apparatus 100 and the intra prediction unit 607 of the image decoding apparatus 600 .

이하 설명을 위해 참조 화소 라인은 총 3개의 라인들이 사용된다고 가정하고 설명한다. 그러나 임의의 N개의 참조 화소 라인들을 이용할 수 있다. 여기서, 참조 화소 라인의 개수 N은 블록 단위 혹은 상위 헤더에 포함되어 복호화 장치(600)로 알려주는 것도 가능하다. 혹은 참조 화소 라인의 개수 N을 부호화하지 않고 부호화 장치(100)와 복호화 장치(600)가 기 설정된 N개의 참조 화소 라인들을 이용하는 것 또한 가능하다. For the following description, it is assumed that a total of three lines are used as the reference pixel line. However, any N reference pixel lines may be used. Here, the number N of reference pixel lines may be included in a block unit or an upper header to inform the decoding apparatus 600 . Alternatively, it is also possible for the encoding apparatus 100 and the decoding apparatus 600 to use preset N reference pixel lines without encoding the number N of reference pixel lines.

도 13을 참조하여 설명하면, 화소 P가 포함된 4x4 크기의 블록이 인트라 예측을 이용하여 부호화 또는 복호화될 현재 블록에 해당한다. 3개의 참조 화소 라인 0, 1 및 2가 현재 블록 주변에 위치한다.Referring to FIG. 13 , a 4x4 block including the pixel P corresponds to a current block to be encoded or decoded using intra prediction. Three reference pixel lines 0, 1 and 2 are located around the current block.

현재 블록의 인트라 예측 모드가 m번 방향성 모드인 경우에 3개의 참조 화소 라인 0, 1 및 2를 사용하여 현재 화소 P의 예측 화소로 사용될 수 있는 예측 화소는 X, Y, Z가 될 수 있다. 이때 3개의 참조 화소 라인들의 각각을 사용하여 예측 블록을 생성해보고 최적의 참조 화소 라인을 결정할 수 있다. 이와 같이 결정된 최적의 참조 화소 라인을 지시하는 참조 화소 라인 인덱스 정보를 부호화장치(100)는 부호화할 수 있다. 참조 화소 라인 인덱스는, 예를 들면, 도 13에서와 같이 현재 블록에 가까운 참조 화소 라인에 낮은 인덱스 번호를 할당할 수 있다. When the intra prediction mode of the current block is the m-th directional mode, prediction pixels that can be used as prediction pixels of the current pixel P using three reference pixel lines 0, 1, and 2 may be X, Y, and Z. In this case, an optimal reference pixel line may be determined by generating a prediction block using each of the three reference pixel lines. The encoding apparatus 100 may encode reference pixel line index information indicating the determined optimal reference pixel line. As for the reference pixel line index, for example, as shown in FIG. 13 , a low index number may be assigned to a reference pixel line close to the current block.

도 14는 본 발명의 일 실시예에 따른, 화면 내 예측 화소값을 유도하는 과정을 설명하기 위한 흐름도이다. 도 14를 참조하면, 현재 블록의 인트라 예측을 위해 이용될 적어도 하나의 참조 화소 라인이 복수의 참조 화소 라인들 중에서 선택된다 (S1301). 상기 복수의 참조 화소 라인들은, 인트라 예측을 이용하여 복호화 될 현재 블록과 동일한 영상 내에 존재한다. 상기 선택되는 적어도 하나의 참조 화소 라인은, 전술한 참조 화소 라인 인덱스에 의해 지시될 수 있다. 다른 대안으로서, 후술될 묵시적 방법에 의해 영상 부호화 장치(100)와 영상 복호화 장치(600)에서 공통적인 방법을 이용하여, 현재 블록의 인트라 예측에 이용될 적어도 하나의 참조 화소 라인은 선택될 수도 있다. 14 is a flowchart for explaining a process of deriving a predicted pixel value in a screen according to an embodiment of the present invention. Referring to FIG. 14 , at least one reference pixel line to be used for intra prediction of a current block is selected from among a plurality of reference pixel lines ( S1301 ). The plurality of reference pixel lines exist in the same image as the current block to be decoded using intra prediction. The selected at least one reference pixel line may be indicated by the aforementioned reference pixel line index. As another alternative, at least one reference pixel line to be used for intra prediction of the current block may be selected using a method common to the image encoding apparatus 100 and the image decoding apparatus 600 by an implicit method to be described later. .

또한, 상기 선택되는 적어도 하나의 참조 화소 라인은, 예측 블록 마다 선택될 수 있다. 여기에 대해서는 도 15를 참조하면서 후술한다. 또는, 예측 블록 내의 각 화소 마다 적응적으로 선택될 수도 있다. 여기에 대해서는 도 18 및 19를 참조하면서 후술한다.In addition, the selected at least one reference pixel line may be selected for each prediction block. This will be described later with reference to FIG. 15 . Alternatively, it may be adaptively selected for each pixel in the prediction block. This will be described later with reference to FIGS. 18 and 19 .

영상 부호화 장치(100) 또는 영상 복호화 장치(600)는 상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소 값에 기초하여 현재 블록 내의 하나의 화소의 예측값을 얻을 수 있다 (S1303). 영상 부호화 장치(100) 또는 영상 복호화 장치(600)는 단계 S1301 또는 S1303의 전부 또는 일부 단계를 반복하여 현재 블록의 예측 블록을 유도할 수 있다. The image encoding apparatus 100 or the image decoding apparatus 600 may obtain a predicted value of one pixel in the current block based on the value of at least one pixel included in the selected at least one reference pixel line ( S1303 ). The image encoding apparatus 100 or the image decoding apparatus 600 may repeat all or some of the steps S1301 or S1303 to derive the prediction block of the current block.

도 15는 예측 블록마다 인트라 예측에 이용될 참조 화소 라인을 적응적으로 결정하는 과정을 설명하기 위한 흐름도이다. 이 때 도 9에 도시된 단계 S902가 도 15에 도시된 단계들로 대체될 수 있다. 15 is a flowchart illustrating a process of adaptively determining a reference pixel line to be used for intra prediction for each prediction block. At this time, step S902 shown in FIG. 9 may be replaced with steps shown in FIG. 15 .

도 15를 참조하면, 참조 화소 라인 인덱스를 나타내는 변수 n은 0으로 초기화하고, 최적의 cost값을 저장할 변수인 COST_BEST_n = MAX_VALUE로 초기화한다. 여기서 MAX_VALUE는 COST_BEST_n 변수에 저장 가능한 최대 값이며, 실제로 cost계산시 나올 수 없는 아주 큰 값이다. 변수 N에는 기 설정된 참조 화소 라인의 총 개수를 설정한다. 현재 블록에 최적의 참조 화소 라인 인덱스를 나타내는 BEST_n은 0으로 초기화한다(S1401). 그 후 참조 화소 라인 인덱스 n에 따라 예측 블록의 각 화소 위치에 해당하는 보간 위치를 찾고 예측 블록을 생성한다(S1402). 그리고 생성된 예측 블록을 이용하여 n에 해당하는 cost값인 COST_n을 계산한다(S1403). 여기서 COST_n은 참조 화소 라인 n을 부호화 하는데 필요한 비트수, 예측 블록과 현재 블록과의 차이를 이용하여 계산한다. COST_n이 COST_BEST_n보다 작거나 같다면(S1404) 최적의 참조 화소 라인을 저장하는 변수인 BEST_n에 n을 저장하고, COST_BEST_n 변수엔 cost_n을 저장하며 n은 1증가시킨다(S1405). 만약 COST_n이COST_BEST_n보다 크다면 n만 1 증가시킨다(S1406). 마지막으로 n이 참조 화소 라인의 최대 개수에 도달 했다면 종료하며 그게 아니라면 S1402로 돌아가 반복한다.Referring to FIG. 15 , a variable n indicating a reference pixel line index is initialized to 0, and COST_BEST_n = MAX_VALUE, which is a variable to store an optimal cost value. Here, MAX_VALUE is the maximum value that can be stored in the COST_BEST_n variable, and it is a very large value that cannot be obtained when calculating the cost. The total number of preset reference pixel lines is set in the variable N. BEST_n indicating the optimal reference pixel line index in the current block is initialized to 0 (S1401). Thereafter, an interpolation position corresponding to each pixel position of the prediction block is found according to the reference pixel line index n, and the prediction block is generated ( S1402 ). Then, COST_n, which is a cost value corresponding to n, is calculated using the generated prediction block (S1403). Here, COST_n is calculated using the number of bits required to encode the reference pixel line n and the difference between the prediction block and the current block. If COST_n is less than or equal to COST_BEST_n (S1404), n is stored in BEST_n, which is a variable for storing the optimal reference pixel line, cost_n is stored in the COST_BEST_n variable, and n is incremented by 1 (S1405). If COST_n is greater than COST_BEST_n, only n is increased by 1 (S1406). Finally, if n has reached the maximum number of reference pixel lines, it ends, otherwise it returns to S1402 and repeats.

도 16은 예측 블록마다 적응적으로 참조 화소 라인이 선택되는 경우 선택된 참조 화소 라인을 지시하는 참조 화소 라인 인덱스 정보가 부호화 장치(100)에 의해 부호화하는 과정을 나타낸 흐름도이다. 먼저, 예측 블록마다 화면 내 예측 모드의 예측 여부를 부호화한다(S1501). 그 후 예측이 되었는지 여부를 판단한 후(S1502) 만약 예측이 되었다면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보에서 어떤 후보가 선택되었는지를 알려주는 인덱스를 부호화한다(S1503). 그게 아니라면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보를 제외하고 나머지 모드를 재정렬하여 현재 선택된 화면 내 예측 모드를 이진화 후 부호화한다(S1504). 그 후 사용된 참조 화소 라인 인덱스를 부호화하고(S1505) 종료한다.16 is a flowchart illustrating a process of encoding, by the encoding apparatus 100, reference pixel line index information indicating the selected reference pixel line when a reference pixel line is adaptively selected for each prediction block. First, whether prediction of an intra prediction mode is predicted for each prediction block is encoded (S1501). Thereafter, after determining whether prediction has been made ( S1502 ), if prediction has been made, an index indicating which candidate is selected from prediction candidates of the intra prediction mode generated from the neighboring block is encoded ( S1503 ). Otherwise, the remaining modes are rearranged except for prediction candidates of the intra prediction mode generated from the neighboring blocks, and the currently selected intra prediction mode is binarized and then encoded (S1504). Thereafter, the used reference pixel line index is encoded (S1505) and the process is finished.

도 17은 예측 블록마다 적응적으로 참조 화소 라인이 선택되는 경우 선택된 참조 화소 라인을 지시하는 참조 화소 라인 인덱스 정보가 복호화 장치(600)에 의해 복호화되는 과정을 나타낸 흐름도이다. 먼저, 예측 블록마다 화면 내 예측 모드의 예측 여부를 복호화한다(S1601). 그 후 예측이 되었는지 여부를 판단한 후(S1602) 만약 예측이 되었다면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보에서 어떤 후보가 선택되었는지를 알려주는 인덱스를 복호화한다(S1603). 그게 아니라면 주변 블록에서 생성된 화면 내 예측 모드의 예측 후보를 제외하고 나머지 모드를 재정렬하여 현재 선택된 화면 내 예측 모드를 복호화한다(S1604). 그 후 사용된 참조 화소 라인 인덱스를 복호화하고(S1605) 종료한다.17 is a flowchart illustrating a process in which reference pixel line index information indicating the selected reference pixel line is decoded by the decoding apparatus 600 when a reference pixel line is adaptively selected for each prediction block. First, it is decoded whether the prediction mode in the picture is predicted for each prediction block (S1601). Thereafter, after determining whether prediction has been made (S1602), if prediction is made, an index indicating which candidate is selected from the prediction candidates of the intra prediction mode generated from the neighboring block is decoded (S1603). Otherwise, the currently selected intra prediction mode is decoded by rearranging the remaining modes except for prediction candidates of the intra prediction mode generated from the neighboring blocks (S1604). After that, the used reference pixel line index is decoded (S1605) and the process is finished.

다음으로, 도 18 및 도 19를 참조하여, 참조 화소 라인 인덱스의 전송 없이 예측 블록의 각 화소 위치마다 적응적으로 참조 화소 라인을 결정하는 방법에 대해 설명한다. Next, a method of adaptively determining a reference pixel line for each pixel position of a prediction block without transmitting a reference pixel line index will be described with reference to FIGS. 18 and 19 .

예측 블록 안의 각 화소마다, 각 참조 화소 라인 내에서 보간을 통해 얻어지는 예측 화소의 위치의 정밀도는 다를 수 있다. 따라서 각 참조 화소 라인 내에서 보간을 통해 얻어진 예측 화소들 중에서 정수 화소 위치에 가장 가까운 예측 화소를 현재 화소 P의 예측 화소로 선택할 수 있다. 이 때 미리 정해진 N개의 참조 화소 라인들을 대상으로 위 과정을 적용할 수 있다. For each pixel in the prediction block, the precision of the position of the prediction pixel obtained through interpolation within each reference pixel line may be different. Accordingly, among the prediction pixels obtained through interpolation in each reference pixel line, the prediction pixel closest to the integer pixel position may be selected as the prediction pixel of the current pixel P. In this case, the above process may be applied to predetermined N reference pixel lines.

만약, 정수 화소 위치의 예측 화소들이 복수개 존재하는 경우, 현재 블록에 가까운 예측 화소를 최종적인 예측 화소로 선택 할 수도 있다.If there are a plurality of prediction pixels at integer pixel positions, a prediction pixel close to the current block may be selected as the final prediction pixel.

도 19는 참조 화소 라인 인덱스의 전송 없이 적응적으로 참조 화소 라인을 선택하는 방법을 설명하기 위한 참고도이다. 도 19에 도시된 바와 같이, 예측 화소가 정수 위치에 존재한 라인이 많은 라인에 우선 순위를 두어 예측 블록마다 적응적으로 예측 화소 라인을 선택할 수 있다. 각 참조 화소 라인을 이용하여 예측 블록을 생성할 때 사용되는 보간된 화소의 정밀도와 빈도수가 도 19에서와 같다고 가정하면, 각 화소 위치의 정밀도에 따라 가중치를 두어 라인을 선택하게 할 수 있다. 19 is a reference diagram for explaining a method of adaptively selecting a reference pixel line without transmitting a reference pixel line index. As shown in FIG. 19 , a line having many lines in which a prediction pixel exists at an integer position is given priority, and a prediction pixel line can be adaptively selected for each prediction block. If it is assumed that the precision and frequency of interpolated pixels used to generate a prediction block using each reference pixel line are the same as in FIG. 19 , the line may be selected by weighting it according to the precision of each pixel position.

도 19를 다시 참조하면, 라인 1을 이용하여 예측 블록을 생성하는 경우, 정수 위치 예측 화소들이 5개, 1/2 위치의 예측 화소들이 3개, 1/4 위치 예측 화소들이 4개, 1/8 위치 예측 화소들이 2개, 1/16 위치 예측 화소들이 1개, 1/32 위치 예측 화소들이 1개가 선택이 되었다. 따라서 예측 블록 내의 총 화소의 개수는 16개가 된다. 참조 화소 라인 2 및 참조 화소 라인 3의 경우도 동일하게 설명될 수 있다. Referring back to FIG. 19 , when a prediction block is generated using line 1, integer position prediction pixels are 5, 1/2 position prediction pixels are 3, 1/4 position prediction pixels are 4, and 1/ Two 8 position prediction pixels, one 1/16 position prediction pixel, and one 1/32 position prediction pixel were selected. Accordingly, the total number of pixels in the prediction block is 16. The case of the reference pixel line 2 and the reference pixel line 3 can be described in the same way.

정수 화소 위치에만 우선순위를 두는 경우, 정수위치가 가장 많은 라인 1을 참조 화소 라인으로 선택하게 할 수도 있다. 혹은 각 위치마다 가중치를 두어 가중치와 빈도수의 합을 계산한 후, 계산된 값이 가장 크게 나온 라인을 참조 화소 라인으로 선택하게 하는 것 또한 가능하다. 혹은 각 라인 마다 가중치를 두어 가중치와 빈도수의 합을 계산한 후, 계산된 값이 가장 크게 나온 라인을 참조 화소 라인으로 선택하게 하는 것 또한 가능하다. 혹은 각 라인과 위치 모두에 가중치를 두어 가중치와 빈도수의 합을 계산한 후, 계산된 값이 가장 크게 나온 라인을 참조 화소 라인으로 선택하게 하는 것 또한 가능하다.If priority is given only to integer pixel positions, line 1 having the most integer positions may be selected as the reference pixel line. Alternatively, it is also possible to assign a weight to each position to calculate the sum of the weight and the frequency, and then to select a line having the largest calculated value as the reference pixel line. Alternatively, it is also possible to assign a weight to each line to calculate the sum of the weight and the frequency, and then select the line having the largest calculated value as the reference pixel line. Alternatively, it is also possible to calculate the sum of weights and frequencies by giving weights to both lines and positions, and then select a line having the largest calculated value as a reference pixel line.

다른 실시예로서, 라인마다 가중치를 두어 가중치합 된 화소를 이용하여 예측 블록을 생성하는 것 또한 가능하다. 예를 들어 도 13의 X, Y, Z위치의 화소값이 존재하는 경우, 블록에 가까울수록 가중치를 더 두어 가중치합 된 값을 P위치의 예측 화소로 선택하는 것 또한 가능하다. 혹은 정수 화소 위치에 가까울수록 가중치를 더 두어 가중치합 된 값을 P위치의 예측 화소로 선택하는 것 또한 가능하다. 혹은 가중치합, 즉 가중평균을 이용하여 예측 화소를 유도하는 방법 외에도 산술평균, 중간값 등을 이용하여 예측 화소의 값을 유도할 수도 있다.As another embodiment, it is also possible to generate a prediction block using weighted pixels by weighting each line. For example, when pixel values at positions X, Y, and Z of FIG. 13 exist, it is also possible to select the weighted value as the prediction pixel at the P position by adding more weight as it approaches the block. Alternatively, it is also possible to select the weighted value as the prediction pixel at the P position by adding more weight as it approaches the integer pixel position. Alternatively, in addition to a method of deriving a prediction pixel using a weighted sum, that is, a weighted average, a value of a prediction pixel may be derived using an arithmetic mean or a median value.

혹은 참조 화소 라인 인덱스를 사용하여 부호화되, 어떤 N개의 라인 중 하나를 제외하는 것으로 사용할 수도 있다. 예를 들어 참조 화소 라인 인덱스가 1로 설정되어 있는 경우, 라인 1을 제외 한 N-1개의 라인을 이용한다. 이 때, m번 모드를 이용하여 예측 값을 보간 할 시에, 정수 화소 위치에 가까울수록 우선순위를 높게 부여하거나 보간되는 위치의 정밀도에 따라 우선순위를 다르게 부여할 수 도 있다. 이런 기설정된 임의의 우선순위에 따라 라인 구분 없이 화소 단위로 라인 1을 제외한 다른 라인에서 예측 값을 생성 할 수도 있다. Alternatively, it may be coded using a reference pixel line index, and may be used to exclude one of N lines. For example, when the reference pixel line index is set to 1, N-1 lines excluding line 1 are used. In this case, when interpolating the predicted value using the m-th mode, a higher priority may be given as it approaches the integer pixel position, or a different priority may be given according to the precision of the interpolated position. Prediction values may be generated in lines other than line 1 on a pixel-by-pixel basis without dividing lines according to such predetermined priorities.

혹은 블록 단위 또는 상위 헤더에서, 참조 화소 라인 인덱스를 직접 부호화하는 방법과 부호화 하지 않는 방식 중 어떤 방식이 사용되었는지 여부를 부호화 장치(100)가 부호화하여 복호화 장치(600)로 전송하는 것 또한 가능하다.Alternatively, it is also possible for the encoding apparatus 100 to encode whether a method of directly encoding a reference pixel line index or a method for not encoding the reference pixel line index is used in block units or in a higher header, and then transmit it to the decoding apparatus 600 . .

<예측 블록과 참조 화소 라인 간의 스무딩(smoothing)><Smoothing between prediction block and reference pixel line>

이하, 본 발명의 다른 실시예로서 예측 블록과 참조 화소 라인 간의 스무딩(smoothing)을 설명한다.Hereinafter, smoothing between a prediction block and a reference pixel line will be described as another embodiment of the present invention.

참조 화소 라인 내의 소정 화소(들)를 이용하여 예측 블록이 유도된 경우, 상기 예측 블록의 유도에 사용되지 않은 참조 화소 라인과 예측 블록 간에 또는 예측 블록에 인접한 영역과 예측 블록 간에는 불연속성이 존재할 수 있다. 이러한 불연속성을 감소시키기 위해 스무딩(smoothing)이 사용될 수 있다. 스무딩은 일종의 저역 필터에 해당할 수 있다.When a prediction block is derived using predetermined pixel(s) in a reference pixel line, discontinuity may exist between a reference pixel line and a prediction block not used for derivation of the prediction block, or between a region adjacent to the prediction block and the prediction block. . Smoothing may be used to reduce these discontinuities. Smoothing may correspond to a kind of low-pass filter.

본 발명의 실시예에 따른 스무딩은, 영상 부호화 장치(100)의 화면 내 예측부(102) 및 영상 복호화 장치(600)의 화면 내 예측부(607) 각각에 의해 수행될 수 있다.Smoothing according to an embodiment of the present invention may be performed by each of the intra prediction unit 102 of the image encoding apparatus 100 and the intra prediction unit 607 of the image decoding apparatus 600 .

도 20은 예측 블록과 참조 화소 라인간의 스무딩(smoothing)을 설명하기 위한 도면이다. 20 is a diagram for explaining smoothing between a prediction block and a reference pixel line.

이하 사용된 화면 내 예측 모드는 45도 up-right 방향에서 화면 내 예측이 수행되는 모드를 예로 들어 설명한다. 또한 참조 화소 라인 1이 인트라 예측을 위해 선택되었다고 가정한다. 또한 스무딩이 적용되는 화소로서 화소 A 내지 E를 이용한 스무딩을 설명하지만 그 외 화소에도 동일하게 적용 가능하다. The intra prediction mode used below will be described by taking as an example a mode in which intra prediction is performed in a 45 degree up-right direction. It is also assumed that reference pixel line 1 is selected for intra prediction. Also, although smoothing using pixels A to E is described as a pixel to which smoothing is applied, the same can be applied to other pixels.

도 20의 예시에서 45도 up-right 방향으로 화면 내 예측이 수행되었으므로 스무딩은 화면 내 예측 방향의 반대 방향인 45도 down-left 방향으로 수행될 수 있다. 이때, 현재 블록의 예측 블록의 크기 또는 형태에 따라 스무딩이 적용되는 예측 블록의 영역이 결정될 수 있다. 도 20에서는 예측 블록의 절반의 영역에 속하는 화소들이 스무딩된다. 즉, 어둡게 표시된 왼쪽 절반의 화소들에만 스무딩을 적용할 수 있다. 혹은 예측 블록의 크기 및/또는 화면 내 예측 모드에 따라 기설정된 영역 또는 비율을 이용할 수도 있다. 예를 들면, 예측 블록의 1/4 영역만 스무딩을 적용할 수도 있으며 그외의 비율도 가능하다. In the example of FIG. 20 , since intra prediction was performed in a 45 degree up-right direction, smoothing may be performed in a 45 degree down-left direction that is opposite to the intra prediction direction. In this case, the region of the prediction block to which smoothing is applied may be determined according to the size or shape of the prediction block of the current block. In FIG. 20, pixels belonging to a half area of the prediction block are smoothed. That is, smoothing can be applied only to pixels in the left half that are darkly displayed. Alternatively, a preset area or ratio may be used according to the size of the prediction block and/or the intra prediction mode. For example, smoothing may be applied to only 1/4 of the prediction block, and other ratios are also possible.

도 20에서는 참조 화소 라인 1이 인트라 예측을 위한 참조 화소 라인으로 결정되었으므로, 참조 화소 라인 1에 존재하는 화소 D를 이용하여 예측 화소 A를 아래 수학식1을 이용하여 스무딩할 수 있다.In FIG. 20 , since the reference pixel line 1 is determined as the reference pixel line for intra prediction, the prediction pixel A may be smoothed using the pixel D existing in the reference pixel line 1 using Equation 1 below.

Figure 112017096284540-pat00001
Figure 112017096284540-pat00001

위 수학식1에서 A', A 및 D는 각각 스무딩된 후의 예측 화소 A의 값, 스무딩되기 이전의 예측 화소 A의 값 및 참조 화소 D의 값이고, w1 및 w2는 각각 예측 화소 A에 적용되는 가중치 및 참조 화소 D에 적용되는 가중치이다. In Equation 1 above, A', A, and D are the values of the prediction pixel A after smoothing, the value of the prediction pixel A before smoothing, and the value of the reference pixel D, respectively, and w1 and w2 are respectively applied to the prediction pixel A Weights and weights applied to the reference pixel D.

또한, 참조 화소 라인 1에 존재하는 화소 D를 이용하여 예측 화소 B 를 상기 수학식1과 유사한 수학식을 이용하여 스무딩 할 수 있다. Also, the prediction pixel B may be smoothed using an equation similar to Equation 1 above using the pixel D existing in the reference pixel line 1.

이때 스무딩의 강도를 거리에 따라 조정할 수도 있다. 예측 화소 B보다는 예측 화소 A가 거리상 화소 D와 더 멀리 떨어져 있으므로 스무딩을 수행할 때 예측 화소 B와 화소 D를 스무딩할 때 보다, 예측 화소 A와 D를 스무딩할 때 더 강하게 스무딩해준다. 여기서 강한 스무딩은 화소 D쪽에 더 많은 가중치를 두어 예측 화소를 스무딩 함으로써 수행될 수 있다. In this case, the intensity of the smoothing may be adjusted according to the distance. Since the prediction pixel A is farther away from the pixel D in terms of distance than the prediction pixel B, smoothing is stronger when the prediction pixels A and D are smoothed than when the prediction pixels B and D are smoothed. Here, strong smoothing can be performed by smoothing the prediction pixel by giving more weight to the pixel D side.

혹은 인트라 예측을 위해 선택된 참조 화소 라인과는 별개로 스무딩에 이용되는 참조 화소 라인은 예측 블록과 가까운 라인으로 설정하는 것도 가능하다. 도 20을 참조하면, 참조 화소 라인 1이 인트라 예측을 위해 선택되었지만 예측 화소 A, B의 스무딩에 이용되는 화소는 D가 아닌 C로 설정하는 것도 가능하다. 이러한 경우도 마찬가지로 거리에 따라 스무딩의 강도를 선택할 수 있다. 예컨대, 참조 화소 C를 이용하여 예측 화소 B 를 스무딩 할 경우에는 각각에 동일한 가중치를 적용하고, 참조 화소 C를 이용하여 예측 화소 A 를 스무딩 하는 경우에는 화소 C에 더 많은 가중치를 두어 스무딩을 수행할 수도 있다. Alternatively, the reference pixel line used for smoothing may be set to be a line close to the prediction block separately from the reference pixel line selected for intra prediction. Referring to FIG. 20 , although reference pixel line 1 is selected for intra prediction, it is also possible to set pixels used for smoothing of prediction pixels A and B to C instead of D. In this case as well, the intensity of the smoothing can be selected according to the distance. For example, when the prediction pixel B is smoothed using the reference pixel C, the same weight is applied to each, and when the prediction pixel A is smoothed using the reference pixel C, more weight is applied to the pixel C to perform smoothing. may be

스무딩을 수행할 때, 양 방향 모두 사용하는 것 또한 가능하다. 예를 들어, 참조 화소 라인 0을 이용하여 스무딩한다고 가정하고 예측 화소 A를 스무딩할 때 참조 화소 F와 C에 각각 가중치를 두어 예측 화소 A와 스무딩 할 수도 있다. 예측 화소 B를 스무딩할 때도 화소 F와 C에 각각 가중치를 두어 예측 화소 B와 스무딩 하는 것 또한 가능하다. 이때, 라인 1이 인트라 예측을 위한 참조 화소 라인으로 선택되었으므로 up-right 방향에서는 화소 G를 이용하고 down-left 방향에서는 화소 C를 이용하는 것도 가능하다. When performing smoothing, it is also possible to use both directions. For example, it is assumed that smoothing is performed using the reference pixel line 0, and when the prediction pixel A is smoothed, the reference pixels F and C may be respectively weighted to perform smoothing with the prediction pixel A. When smoothing the prediction pixel B, it is also possible to smooth the prediction pixel B by giving weights to the pixels F and C, respectively. In this case, since line 1 is selected as a reference pixel line for intra prediction, it is possible to use the pixel G in the up-right direction and the pixel C in the down-left direction.

본 발명의 일 실시예에 따르면, 참조 화소와 예측 화소 간의 거리에 따라 가중치를 달리 하는 것 또한 가능하다. 예를 들어 참조 화소 F와 C를 이용하여 예측 화소 A 를 스무딩 하는 경우, 화소 C와 A 간의 거리가 화소 F와 A간의 거리보다 멀기 때문에 화소 C에 더 큰 가중치를 두어 스무딩을 수행할 수도 있다. 혹은 기설정된 방식을 이용하여 임의의 라인을 이용하여 스무딩을 수행하는 것 또한 가능하다. 이러한 스무딩 방식은 적용 여부를 블록단위로 부호화 하는 것 또한 가능하며 상위 헤더를 통해 부호화 하는 것 또한 가능하다. 혹은 스무딩 적용 여부를 부호화하는 것 없이 기설정된 조건에 의해 부호화기와 복호화기가 동일하게 수행하는 것 또한 가능하다. 예를 들어 어떤 각도의 화면 내 예측 모드가 수행되었는지에 따라 스무딩의 여부를 결정할 수도 있다. 본 실시예에서는 설명의 편의성을 위해 거리가 멀수록 더 강하게 스무딩한다고 설명하였지만 영상의 특성 등에 따라 반대의 경우도 또한 가능하다. According to an embodiment of the present invention, it is also possible to vary the weight according to the distance between the reference pixel and the prediction pixel. For example, when the prediction pixel A is smoothed using the reference pixels F and C, since the distance between the pixels C and A is greater than the distance between the pixels F and A, the smoothing may be performed with a greater weight on the pixel C. Alternatively, it is also possible to perform smoothing using an arbitrary line using a preset method. It is also possible to encode whether this smoothing method is applied in block units, and it is also possible to encode through a higher header. Alternatively, it is also possible for the encoder and the decoder to perform the same according to a preset condition without encoding whether or not smoothing is applied. For example, whether to perform smoothing may be determined according to which angle of the intra prediction mode is performed. In the present embodiment, for convenience of explanation, smoothing is stronger as the distance increases, but the opposite case is also possible depending on the characteristics of the image.

다음으로, 도 21, 도 22a 내지 22d를 참조하여, 본 발명의 일 실시예에 따라, 인트라 예측을 위한 참조 화소 라인이 선택되는 블록의 단위에 대해 설명한다.Next, a unit of a block from which a reference pixel line for intra prediction is selected according to an embodiment of the present invention will be described with reference to FIGS. 21 and 22A to 22D .

이하, 설명의 편의를 위해, 현재 블록이 16x16 크기이고 현재 블록이 4개의 8x8 변환 블록들로 분할되어 변환은 8x8 변환 블록 단위로 총 4번 수행되는 경우를 예로 들어 설명한다. 현재 블록은 변환을 위해 현재 블록의 크기보다 작은 다수의 변환 블록들로 분할될 수 있다. 따라서 현재 블록 단위로 화면 내 예측 모드가 결정되면, 결정된 화면 내 예측 모드를 변환 블록 단위로 적용하여 실제 예측은 변환 블록 단위로 수행될 수 있다. 이러한 방식의 장점으로는 참조 화소가 현재 블록에서 멀어질수록 화소 간의 상관도가 떨어질 수도 있는 점을 보완할 수 있다는 점이다. 도 21을 참조하면, 블록 단위로 화면 내 예측을 적용하면 변환 블록 A의 화소들은 변환 블록 D의 화소들 보다는 참소 화소들과의 거리가 가깝다. 따라서 변환 블록 D내의 화소들은 참조 화소들과의 거리가 멀어져서 예측의 효율이 낮아질 수 있다. Hereinafter, for convenience of description, a case in which the current block has a size of 16x16 and the current block is divided into four 8x8 transform blocks and the transformation is performed in units of 8x8 transform blocks will be described as an example. The current block may be divided into a plurality of transform blocks smaller than the size of the current block for transformation. Accordingly, when the intra prediction mode is determined in units of the current block, actual prediction may be performed in units of transform blocks by applying the determined intra prediction mode in units of transform blocks. An advantage of this method is that it can compensate for the fact that the correlation between pixels may decrease as the reference pixel moves away from the current block. Referring to FIG. 21 , when intra prediction is applied on a block-by-block basis, the pixels of the transform block A have a closer distance to the referenced pixels than the pixels of the transform block D. Accordingly, the pixels in the transform block D may have a greater distance from the reference pixels, so that prediction efficiency may be lowered.

전술한 단점을 보완하기 위해 블록 단위로는 화면 내 예측 모드만 결정하고 화면 내 예측은 변환 블록 단위로 수행될 수 있다. In order to compensate for the aforementioned disadvantages, only the intra prediction mode may be determined in units of blocks, and intra prediction may be performed in units of transform blocks.

도 21은 변환 블록 단위로 인트라 예측이 수행되는 경우, 현재 블록의 인트라 예측을 위해 선택된 적어도 하나의 참조 화소 라인을 현재 블록 내의 모든 변환 블록들에 공통적으로 이용하는 경우를 도시한다.21 illustrates a case in which at least one reference pixel line selected for intra prediction of the current block is commonly used for all transform blocks in the current block when intra prediction is performed in units of transform blocks.

도 22a 내지 22d는 각 변환 블록 마다 적어도 하나의 참조 화소 라인을 선택하여 인트라 예측에 이용하는 경우를 도시한다.22A to 22D illustrate a case in which at least one reference pixel line is selected for each transform block and used for intra prediction.

도 22a를 참조하면, 8x8 크기를 가진 4개의 변환 블록들이 사용되고 변환 블록 단위로 예측이 수행되는 경우, 변환 블록 A의 인트라 예측을 위해 도 21에 도시된 바와 동일한 참조 화소 라인들이 이용된다. Referring to FIG. 22A , when four transform blocks having a size of 8x8 are used and prediction is performed in units of transform blocks, the same reference pixel lines as those shown in FIG. 21 are used for intra prediction of transform block A. Referring to FIG.

도 22b를 참조하면, 변환 블록 B는 복원된 변환 블록 A의 화소들을 이용해서 도시된 바와 같은 참조 화소 라인들을 인트라 예측을 위해 사용할 수 있다. 마찬가지로 도 22c에서는 복원된 변환 블록 A와 B의 화소들을 이용해서 도시된 바와 같은 참조 화소 라인들을 인트라 예측을 위해 사용할 수 있다. 도22d에서도 복원된 변환 블록 A, B 및 C의 화소들을 이용해 도시된 바와 같은 참조 화소 라인들을 인트라 예측을 위해 사용할 수 있다. Referring to FIG. 22B , the transform block B may use reference pixel lines as illustrated by using the pixels of the reconstructed transform block A for intra prediction. Similarly, in FIG. 22C , reference pixel lines as illustrated by using the pixels of the reconstructed transform blocks A and B may be used for intra prediction. Referring to FIG. 22D, reference pixel lines as shown using the pixels of the reconstructed transform blocks A, B, and C may be used for intra prediction.

이상 설명한 바와 같이, 다수의 참조 화소 라인을 사용하는 경우, 도 21에 도시된 바와 같이 블록 단위로 결정된 화소 라인들을 도 22a 내지 d의 변환 블록 단위로 예측을 수행하는 경우에 그대로 적용할 수도 있다. 혹은 변환 블록 단위로 최적의 참조 화소 라인을 새로 구하는 것 또한 가능하다. 혹은 블록 단위로 구한 최적의 참조 화소 라인을 변환 블록 전체에 사용할지 아니면 변환 블록 단위 마다 참조 화소 라인을 유도해 사용할지 여부를 블록 단위 혹은 상위 헤더를 통해 부호화 하여 복호화 장치(600)로 알리는 것 또한 가능하다.As described above, when a plurality of reference pixel lines are used, as shown in FIG. 21 , the pixel lines determined in units of blocks may be directly applied to the case of performing prediction in units of transform blocks of FIGS. 22A to 22D . Alternatively, it is also possible to newly obtain an optimal reference pixel line in units of transform blocks. Alternatively, whether to use the optimal reference pixel line obtained in block units for the entire transformation block or to derive and use the reference pixel line for each transformation block unit is encoded through a block unit or an upper header and notified to the decoding device 600 It is possible.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Example methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, other steps may be included in addition to the illustrated steps, steps may be excluded from some steps, and/or other steps may be included except for some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present disclosure do not list all possible combinations but are intended to describe representative aspects of the present disclosure, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause an operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executable on a device or computer.

Claims (28)

영상의 복호화 방법에 있어서,
복수의 참조 화소 라인들 중 적어도 하나의 참조 화소 라인을 선택하는 단계, 여기서, 상기 복수의 참조 화소 라인들은, 인트라 예측을 이용하여 복호화 될 현재 블록과 동일한 영상 내에 위치함; 및
상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소 값에 기초하여 상기 현재 블록 내의 적어도 하나의 화소의 예측값을 유도하는 단계를 포함하고,
상기 예측값을 유도하는 단계는, 상기 현재 블록 내의 서브 블록 단위로 수행되는 것을 특징으로 하는 영상의 복호화 방법.
In the video decoding method,
selecting at least one reference pixel line from among a plurality of reference pixel lines, wherein the plurality of reference pixel lines are located in the same image as a current block to be decoded using intra prediction; and
deriving a predicted value of at least one pixel in the current block based on at least one pixel value included in the selected at least one reference pixel line;
The deriving of the prediction value is performed in units of sub-blocks within the current block.
제1항에 있어서, 상기 영상의 복호화 방법은,
입력 비트스트림으로부터 참조 화소 라인 인덱스 정보를 얻는 단계를 더 포함하고,
상기 참조 화소 라인 인덱스 정보에 기초하여, 상기 복수의 참조 화소 라인들 중에서 상기 적어도 하나의 참조 화소 라인이 선택되는 것을 특징으로 하는 영상의 복호화 방법.
The method of claim 1 , wherein the video decoding method comprises:
further comprising obtaining reference pixel line index information from the input bitstream;
The decoding method of an image, wherein the at least one reference pixel line is selected from among the plurality of reference pixel lines based on the reference pixel line index information.
제1항에 있어서,
상기 복수의 참조 화소 라인들은 미리 설정된 위치의 참조 화소 라인들인 것을 특징으로 하는 영상의 복호화 방법.
According to claim 1,
The method for decoding an image, wherein the plurality of reference pixel lines are reference pixel lines at preset positions.
제1항에 있어서,
상기 복수의 참조 화소 라인들의 개수는 3개인 것을 특징으로 하는 영상의 복호화 방법.
The method of claim 1,
The image decoding method, characterized in that the number of the plurality of reference pixel lines is three.
제2항에 있어서,
상기 복수의 참조 화소 라인 각각의 참조 화소 라인 인덱스 정보에는, 상기 각 참조 화소 라인과 상기 현재 블록 간의 거리가 멀 수록 큰 값이 할당되는 것을 특징으로 하는 영상의 복호화 방법.
3. The method of claim 2,
and a larger value is assigned to the reference pixel line index information of each of the plurality of reference pixel lines as the distance between each of the reference pixel lines and the current block increases.
제1항에 있어서, 상기 영상의 복호화 방법은,
상기 현재 블록의 화소들의 예측값을 유도하여 상기 현재 블록의 예측 블록을 얻는 단계; 및
상기 예측 블록을 필터링하는 단계를 더 포함하는 것을 특징으로 하는 영상의 복호화 방법.
The method of claim 1 , wherein the video decoding method comprises:
obtaining a prediction block of the current block by deriving prediction values of pixels of the current block; and
The video decoding method further comprising the step of filtering the prediction block.
제6항에 있어서, 상기 필터링하는 단계는,
상기 현재 블록의 인트라 예측 모드가 소정의 각도 모드인 경우, 상기 예측 블록 내의 제1 화소의 예측에 이용된 제1 참조 화소와, 상기 제1 참조 화소가 속하는 참조 화소 라인과 동일한 참조 화소 라인에 속하는 제2 참조 화소를 이용하여 상기 예측 블록 내의 상기 제1 화소를 필터링하는 것을 특징으로 하는 영상의 복호화 방법.
The method of claim 6, wherein the filtering comprises:
When the intra prediction mode of the current block is a predetermined angular mode, the first reference pixel used for prediction of the first pixel in the prediction block belongs to the same reference pixel line as the reference pixel line to which the first reference pixel belongs. The method of decoding an image, characterized in that the first pixel in the prediction block is filtered by using a second reference pixel.
제7항에 있어서,
상기 제2 참조 화소는, 상기 소정의 각도 모드와 연관된 예측 방향과 반대 방향에 존재하는 참조 화소인 것을 특징으로 하는 영상의 복호화 방법.
8. The method of claim 7,
The second reference pixel is a reference pixel existing in a direction opposite to a prediction direction associated with the predetermined angular mode.
제7항에 있어서,
상기 소정의 각도 모드는 45도 업-라이트(up-right) 방향의 각도 모드인 것을 특징으로 하는 영상의 복호화 방법.
8. The method of claim 7,
The image decoding method, characterized in that the predetermined angular mode is an angular mode in a 45 degree up-right direction.
제7항에 있어서, 상기 필터링하는 단계는,
상기 예측 블록 내의 상기 제1 화소와 상기 제1 참조 화소 간의 거리에 따른 제1 가중치와, 상기 제1 화소와 상기 제2 참조 화소 간의 거리에 따른 제2 가중치에 기초하여, 상기 제1 화소를 필터링하는 것을 특징으로 하는 영상의 복호화 방법.
The method of claim 7, wherein the filtering comprises:
filtering the first pixel based on a first weight according to a distance between the first pixel and the first reference pixel in the prediction block and a second weight according to a distance between the first pixel and the second reference pixel Video decoding method, characterized in that.
제10항에 있어서,
상기 제1 화소와 상기 제1 참조 화소 간의 거리가, 상기 제1 화소와 상기 제2 참조 화소 간의 거리보다 가까우면 상기 제1 가중치의 값이 상기 제2 가중치의 값보다 큰 것을 특징으로 하는 영상의 복호화 방법.
11. The method of claim 10,
When the distance between the first pixel and the first reference pixel is shorter than the distance between the first pixel and the second reference pixel, the value of the first weight is greater than the value of the second weight. Decryption method.
제9항에 있어서,
상기 제1 참조 화소 및 상기 제2 참조 화소가 속하는 상기 참조 화소 라인은, 상기 예측 블록에 접한 참조 화소 라인인 것을 특징으로 하는 영상의 복호화 방법.
10. The method of claim 9,
and the reference pixel line to which the first reference pixel and the second reference pixel belong is a reference pixel line adjacent to the prediction block.
제6항에 있어서, 상기 필터링하는 단계는,
상기 예측 블록의 크기 또는 형태에 따라 필터링되는 화소가 결정되는 것을 특징으로 하는 영상의 복호화 방법.
The method of claim 6, wherein the filtering comprises:
The method of decoding an image, wherein the pixel to be filtered is determined according to the size or shape of the prediction block.
영상의 부호화 방법에 있어서,
복수의 참조 화소 라인들 중 적어도 하나의 참조 화소 라인을 선택하는 단계, 여기서, 상기 복수의 참조 화소 라인들은, 인트라 예측을 이용하여 부호화 될 현재 블록과 동일한 영상 내에 위치함; 및
상기 선택된 적어도 하나의 참조 화소 라인에 포함된 적어도 하나의 화소 값에 기초하여 상기 현재 블록 내의 적어도 하나의 화소의 예측값을 유도하는 단계를 포함하고,
상기 예측값을 유도하는 단계는, 상기 현재 블록 내의 서브 블록 단위로 수행되는 것을 특징으로 하는 영상의 부호화 방법.
In the video encoding method,
selecting at least one reference pixel line from among a plurality of reference pixel lines, wherein the plurality of reference pixel lines are located in the same image as a current block to be encoded using intra prediction; and
deriving a predicted value of at least one pixel in the current block based on at least one pixel value included in the selected at least one reference pixel line;
The deriving of the prediction value is performed in units of sub-blocks within the current block.
제14항에 있어서, 상기 영상의 부호화 방법은,
상기 선택된 적어도 하나의 참조 화소 라인을 지시하는 참조 화소 라인 인덱스 정보를 부호화하는 단계; 및
상기 부호화된 참조 화소 라인 인덱스 정보를 비트스트림에 포함시키는 단계를 포함하는 것을 특징으로 하는 영상의 부호화 방법.
The method of claim 14, wherein the encoding method of the image comprises:
encoding reference pixel line index information indicating the selected at least one reference pixel line; and
and including the encoded reference pixel line index information in a bitstream.
제14항에 있어서,
상기 복수의 참조 화소 라인들은 미리 설정된 위치의 참조 화소 라인들인 것을 특징으로 하는 영상의 부호화 방법.
15. The method of claim 14,
The method of encoding an image, wherein the plurality of reference pixel lines are reference pixel lines at preset positions.
제14항에 있어서,
상기 복수의 참조 화소 라인들의 개수는 3개인 것을 특징으로 하는 영상의 부호화 방법.
15. The method of claim 14,
The video encoding method, characterized in that the number of the plurality of reference pixel lines is three.
제15항에 있어서,
상기 복수의 참조 화소 라인 각각의 참조 화소 라인 인덱스 정보에는, 상기 각 참조 화소 라인과 상기 현재 블록 간의 거리가 멀 수록 큰 값이 할당되는 것을 특징으로 하는 영상의 부호화 방법.
16. The method of claim 15,
The method of encoding an image, wherein a larger value is assigned to the reference pixel line index information of each of the plurality of reference pixel lines as the distance between each of the reference pixel lines and the current block increases.
제14항에 있어서, 상기 영상의 부호화 방법은,
상기 현재 블록의 화소들의 예측값을 유도하여 상기 현재 블록의 예측 블록을 얻는 단계; 및
상기 예측 블록을 필터링하는 단계를 더 포함하는 것을 특징으로 하는 영상의 부호화 방법.
The method of claim 14, wherein the encoding method of the image comprises:
obtaining a prediction block of the current block by deriving prediction values of pixels of the current block; and
The video encoding method further comprising the step of filtering the prediction block.
제19항에 있어서, 상기 필터링하는 단계는,
상기 현재 블록의 인트라 예측 모드가 소정의 각도 모드인 경우, 상기 예측 블록 내의 제1 화소의 예측에 이용된 제1 참조 화소와, 상기 제1 참조 화소가 속하는 참조 화소 라인과 동일한 참조 화소 라인에 속하는 제2 참조 화소를 이용하여 상기 예측 블록 내의 상기 제1 화소를 필터링하는 것을 특징으로 하는 영상의 부호화 방법.
The method of claim 19, wherein the filtering comprises:
When the intra prediction mode of the current block is a predetermined angular mode, the first reference pixel used for prediction of the first pixel in the prediction block belongs to the same reference pixel line as the reference pixel line to which the first reference pixel belongs. The method of encoding an image, characterized in that the first pixel in the prediction block is filtered by using a second reference pixel.
제20항에 있어서,
상기 제2 참조 화소는, 상기 소정의 각도 모드와 연관된 예측 방향과 반대 방향에 존재하는 참조 화소인 것을 특징으로 하는 영상의 부호화 방법.
21. The method of claim 20,
The second reference pixel is a reference pixel existing in a direction opposite to a prediction direction associated with the predetermined angular mode.
제20항에 있어서,
상기 소정의 각도 모드는 45도 업-라이트(up-right) 방향의 각도 모드인 것을 특징으로 하는 영상의 부호화 방법.
21. The method of claim 20,
The video encoding method, characterized in that the predetermined angular mode is an angular mode in a 45 degree up-right direction.
제20항에 있어서, 상기 필터링하는 단계는,
상기 예측 블록 내의 상기 제1 화소와 상기 제1 참조 화소 간의 거리에 따른 제1 가중치와, 상기 제1 화소와 상기 제2 참조 화소 간의 거리에 따른 제2 가중치에 기초하여, 상기 제1 화소를 필터링하는 것을 특징으로 하는 영상의 부호화 방법.
The method of claim 20, wherein the filtering comprises:
filtering the first pixel based on a first weight according to a distance between the first pixel and the first reference pixel in the prediction block and a second weight according to a distance between the first pixel and the second reference pixel Video encoding method, characterized in that.
제23항에 있어서,
상기 제1 화소와 상기 제1 참조 화소 간의 거리가, 상기 제1 화소와 상기 제2 참조 화소 간의 거리보다 가까우면 상기 제1 가중치의 값이 상기 제2 가중치의 값보다 큰 것을 특징으로 하는 영상의 부호화 방법.
24. The method of claim 23,
When the distance between the first pixel and the first reference pixel is shorter than the distance between the first pixel and the second reference pixel, the value of the first weight is greater than the value of the second weight. encoding method.
제22항에 있어서,
상기 제1 참조 화소 및 상기 제2 참조 화소가 속하는 상기 참조 화소 라인은, 상기 예측 블록에 접한 참조 화소 라인인 것을 특징으로 하는 영상의 부호화 방법.
23. The method of claim 22,
and the reference pixel line to which the first reference pixel and the second reference pixel belong is a reference pixel line adjacent to the prediction block.
제19항에 있어서, 상기 필터링하는 단계는,
상기 예측 블록의 크기 또는 형태에 따라 필터링되는 화소가 결정되는 것을 특징으로 하는 영상의 부호화 방법.
The method of claim 19, wherein the filtering comprises:
An image encoding method, characterized in that the pixel to be filtered is determined according to the size or shape of the prediction block.
영상 복호화 방법에 의해 복호화되는 비트스트림을 포함하는 컴퓨터 판독 가능한 비일시적 저장 매체에 있어서,
상기 비트스트림은 현재 참조 화소 라인 인덱스 정보를 포함하고,
상기 참조 화소 라인 인덱스 정보는 복수의 참조 화소 라인들 중 적어도 하나의 참조 화소 라인을 선택하는데 이용되고,
상기 복수의 참조 화소 라인들은, 인트라 예측을 이용하여 부호화되는 현재 블록과 동일한 영상 내에 위치하고,
상기 인트라 예측은, 상기 현재 블록 내의 서브 블록 단위로 수행되며,
상기 선택된 적어도 하나의 참조 화소 라인은 상기 현재 블록 내의 적어도 하나의 화소의 예측값을 유도하기 위해 사용되는 것을 특징으로하는 컴퓨터 판독 가능한 비일시적 저장 매체.
A computer-readable non-transitory storage medium comprising a bitstream decoded by an image decoding method,
The bitstream includes current reference pixel line index information,
The reference pixel line index information is used to select at least one reference pixel line among a plurality of reference pixel lines,
The plurality of reference pixel lines are located in the same image as a current block encoded using intra prediction,
The intra prediction is performed in units of sub-blocks in the current block,
and the selected at least one reference pixel line is used to derive a predicted value of at least one pixel in the current block.
삭제delete
KR1020170127938A 2016-10-14 2017-09-29 Method and apparatus for encoding/decoding an image KR102357282B1 (en)

Priority Applications (24)

Application Number Priority Date Filing Date Title
CN202410023716.7A CN117615133A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
PCT/KR2017/011219 WO2018070790A1 (en) 2016-10-14 2017-10-12 Image encoding/decoding method and device
CN201780063589.1A CN109845254B (en) 2016-10-14 2017-10-12 Image encoding/decoding method and device
CN202410026037.5A CN117834859A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
CN202410028685.4A CN117692635A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
CN202410026775.XA CN117596390A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
CN202410023919.6A CN117615134A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
CN202410029164.0A CN117857784A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
CN202410023964.1A CN117615135A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
JP2019520095A JP6953523B2 (en) 2016-10-14 2017-10-12 Image coding / decoding method and equipment
CN202410023686.XA CN117615132A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
CN202410026450.1A CN117834860A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
US16/341,590 US11039148B2 (en) 2016-10-14 2017-10-12 Method and apparatus for encoding/decoding an image
EP17860513.5A EP3528497A4 (en) 2016-10-14 2017-10-12 Image encoding/decoding method and device
CN202410023671.3A CN117615131A (en) 2016-10-14 2017-10-12 Video encoding/decoding method and bit stream transmission method
US17/318,144 US11792409B2 (en) 2016-10-14 2021-05-12 Method and apparatus for encoding/decoding an image
US17/318,020 US20210281853A1 (en) 2016-10-14 2021-05-12 Method and apparatus for encoding/decoding an image
KR1020210062095A KR102635240B1 (en) 2016-10-14 2021-05-13 Method and apparatus for encoding/decoding an image
JP2021159186A JP7442200B2 (en) 2016-10-14 2021-09-29 Image encoding/decoding method and device
JP2021159171A JP2022020629A (en) 2016-10-14 2021-09-29 Method and apparatus for encoding/decoding image
KR1020220010846A KR102639887B1 (en) 2016-10-14 2022-01-25 Method and apparatus for encoding/decoding an image
US17/988,094 US20230101636A1 (en) 2016-10-14 2022-11-16 Method and apparatus for encoding/decoding an image
US17/988,100 US20230073580A1 (en) 2016-10-14 2022-11-16 Method and apparatus for encoding/decoding an image
JP2024018920A JP2024050883A (en) 2016-10-14 2024-02-09 Image encoding/decoding method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160133753 2016-10-14
KR1020160133753 2016-10-14

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020210062095A Division KR102635240B1 (en) 2016-10-14 2021-05-13 Method and apparatus for encoding/decoding an image
KR1020220010846A Division KR102639887B1 (en) 2016-10-14 2022-01-25 Method and apparatus for encoding/decoding an image

Publications (2)

Publication Number Publication Date
KR20180041575A KR20180041575A (en) 2018-04-24
KR102357282B1 true KR102357282B1 (en) 2022-01-28

Family

ID=62084982

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020170127938A KR102357282B1 (en) 2016-10-14 2017-09-29 Method and apparatus for encoding/decoding an image
KR1020210062095A KR102635240B1 (en) 2016-10-14 2021-05-13 Method and apparatus for encoding/decoding an image
KR1020220010846A KR102639887B1 (en) 2016-10-14 2022-01-25 Method and apparatus for encoding/decoding an image
KR1020240023908A KR20240028390A (en) 2016-10-14 2024-02-20 Method and apparatus for encoding/decoding an image

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020210062095A KR102635240B1 (en) 2016-10-14 2021-05-13 Method and apparatus for encoding/decoding an image
KR1020220010846A KR102639887B1 (en) 2016-10-14 2022-01-25 Method and apparatus for encoding/decoding an image
KR1020240023908A KR20240028390A (en) 2016-10-14 2024-02-20 Method and apparatus for encoding/decoding an image

Country Status (1)

Country Link
KR (4) KR102357282B1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112335243A (en) * 2018-06-18 2021-02-05 世宗大学校产学协力团 Image encoding/decoding method and apparatus
CN112740670A (en) 2018-06-25 2021-04-30 Oppo广东移动通信有限公司 Intra-frame prediction method and device
WO2020009366A1 (en) * 2018-07-02 2020-01-09 엘지전자 주식회사 Method and apparatus for decoding image according to intra-prediction in image coding system
WO2020101385A1 (en) * 2018-11-14 2020-05-22 엘지전자 주식회사 Method and device for processing video data
CN112219397A (en) 2018-11-27 2021-01-12 株式会社 Xris Method for encoding/decoding video signal and apparatus therefor
WO2020130628A1 (en) * 2018-12-18 2020-06-25 엘지전자 주식회사 Method for coding image on basis of multiple reference line intra prediction and apparatus therefor
WO2020130629A1 (en) * 2018-12-18 2020-06-25 엘지전자 주식회사 Image coding method based on multiple reference line intra prediction, and device therefor
US20220166968A1 (en) * 2019-03-22 2022-05-26 Lg Electronics Inc. Intra prediction method and apparatus based on multi-reference line in image coding system
WO2020256506A1 (en) * 2019-06-20 2020-12-24 엘지전자 주식회사 Video encoding/decoding method and apparatus using multiple reference line intra-prediction, and method for transmitting bitstream
WO2020256507A1 (en) * 2019-06-20 2020-12-24 엘지전자 주식회사 Method and device for encoding/decoding image by using multiple reference line intra prediction, and method for transmitting bitstream
KR20210063805A (en) 2019-11-25 2021-06-02 한봉길 A Method of Partitioning Location and Joint Processing for the Floor Plan of Wall-Type Apartment Housing
WO2021118309A1 (en) * 2019-12-13 2021-06-17 주식회사 케이티 Method and apparatus for processing video signal
KR20230100657A (en) * 2021-12-28 2023-07-05 주식회사 케이티 Method and apparatus for encoding/decoding image
WO2024005480A1 (en) * 2022-06-29 2024-01-04 엘지전자 주식회사 Image encoding/decoding method based on multiple reference lines, method for transmitting bitstream, and recording medium on which bitstream is stored
WO2024063532A1 (en) * 2022-09-20 2024-03-28 엘지전자 주식회사 Intra prediction mode-based image encoding/decoding method and apparatus using multi reference line (mrl), and recording medium for storing bitstream

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3276958A4 (en) * 2015-03-23 2018-08-29 LG Electronics Inc. Method for processing image on basis of intra prediction mode and apparatus therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hui Yong Kim, "Description of video coding technology proposal by ETRI", JCTVC-A127. 2010.4.15*
Yao-Jen Chang, "Arbitrary reference tier for intra directional modes", JVET-C0043, 26 May 2016.*

Also Published As

Publication number Publication date
KR20180041575A (en) 2018-04-24
KR102639887B1 (en) 2024-02-23
KR20240028390A (en) 2024-03-05
KR20210058782A (en) 2021-05-24
KR102635240B1 (en) 2024-02-08
KR20220016937A (en) 2022-02-10

Similar Documents

Publication Publication Date Title
KR102357282B1 (en) Method and apparatus for encoding/decoding an image
JP7442200B2 (en) Image encoding/decoding method and device
KR102383104B1 (en) Method and apparatus for processing a video signal
US11533470B2 (en) Method and apparatus for encoding/decoding an image signal
KR102061201B1 (en) Methods of transformation based on block information and appratuses using the same
CN112369034B (en) Video coding method and apparatus using merging candidates
KR102416804B1 (en) Image encoding method/apparatus, image decoding method/apparatus and and recording medium for storing bitstream
KR102425722B1 (en) Method and apparatus for encoding/decoding a video signal
US20220272361A1 (en) Method and apparatus for encoding/decoding image signal
KR20220098114A (en) Image encoding method/apparatus, image decoding method/apparatus and and recording medium for storing bitstream
KR20190115426A (en) Method and apparatus for encoding/decoding an image
KR20230118538A (en) Method and apparatus for encoding/decoding an image
US11909970B2 (en) Image encoding method/device, image decoding method/device, and recording medium in which bitstream is stored
KR102389267B1 (en) A method and an apparatus for processing a video signal based on reference between components
KR20170124082A (en) Method and apparatus for encoding/decoding a video signal
KR102511611B1 (en) Image encoding method/apparatus, image decoding method/apparatus and and recording medium for storing bitstream
KR102557740B1 (en) Method and apparatus for encoding/decoding a video signal
KR20220051156A (en) A method and an apparatus for processing a video signal based on reference between components
KR20230042236A (en) Image encoding method/apparatus, image decoding method/apparatus and and recording medium for storing bitstream
KR20230145277A (en) Image encoding/decoding method and apparatus using efficient motion information prediction
KR102038818B1 (en) Intra prediction method and apparatus using the method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant