KR20190142750A - Image encoding/decoding method and apparatus - Google Patents

Image encoding/decoding method and apparatus Download PDF

Info

Publication number
KR20190142750A
KR20190142750A KR1020190072351A KR20190072351A KR20190142750A KR 20190142750 A KR20190142750 A KR 20190142750A KR 1020190072351 A KR1020190072351 A KR 1020190072351A KR 20190072351 A KR20190072351 A KR 20190072351A KR 20190142750 A KR20190142750 A KR 20190142750A
Authority
KR
South Korea
Prior art keywords
reference pixel
prediction
block
current block
information
Prior art date
Application number
KR1020190072351A
Other languages
Korean (ko)
Inventor
문주희
하재민
원동재
임성원
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Publication of KR20190142750A publication Critical patent/KR20190142750A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Abstract

Provided are a method for encoding/decoding an image and an apparatus thereof. According to the present invention, the method for encoding/decoding an image can comprise the steps of: restoring reference pixel line information; selecting at least one reference pixel line among a plurality of reference pixel lines based on the reference pixel line information; and generating a prediction block for a current block by performing intra-screen prediction on the current block based on the selected reference pixel line.

Description

영상 부호화/복호화 방법 및 장치{IMAGE ENCODING/DECODING METHOD AND APPARATUS}Image Encoding / Decoding Method and Apparatus {IMAGE ENCODING / DECODING METHOD AND APPARATUS}

본 발명은 영상 부호화/복호화 방법 및 장치에 관한 것으로서, 보다 구체적으로는 복수의 복원 화소 라인을 이용한 화면 내 예측을 수행하는 영상 부호화/복호화 방법 및 장치에 관한 것이다.The present invention relates to an image encoding / decoding method and apparatus, and more particularly, to an image encoding / decoding method and apparatus for performing intra prediction using a plurality of reconstructed pixel lines.

최근, 인터넷에서는 동영상과 같은 멀티미디어 데이터의 수요가 급격히 증가하고 있다. 하지만 채널(Channel)의 대역폭(Bandwidth)이 발전하는 속도는 급격히 증가하고 있는 멀티미디어 데이터의 양을 따라가기 힘든 상황이다. 이에 따라, 국제 표준화 기구인 ITU-T의 VCEG(Video Coding Expert Group)과 ISO/IEC의 MPEG(Moving Picture Expert Group)은 2014년 2월, 동영상 압축 표준인 HEVC(High Efficiency Video Coding) 버전1을 제정하였다.Recently, the demand for multimedia data such as moving pictures is rapidly increasing on the Internet. However, the speed at which the bandwidth of a channel develops is difficult to keep up with the rapidly increasing amount of multimedia data. Accordingly, the ITU-T's Video Coding Expert Group (VCEG) and ISO / IEC's Moving Picture Expert Group (MPEG) launched the video compression standard HEVC (High Efficiency Video Coding) version 1 in February 2014. Enacted.

HEVC에서는 화면 내 예측(또는 인트라 예측), 화면 간 예측(또는 인터 예측), 변환, 양자화, 엔트로피 부호화 및 인-루프 필터 등의 기술을 정의하고 있다.HEVC defines techniques such as intra prediction (or intra prediction), inter prediction (or inter prediction), transformation, quantization, entropy coding, and in-loop filter.

본 발명은 복수의 참조 화소 라인을 이용하여 화면 내 예측을 수행하는 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an image encoding / decoding method and apparatus for performing intra prediction using a plurality of reference pixel lines.

또한, 본 발명은 본 발명의 영상 부호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.Moreover, an object of this invention is to provide the recording medium which stored the bitstream produced | generated by the video encoding method or apparatus of this invention.

또한, 본 발명은 본 발명의 영상 복호화 방법 또는 장치에 의해 복호화되는 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.It is also an object of the present invention to provide a recording medium storing a bitstream to be decoded by the video decoding method or apparatus of the present invention.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

본 발명의 일 양상에 따른 영상 복호화 방법은, 참조 화소 라인 정보를 복원하는 단계, 상기 참조 화소 라인 정보에 기초하여, 복수의 참조 화소 라인 중 적어도 하나의 참조 화소 라인을 선택하는 단계, 및 상기 선택된 참조 화소 라인에 기초하여 현재 블록에 대한 화면 내 예측을 수행함으로써, 상기 현재 블록에 대한 예측 블록을 생성하는 단계를 포함할 수 있다.An image decoding method according to an aspect of the present invention may include reconstructing reference pixel line information, selecting at least one reference pixel line among a plurality of reference pixel lines based on the reference pixel line information, and selecting the selected pixel. The method may include generating a prediction block for the current block by performing intra prediction on the current block based on a reference pixel line.

본 발명에 따른 영상 복호화 방법에 있어서, 상기 참조 화소 라인 정보는 블록 단위로 복호화될 수 있다.In the image decoding method according to the present invention, the reference pixel line information may be decoded in units of blocks.

본 발명에 따른 영상 복호화 방법에 있어서, 상기 예측 블록은 상기 현재 블록의 상단 참조 화소와 상기 현재 블록의 좌측 참조 화소 간의 가중합을 수행하여 생성될 수 있다.In the image decoding method according to the present invention, the prediction block may be generated by performing a weighted summation between an upper reference pixel of the current block and a left reference pixel of the current block.

본 발명에 따른 영상 복호화 방법에 있어서, 상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록의 예측 방향에 기초하여 선택될 수 있다.In the image decoding method according to the present invention, the upper reference pixel and the left reference pixel may be selected based on a prediction direction of the current block.

본 발명에 따른 영상 복호화 방법에 있어서, 상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록에 인접한 첫번째 참조 화소 라인 상에 존재하고, 상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록 내 현재 화소의 좌표에 기초하여 선택될 수 있다.In the image decoding method according to the present invention, the upper reference pixel and the left reference pixel are present on a first reference pixel line adjacent to the current block, and the upper reference pixel and the left reference pixel are current pixels in the current block. It may be selected based on the coordinate of.

본 발명에 따른 영상 복호화 방법에 있어서, 상기 현재 블록 내 좌상단 화소의 좌표가 (0, 0)이고, 상기 현재 화소의 좌표가 (x, y) 일 때, 상기 상단 참조 화소의 좌표는 (x+y+1, -1)이고, 상기 좌측 참조 화소의 좌표는 (-1, x+y+1)일 수 있다.In the image decoding method according to the present invention, when the coordinate of the upper left pixel in the current block is (0, 0) and the coordinate of the current pixel is (x, y), the coordinate of the upper reference pixel is (x + y + 1, -1), and the coordinates of the left reference pixel may be (-1, x + y + 1).

본 발명에 따른 영상 복호화 방법에 있어서, 상기 가중합에 이용되는 가중치는 상기 현재 블록 내 현재 화소로부터 상기 상단 참조 화소 및 상기 좌측 참조 화소까지의 거리에 기초하여 결정될 수 있다.In the image decoding method according to the present invention, a weight used for the weighted sum may be determined based on a distance from a current pixel in the current block to the upper reference pixel and the left reference pixel.

본 발명에 따른 영상 복호화 방법에 있어서, 상기 상단 참조 화소 및 상기 좌측 참조 화소 중 상기 현재 화소로부터의 거리가 가까운 참조 화소에 더 큰 가중치가 적용될 수 있다.In the image decoding method according to the present invention, a greater weight may be applied to a reference pixel having a distance from the current pixel among the upper reference pixel and the left reference pixel.

본 발명의 다른 양상에 따른 영상 부호화 방법은, 복수의 참조 화소 라인 중 적어도 하나의 참조 화소 라인을 선택하는 단계, 상기 선택된 참조 화소 라인에 기초하여 현재 블록에 대한 화면 내 예측을 수행함으로써, 상기 현재 블록에 대한 예측 블록을 생성하는 단계, 및 상기 선택된 참조 화소 라인에 관한 참조 화소 라인 정보를 부호화하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of encoding an image, selecting at least one reference pixel line among a plurality of reference pixel lines, and performing intra prediction on the current block based on the selected reference pixel line. Generating a prediction block for the block, and encoding reference pixel line information about the selected reference pixel line.

본 발명에 따른 영상 부호화 방법에 있어서, 상기 참조 화소 라인 정보는 블록 단위로 부호화될 수 있다.In the image encoding method according to the present invention, the reference pixel line information may be encoded in units of blocks.

본 발명에 따른 영상 부호화 방법에 있어서, 상기 예측 블록은 상기 현재 블록의 상단 참조 화소와 상기 현재 블록의 좌측 참조 화소 간의 가중합을 수행하여 생성될 수 있다.In the image encoding method according to the present invention, the prediction block may be generated by performing a weighted summation between an upper reference pixel of the current block and a left reference pixel of the current block.

본 발명에 따른 영상 부호화 방법에 있어서, 상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록의 예측 방향에 기초하여 선택될 수 있다.In the image encoding method according to the present invention, the upper reference pixel and the left reference pixel may be selected based on a prediction direction of the current block.

본 발명에 따른 영상 부호화 방법에 있어서, 상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록에 인접한 첫번째 참조 화소 라인 상에 존재하고, 상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록 내 현재 화소의 좌표에 기초하여 선택될 수 있다.In the image encoding method according to the present invention, the upper reference pixel and the left reference pixel are present on a first reference pixel line adjacent to the current block, and the upper reference pixel and the left reference pixel are current pixels in the current block. It may be selected based on the coordinate of.

본 발명에 따른 영상 부호화 방법에 있어서, 상기 현재 블록 내 좌상단 화소의 좌표가 (0, 0)이고, 상기 현재 화소의 좌표가 (x, y) 일 때, 상기 상단 참조 화소의 좌표는 (x+y+1, -1)이고, 상기 좌측 참조 화소의 좌표는 (-1, x+y+1)일 수 있다.In the image encoding method according to the present invention, when the coordinate of the upper left pixel in the current block is (0, 0) and the coordinate of the current pixel is (x, y), the coordinate of the upper reference pixel is (x + y + 1, -1), and the coordinates of the left reference pixel may be (-1, x + y + 1).

본 발명에 따른 영상 부호화 방법에 있어서, 상기 가중합에 이용되는 가중치는 상기 현재 블록 내 현재 화소로부터 상기 상단 참조 화소 및 상기 좌측 참조 화소까지의 거리에 기초하여 결정될 수 있다.In the image encoding method according to the present invention, a weight used for the weighted sum may be determined based on a distance from a current pixel in the current block to the upper reference pixel and the left reference pixel.

본 발명에 따른 영상 부호화 방법에 있어서, 상기 상단 참조 화소 및 상기 좌측 참조 화소 중 상기 현재 화소로부터의 거리가 가까운 참조 화소에 더 큰 가중치가 적용될 수 있다.In the image encoding method according to the present invention, a greater weight may be applied to a reference pixel having a distance from the current pixel among the upper reference pixel and the left reference pixel.

본 발명의 또 다른 양상에 따른 컴퓨터 판독 가능한 기록 매체는, 본 발명에 따른 영상 부호화 방법 및/또는 장치에 의해 생성된 비트스트림을 저장할 수 있다.A computer readable recording medium according to another aspect of the present invention may store a bitstream generated by the video encoding method and / or apparatus according to the present invention.

본 발명의 또 다른 양상에 따른 컴퓨터 판독 가능한 기록 매체는, 본 발명에 따른 영상 복호화 방법 및/또는 장치에 의해 복호화되는 비트스트림을 저장할 수 있다.A computer readable recording medium according to another aspect of the present invention may store a bitstream decoded by an image decoding method and / or apparatus according to the present invention.

본 발명에 따르면, 복수의 참조 화소 라인을 이용하여 화면 내 예측을 수행하는 영상 부호화/복호화 방법 및 장치가 제공될 수 있다.According to the present invention, an image encoding / decoding method and apparatus for performing intra prediction using a plurality of reference pixel lines may be provided.

또한, 본 발명에 따르면, 복수의 예측 정보에 기초하여 생성된 복수의 예측 블록들을 이용하여 현재 블록을 예측하는 방법 및 장치가 제공될 수 있다.According to the present invention, a method and apparatus for predicting a current block using a plurality of prediction blocks generated based on a plurality of prediction information may be provided.

또한, 본 발명에 따르면, 본 발명에 따른 영상 부호화 방법/장치에 의해 생성된 비트스트림을 저장하는 컴퓨터 판독 가능한 기록 매체가 제공될 수 있다.In addition, according to the present invention, a computer-readable recording medium for storing a bitstream generated by the video encoding method / apparatus according to the present invention can be provided.

또한, 본 발명에 따르면, 본 발명에 따른 영상 복호화 방법 및/또는 장치에 의해 복호화되는 비트스트림을 저장하는 컴퓨터 판독 가능한 기록 매체가 제공될 수 있다.Further, according to the present invention, a computer-readable recording medium for storing a bitstream decoded by the image decoding method and / or apparatus according to the present invention can be provided.

도 1은 영상 부호화 장치의 구성을 간략하게 나타낸 예시도이다.
도 2는 영상 부호화 장치의 예측부의 일 실시예를 도시한 예시도이다.
도 3은 영상 부호화 장치에서 부호화 정보를 부호화하는 일 실시예를 설명하기 위한 도면이다.
도 4는 영상 복호화 장치의 구성을 나타낸 예시도이다.
도 5는 영상 복호화 장치의 예측부의 구성을 도시한 예시도이다.
도 6은 영상 복호화 장치에서 부호화 정보를 복호화하는 일 실시예를 설명하기 위한 도면이다.
도 7은 복수의 참조 화소 라인을 이용한 화면 내 예측의 일 실시예를 설명하기 위한 도면이다.
도 8은 복수의 참조 화소 라인을 이용한 화면 내 예측의 다른 실시예를 설명하기 위한 도면이다.
도 9는 하나 이상의 참조 화소 라인을 이용하는 영상 부호화 장치의 화면 내 예측부를 도시한 예시도이다.
도 10은 하나 이상의 참조 화소 라인을 이용하는 영상 복호화 장치의 화면 내 예측부를 도시한 예시도이다.
도 11은 본 발명의 일 실시예에 따라 예측 모드 정보를 부호화하는 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따라 예측 모드 정보를 복호화하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 다른 실시예에 따른 영상 부호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.
도 14는 본 발명의 다른 실시예에 따른 영상 복호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시예에 따라 예측 모드 정보를 부호화하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따라 예측 모드 정보를 복호화하는 방법을 설명하기 위한 도면이다.
도 17은 본 발명의 다른 실시예에 따라 화면 내 예측을 수행하는 방법을 설명하기 위한 도면이다.
도 18은 본 발명의 다른 실시예에 따른 영상 부호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.
도 19는 본 발명의 다른 실시예에 따른 영상 복호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.
도 20은 본 발명의 일 실시예에 따라 예측 모드 정보를 부호화하는 방법을 설명하기 위한 도면이다.
도 21은 본 발명의 일 실시예에 따라 예측 모드 정보를 복호화하는 방법을 설명하기 위한 도면이다.
1 is an exemplary view briefly illustrating a configuration of a video encoding apparatus.
2 is a diagram illustrating an embodiment of a prediction unit of an image encoding apparatus.
3 is a diagram for describing an embodiment of encoding encoding information by a video encoding apparatus.
4 is a diagram illustrating a configuration of an image decoding apparatus.
5 is an exemplary diagram illustrating a configuration of a prediction unit of an image decoding device.
FIG. 6 is a diagram for describing an embodiment of decoding encoding information by a video decoding apparatus. FIG.
FIG. 7 illustrates an example of intra prediction using a plurality of reference pixel lines.
8 is a diagram for describing another embodiment of intra prediction using a plurality of reference pixel lines.
9 is an exemplary diagram illustrating an intra prediction unit of an image encoding apparatus using one or more reference pixel lines.
10 is an exemplary diagram illustrating an intra prediction unit of an image decoding apparatus using one or more reference pixel lines.
11 is a diagram for describing a method of encoding prediction mode information according to an embodiment of the present invention.
12 is a diagram for describing a method of decoding prediction mode information according to an embodiment of the present invention.
FIG. 13 is a diagram for describing an intra prediction unit of a video encoding apparatus according to another embodiment. FIG.
FIG. 14 is a diagram for describing an intra prediction unit of an image decoding apparatus according to another exemplary embodiment.
15 is a diagram for describing a method of encoding prediction mode information according to an embodiment of the present invention.
16 is a diagram for describing a method of decoding prediction mode information according to an embodiment of the present invention.
17 is a diagram for describing a method of performing intra prediction according to another embodiment of the present invention.
18 is a diagram for explaining an intra prediction unit of a video encoding apparatus according to another embodiment.
FIG. 19 is a diagram for describing an intra prediction unit of a video decoding apparatus according to another exemplary embodiment.
20 is a diagram for describing a method of encoding prediction mode information according to an embodiment of the present invention.
21 is a diagram for describing a method of decoding prediction mode information according to an embodiment of the present invention.

본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.In the present specification, when a part is 'connected' to another part, this includes not only a case where the part is directly connected, but also a case where the part is electrically connected with another element in between.

또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.In addition, when any part of the present specification 'includes' a certain component, this means that it may further include other components, without excluding other components unless otherwise stated.

또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In addition, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

또한, 본 명세서에서 설명되는 장치 및 방법에 관한 실시예에 있어서, 장치의 구성 일부 또는 방법의 단계 일부는 생략될 수 있다. 또한 장치의 구성 일부 또는 방법의 단계 일부의 순서가 변경될 수 있다. 또한 장치의 구성 일부 또는 방법의 단계 일부에 다른 구성 또는 다른 단계가 삽입될 수 있다.In addition, in the embodiments of the apparatus and method described herein, some of the configuration of the apparatus or some of the steps of the method may be omitted. In addition, the order of some of the components of the apparatus or some of the steps of the method may be changed. In addition, other configurations or other steps may be inserted into part of the device or part of the steps of the method.

또한, 본 발명의 제1 실시예의 일부 구성 또는 일부 단계는 본 발명의 제2 실시예에 부가되거나, 제2 실시예의 일부 구성 또는 일부 단계를 대체할 수 있다.In addition, some components or some steps of the first embodiment of the present invention may be added to, or may replace some elements or some steps of the second embodiment.

덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is composed of separate hardware or one software unit. That is, each component is described by listing each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included within the scope of the present invention without departing from the spirit of the invention.

먼저, 본 출원에서 사용되는 용어를 간략히 설명하면 다음과 같다.First, the terms used in the present application will be briefly described as follows.

이하에서 후술할 복호화 장치(Video Decoding Apparatus)는 민간 보안 카메라, 민간 보안 시스템, 군용 보안 카메라, 군용 보안 시스템, 개인용 컴퓨터(PC, Personal Computer), 노트북 컴퓨터, 휴대형 멀티미디어 플레이어(PMP, Portable MultimediaPlayer), 무선 통신 단말기(Wireless Communication Terminal), 스마트 폰(Smart Phone), TV 응용 서버와 서비스 서버 등 서버 단말기에 포함된 장치일 수 있으며, 각종 기기 등과 같은 사용자 단말기, 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 복호화하거나 복호화를 위해 화면 간 또는 화면 내 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미할 수 있다.The video decoding apparatus (Video Decoding Apparatus) to be described below is a civil security camera, civil security system, military security camera, military security system, personal computer (PC, Personal Computer), notebook computer, portable multimedia player (PMP, Portable MultimediaPlayer), It may be a device included in a server terminal such as a wireless communication terminal, a smart phone, a TV application server and a service server, and a communication modem for communicating with a user terminal such as various devices or a wired or wireless communication network. It may mean a variety of devices including a communication device such as an image, a memory for storing various programs and data for inter- or intra-prediction for decoding or decoding an image, a microprocessor for executing and operating a program, and the like. Can be.

또한, 부호화기에 의해 비트스트림(bitstream)으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB, Universal Serial Bus)등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 복호화되어 영상으로 복원되고 재생될 수 있다. 또는 부호화기에 의해 생성된 비트스트림은 메모리에 저장될 수 있다. 상기 메모리는 휘발성 메모리와 비휘발성 메모리를 모두 포함할 수 있다. 본 명세서에서 메모리는 비트스트림을 저장한 기록 매체로 표현될 수 있다.In addition, the image encoded in the bitstream by the encoder is real-time or non-real-time through the wired or wireless communication network, such as the Internet, local area wireless communication network, wireless LAN network, WiBro network, mobile communication network or the like, cable, universal serial bus (USB, It can be transmitted to a video decoding apparatus through various communication interfaces such as a universal serial bus), decoded, reconstructed, and played back. Alternatively, the bitstream generated by the encoder may be stored in the memory. The memory may include both a volatile memory and a nonvolatile memory. In the present specification, a memory may be represented as a recording medium storing a bitstream.

통상적으로 동영상은 일련의 픽쳐(Picture)들로 구성될 수 있으며, 각 픽쳐들은 블록(Block)과 같은 코딩 유닛(coding unit)으로 분할될 수 있다. 또한, 이하에 기재된 픽쳐라는 용어는 영상(Image), 프레임(Frame) 등과 같은 동등한 의미를 갖는 다른 용어로 대치되어 사용될 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있을 것이다. 그리고 코딩 유닛이라는 용어는 단위 블록, 블록 등과 같은 동등한 의미를 갖는 다른 용어로 대치되어 사용될 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있을 것이다.Typically, a video may be composed of a series of pictures, and each picture may be divided into a coding unit such as a block. In addition, it will be understood by those of ordinary skill in the art that the term 'picture' described below may be used interchangeably with other terms having equivalent meanings such as an image, a frame, and the like. will be. And it will be understood by those skilled in the art that the term coding unit may be used interchangeably with other terms having equivalent meanings such as unit blocks, blocks, and the like.

이하, 첨부한 도면들을 참조하여, 본 발명의 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail an embodiment of the present invention. In describing the present invention, duplicate descriptions of the same components will be omitted.

도 1은 영상 부호화 장치의 구성을 간략하게 나타낸 예시도이다.1 is an exemplary view briefly illustrating a configuration of a video encoding apparatus.

영상 부호화 장치(100)는 영상 분할부(101), 화면 내 예측부(102), 화면 간 예측부(103), 감산부(104), 변환부(105), 양자화부(106), 엔트로피 부호화부(107), 역양자화부(108), 역변환부(109), 가산부(110), 필터부(111) 및 메모리(112)를 포함할 수 있다.The image encoding apparatus 100 may include an image splitter 101, an intra prediction unit 102, an inter prediction unit 103, a subtractor 104, a transform unit 105, a quantization unit 106, and entropy encoding. The unit 107, an inverse quantization unit 108, an inverse transform unit 109, an adder 110, a filter unit 111, and a memory 112 may be included.

각 장치에서 최적의 정보를 선택하기 위해 RD-Cost(RateDistortion-Cost)를 비교할 수 있다. RD-Cost란 원본 블록과 복원된 블록간의 왜곡 정보와 예측 모드 전송시에 발생하는 비트량을 이용하여 계산된 비용값을 의미한다. 이 때 비용값을 계산하기 위해 SAD(Sum of Absolute Difference), SATD(Sum of Absolute Transformed Difference), SSE(Sum of Square for Error) 등을 이용할 수도 있다.RateDistortion-Cost (RD-Cost) can be compared to select the best information for each device. The RD-Cost refers to a cost value calculated by using distortion information between the original block and the reconstructed block and the amount of bits generated when the prediction mode is transmitted. In this case, a sum of absolute difference (SAD), a sum of absolute transformed difference (SATD), a sum of square for error (SSE) may be used to calculate the cost value.

도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성 단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한것으로 각 구성부 중 적어도 두개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.Each of the components shown in FIG. 1 is independently shown to represent different characteristic functions in the image encoding apparatus, and does not mean that each of the components is made of separate hardware or one software component unit. In other words, each component is included in each component for convenience of description and at least two of the components are combined to form one component, or one component may be divided into a plurality of components to perform a function. Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성요소를 제외한 본 발명의 본질을 구현하는 데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성요소를 제외한 필수 구성요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance. The present invention can be implemented including only the components necessary to implement the essentials of the present invention except for the components used for improving performance, and includes only the essential components except for the optional components used for improving performance. The structure is also included in the scope of the present invention.

영상 분할부(100)는 입력된 영상을 적어도 하나의 블록으로 분할할 수 있다. 이때, 입력된 영상은 픽처, 슬라이스, 타일, 세그먼트 등 다양한 형태와 크기를 가질 수 있다. 블록은 부호화 단위(CU), 예측 단위(PU) 또는 변환 단위(TU)를 의미할 수 있다. 상기 분할은 쿼드 트리(Quadtree), 바이너리 트리(Biniary tree) 및 터너리 트리(Ternary tree) 중 적어도 하나에 기반하여 수행될 수 있다. 쿼드 트리는 상위 블록을 너비와 높이가 상위 블록의 절반인 하위 블록으로 사분할하는 방식이다. 바이너리 트리는 상위 블록을 너비 또는 높이 중 어느 하나가 상위 블록의 절반인 하위 블록으로 이분할하는 방식이다. 터너리 트리는 너비 또는 높이 중 어느 하나를 기준으로 상위 블록을 하위 블록으로 삼분할하는 방식이다. 전술한 바이너리 트리 및 터너리 트리 기반의 분할을 통해, 블록은 정방형뿐만 아니라 비정방형의 형태를 가질 수 있다.The image divider 100 may divide the input image into at least one block. In this case, the input image may have various shapes and sizes, such as a picture, a slice, a tile, and a segment. A block may mean a coding unit (CU), a prediction unit (PU), or a transformation unit (TU). The partitioning may be performed based on at least one of a quadtree, a binary tree, and a ternary tree. Quad tree is a method of dividing an upper block into lower blocks having a width and a height of half of the upper block. Binary tree is a method of dividing the upper block into lower blocks, either half of the upper block of width or height. The ternary tree divides an upper block into lower blocks based on either a width or a height. Through partitioning based on the binary tree and the ternary tree described above, a block may have a square as well as a non-square shape.

예측부(102, 103)는 화면 간 예측 예측을 수행하는 화면 간 예측부(103)와 화면 내 예측 예측을 수행하는 화면 내 예측부(102)를 포함할 수 있다. 예측 단위에 대해 화면 간 예측 예측을 사용할 것인지 또는 화면 내 예측 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 화면 내 예측 예측 모드, 모션 벡터, 참조 픽쳐 등)를 결정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 예측 단위로 결정되고, 예측의 수행은 변환 단위로 수행될 수도 있다.The prediction units 102 and 103 may include an inter prediction unit 103 that performs inter prediction and an intra prediction unit 102 that performs intra prediction. It is possible to determine whether to use inter-prediction prediction or intra-prediction prediction for the prediction unit, and determine specific information (eg, intra prediction prediction mode, motion vector, reference picture, etc.) according to each prediction method. have. In this case, the processing unit in which the prediction is performed may differ from the processing unit in which the prediction method and the details are determined. For example, the method of prediction and the prediction mode may be determined in the prediction unit, and the prediction may be performed in the transform unit.

생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(105)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(107)에서 부호화되어 복호화기에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(102, 103)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.The residual value (residual block) between the generated prediction block and the original block may be input to the transformer 105. In addition, prediction mode information and motion vector information used for prediction may be encoded by the entropy encoder 107 together with the residual value and transmitted to the decoder. When a specific encoding mode is used, the original block may be encoded as it is and transmitted to the decoder without generating the prediction block through the prediction units 102 and 103.

화면 내 예측부(102)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 블록을 생성할 수 있다. 화면 내 예측 예측이 수행될 현재 블록의 주변 블록의 예측 모드가 화면 간 예측 예측인 경우, 화면 간 예측 예측이 적용된 주변 블록에 포함되는 참조 픽셀을, 화면 내 예측 예측이 적용된 주변의 다른 블록 내의 참조 픽셀로 대체될 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를, 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.The intra prediction unit 102 may generate a prediction block based on reference pixel information around the current block, which is pixel information in the current picture. When the prediction mode of the neighboring block of the current block on which the intra prediction prediction is to be performed is the inter prediction prediction, the reference pixel included in the neighboring block to which the inter prediction prediction is applied is referred to a reference pixel in the other block around the intra prediction prediction applied. Can be replaced with pixels. That is, when the reference pixel is not available, the unavailable reference pixel information may be replaced with at least one reference pixel among the available reference pixels.

화면 내 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드는 상이할 수 있다. 색차 정보를 예측하기 위해 휘도 정보의 예측에 사용된 화면 내 예측 모드 정보 또는 예측된 휘도 신호 정보가 활용될 수 있다.In intra prediction, a prediction mode may have a directional prediction mode using reference pixel information according to a prediction direction and a non-directional mode using no directional information. The mode for predicting the luminance information and the mode for predicting the color difference information may be different. In order to predict the color difference information, intra prediction mode information or predicted luminance signal information used for the prediction of the luminance information may be utilized.

화면 내 예측부(102)는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소를 필터링하는 필터로서 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 적응적으로 결정할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.The intra prediction unit 102 may include an adaptive intra smoothing (AIS) filter, a reference pixel interpolator, and a DC filter. The AIS filter is a filter for filtering the reference pixels of the current block and may adaptively determine whether to apply the filter according to the prediction mode of the current prediction unit. If the prediction mode of the current block is a mode that does not perform AIS filtering, the AIS filter may not be applied.

화면 내 예측부(102)의 참조 화소 보간부는 예측 단위의 화면 내 예측 모드가 참조 화소를 보간한 화소값을 기초로 화면 내 예측을 수행하는 모드일 경우, 참조 화소를 보간하여 분수 단위 위치의 참조 화소를 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.The reference pixel interpolation unit of the intra prediction unit 102 refers to the fractional unit position by interpolating the reference pixel when the intra prediction mode of the prediction unit is a mode for performing intra prediction based on the pixel value interpolated with the reference pixel. Pixels can be generated. If the prediction mode of the current prediction unit is a prediction mode for generating a prediction block without interpolating the reference pixel, the reference pixel may not be interpolated. The DC filter may generate the prediction block through filtering when the prediction mode of the current block is the DC mode.

화면 간 예측부(103)는, 메모리(112)에 저장된 기 복원된 참조 영상과 움직임 정보를 이용하여 예측 블록을 생성한다. 움직임 정보는 예컨대 움직임 벡터, 참조 픽처 인덱스, 리스트 1 예측 플래그, 리스트 0 예측 플래그 등을 포함할 수 있다. The inter prediction unit 103 generates a prediction block using the reconstructed reference image and motion information stored in the memory 112. The motion information may include, for example, a motion vector, a reference picture index, a list 1 prediction flag, a list 0 prediction flag, and the like.

예측부(102, 103)에서 생성된 예측 단위와 예측 단위와 원본 블록 간의 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(105)로 입력되어 변환될 수 있다. The residual block may include a prediction unit generated by the prediction units 102 and 103 and residual information which is a difference value between the prediction unit and the original block. The generated residual block may be input to the transform unit 105 and converted.

화면 간 예측부(103)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 블록을 유도할 수 있다. 또한, 현재 픽쳐 내의 부호화가 완료된 일부 영역의 정보를 기초로, 현재 블록의 예측 블록을 유도할 수도 있다. 본 발명의 일 실시예에 따른 화면 간 예측부(103)는 참조 픽쳐 보간부, 움직임 예측부, 움직임 보상부를 포함할 수 있다. The inter prediction unit 103 may induce a prediction block based on information of at least one of a previous picture or a subsequent picture of the current picture. In addition, a prediction block of the current block may be derived based on information of a partial region in which encoding in the current picture is completed. The inter prediction unit 103 according to an embodiment of the present invention may include a reference picture interpolator, a motion predictor, and a motion compensator.

참조 픽쳐 보간부에서는 메모리(112)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. The reference picture interpolation unit may receive reference picture information from the memory 112 and generate pixel information of less than an integer pixel in the reference picture. In the case of luminance pixels, a DCT based 8-tap interpolation filter having different filter coefficients may be used to generate pixel information of integer pixels or less in units of 1/4 pixels. In the case of a chrominance signal, a DCT-based interpolation filter having different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/8 pixels.

움직임 예측부는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 모션 예측을 수행할 수 있다. 모션 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 모션 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 모션 벡터값을 가질 수 있다. 움직임 예측부에서는 움직임 예측 방법을 다르게 하여 현재 블록의 예측 블록을 예측할 수 있다. 모션 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법 등 다양한 방법이 사용될 수 있다.The motion predictor may perform motion prediction based on the reference picture interpolated by the reference picture interpolator. As a method for calculating a motion vector, various methods such as full search-based block matching algorithm (FBMA), three step search (TSS), and new three-step search algorithm (NTS) may be used. The motion vector may have a motion vector value of 1/2 or 1/4 pixel units based on the interpolated pixels. The motion prediction unit may predict the prediction block of the current block by using a different motion prediction method. As the motion prediction method, various methods such as a skip method, a merge method, and an advanced motion vector prediction (AMVP) method may be used.

감산부(104)는, 현재 부호화하려는 블록과 화면 내 예측부(102) 혹은 화면 간 예측부(103)에서 생성된 예측 블록을 감산하여 현재 블록의 잔차 블록을 생성한다.The subtraction unit 104 generates a residual block of the current block by subtracting the block to be currently encoded from the prediction block generated by the intra prediction unit 102 or the inter prediction unit 103.

변환부(105)에서는 잔차 데이터를 포함한 잔차 블록을 DCT, DST, KLT(Karhunen Loeve Transform) 등과 같은 변환 방법을 사용하여 변환할 수 있다. 이때 변환 방법은 잔차 블록을 생성하기 위해 사용된 예측 단위의 화면 내 예측 모드에 기반하여 결정될 수 있다. 예를 들어, 화면 내 예측 모드에 따라, 가로 방향으로는 DCT를 사용하고, 세로 방향으로는 DST를 사용할 수도 있다. 또는 현재 블록의 종횡비, 크기 등에 따라 가로 방향과 세로 방향으로 서로 다른 변환 기법들을 사용할 수도 있다.The transform unit 105 may transform the residual block including the residual data by using a transformation method such as DCT, DST, or Karhunen Loeve Transform (KLT). In this case, the conversion method may be determined based on an intra prediction mode of the prediction unit used to generate the residual block. For example, according to the intra prediction mode, DCT may be used in the horizontal direction and DST may be used in the vertical direction. Alternatively, different transformation techniques may be used in the horizontal and vertical directions depending on the aspect ratio, size, and the like of the current block.

양자화부(106)는 변환부(105)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(106)에서 산출된 값은 역양자화부(108)와 엔트로피 부호화부(107)에 제공될 수 있다.The quantization unit 106 may quantize the values converted in the frequency domain by the transformer 105. The quantization coefficient may change depending on the block or the importance of the image. The value calculated by the quantization unit 106 may be provided to the inverse quantization unit 108 and the entropy encoding unit 107.

상기 변환부(105) 및/또는 양자화부(106)는, 영상 부호화 장치(100)에 선택적으로 포함될 수 있다. 즉, 영상 부호화 장치(100)는, 잔차 블록의 잔차 데이터에 대해 변환 또는 양자화 중 적어도 하나를 수행하거나, 변환 및 양자화를 모두 스킵하여 잔차 블록을 부호화할 수 있다. 영상 부호화 장치(100)에서 변환 또는 양자화 중 어느 하나가 수행되지 않거나, 변환 및 양자화 모두 수행되지 않더라도, 엔트로피 부호화부(107)의 입력으로 들어가는 블록을 통상적으로 변환 블록이라 일컫는다.The transform unit 105 and / or the quantization unit 106 may be selectively included in the image encoding apparatus 100. That is, the image encoding apparatus 100 may encode the residual block by performing at least one of transform or quantization on the residual data of the residual block, or skipping both transform and quantization. Even if neither the transformation nor the quantization is performed or neither the transformation nor the quantization is performed in the image encoding apparatus 100, a block entering the input of the entropy encoder 107 is generally referred to as a transform block.

엔트로피 부호화부(107)는 입력 데이터를 엔트로피 부호화한다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.The entropy encoder 107 entropy encodes the input data. Entropy coding may use various coding methods such as, for example, Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).

엔트로피 부호화부(107)는 변환 블록의 계수 정보, 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보, 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다. 변환 블록의 계수들은, 변환 블록 내 서브 블록 단위로, 부호화될 수 있다. The entropy encoder 107 may be configured to perform various operations such as coefficient information, block type information, prediction mode information, split unit information, prediction unit information, transmission unit information, motion vector information, reference frame information, interpolation information of a transform block, filtering information, and the like. Information can be encoded. The coefficients of the transform block may be encoded in units of sub blocks within the transform block.

변환 블록의 계수의 부호화를 위하여, 역스캔 순서로 최초의 0이 아닌 계수의 위치를 알리는 신택스 요소(syntax element)인 Last_sig, 서브블록 내에 0이 아닌 계수가 적어도 하나 이상 있는지를 알리는 플래그인 Coded_sub_blk_flag, 0이 아닌 계수인지를 알리는 플래그인 Sig_coeff_flag, 계수의 절대값이 1 보다 큰지를 알리는 플래그인 Abs_greater1_flag, 계수의 절대값이 2 보다 큰지를 알리는 플래그인 Abs_greater2_flag, 계수의 부호를 나타내는 플래그인 Sign_flag 등의 다양한 신택스 요소들이 부호화될 수 있다. 상기 신택스 요소들만으로 부호화되지 않는 계수의 잔여값은 신택스 요소 remaining_coeff를 통해 부호화될 수 있다. Last_sig, a syntax element that informs the position of the first non-zero coefficient in reverse scan order for coding of coefficients of the transform block, Coded_sub_blk_flag, which is a flag indicating whether there is at least one non-zero coefficient in a subblock, Sig_coeff_flag, a flag that indicates whether the coefficient is non-zero, Abs_greater1_flag, which indicates whether the coefficient is greater than 1, Abs_greater2_flag, which indicates whether the coefficient is greater than 2, and Sign_flag, which indicates the sign of the coefficient. Syntax elements may be encoded. Residual values of coefficients not encoded with only the syntax elements may be encoded through the syntax element remaining_coeff.

역양자화부(108) 및 역변환부(109)에서는 양자화부(106)에서 양자화된 값들을 역양자화하고 변환부(105)에서 변환된 값들을 역변환한다. 역양자화부(108) 및 역변환부(109)에서 생성된 잔차값(Residual)은 예측부(102, 103)에 포함된 움직임 추정부, 움직임 보상부 및 화면 내 예측부(102)를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다. 가산기(110)는, 예측부(102, 103)에서 생성된 예측 블록과, 역변환부(109)를 통해 생성된 잔차 블록을 가산하여 복원 블록을 생성한다.The inverse quantization unit 108 and the inverse transformer 109 inverse quantize the quantized values in the quantization unit 106 and inverse transform the transformed values in the transformer 105. The residual values generated by the inverse quantizer 108 and the inverse transformer 109 are predicted by the motion estimation unit, the motion compensator, and the intra prediction unit 102 included in the predictors 102 and 103. It may be combined with the prediction unit to generate a reconstructed block. The adder 110 generates a reconstructed block by adding the prediction blocks generated by the predictors 102 and 103 and the residual blocks generated by the inverse transform unit 109.

필터부(111)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter) 중 적어도 하나를 포함할 수 있다.The filter unit 111 may include at least one of a deblocking filter, an offset corrector, and an adaptive loop filter (ALF).

디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.The deblocking filter may remove block distortion caused by boundaries between blocks in the reconstructed picture. To determine whether to perform deblocking, it may be determined whether a deblocking filter is applied to the current block based on pixels included in several columns or rows included in the block. When the deblocking filter is applied to the block, a strong filter or a weak filter may be applied according to the required deblocking filtering strength. In addition, in applying the deblocking filter, horizontal filtering and vertical filtering may be performed in parallel when vertical filtering and horizontal filtering are performed.

오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.The offset correction unit may correct the offset with respect to the original image on a pixel-by-pixel basis for the deblocking image. In order to perform offset correction for a specific picture, the pixels included in the image are divided into a predetermined number of areas, and then, an area to be offset is determined, an offset is applied to the corresponding area, or offset considering the edge information of each pixel. You can use this method.

ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 상관없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수도 있다. Adaptive Loop Filtering (ALF) may be performed based on a value obtained by comparing the filtered reconstructed image with the original image. After dividing the pixels included in the image into a predetermined group, one filter to be applied to the group may be determined and filtering may be performed for each group. For information related to whether to apply ALF, a luminance signal may be transmitted for each coding unit (CU), and the shape and filter coefficient of an ALF filter to be applied may vary according to each block. In addition, regardless of the characteristics of the block to be applied, the same type (fixed form) of the ALF filter may be applied.

메모리(112)는 필터부(111)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 화면 간 예측을 수행할 때 예측부(102, 103)에 제공될 수 있다.The memory 112 may store a reconstructed block or picture calculated by the filter unit 111, and the stored reconstructed block or picture may be provided to the predictors 102 and 103 when performing inter prediction.

도 2는 영상 부호화 장치의 예측부의 일 실시예를 도시한 예시도이다.2 is a diagram illustrating an embodiment of a prediction unit of an image encoding apparatus.

현재 블록의 예측 모드가 화면 내 예측 모드인 경우, 화면 내 예측부(201)는 현재 블록의 주변으로부터 참조 화소를 유도하고 참조 화소를 필터링함으로써, 참조 화소를 생성할 수 있다. 참조 화소는 현재 블록 주변의 복원 화소를 이용하여 결정한다. 현재 블록의 주변에 일부 복원된 화소를 이용할 수 없거나 복원된 화소가 없는 경우, 이용 가능한 참조 화소를 이용할 수 없는 영역에 패딩하거나 화소가 가질 수 있는 값의 범위 중 중간 값을 이용하여 패딩할 수 있다. 참조 화소를 모두 유도한 후, AIS(Adaptive Intra Smoothing) 필터를 이용하여 참조 화소를 필터링을 할 수 있다.When the prediction mode of the current block is the intra prediction mode, the intra prediction unit 201 may generate the reference pixel by deriving a reference pixel from the periphery of the current block and filtering the reference pixel. The reference pixel is determined using the reconstructed pixels around the current block. If some restored pixels are not available or no restored pixels are in the vicinity of the current block, the available reference pixels may be padded in an area where the available reference pixels are not available or padded using an intermediate value of a range of values that the pixels may have. . After deriving all of the reference pixels, the reference pixels may be filtered using an adaptive intra smoothing (AIS) filter.

화면 내 예측 모드 탐색부(202)는 M 개의 화면 내 예측 모드 중 하나의 모드를 결정할 수 있다. 여기서 M은 화면 내 예측 모드의 총 개수를 나타낸다. 화면 내 예측 모드는 방향성 예측 모드와 비방향성 예측 모드를 포함한다.The intra prediction mode search unit 202 may determine one of the M intra prediction modes. M represents the total number of intra prediction modes. The intra prediction mode includes a directional prediction mode and a non-directional prediction mode.

결정된 예측 모드와 필터링된 참조 화소를 이용하여 예측 블록이 생성된다. 화면 내 예측 모드 별로 RD-Cost를 비교하여 비용이 가장 낮은 하나의 화면 내 예측 모드를 선택할 수 있다. The prediction block is generated using the determined prediction mode and the filtered reference pixel. By comparing the RD-Cost for each intra prediction mode, one of the lowest cost prediction modes may be selected.

화면 간 예측부(203)는 움직임 정보를 유도하는 방법에 따라 Merge 후보 탐색부(204)와 AMVP후보 탐색부(206)로 나눌 수 있다. Merger 후보 탐색부(204)는 현재 블록 주변에 복원된 블록 중 화면 간 예측이 사용된 참조 블록을 Merge 후보로 설정한다. Merge 후보는 부호화/복호화 장치에서 동일한 방법으로 유도하고, 동일한 개수를 사용한다. Merge 후보 개수는 부호화 장치에서 복호화 장치로 전송하거나, 미리 약속된 개수를 사용한다. 현재 블록 주변에 복원된 참조 블록으로부터 약속된 개수만큼의 Megre 후보를 유도하지 못한 경우, 현재 픽쳐가 아닌 다른 픽쳐에서 현재 블록과 동일한 위치에 존재하는 블록의 움직임 정보를 Merge 후보로서 이용할 수 있다. 혹은 현재 픽쳐를 기준으로 과거 방향의 움직임 정보와 미래 방향의 움직임 정보를 조합해서 부족한 Merge 후보로 유도할 수 있다. 또는 다른 참조 픽쳐의 동일한 위치의 블록을 Merge 후보로 설정할 수 있다.The inter prediction unit 203 may be divided into a merge candidate search unit 204 and an AMVP candidate search unit 206 according to a method of deriving motion information. The Merger candidate searcher 204 sets a reference block in which inter prediction is used among blocks reconstructed around the current block as a merge candidate. Merge candidates are derived in the same manner in the encoding / decoding apparatus and use the same number. The number of merge candidates is transmitted from the encoding apparatus to the decoding apparatus or uses a predetermined number. When a predetermined number of Megre candidates are not derived from reference blocks reconstructed around the current block, motion information of blocks existing at the same position as the current block in pictures other than the current picture may be used as merge candidates. Alternatively, the motion information of the past direction and the motion information of the future direction may be combined with respect to the current picture to derive the insufficient merge candidate. Alternatively, a block at the same position of another reference picture may be set as a merge candidate.

AMVP 후보 탐색부(206)는 현재 블록의 움직임 정보를 움직임 추정부(207)에서 결정한다. 움직임 추정부(207)는 현재 블록과 가장 유사한 예측 블록을 복원된 픽쳐들로부터 찾는다.The AMVP candidate searcher 206 determines the motion information of the current block by the motion estimation unit 207. The motion estimator 207 finds the predicted block most similar to the current block from the reconstructed pictures.

화면 간 예측이 수행되는 경우, Merge 후보 탐색부(204)와 AMVP 후보 탐색부(206) 중 하나를 이용하여 현재 블록의 움직임 정보를 결정하고, 움직임 보상(208)는 결정된 움직임 정보에 기초하여 예측 블록을 생성한다.When inter prediction is performed, motion information of the current block is determined using one of the merge candidate searcher 204 and the AMVP candidate searcher 206, and the motion compensation 208 predicts the motion based on the determined motion information. Create a block.

도 3은 영상 부호화 장치에서 부호화 정보를 부호화하는 일 실시예를 설명하기 위한 도면이다.3 is a diagram for describing an embodiment of encoding encoding information by a video encoding apparatus.

S301 단계에서는 SKIP 모드의 동작 정보를 부호화한다. 스킵 모드에서의 현재 블록의 예측은 Merge 모드를 이용하고, 복호화 장치에서는 현재 블록의 예측 블록을 복원 블록으로 사용한다. 화면 간 예측의 S302 단계에서는 SKIP 모드의 동작 여부를 판단한다. S302 단계에서 SKIP 모드가 동작한다면(Yes), S307 단계에서 SKIP 모드를 위한 MERGE 후보 색인 정보를 부호화한 후, 본 흐름도를 종료한다. S302 단계에서 SKIP 모드가 동작하지 않는다면(No), S303 단계에서 예측 모드를 부호화한다. S304 단계에서는 예측 모드가 화면 간 예측인지 화면 내 예측 모드인지를 판단한다. S304 단계에서 예측 모드가 화면 간 예측 모드였다면(Yes), S305 단계에서 MERGE 모드의 동작 정보를 부호화한다. S306 단계에서는 MERGE 모드의 동작 여부를 판단한다. S306 단계에서 MERGE 모드가 동작한다면(Yes), S307 단계로 넘어가서 MERGE 모드를 위한 MERGE 후보 색인 정보를 부호화한 후, 본 흐름도를 종료한다. S306 단계에서 MERGE 모드가 동작하지 않는다면(No), S308 단계에서 예측 방향을 부호화한다. 여기서 예측 방향은 과거 방향, 미래 방향, 양방향 중 하나일 수 있다. S309 단계에서는 예측 방향이 미래 방향인지 아닌지를 판단한다. S309 단계에서 예측 방향이 미래 방향이 아니었다면(Yes), S310 단계에서 과거 방향의 참조 픽쳐 색인 정보를 부호화한다. S311 단계에서는 과거 방향의 MVD(Motion Vector Difference) 정보를 부호화한다. S312 단계에서는 과거 방향의 MVP(Motion Vector Predictor) 정보를 부호화한다. S309 단계에서 예측 방향이 미래 방향 혹은 양방향이거나(No), S312 단계가 끝나면 S313 단계에서 예측 방향이 과거 방향인지 아닌지를 판단한다. S313 단계에서 예측 방향이 과거 방향이 아니었다면(Yes), S314 단계에서 미래 방향 참조 픽쳐 색인 정보를 부호화한다. S315 단계에서는 미래 방향의 MVD 정보를 부호화한다. S316 단계에서는 미래 방향의 MVP 정보를 부호화한 후, 본 흐름도를 종료한다. S305 단계 내지 S316 단계에서 수행되는 정보의 부호화는 화면 간 예측부 모드 정보 부호화로 지칭될 수 있다.In step S301, operation information of the SKIP mode is encoded. The prediction of the current block in the skip mode uses the merge mode, and the decoding apparatus uses the prediction block of the current block as a reconstruction block. In step S302 of inter prediction, it is determined whether the SKIP mode is operated. If the SKIP mode operates in step S302 (Yes), after the MERGE candidate index information for the SKIP mode is encoded in step S307, the flowchart ends. If the SKIP mode does not operate in step S302 (No), the prediction mode is encoded in step S303. In step S304, it is determined whether the prediction mode is inter prediction or intra prediction. If the prediction mode is the inter prediction mode in step S304 (Yes), operation information of the MERGE mode is encoded in step S305. In step S306 it is determined whether the MERGE mode operation. If the MERGE mode operates in step S306 (Yes), the flow proceeds to step S307 after encoding the MERGE candidate index information for the MERGE mode, and ends the flowchart. If the MERGE mode does not operate in step S306 (No), the prediction direction is encoded in step S308. The prediction direction may be one of a past direction, a future direction, and a bidirectional direction. In step S309 it is determined whether the prediction direction is the future direction. If the prediction direction is not the future direction in step S309 (Yes), the reference picture index information of the past direction is encoded in step S310. In step S311, MVD (Motion Vector Difference) information of the past direction is encoded. In step S312, MVP (Motion Vector Predictor) information of the past direction is encoded. In step S309, if the prediction direction is a future direction or bidirectional (No), or after step S312, it is determined in step S313 whether the prediction direction is a past direction. If the prediction direction is not the past direction in step S313 (Yes), the future direction reference picture index information is encoded in step S314. In step S315, MVD information of a future direction is encoded. In step S316, after encoding the MVP information of the future direction, the flowchart ends. The encoding of the information performed in steps S305 to S316 may be referred to as inter picture prediction unit mode information encoding.

S304 단계에서 예측 모드가 화면 내 예측 모드였다면(No), S317 단계에서 MPM(Most Probable Mode) 모드 동작 정보를 부호화한다. MPM 모드란, 현재 블록 주변의 복원된 화면 내 예측 모드 등을 이용하여 MPM 후보 화면 내 예측 모드를 구성한 후, 영상 부호화 장치에서 결정된 현재 블록의 최적 화면 내 예측 모드 정보가 MPM 후보 화면 내 예측 모드 내에 존재한다면, MPM 후보 화면 내 예측 모드 색인 정보를 전송하는 방법을 말한다. S318 단계에서 MPM 모드의 동작 여부를 판단한다. MPM 모드는 현재 블록 주변의 복원된 블록의 예측 모드들 중 현재 블록의 예측 모드와 동일한 모드가 있는 경우, 색인 정보를 부호화하는 모드이다. S318 단계에서 MPM 모드 동작이 참이라면(Yes), S319 단계에서 MPM 후보 화면 내 예측 모드의 색인 정보를 부호화한다. S318 단계에서 MPM 모드 동작이 거짓이라면(No), S320 단계에서 MPM 후보 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드들 중 Luma의 최적 화면 내 예측 모드 정보를 부호화한다. If the prediction mode is the intra prediction mode at step S304 (No), at operation S317, operation information of the Most Probable Mode (MPM) mode is encoded. In the MPM mode, the prediction mode in the MPM candidate screen is configured by using the reconstructed intra prediction mode around the current block, and then the information of the optimal intra prediction mode of the current block determined by the image encoding apparatus is in the prediction mode in the MPM candidate screen. If present, it means a method of transmitting the prediction mode index information in the MPM candidate screen. In operation S318, it is determined whether the MPM mode is operated. The MPM mode is a mode for encoding index information when there is a same mode as that of the current block among prediction modes of a reconstructed block around the current block. If the MPM mode operation is true (Yes) in step S318, index information of the prediction mode in the MPM candidate screen is encoded in step S319. If the operation of the MPM mode is false in step S318 (No), in step S320, luma optimal intra prediction mode information is encoded among luma prediction modes other than the prediction mode in the MPM candidate screen.

S319, S320 단계가 종료된 후, Chroma의 최적 화면 내 예측 모드 정보를 부호화한 후, 본 흐름도를 종료할 수 있다. 여기서 S308 단계 내지 S316 단계를 수행하는 모듈을 움직임 정보 부호화부라고 칭할 수 있다. 또한, S317 단계 내지 S320 단계를 수행하는 모듈을 루마 화면 내 예측 모드 부호화부라고 칭할 수 있다.After the steps S319 and S320 are finished, after encoding the optimal intra prediction mode information of Chroma, the flowchart may be terminated. In this case, the module performing the steps S308 to S316 may be referred to as a motion information encoder. In addition, the module performing the steps S317 to S320 may be referred to as a luma picture prediction mode encoder.

도 4는 영상 복호화 장치(400)의 구성을 나타낸 예시도이다. 4 is a diagram illustrating a configuration of an image decoding apparatus 400.

영상 복호화 장치(400)는 엔트로피 복호화부(401), 역양자화부(402), 역변환부(403), 가산부(404), 필터부(405), 메모리(406) 및 예측부(407, 408)를 포함할 수 있다.The image decoding apparatus 400 includes an entropy decoder 401, an inverse quantizer 402, an inverse transformer 403, an adder 404, a filter 405, a memory 406, and a predictor 407, 408. ) May be included.

영상 부호화 장치(100)에 의해 생성된 영상 비트스트림이 영상 복호화 장치(200)로 입력되는 경우, 입력된 비트스트림은 영상 부호화 장치(100)에서 수행된 과정과 반대의 과정에 따라 복호될 수 있다.When the image bitstream generated by the image encoding apparatus 100 is input to the image decoding apparatus 200, the input bitstream may be decoded according to a process opposite to that performed by the image encoding apparatus 100. .

엔트로피 복호화부(401)는 영상 부호화 장치(100)의 엔트로피 부호화부(407)에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화기에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다. 엔트로피 복호화부(401)는, 전술한 바와 같은 신택스 요소들, 즉 Last_sig, Coded_sub_blk_flag, Sig_coeff_flag, Abs_greater1_flag, Abs_greater2_flag, Sign_flag 및 remaining_coeff를 복호화할 수 있다. 또한, 엔트로피 복호화부(401)는 영상 부호화 장치(100)에서 수행된 화면 내 예측 및 화면 간 예측에 관련된 정보를 복호화할 수 있다.The entropy decoder 401 may perform entropy decoding in a procedure opposite to that of the entropy encoding unit 407 of the image encoding apparatus 100. For example, various methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied to the method performed by the image encoder. The entropy decoder 401 may decode the syntax elements described above, that is, Last_sig, Coded_sub_blk_flag, Sig_coeff_flag, Abs_greater1_flag, Abs_greater2_flag, Sign_flag, and remaining_coeff. The entropy decoder 401 may decode information related to intra prediction and inter prediction performed by the image encoding apparatus 100.

역양자화부(402)는 양자화된 변환 블록에 역양자화를 수행하여 변환 블록을 생성한다. 도 1의 역 양자화부(108)와 실질적으로 동일하게 동작한다.The inverse quantization unit 402 generates a transform block by performing inverse quantization on the quantized transform block. It operates substantially the same as the inverse quantizer 108 of FIG.

역 변환부(403)는 변환 블록에 역변환을 수행하여 잔차 블록을 생성한다. 이때, 변환 방법은 예측 방법(화면 간 예측 또는 화면 내 예측), 블록의 크기 및/또는 형태, 화면 내 예측 모드 등에 관한 정보를 기반으로 결정될 수 있다. 역변환부(403)는 도 1의 역변환부(109)와 실질적으로 동일하게 동작한다. The inverse transform unit 403 performs inverse transform on the transform block to generate a residual block. In this case, the conversion method may be determined based on information on a prediction method (inter prediction or intra prediction), the size and / or shape of a block, an intra prediction mode, and the like. The inverse transform unit 403 operates substantially the same as the inverse transform unit 109 of FIG. 1.

가산부(404)는, 화면 내 예측부(407) 혹은 화면 간 예측부(408)에서 생성된 예측 블록과 역변환부(403)를 통해 생성된 잔차 블록를 가산하여 복원 블록을 생성한다. 가산부(404)는 도 1의 가산부(110)과 실질적으로 동일하게 동작한다.The adder 404 generates a reconstructed block by adding the prediction block generated by the intra prediction unit 407 or the inter prediction unit 408 and the residual block generated by the inverse transform unit 403. The adder 404 operates substantially the same as the adder 110 of FIG. 1.

필터부(405)는, 복원된 블록들에 발생하는 여러 종류의 노이즈를 감소시킨다.The filter unit 405 reduces various kinds of noise generated in the restored blocks.

필터부(405)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.The filter unit 405 may include a deblocking filter, an offset correction unit, and an ALF.

영상 부호화 장치(100)로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 영상 복호화 장치(400)의 디블록킹 필터에서는 영상 부호화 장치(100)에서 제공된 디블록킹 필터 관련 정보를 제공받고 영상 복호화 장치(400)에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. When the deblocking filter is applied and information about whether the deblocking filter is applied to the corresponding block or picture, the image encoding apparatus 100 may receive information about whether a strong filter or a weak filter is applied. In the deblocking filter of the image decoding apparatus 400, the deblocking filter related information provided by the image encoding apparatus 100 may be provided, and the image decoding apparatus 400 may perform deblocking filtering on the corresponding block.

오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.The offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to the image during encoding.

ALF는 영상 부호화 장치(100)로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라미터 셋에 포함되어 제공될 수 있다. 필터부(205)는 도 1의 필터부(111)와 실질적으로 동일하게 동작한다.The ALF may be applied to a coding unit based on ALF application information, ALF coefficient information, and the like provided from the image encoding apparatus 100. Such ALF information may be provided included in a specific parameter set. The filter unit 205 operates substantially the same as the filter unit 111 of FIG. 1.

메모리(406)는 가산부(404)에 의해 생성된 복원 블록을 저장한다. 도 1의 메모리(112)와 실질적으로 동일하게 동작한다.The memory 406 stores the reconstruction block generated by the adder 404. It operates substantially the same as the memory 112 of FIG.

도 5는 영상 복호화 장치의 예측부의 구성을 도시한 예시도이다.5 is an exemplary diagram illustrating a configuration of a prediction unit of an image decoding device.

화면 내 예측부(501)는 참조 화소를 생성하고, 화면 내 예측 모드 결정부(502)는 시그널링된 정보에 기초하여 화면 내 예측 모드를 결정할 수 있다. 생성된 참조 화소와 화면 내 예측 모드에 기초하여 예측 블록이 생성된다. 영상 복호화 장치는 영상 부호화 장치가 수행하는 예측 모드 결정 과정은 수행하지 않는다. The intra prediction unit 501 generates a reference pixel, and the intra prediction mode determiner 502 may determine the intra prediction mode based on the signaled information. A prediction block is generated based on the generated reference pixel and the intra prediction mode. The image decoding apparatus does not perform the prediction mode determination process performed by the image encoding apparatus.

화면 간 예측부(503)는 도 2의 최적의 예측 모드를 결정하는 과정만 수행하지 않을 뿐, 시그널링된 정보에 기초하여 예측 모드를 복호화하고, 이에 기초하여 예측 블록을 생성하는 과정은 영상 부호화 장치의 화면 간 예측부와 실질적으로 동일하다.The inter prediction unit 503 does not only perform the process of determining the optimal prediction mode of FIG. 2, but decodes the prediction mode based on the signaled information, and generates a prediction block based on the signal encoding apparatus. Is substantially the same as the inter prediction unit.

도 6은 영상 복호화 장치에서 부호화 정보를 복호화하는 일 실시예를 설명하기 위한 도면이다.FIG. 6 is a diagram for describing an embodiment of decoding encoding information by a video decoding apparatus. FIG.

S601 단계에서는 SKIP 모드의 동작 정보를 복호화한다. S602 단계에서는 SKIP 모드의 동작 여부를 판단한다. S602 단계에서 SKIP 모드가 동작한다면(Yes), S607 단계에서 SKIP 모드를 위한 MERGE 후보 색인 정보를 복호화한 후, 본 흐름도를 종료한다. S602 단계에서 SKIP 모드가 동작하지 않는다면(No), S603 단계에서 예측 모드를 복호화한다. S604 단계에서는 예측 모드가 화면 간 예측인지 화면 내 예측 모드인지를 판단한다. S604 단계에서 예측 모드가 화면 간 예측 모드였다면(Yes), S605 단계에서 MERGE 모드의 동작 정보를 복호화한다. S606 단계에서는 MERGE 모드의 동작 여부를 판단한다. S606 단계에서 MERGE 모드가 동작한다면(Yes), S607 단계로 넘어가서 MERGE 모드를 위한 MERGE 후보 색인 정보를 복호화한 후, 본 흐름도를 종료한다. S606 단계에서 MERGE 모드가 동작하지 않는다면(No), S608 단계에서 예측 방향을 복호화한다. 여기서 예측 방향은 과거 방향, 미래 방향, 양방향 중 하나일 수 있다. S609 단계에서는 예측 방향이 미래 방향인지 아닌지를 판단한다. S609 단계에서 예측 방향이 미래 방향이 아니었다면(Yes), S610 단계에서 과거 방향의 참조 픽쳐 색인 정보를 복호화한다. S611 단계에서는 과거 방향의 MVD(Motion Vector Difference) 정보를 복호화한다. S612 단계에서는 과거 방향의 MVP(Motion Vector Predictor) 정보를 복호화한다. S609 단계에서 예측 방향이 미래 방향 혹은 양방향이거나(No), S612 단계가 끝나면 S613 단계에서 예측 방향이 과거 방향인지 아닌지를 판단한다. S613 단계에서 예측 방향이 과거 방향이 아니었다면(Yes), S614 단계에서 미래 방향 참조 픽쳐 색인 정보를 복호화한다. S615 단계에서는 미래 방향의 MVD 정보를 복호화한다. S616 단계에서는 미래 방향의 MVP 정보를 복호화한 후, 본 흐름도를 종료한다. S604 단계에서 예측 모드가 화면 내 예측 모드였다면(No), S617 단계에서 MPM 모드 동작 정보를 복호화한다. S618 단계에서 MPM 모드의 동작 여부를 판단한다. S618 단계에서 MPM 모드 동작이 참이라면(Yes), S619 단계에서 MPM 후보 화면 내 예측 모드의 색인 정보를 복호화한다. S618 단계에서 MPM 모드 동작이 거짓이라면(No), S620 단계에서 MPM 후보 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드들 중 Luma의 최적 화면 내 예측 모드 정보를 복호화한다. S619, S620 단계가 종료된 후, Chroma의 최적 화면 내 예측 모드 정보를 복호화한 후, 본 흐름도를 종료할 수 있다.In operation S601, operation information of the SKIP mode is decoded. In step S602 it is determined whether the SKIP mode operation. If the SKIP mode operates in step S602 (Yes), after decoding the MERGE candidate index information for the SKIP mode in step S607, the flowchart ends. If the SKIP mode does not operate in step S602 (No), the prediction mode is decoded in step S603. In step S604, it is determined whether the prediction mode is inter prediction or intra prediction. If the prediction mode is the inter prediction mode in step S604 (Yes), operation information of the MERGE mode is decoded in step S605. In step S606 it is determined whether the MERGE mode operation. If the MERGE mode operates in step S606 (Yes), the flow proceeds to step S607 after decoding the MERGE candidate index information for the MERGE mode, and ends the flowchart. If the MERGE mode does not operate in step S606 (No), the prediction direction is decoded in step S608. The prediction direction may be one of a past direction, a future direction, and a bidirectional direction. In step S609, it is determined whether the prediction direction is a future direction. If the prediction direction is not the future direction in step S609 (Yes), the reference picture index information of the past direction is decoded in step S610. In step S611, MVD (Motion Vector Difference) information in the past direction is decoded. In operation S612, the motion vector predictor (MVP) information of the past direction is decoded. In step S609, if the prediction direction is a future direction or bidirectional (No), and after step S612, it is determined in step S613 whether the prediction direction is the past direction. If the prediction direction is not the past direction in step S613 (Yes), the future direction reference picture index information is decoded in step S614. In step S615, the MVD information of the future direction is decoded. In step S616, after decoding the MVP information of the future direction, the flowchart ends. If the prediction mode is the intra prediction mode at step S604 (No), the MPM mode operation information is decoded at step S617. In operation S618, it is determined whether the MPM mode is operated. If the MPM mode operation is true in step S618 (Yes), index information of the prediction mode in the MPM candidate screen is decoded in step S619. If the MPM mode operation is false at step S618 (No), at step S620, the luma optimal intra prediction mode information of the luma is decoded among the prediction modes other than the prediction mode within the MPM candidate screen. After the steps S619 and S620 are finished, after decoding the optimal intra prediction mode information of Chroma, the flowchart may be terminated.

(실시예1)Example 1

도 7은 복수의 참조 화소 라인을 이용한 화면 내 예측의 일 실시예를 설명하기 위한 도면이다.FIG. 7 illustrates an example of intra prediction using a plurality of reference pixel lines.

도 7에 도시된 예에서, 현재 부호화 대상 블록은 4x4 크기이며, 화면 내 예측 모드는 우상단 대각 방향 모드이다. In the example shown in FIG. 7, the current encoding target block is 4x4 in size, and the intra prediction mode is the right top diagonal direction mode.

도 8은 복수의 참조 화소 라인을 이용한 화면 내 예측의 다른 실시예를 설명하기 위한 도면이다.8 is a diagram for describing another embodiment of intra prediction using a plurality of reference pixel lines.

도 9는 하나 이상의 참조 화소 라인을 이용하는 영상 부호화 장치의 화면 내 예측부를 도시한 예시도이다.9 is an exemplary diagram illustrating an intra prediction unit of an image encoding apparatus using one or more reference pixel lines.

도 7과 도 8을 참조하여 도 9의 화면 내 예측부를 이하에서 설명한다. 현재 블록의 예측 모드로 화면 내 예측이 선택된 경우, 참조 화소 생성부(901)에서 각 참조 화소 라인 별로 참조 화소 생성 및 필터링을 수행한다. 참조 화소 생성부(901)는 도 2의 화면 내 예측부(201)와 동일한 과정을 수행할 수 있다.The intra prediction unit of FIG. 9 will be described below with reference to FIGS. 7 and 8. When intra prediction is selected as the prediction mode of the current block, the reference pixel generator 901 generates and filters reference pixels for each reference pixel line. The reference pixel generator 901 may perform the same process as the intra prediction unit 201 of FIG. 2.

그 후, 가상의 참조 화소 생성 결정부(902)에서 가상의 참조 화소 라인 사용 여부와 가상 참조 화소 라인 생성 위치를 결정한다. 가상 참조 화소 라인은 예측 방향에 따라 정수 참조 화소 라인들 사이에 가상 참조 화소 라인을 생성하여 참조 화소로 사용한다. 가상 참조 화소 라인은 정수 위치 참조 화소 라인들 사이에 1개 이상을 생성할 수도 있다. 이때 실수 위치는 2개의 정수 위치 참조 화소 라인 거리를 등분한 위치일 수도 있고, 최적이라고 판단된 정수 위치 참조 화소 라인에 가까운 위치일 수도 있다. 가상 참조 화소 라인 정보는 부호화/복호화 장치에서 기 설정된 값으로 동일하게 사용하거나 상위 헤더에서 전송할 수 있다. 상위 헤더란 비디오 파라미터단, 시퀀스 파라미터단, 픽쳐 파라미터단, 슬라이스단 등 블록 정보를 포함하는 상위 헤더 정보를 의미한다. 혹은 블록마다 생성할 수 있는 가상 참조 화소 라인 정보를 전송할 수도 있다.Thereafter, the virtual reference pixel generation determiner 902 determines whether the virtual reference pixel line is used and the virtual reference pixel line generation position. The virtual reference pixel line generates a virtual reference pixel line between integer reference pixel lines according to a prediction direction, and uses the same as the reference pixel. The virtual reference pixel lines may generate one or more between integer position reference pixel lines. In this case, the real position may be a position obtained by dividing the distance of two integer position reference pixel lines, or may be a position close to the integer position reference pixel line determined to be optimal. The virtual reference pixel line information may be the same as a preset value in the encoding / decoding apparatus or transmitted in an upper header. The upper header refers to upper header information including block information such as a video parameter stage, a sequence parameter stage, a picture parameter stage, and a slice stage. Alternatively, virtual reference pixel line information that may be generated for each block may be transmitted.

도 8에서 참조 화소 라인 정보 0은 첫 번째 라인, 참조 화소 라인 정보 1은 두 번째 라인, 참조 화소 라인 정보 2는 세 번째 라인, 참조 화소 라인 정보 3은 네 번째 라인을 의미할 수 있다. 가상 참조 화소 라인을 생성하는 방법은 세 번째 라인과 네 번째 라인 사이에 실수 참조 화소 라인인 3.5 라인 생성하는 방법을 예로 설명한다. 예측 방향이 도 8에 도시된 바와 같이, 참조 화소 E와 F를 지나는 경우, E와 F 화소 값의 평균 값을 3.5 라인의 G 화소 값으로 설정한다.In FIG. 8, reference pixel line information 0 may refer to a first line, reference pixel line information 1 refers to a second line, reference pixel line information 2 refers to a third line, and reference pixel line information 3 refers to a fourth line. A method of generating a virtual reference pixel line will be described as an example of a method of generating 3.5 lines, which are real reference pixel lines, between a third line and a fourth line. As shown in FIG. 8, when the reference pixels pass through the reference pixels E and F, the average value of the E and F pixel values is set to the G pixel values of 3.5 lines.

참조 화소 라인 조합 결정부(903)에서는 참조 화소 라인 조합 K를 선택한다. 참조 화소 라인 조합은 1개 이상의 참조 화소 라인 정보를 하나의 세트로 구성한 조합이다. 도 7에서 참조 화소 라인 정보 0은 첫 번째 라인, 참조 화소 라인 정보 1은 두 번째 라인, 참조 화소 라인 정보 2는 세 번째 라인, 참조 화소 라인 정보 3은 네 번째 라인을 의미한다. K는 참조 화소 라인 조합의 색인이며, 각 색인은 1개 이상의 참조 화소 라인의 조합을 지시할 수 있다. K 개의 참조 화소 라인 조합에 관한 정보는 부호화/복호화 장치에서 동일하게 설정될 수도 있고, 상위 헤더에서 전송될 수도 있다. 혹은 색인 K에 해당하는 참조 화소 라인 정보를 블록마다 직접 전송할 수도 있다. 예를 들어, K가 0이면 참조 화소 라인은 첫 번째 라인만 이용하고, K가 1이면 참조 화소 라인은 첫 번째 라인과 두 번째 라인을 이용하고, K가 2이면 참조 화소 라인은 첫 번째 라인과 세 번째 라인을 이용할 수 있게 설정할 수 있다. 색인 K가 지시하는 조합은 참조 화소 라인뿐만 아니라 가상 참조 화소 라인도 포함할 수 있다.The reference pixel line combination determination unit 903 selects the reference pixel line combination K. FIG. The reference pixel line combination is a combination of one or more reference pixel line information as one set. In FIG. 7, reference pixel line information 0 refers to a first line, reference pixel line information 1 refers to a second line, reference pixel line information 2 refers to a third line, and reference pixel line information 3 refers to a fourth line. K is an index of a reference pixel line combination, and each index may indicate a combination of one or more reference pixel lines. The information about the K reference pixel line combinations may be set identically in the encoding / decoding apparatus or transmitted in the upper header. Alternatively, reference pixel line information corresponding to the index K may be directly transmitted for each block. For example, if K is 0, the reference pixel line uses only the first line; if K is 1, the reference pixel line uses the first and second lines; if K is 2, the reference pixel line The third line can be made available. The combination indicated by the index K may include not only the reference pixel line but also the virtual reference pixel line.

이하, 도 7을 참조하여 예측 블록 생성 방법을 설명한다. 본 예시에서는 K에 의해 4개의 참조 화소 라인을 사용한다. 예측 블록 내 A 화소, B 화소, C 화소, D 화소의 화소값을 구하기 위해 참조 화소 라인 4개를 이용할 수 있다. A 라인, B 라인, C 라인, D 라인은 각각 A 화소, B 화소, C 화소, D 화소의 예측 방향을 나타낸다. 예컨대, A 라인, B 라인, C 라인, D 라인이 지나는 참조 화소값들의 평균을 각 화소의 예측값으로 사용할 수 있다. 혹은, 각 참조 화소 라인 별로 가중치를 적용하여 화소의 예측값으로 사용할 수 있다. 가중치를 적용하는 방법은 예컨대, 수학식 1과 같다.Hereinafter, a prediction block generation method will be described with reference to FIG. 7. In this example, four reference pixel lines are used by K. In FIG. Four reference pixel lines may be used to obtain pixel values of A, B, C, and D pixels in the prediction block. A line, B line, C line, and D line indicate the prediction directions of A pixel, B pixel, C pixel, and D pixel, respectively. For example, an average of reference pixel values that pass through the A, B, C, and D lines may be used as the prediction value of each pixel. Alternatively, a weight may be applied to each reference pixel line and used as a prediction value of the pixel. The method of applying the weight is as shown in Equation 1, for example.

Figure pat00001
Figure pat00001

수학식 1에서 P는 가중치가 적용된 예측 화소값을 의미하고, P1과 P2는 이용 가능한 참조 화소를 의미한다. 또한, α, β는 가중치 정보이다. 예를 들어, 현재 블록과 가까운 참조 화소 라인일수록 높은 가중치를 적용할 수 있다. 참조 화소 라인 별로 적용되는 가중치는 부호화/복호화 장치에서 기 설정된 값으로 동일하거나 상위 헤더에서 전송될 수 있다. 혹은 블록마다 적용되는 가중치 정보가 전송될 수도 있다.In Equation 1, P denotes a predicted pixel value to which a weight is applied, and P1 and P2 denote available reference pixels. Α and β are weight information. For example, a higher weight may be applied to a reference pixel line closer to the current block. The weight applied to each reference pixel line may be a predetermined value in the encoding / decoding apparatus or may be transmitted in the same or higher header. Alternatively, weight information applied to each block may be transmitted.

화면 내 예측 모드 결정부(904)는 도 2의 화면 내 예측 모드 탐색부(202)와 동일한 과정을 수행한다. 영상 부호화 장치의 화면 내 예측부(900)에서의 모든 과정은 RD-Cost를 이용하여 비용을 비교한 후, 하나의 화면 내 예측 모드, 예컨대, 최적의 화면 내 예측 모드의 예측 정보를 선택한다.The intra prediction mode determiner 904 performs the same process as the intra prediction mode search unit 202 of FIG. 2. All processes in the intra prediction unit 900 of the image encoding apparatus compare costs using RD-Cost, and then select prediction information of one intra prediction mode, for example, an optimal intra prediction mode.

도 10은 하나 이상의 참조 화소 라인을 이용하는 영상 복호화 장치의 화면 내 예측부를 도시한 예시도이다.10 is an exemplary diagram illustrating an intra prediction unit of an image decoding apparatus using one or more reference pixel lines.

현재 예측 모드로 화면 내 예측이 선택된 경우, 참조 화소 생성부(1001)는 참조 화소 생성 및 필터링을 수행할 수 있다. 가상 참조 화소 생성 결정부(1002)는 부호화 장치로부터 전송된 가상 참조 화소 라인을 복원하고, 참조 화소 라인 조합 결정부(1003)는 조합 색인 K를 복원할 수 있다. 화면 내 예측 모드 결정부(1004)는 화면 내 예측 모드를 복원하고, 복원된 하나 이상의 참조 화소 라인을 이용하여 예측 블록을 생성할 수 있다.When intra prediction is selected as the current prediction mode, the reference pixel generator 1001 may generate and filter the reference pixels. The virtual reference pixel generation determiner 1002 may restore the virtual reference pixel lines transmitted from the encoding apparatus, and the reference pixel line combination determiner 1003 may restore the combination index K. FIG. The intra prediction mode determiner 1004 may reconstruct the intra prediction mode and generate a prediction block using the reconstructed one or more reference pixel lines.

도 11은 본 발명의 일 실시예에 따라 예측 모드 정보를 부호화하는 방법을 설명하기 위한 도면이다.11 is a diagram for describing a method of encoding prediction mode information according to an embodiment of the present invention.

도 11은 도 3을 참조하여 설명한 실시예에서, 가상 참조 화소 라인 정보 부호화(S1105) 및 참조 화소 라인 조합 부호화(S1106)를 추가한 것이다. S1105 및 S1106을 제외한 과정은 도 3의 실시예와 전부 동일하다. FIG. 11 illustrates the addition of the virtual reference pixel line information encoding S1105 and the reference pixel line combination encoding S1106 in the embodiment described with reference to FIG. 3. The procedure except for S1105 and S1106 is the same as in the embodiment of FIG. 3.

도 12는 본 발명의 일 실시예에 따라 예측 모드 정보를 복호화하는 방법을 설명하기 위한 도면이다.12 is a diagram for describing a method of decoding prediction mode information according to an embodiment of the present invention.

도 12는 도 6을 참조하여 설명한 실시예에서, 가상 참조 화소 라인 정보 복호화(S1205) 및 참조 화소 라인 조합 복호화(S1206)를 추가한 것이다. S1205 및 S1406을 제외한 과정은 도 6의 실시예와 전부 동일하다.FIG. 12 illustrates the addition of the virtual reference pixel line information decoding S1205 and the reference pixel line combination decoding S1206 in the embodiment described with reference to FIG. 6. The procedure except for S1205 and S1406 is the same as in the embodiment of FIG. 6.

(실시예 2)(Example 2)

도 13은 본 발명의 다른 실시예에 따른 영상 부호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.FIG. 13 is a diagram for describing an intra prediction unit of a video encoding apparatus according to another embodiment. FIG.

현재 블록의 예측 모드로 화면 내 예측이 선택된 경우, 화면 내 예측 모드 전송 여부에 따라 예측 블록을 생성하는 방법이 달라진다. 화면 내 예측 정보는 화면 내 예측 모드를 부호화 장치에서 복호화 장치로 전송할지 여부를 나타내는 정보일 수 있다.When intra prediction is selected as the prediction mode of the current block, a method of generating a prediction block depends on whether the intra prediction mode is transmitted. The intra prediction information may be information indicating whether the intra prediction mode is transmitted from the encoding apparatus to the decoding apparatus.

화면 내 예측 모드를 전송하는 경우, 모드 부호화부(1301)가 선택되고, 이후, 참조 화소 생성부(1303), 가상 참조 화소 생성 결정부(1304), 참조 화소 라인 조합 결정부(1305) 및 화면 내 예측 모드 결정부(1306)를 거쳐 예측 블록이 생성될 수 있다. 참조 화소 생성부(1303), 가상 참조 화소 생성 결정부(1304), 참조 화소 라인 조합 결정부(1305) 및 화면 내 예측 모드 결정부(1306)의 각각은 도 9의 참조 화소 생성부(901), 가상 참조 화소 생성 결정부(902), 참조 화소 라인 조합 결정부(903) 및 화면 내 예측 모드 결정부(904)의 각각에 대응될 수 있다.When the intra prediction mode is transmitted, the mode encoder 1301 is selected, and then the reference pixel generator 1303, the virtual reference pixel generation determiner 1304, the reference pixel line combination determiner 1305, and the screen are displayed. The prediction block may be generated through the prediction mode determiner 1306. Each of the reference pixel generator 1303, the virtual reference pixel generation determiner 1304, the reference pixel line combination determiner 1305, and the intra prediction mode determiner 1306 may be the reference pixel generator 901 of FIG. 9. The virtual reference pixel generation determiner 902, the reference pixel line combination determiner 903, and the intra prediction mode determiner 904 may correspond to each other.

화면 내 예측 모드를 전송하지 않는 경우, DIMD(Decoder-side Intra prediction mode derivation) 부호화부(1302)가 선택이 되고, 이후, 부호화 장치와 복호화 장치에서 동일한 과정을 수행하여 예측 블록을 생성한다.When the intra prediction mode is not transmitted, the decoder-side intra prediction mode derivation (DIMD) encoder 1302 is selected, and then the same process is performed by the encoding apparatus and the decoding apparatus to generate the prediction block.

DIMD 부호화부가 선택되는 경우, 최적의 예측 모드를 결정하는 방법은 도 7의 예시를 이용하여 설명한다. 도 7에서 참조 화소 라인 정보 0은 첫 번째 라인, 참조 화소 라인 정보 1은 두 번째 라인, 참조 화소 라인 정보 2는 세 번째 라인, 참조 화소 라인 정보 3은 네 번째 라인을 의미한다. 최적의 참조 화소 라인 조합을 이용한 최적의 화면 내 예측 모드를 찾는 과정은 현재 선택된 참조 화소 라인 조합을 이용하여 각각의 화면 내 예측 모드에 따라 생성된 예측 블록과 이전 참조 화소 라인 조합을 이용하여 각각의 화면 내 예측 모드에 따라 생성된 예측 블록간 왜곡 정보를 비교하여 두 예측 블록이 가장 유사한 화면 내 예측 모드를 선택함으로써 수행될 수 있다. 최적의 참조 화소 라인 조합 선택은 K와 K-1 중 부호화/복호화 장치에서 동일한 방법으로 선택할 수도 있고, 상위 헤더에서 전송할 수도 있다. 혹은 현재 참조 화소 라인 조합과 이전 참조 화소 라인 조합 중 어떤 것을 선택할지 여부를 블록마다 전송할 수도 있다. 예를 들어 도 7에서 현재 K는 네 번째 참조 화소 라인을 의미하고, K-1은 세 번째 참조 화소 라인을 의미하는 경우, K를 이용하여 각 화면 내 예측 모드별로 생성한 예측 블록과 K-1을 이용하여 각 화면 내 예측 모드별로 생성한 예측 블록간의 왜곡을 비교하여 왜곡이 가장 적은 화면 내 예측 모드를 최적의 화면 내 예측 모드로 결정할 수 있다. 이때 왜곡을 비교하기 위해 SAD, SSE, SATD 등을 이용할 수도 있다.When the DIMD encoder is selected, a method of determining an optimal prediction mode will be described using the example of FIG. 7. In FIG. 7, reference pixel line information 0 refers to a first line, reference pixel line information 1 refers to a second line, reference pixel line information 2 refers to a third line, and reference pixel line information 3 refers to a fourth line. The process of finding the best intra prediction mode using the optimal reference pixel line combination is performed by using the prediction block generated according to each intra prediction mode using the currently selected reference pixel line combination and the previous reference pixel line combination. Two prediction blocks may be performed by selecting intra prediction modes that are most similar to each other by comparing distortion information between prediction blocks generated according to intra prediction modes. The optimal reference pixel line combination selection may be selected in the same manner in the encoding / decoding apparatus among K and K-1, or may be transmitted in an upper header. Alternatively, whether to select a current reference pixel line combination and a previous reference pixel line combination may be transmitted for each block. For example, in FIG. 7, when K is the fourth reference pixel line and K-1 is the third reference pixel line, the prediction block and K-1 generated by each prediction mode in each screen using K are used. By comparing the distortions between the prediction blocks generated for each intra prediction mode, the intra prediction mode having the least distortion may be determined as the optimal intra prediction mode. In this case, SAD, SSE, SATD, etc. may be used to compare the distortion.

도 14는 본 발명의 다른 실시예에 따른 영상 복호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.FIG. 14 is a diagram for describing an intra prediction unit of an image decoding apparatus according to another exemplary embodiment.

현재 예측 모드로 화면 내 예측이 선택된 경우, 화면 내 예측 정보에 따라 예측 블록 생성 방법이 달라진다.When intra prediction is selected as the current prediction mode, a prediction block generation method varies according to intra prediction information.

화면 내 예측 모드를 부호화 장치에서 복호화 장치로 전송하는 경우, 모드 복호화부(1401)가 선택되고, 이후, 참조 화소 생성부(1403), 가상 참조 화소 생성 결정부(1404), 참조 화소 라인 조합 결정부(1405) 및 화면 내 예측 모드 결정부(1406)를 거쳐 예측 블록이 생성될 수 있다. 참조 화소 생성부(1403), 가상 참조 화소 생성 결정부(1404), 참조 화소 라인 조합 결정부(1405) 및 화면 내 예측 모드 결정부(1406)의 각각은 도 10의 참조 화소 생성부(1001), 가상 참조 화소 생성 결정부(1002), 참조 화소 라인 조합 결정부(1003) 및 화면 내 예측 모드 결정부(1004)의 각각에 대응될 수 있다.When the intra prediction mode is transmitted from the encoding apparatus to the decoding apparatus, the mode decoder 1401 is selected, and then, the reference pixel generator 1403, the virtual reference pixel generation determiner 1404, and the reference pixel line combination determination are performed. The prediction block may be generated through the unit 1405 and the intra prediction mode determiner 1406. Each of the reference pixel generator 1403, the virtual reference pixel generation determiner 1404, the reference pixel line combination determiner 1405, and the intra prediction mode determiner 1406 is a reference pixel generator 1001 of FIG. 10. The virtual reference pixel generation determiner 1002, the reference pixel line combination determiner 1003, and the intra prediction mode determiner 1004 may correspond to each other.

화면 내 예측 모드를 부호화 장치에서 복호화 장치로 전송하지 않는 경우, DIMD 복호화부(1402)가 선택되고, 이후의 과정은 도 13을 참조하여 설명한 부호화 장치에서의 과정과 동일할 수 있다.When the intra prediction mode is not transmitted from the encoding apparatus to the decoding apparatus, the DIMD decoder 1402 is selected, and the subsequent process may be the same as the process described with reference to FIG. 13.

도 15는 본 발명의 일 실시예에 따라 예측 모드 정보를 부호화하는 방법을 설명하기 위한 도면이다.15 is a diagram for describing a method of encoding prediction mode information according to an embodiment of the present invention.

도 15는 도 3을 참조하여 설명한 실시예에서, DIMD 정보 부호화(S1505), 가상 참조 화소 라인 부호화(S1506) 및 참조 화소 라인 조합 부호화(S1507)를 추가한 것이다. 상기 추가된 단계 이외의 과정은 도 3의 실시예와 전부 동일하다. FIG. 15 illustrates the addition of DIMD information encoding (S1505), virtual reference pixel line encoding (S1506), and reference pixel line combination encoding (S1507) in the embodiment described with reference to FIG. The procedures other than the above added steps are the same as in the embodiment of FIG. 3.

도 16은 본 발명의 일 실시예에 따라 예측 모드 정보를 복호화하는 방법을 설명하기 위한 도면이다.16 is a diagram for describing a method of decoding prediction mode information according to an embodiment of the present invention.

도 16은 도 4를 참조하여 설명한 실시예에서, DIMD 정보 복호화(S1605), 가상 참조 화소 라인 복호화(S1606) 및 참조 화소 라인 조합 복호화(S1607)를 추가한 것이다. 상기 추가된 단계 이외의 과정은 도 6의 실시예와 전부 동일하다.FIG. 16 adds DIMD information decoding (S1605), virtual reference pixel line decoding (S1606), and reference pixel line combination decoding (S1607) in the embodiment described with reference to FIG. The procedures other than the above added steps are the same as in the embodiment of FIG. 6.

DIMD 정보는 화면 내 예측 모드를 복호화 장치로 전송할지, 부호화/복호화 장치에서 동일한 과정을 수행하여 최적의 예측 모드를 결정할지 여부를 알려주는 정보일 수 있다.The DIMD information may be information indicating whether to transmit the intra prediction mode to the decoding apparatus or determine whether the optimal prediction mode is determined by performing the same process in the encoding / decoding apparatus.

(실시예3)Example 3

도 17은 본 발명의 다른 실시예에 따라 화면 내 예측을 수행하는 방법을 설명하기 위한 도면이다.17 is a diagram for describing a method of performing intra prediction according to another embodiment of the present invention.

도 17에 있어서, 부호화 대상 블록은 4x4 크기를 갖고, 화면 내 예측 모드는 우상단 방향 모드이다.In FIG. 17, a block to be encoded has a size of 4 × 4, and an intra prediction mode is a right upper direction mode.

도 18은 본 발명의 다른 실시예에 따른 영상 부호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.18 is a diagram for explaining an intra prediction unit of a video encoding apparatus according to another embodiment.

도 18의 화면 내 예측부는 단방향 혹은 양방향 예측 모드를 이용하여 예측 블록을 생성할 수 있다.The intra prediction unit of FIG. 18 may generate a prediction block using a unidirectional or bidirectional prediction mode.

도 18의 실시예의 양방향 예측 및 화면 내 예측 모드 결정부(1804)는 도 9의 실시예의 화면 내 예측 모드 결정부(904)에 양방향 예측을 추가한 것이며, 도 18의 실시예의 다른 구성은 도 9의 실시예와 동일하다.The bidirectional prediction and intra picture prediction mode determiner 1804 of the embodiment of FIG. 18 adds bidirectional prediction to the intra picture prediction mode determiner 904 of the embodiment of FIG. 9, and another configuration of the embodiment of FIG. 18 is illustrated in FIG. 9. Same as the embodiment of.

도 17을 참조하여 본 실시예에 따른 예측 블록 생성 방법을 설명한다. 화면 내 예측 모드에 따라 단방향 혹은 양방향 예측을 수행할 수 있다. 단방향 예측의 경우, 화면 내 예측 모드에 따라 한쪽 방향의 참조 화소 라인을 이용하여 예측 블록을 생성한다. 양방향 예측의 경우, 도 17에 도시된 바와 같이, 단방향 예측으로 선택된 참조 화소와 상기 단방향 예측 방향의 반대 방향의 참조 화소 라인을 이용하여 선택된 참조 화소 간의 가중치 합을 이용하여 예측 블록을 생성할 수 있다. 예컨대, 단방향이 우상향이고, 첫번째 참조 화소 라인이 이용가능한 경우, 현재 블록 내 픽셀의 우상향에 위치하는 첫번째 참조 화소 라인 상의 참조 화소를 선택할 수 있다. 또한, 우상향의 반대 방향인 좌하향에 위치하는 첫번째 참조 화소 라인 상의 참조 화소를 선택할 수 있다. 선택된 참조 화소들을 가중합하여 픽셀의 예측값을 유도할 수 있다. A prediction block generation method according to the present embodiment will be described with reference to FIG. 17. Unidirectional or bidirectional prediction may be performed according to the intra prediction mode. In the case of unidirectional prediction, a prediction block is generated using reference pixel lines in one direction according to the intra prediction mode. In the case of bidirectional prediction, as illustrated in FIG. 17, a prediction block may be generated using a weighted sum between a reference pixel selected by unidirectional prediction and a reference pixel line opposite to the unidirectional prediction direction. . For example, if the unidirectional is rightward and the first reference pixel line is available, the reference pixel on the first reference pixel line located rightward of the pixel in the current block can be selected. Further, the reference pixel on the first reference pixel line positioned in the lower left direction, which is opposite to the upper right direction, can be selected. The predicted value of the pixel may be derived by weighting the selected reference pixels.

선택된 각 참조 화소에 적용되는 가중치는 동일할 수도 있고, 상이할 수도 있다. 예를 들어, 현재 블록에서 코딩하고자 하는 예측 화소와 참조 화소의 거리에 따라서 거리가 가까운 참조 화소에 거리가 먼 참조 화소보다 더 높은 가중치를 적용할 수 있다. 혹은 양방향 예측의 경우, 단방향 예측의 참조 화소에 반대 방향의 참조 화소보다 높은 가중치를 적용할 수 있다. 참조 화소 라인 별로 적용되는 가중치는 부호화/복호화 장치에서 기 설정된 값으로 동일하게 사용하거나 상위 헤더에서 전송될 수 있다. 혹은 블록마다 적용되는 가중치 값을 전송하여 부호화/복호화 장치에서 동일하게 사용할 수 있다. The weights applied to each of the selected reference pixels may be the same or may be different. For example, according to the distance between the prediction pixel to be coded in the current block and the reference pixel, a higher weight may be applied to the reference pixel having a closer distance than the reference pixel having a far distance. Alternatively, in the case of bidirectional prediction, a weight higher than that of the reference pixel in the opposite direction may be applied to the reference pixel of the unidirectional prediction. The weight applied to each reference pixel line may be the same as a preset value in the encoding / decoding apparatus or transmitted in an upper header. Alternatively, the weight value applied to each block may be transmitted and used in the encoding / decoding apparatus.

양방향 예측시 복원된 참조 화소가 없는 영역은 주변 참조 화소값을 패딩하거나 보간하여 참조 화소로서 사용할 수 있다. 예를 들어, H 화소와 I 화소 값을 패딩하여 참조 화소가 없는 영역, 예컨대, 현재 블록의 우측 영역과 하단 영역의 참조 화소로 사용할 수 있다. 이때, 우측 영역과 하단 영역이 겹치는 부분은 예컨대, H 화소와 I 화소의 평균값으로 패딩할 수 있다. In the bidirectional prediction, a region without a reconstructed reference pixel may be used as a reference pixel by padding or interpolating surrounding reference pixel values. For example, the H pixel and I pixel values may be padded to be used as reference pixels of an area without a reference pixel, for example, a right area and a bottom area of the current block. In this case, a portion where the right region and the bottom region overlap may be padded with, for example, an average value of the H pixel and the I pixel.

혹은 H 세트의 평균값 또는 가중 평균값, I 세트의 평균값 또는 가중 평균값으로 패딩할 수 있다. 예컨대, 가중 평균값에 적용되는 가중치는 1:2:1 일 수 있다. 혹은 H 세트의 가중 평균값과 I 세트의 가중 평균값을 이용하여 먼저 패딩을 수행한 후, 화면 내 예측 모드에 따라 단방향 예측의 참조 화소들의 밝기 변화를 이용하여 패딩된 값을 필터링할 수도 있다.Alternatively, the padding may be padded with an average value or a weighted average value of the H set, an average value or a weighted average value of the I set. For example, the weight applied to the weighted average value may be 1: 2: 1. Alternatively, the padding may be first performed using the weighted average value of the H set and the weighted average value of the I set, and then the padded value may be filtered using the brightness change of the reference pixels of the unidirectional prediction according to the intra prediction mode.

상기 H 세트는 H 화소 및 그 인접 화소들을 포함할 수 있다. 예컨대, H 세트는 H 화소와 H 화소의 좌측 인접 화소 및 우측 인접 화소를 포함할 수 있다. 마찬가지로, I 세트는 I 화소 및 그 인접 화소들을 포함할 수 있다. 예컨대, I 세트는 I 화소와 I 화소의 상단 인접 화소 및 하단 인접 화소를 포함할 수 있다.The H set may include H pixels and their adjacent pixels. For example, the H set may include an H pixel and a left adjacent pixel and a right adjacent pixel of the H pixel. Likewise, an I set may include an I pixel and its neighboring pixels. For example, the I set may include an I pixel and an upper adjacent pixel and a lower adjacent pixel of the I pixel.

도 17의 예시에서, 설명의 편의를 위해 양방향 예측시 복원된 화소가 없는 영역에 대한 패딩은 1개의 참조 화소 라인에 대해서만 설명하였다. 그러나 이에 한정되지 않으며, 복원된 화소가 없는 영역에 대한 패딩은 복수의 참조 화소 라인의 일부 또는 전부에 대해 수행될 수 있다.In the example of FIG. 17, for convenience of description, padding for an area in which no pixel is reconstructed in bidirectional prediction has been described for only one reference pixel line. However, the present invention is not limited thereto, and padding of a region without reconstructed pixels may be performed on some or all of the plurality of reference pixel lines.

도 18의 영상 부호화 장치의 화면 내 예측부는 최적의 예측 정보를 결정하기 위해 각 과정에서 RD-Cost 비용을 비교할 수 있다.The intra prediction unit of the image encoding apparatus of FIG. 18 may compare the RD-Cost cost in each process to determine optimal prediction information.

도 19는 본 발명의 다른 실시예에 따른 영상 복호화 장치의 화면 내 예측부를 설명하기 위한 도면이다.FIG. 19 is a diagram for explaining an intra prediction unit of a video decoding apparatus according to another exemplary embodiment.

현재 예측 모드로 화면 내 예측이 선택된 경우, 참조 화소 생성부(1901)는 참조 화소를 유도하고 필터링을 수행할 수 있다. 가상 참조 화소 생성 결정부(1902)는 부호화 장치에서 전송된 정보에 기초하여 가상 참조 화소 라인을 결정하고, 참조 화소 라인 조합 결정부(1903)는 최적의 참조 화소 라인 조합을 결정할 수 있다. 양방향 예측 및 화면 내 예측 모드 결정부(1904)는 화면 내 예측 모드를 결정하고 이에 기초하여 예측 블록을 생성할 수 있다.When intra prediction is selected as the current prediction mode, the reference pixel generator 1901 may derive the reference pixel and perform filtering. The virtual reference pixel generation determiner 1902 may determine a virtual reference pixel line based on the information transmitted from the encoding apparatus, and the reference pixel line combination determiner 1901 may determine an optimal reference pixel line combination. The bidirectional prediction and intra prediction mode determiner 1904 may determine the intra prediction mode and generate a prediction block based on the intra prediction mode.

도 20은 본 발명의 일 실시예에 따라 예측 모드 정보를 부호화하는 방법을 설명하기 위한 도면이다.20 is a diagram for describing a method of encoding prediction mode information according to an embodiment of the present invention.

도 20은 도 3을 참조하여 설명한 실시예에서, 가상 참조 화소 라인 정보 부호화(S2005), 참조 화소 라인 조합 부호화(S2006) 및 양방향 예측 정보 부호화(S2007)를 추가한 것이다. 상기 추가된 단계 이외의 과정은 도 3의 실시예와 전부 동일하다. FIG. 20 illustrates the virtual reference pixel line information encoding (S2005), the reference pixel line combination encoding (S2006), and the bidirectional prediction information encoding (S2007) in the embodiment described with reference to FIG. 3. The procedures other than the above added steps are the same as in the embodiment of FIG. 3.

도 21은 본 발명의 일 실시예에 따라 예측 모드 정보를 복호화하는 방법을 설명하기 위한 도면이다.21 is a diagram for describing a method of decoding prediction mode information according to an embodiment of the present invention.

도 21은 도 6을 참조하여 설명한 실시예에서, 가상 참조 화소 라인 정보 복호화(S2105), 참조 화소 라인 조합 복호화(S2106), 양방향 예측 정보 복호화(S2107)를 추가한 것이다. 상기 추가된 단계 이외의 과정은 도 6의 실시예와 전부 동일하다.21 is a view illustrating the addition of virtual reference pixel line information decoding (S2105), reference pixel line combination decoding (S2106), and bidirectional prediction information decoding (S2107) in the embodiment described with reference to FIG. The procedures other than the above added steps are the same as in the embodiment of FIG. 6.

본 개시의 다양한 실시예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the present disclosure are not an exhaustive list of all possible combinations, but are intended to describe representative aspects of the present disclosure, and the details described in the various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, a combination thereof, or the like. For hardware implementations, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), General Purpose It may be implemented by a general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.It is intended that the scope of the disclosure include software or machine-executable instructions (eg, an operating system, an application, firmware, a program, etc.) to cause an operation in accordance with various embodiments of the method to be executed on an apparatus or a computer, and such software or Instructions, and the like, including non-transitory computer-readable media that are stored and executable on a device or computer.

Claims (17)

참조 화소 라인 정보를 복원하는 단계;
상기 참조 화소 라인 정보에 기초하여, 복수의 참조 화소 라인 중 적어도 하나의 참조 화소 라인을 선택하는 단계; 및
상기 선택된 참조 화소 라인에 기초하여 현재 블록에 대한 화면 내 예측을 수행함으로써, 상기 현재 블록에 대한 예측 블록을 생성하는 단계를 포함하는 영상 복호화 방법.
Restoring reference pixel line information;
Selecting at least one reference pixel line among a plurality of reference pixel lines based on the reference pixel line information; And
And generating a prediction block for the current block by performing intra prediction on the current block based on the selected reference pixel line.
제1항에 있어서,
상기 참조 화소 라인 정보는 블록 단위로 복호화되는 영상 복호화 방법.
The method of claim 1,
And the reference pixel line information is decoded in units of blocks.
제1항에 있어서,
상기 예측 블록은 상기 현재 블록의 상단 참조 화소와 상기 현재 블록의 좌측 참조 화소 간의 가중합을 수행하여 생성되는 영상 복호화 방법.
The method of claim 1,
The prediction block is generated by performing a weighted summation between an upper reference pixel of the current block and a left reference pixel of the current block.
제3항에 있어서,
상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록의 예측 방향에 기초하여 선택되는 영상 복호화 방법.
The method of claim 3,
And the upper reference pixel and the left reference pixel are selected based on a prediction direction of the current block.
제3항에 있어서,
상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록에 인접한 첫번째 참조 화소 라인 상에 존재하고,
상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록 내 현재 화소의 좌표에 기초하여 선택되는 영상 복호화 방법.
The method of claim 3,
The upper reference pixel and the left reference pixel are on a first reference pixel line adjacent to the current block,
And the upper reference pixel and the left reference pixel are selected based on the coordinates of the current pixel in the current block.
제5항에 있어서,
상기 현재 블록 내 좌상단 화소의 좌표가 (0, 0)이고, 상기 현재 화소의 좌표가 (x, y) 일 때,
상기 상단 참조 화소의 좌표는 (x+y+1, -1)이고,
상기 좌측 참조 화소의 좌표는 (-1, x+y+1)인 영상 복호화 방법.
The method of claim 5,
When the coordinate of the upper left pixel in the current block is (0, 0) and the coordinate of the current pixel is (x, y),
The coordinates of the upper reference pixel are (x + y + 1, -1),
And a coordinate of the left reference pixel is (-1, x + y + 1).
제3항에 있어서,
상기 가중합에 이용되는 가중치는 상기 현재 블록 내 현재 화소로부터 상기 상단 참조 화소 및 상기 좌측 참조 화소까지의 거리에 기초하여 결정되는 영상 복호화 방법.
The method of claim 3,
The weight used for the weighted sum is determined based on a distance from a current pixel in the current block to the upper reference pixel and the left reference pixel.
제7항에 있어서,
상기 상단 참조 화소 및 상기 좌측 참조 화소 중 상기 현재 화소로부터의 거리가 가까운 참조 화소에 더 큰 가중치가 적용되는 영상 복호화 방법.
The method of claim 7, wherein
And a larger weight is applied to a reference pixel having a shorter distance from the current pixel among the upper reference pixel and the left reference pixel.
복수의 참조 화소 라인 중 적어도 하나의 참조 화소 라인을 선택하는 단계;
상기 선택된 참조 화소 라인에 기초하여 현재 블록에 대한 화면 내 예측을 수행함으로써, 상기 현재 블록에 대한 예측 블록을 생성하는 단계; 및
상기 선택된 참조 화소 라인에 관한 참조 화소 라인 정보를 부호화하는 단계를 포함하는 영상 부호화 방법.
Selecting at least one reference pixel line among the plurality of reference pixel lines;
Generating a prediction block for the current block by performing intra prediction on the current block based on the selected reference pixel line; And
And encoding reference pixel line information about the selected reference pixel line.
제9항에 있어서,
상기 참조 화소 라인 정보는 블록 단위로 부호화되는 영상 부호화 방법.
The method of claim 9,
And the reference pixel line information is encoded in block units.
제9항에 있어서,
상기 예측 블록은 상기 현재 블록의 상단 참조 화소와 상기 현재 블록의 좌측 참조 화소 간의 가중합을 수행하여 생성되는 영상 부호화 방법.
The method of claim 9,
The prediction block is generated by performing a weighted summation between an upper reference pixel of the current block and a left reference pixel of the current block.
제11항에 있어서,
상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록의 예측 방향에 기초하여 선택되는 영상 부호화 방법.
The method of claim 11,
And the upper reference pixel and the left reference pixel are selected based on a prediction direction of the current block.
제11항에 있어서,
상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록에 인접한 첫번째 참조 화소 라인 상에 존재하고,
상기 상단 참조 화소와 상기 좌측 참조 화소는 상기 현재 블록 내 현재 화소의 좌표에 기초하여 선택되는 영상 부호화 방법.
The method of claim 11,
The upper reference pixel and the left reference pixel are on a first reference pixel line adjacent to the current block,
And the upper reference pixel and the left reference pixel are selected based on the coordinates of the current pixel in the current block.
제13항에 있어서,
상기 현재 블록 내 좌상단 화소의 좌표가 (0, 0)이고, 상기 현재 화소의 좌표가 (x, y) 일 때,
상기 상단 참조 화소의 좌표는 (x+y+1, -1)이고,
상기 좌측 참조 화소의 좌표는 (-1, x+y+1)인 영상 부호화 방법.
The method of claim 13,
When the coordinate of the upper left pixel in the current block is (0, 0) and the coordinate of the current pixel is (x, y),
The coordinates of the upper reference pixel are (x + y + 1, -1),
And a coordinate of the left reference pixel is (-1, x + y + 1).
제11항에 있어서,
상기 가중합에 이용되는 가중치는 상기 현재 블록 내 현재 화소로부터 상기 상단 참조 화소 및 상기 좌측 참조 화소까지의 거리에 기초하여 결정되는 영상 부호화 방법.
The method of claim 11,
The weighting value used for the weighted sum is determined based on a distance from a current pixel in the current block to the upper reference pixel and the left reference pixel.
제15항에 있어서,
상기 상단 참조 화소 및 상기 좌측 참조 화소 중 상기 현재 화소로부터의 거리가 가까운 참조 화소에 더 큰 가중치가 적용되는 영상 부호화 방법.
The method of claim 15,
And a larger weight is applied to a reference pixel having a shorter distance from the current pixel among the upper reference pixel and the left reference pixel.
영상 복호화 장치에 의해 수신되고 복호화되어 영상을 복원하는데 이용되는 비트스트림을 포함한 컴퓨터 판독 가능한 기록 매체로서,
상기 비트스트림은 참조 화소 라인 정보를 포함하고,
상기 참조 화소 라인 정보는 복원되어 복수의 참조 화소 라인 중 적어도 하나의 참조 화소 라인을 선택하기 위해 이용되고,
상기 선택된 참조 화소 라인은 현재 블록에 대한 화면 내 예측을 수행함으로써, 상기 현재 블록에 대한 예측 블록을 생성하기 위해 이용되는 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium including a bitstream received by a video decoding apparatus and decoded to be used to restore an image.
The bitstream includes reference pixel line information,
The reference pixel line information is recovered and used to select at least one reference pixel line among a plurality of reference pixel lines,
And wherein the selected reference pixel line is used to generate a predictive block for the current block by performing in-picture prediction for the current block.
KR1020190072351A 2018-06-18 2019-06-18 Image encoding/decoding method and apparatus KR20190142750A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180069607 2018-06-18
KR1020180069607 2018-06-18

Publications (1)

Publication Number Publication Date
KR20190142750A true KR20190142750A (en) 2019-12-27

Family

ID=69062626

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190072351A KR20190142750A (en) 2018-06-18 2019-06-18 Image encoding/decoding method and apparatus

Country Status (1)

Country Link
KR (1) KR20190142750A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022225346A1 (en) * 2021-04-22 2022-10-27 엘지전자 주식회사 Intra prediction method and device using secondary mpm list
WO2023224289A1 (en) * 2022-05-16 2023-11-23 현대자동차주식회사 Method and apparatus for video coding using virtual reference line

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022225346A1 (en) * 2021-04-22 2022-10-27 엘지전자 주식회사 Intra prediction method and device using secondary mpm list
WO2023224289A1 (en) * 2022-05-16 2023-11-23 현대자동차주식회사 Method and apparatus for video coding using virtual reference line

Similar Documents

Publication Publication Date Title
KR102064154B1 (en) Intra prediction method of chrominance block using luminance sample, and apparatus using same
KR102083012B1 (en) Method for setting motion vector list and apparatus using same
WO2013042888A2 (en) Method for inducing a merge candidate block and device using same
KR102061201B1 (en) Methods of transformation based on block information and appratuses using the same
KR20180041575A (en) Method and apparatus for encoding/decoding an image
KR20200003734A (en) Video coding method and apparatus using merge candidates
US11792426B2 (en) Method and apparatus for encoding/decoding image using a prediction value based on reference pixels
KR20190116101A (en) Method and apparatus for image encoding/decoding based on affine model
KR101197176B1 (en) Methods of derivation of merge candidate block and apparatuses for using the same
KR20190130502A (en) Image decoding method/apparatus, image encoding method/apparatus and recording medium for storing bitstream
KR20230110701A (en) Method and apparatus for encoding/decoding a video signal
KR20190110065A (en) Image decoding method/apparatus, image encoding method/apparatus and recording medium for storing bitstream
KR20230113243A (en) Method and apparatus for encoding/decoding a video signal
KR20190115426A (en) Method and apparatus for encoding/decoding an image
KR20230118538A (en) Method and apparatus for encoding/decoding an image
KR20190142750A (en) Image encoding/decoding method and apparatus
KR101743665B1 (en) Method and apparatus for processing a video signal based on intra prediction
KR20210154991A (en) Image decoding method for chroma component and apparatus therefor
KR20220003119A (en) Image decoding method and apparatus for chroma quantization parameter data
KR20190142748A (en) Method and apparatus for encoding/decoding image, recording medium for stroing bitstream
KR20210003005A (en) Video encoding and decoding method and apparatus using signal change correlation between cross components
KR102557797B1 (en) Method and apparatus for encoding/decoding a video signal
KR102585179B1 (en) Image encoding/decoding method and apparatus using efficient motion information prediction
KR102585178B1 (en) Image encoding/decoding method and apparatus using efficient motion information prediction
KR102557740B1 (en) Method and apparatus for encoding/decoding a video signal