KR20190122514A - A method and an apparatus for processing a video signal using cost measurement for sign data hiding - Google Patents

A method and an apparatus for processing a video signal using cost measurement for sign data hiding Download PDF

Info

Publication number
KR20190122514A
KR20190122514A KR1020180046415A KR20180046415A KR20190122514A KR 20190122514 A KR20190122514 A KR 20190122514A KR 1020180046415 A KR1020180046415 A KR 1020180046415A KR 20180046415 A KR20180046415 A KR 20180046415A KR 20190122514 A KR20190122514 A KR 20190122514A
Authority
KR
South Korea
Prior art keywords
unit
picture
coding
prediction
current
Prior art date
Application number
KR1020180046415A
Other languages
Korean (ko)
Inventor
김동철
정재홍
손주형
고건중
곽진삼
Original Assignee
주식회사 윌러스표준기술연구소
(주)휴맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 윌러스표준기술연구소, (주)휴맥스 filed Critical 주식회사 윌러스표준기술연구소
Priority to KR1020180046415A priority Critical patent/KR20190122514A/en
Publication of KR20190122514A publication Critical patent/KR20190122514A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

The present invention relates to a method and apparatus for processing a video signal and, more specifically, to a method and apparatus for processing a video signal to encode or decode a video signal. An objective of the present invention is to improve the coding efficiency of a video signal.

Description

데이터 부호 정보 Hiding 검출 방법을 이용한 비디오 신호 처리 방법 및 장치{A METHOD AND AN APPARATUS FOR PROCESSING A VIDEO SIGNAL USING COST MEASUREMENT FOR SIGN DATA HIDING }A video signal processing method and apparatus using Hiding detection method for data sign information {A METHOD AND AN APPARATUS FOR PROCESSING A VIDEO SIGNAL USING COST MEASUREMENT FOR SIGN DATA HIDING}

본 발명은 비디오 신호의 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 비디오 신호를 인코딩하거나 디코딩하는 비디오 신호 처리 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for processing a video signal, and more particularly, to a video signal processing method and apparatus for encoding or decoding a video signal.

압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 신호에 대한 압축 부호화는 공간적인 상관관계, 시간적인 상관관계, 확률적인 상관관계 등을 고려하여 잉여 정보를 제거함으로써 이루어진다. 그러나 최근의 다양한 미디어 및 데이터 전송 매체의 발전으로 인해, 더욱 고효율의 비디오 신호 처리 방법 및 장치가 요구되고 있다.Compression coding refers to a series of signal processing techniques for transmitting digitized information through a communication line or for storing in a form suitable for a storage medium. The object of compression encoding includes objects such as voice, video, text, and the like. In particular, a technique of performing compression encoding on an image is called video image compression. Compression coding on a video signal is performed by removing redundant information in consideration of spatial correlation, temporal correlation, and stochastic correlation. However, with the recent development of various media and data transmission media, there is a need for a method and apparatus for processing video signals with higher efficiency.

본 발명의 목적은 비디오 신호의 코딩 효율을 높이고자 함에 있다.An object of the present invention is to improve the coding efficiency of a video signal.

상기와 같은 과제를 해결하기 위해, 본 발명의 일 실시예를 따른 영상 복호화 방법은 화면간 예측 시 단방향 모드 혹은 양방향 모드를 사용하는 과정에서 가중 예측 방법 적용 유무 결정 및 관련 설정 값들을 적응적으로 결정하고 참조 블록에 적용하여 현재 예측할 블록에 대한 예측블록을 생성하는 단계를 포함한다.In order to solve the above problems, the image decoding method according to an embodiment of the present invention adaptively determines whether the weighted prediction method is applied and related setting values in the process of using the unidirectional mode or the bidirectional mode for inter prediction. And applying the reference block to generate a prediction block for the block to be currently predicted.

본 발명의 실시예에 따르면, 비디오 신호의 코딩 효율이 높아질 수 있다.According to an embodiment of the present invention, coding efficiency of a video signal may be increased.

도 1은 본 발명의 실시예에 따른 비디오 신호 인코더 장치의 개략적인 블록도.
도 2는 본 발명의 실시예에 따른 비디오 신호 디코더 장치의 개략적인 블록도.
도 3은 코딩 유닛을 분할하는 본 발명의 일 실시예를 나타내는 도면.
도 4는 도 3의 분할 구조를 계층적으로 나타내는 방법의 일 실시예를 도시한 도면.
도 5는 코딩 유닛을 분할하는 본 발명의 추가적인 실시예를 나타낸 도면.
도 6은 화면내 예측을 위한 참조 픽셀 획득 방법을 나타낸 도면.
도 7은 화면내 예측에 사용되는 예측 모드들의 일 실시예를 도시한 도면.
도 8은 16x16의 크기를 갖은 변환 블록과 4x4의 서브변환블록의 예를 나타낸 도면이다.
도 9는 Transform sub-block coefficients 부호화의 일 실시예를 나타낸 도면이다.
도 10은 변환 계수 그룹내에서 1개의 변환 계수에 대해 부호 hiding의 예를 나타낸 도면이다.
도 11은 변환 계수 그룹내에서 2개의 변환 계수에 대해 부호 hiding의 예를 나타낸 도면이다.
도 12는 화면내 예측에 사용된 예측 모드를 그룹화한 도면이다.
도 13는 주변 복원된 블록의 일부 상측과 좌측 샘플들과 현재 코딩 블록의 상단 및 좌측 샘플 값의 불연속성을 측정하는 방법을 나타낸 도면이다.
도 14는 주변 복원된 블록의 일부 상측과 좌측 샘플들과 현재 코딩 블록의 상단 및 좌측 샘플 값의 불연속성을 측정하는 방법을 나타낸 도면이다.
도 15는 cost 계산 시 화면내 예측 모드가 도12의 그룹M1에 포함된 경우에 사용되는 샘플 구성을 나타낸 도면이다.
도 16는 cost 계산 시 화면내 예측 모드가 도12의 그룹M3에 포함된 경우에 사용되는 샘플 구성을 나타낸 도면이다.
도 17는 cost 계산 시 화면내 예측 모드가 도12의 그룹M0 / M4에 포함된 경우에 사용되는 샘플 구성을 나타낸 도면이다.
도 18은 cost 계산 시 화면내 예측 모드가 도12의 그룹M0 / M4에 포함된 경우에 사용되는 샘플 구성의 다른 예를 나타낸 도면이다.
도 19은 cost 계산 시 화면내 예측 모드가 도12의 그룹M2에 포함된 경우에 사용되는 샘플 구성의 예를 나타낸 도면이다.
도 20은 cost 계산 시 화면내 예측 모드가 도12의 그룹M2에 포함된 경우에 사용되는 샘플 구성의 다른 예를 나타낸 도면이다.
도 21은 잔차 신호 대한 변환/역변환에 사용된 변환기 수식을 나타낸 도면이다.
도 22는 변환기 종류를 지정된 알고리즘에 따라 변환하고 순서를 정하는 방법에 대한 cost구성 샘플 예를 나타내 도면이다.
1 is a schematic block diagram of a video signal encoder apparatus according to an embodiment of the present invention.
2 is a schematic block diagram of a video signal decoder device according to an embodiment of the present invention;
3 illustrates an embodiment of the present invention for dividing a coding unit.
FIG. 4 illustrates an embodiment of a method for hierarchically representing the partition structure of FIG. 3. FIG.
5 shows a further embodiment of the present invention for dividing a coding unit.
6 illustrates a method of obtaining reference pixels for intra prediction.
7 illustrates an embodiment of prediction modes used for intra picture prediction.
8 is a diagram illustrating an example of a transform block having a size of 16 × 16 and a sub transform block of 4 × 4.
9 is a diagram illustrating an embodiment of encoding Transform sub-block coefficients.
10 is a diagram illustrating an example of code hiding of one transform coefficient in a transform coefficient group.
11 is a diagram illustrating an example of code hiding for two transform coefficients in a transform coefficient group.
12 is a grouping of prediction modes used for intra prediction.
FIG. 13 is a diagram illustrating a method of measuring a discontinuity of some upper and left samples of a neighboring reconstructed block and upper and left sample values of a current coding block.
14 is a diagram illustrating a method of measuring a discontinuity of some upper and left samples of a neighboring reconstructed block and upper and left sample values of a current coding block.
FIG. 15 is a diagram illustrating a sample configuration used when an intra prediction mode is included in group M1 of FIG. 12 when calculating a cost.
FIG. 16 is a diagram illustrating a sample configuration used when an intra prediction mode is included in group M3 of FIG. 12 when a cost is calculated.
FIG. 17 is a diagram illustrating a sample configuration used when an intra prediction mode is included in the group MO / M4 of FIG.
FIG. 18 is a diagram illustrating another example of a sample configuration used when an intra prediction mode is included in the group MO / M4 of FIG.
19 is a diagram illustrating an example of a sample configuration used when an intra prediction mode is included in a group M2 of FIG. 12 when a cost is calculated.
20 is a diagram illustrating another example of a sample configuration used when an intra prediction mode is included in group M2 of FIG.
21 is a diagram illustrating a converter equation used for transforming / inverse transforming a residual signal.
22 is a diagram showing an example of a cost configuration sample for a method of converting and ordering a transducer type according to a specified algorithm.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.The terminology used herein is a general term that has been widely used as far as possible in consideration of functions in the present invention, but may vary according to the intention of a person skilled in the art, custom or the emergence of new technology. In addition, in certain cases, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in the corresponding description of the invention. Therefore, it is to be understood that the terminology used herein is to be interpreted based on the actual meaning of the term and the contents throughout the specification, rather than simply on the name of the term.

본 발명에서 다음 용어는 다음과 같은 기준으로 해석될 수 있고, 기재되지 않은 용어라도 하기 취지에 따라 해석될 수 있다. 코딩은 경우에 따라 인코딩 또는 디코딩으로 해석될 수 있고, 정보(information)는 값(values), 파라미터(parameter), 계수(coefficients), 성분(elements) 등을 모두 포함하는 용어로서, 경우에 따라 의미는 달리 해석될 수 있으므로 본 발명은 이에 한정되지 아니한다. '유닛'은 영상(픽쳐) 처리의 기본 단위 또는 픽쳐의 특정 위치를 지칭하는 의미로 사용되었으며, 경우에 따라서는 '블록', '파티션' 또는 '영역' 등의 용어와 서로 혼용하여 사용될 수 있다. 또한, 본 명세서에서 유닛은 코딩 유닛, 예측 유닛, 변환 유닛을 모두 포함하는 개념으로 사용될 수 있다.In the present invention, the following terms may be interpreted based on the following criteria, and terms not described may be interpreted according to the following meanings. Coding can be interpreted as encoding or decoding in some cases, and information is a term that includes values, parameters, coefficients, elements, and the like. May be interpreted otherwise, the present invention is not limited thereto. 'Unit' is used to refer to a basic unit of image (picture) processing or a specific position of a picture, and in some cases, may be used interchangeably with terms such as 'block', 'partition' or 'region'. . Also, in the present specification, a unit may be used as a concept including a coding unit, a prediction unit, and a transform unit.

도 1은 본 발명의 일 실시예에 따른 비디오 신호 인코딩 장치의 개략적인 블록도이다. 도 1을 참조하면, 본 발명의 인코딩 장치(100)는 크게 변환부(110), 양자화부(115), 역양자화부(120), 역변환부(125), 필터링부(130), 예측부(150) 및 엔트로피 코딩부(160)를 포함한다.1 is a schematic block diagram of a video signal encoding apparatus according to an embodiment of the present invention. Referring to FIG. 1, the encoding apparatus 100 of the present invention is largely composed of a transformer 110, a quantizer 115, an inverse quantizer 120, an inverse transformer 125, a filter 130, and a predictor ( 150 and the entropy coding unit 160.

변환부(110)는 입력 받은 비디오 신호에 대한 화소값을 변환하여 변환 계수 값을 획득한다. 예를 들어, 이산 코사인 변환(Discrete Cosine Transform, DCT) 또는 웨이블릿 변환(Wavelet Transform) 등이 사용될 수 있다. 특히 이산 코사인 변환은 입력된 픽쳐 신호를 일정 크기의 블록 형태로 나누어 변환을 수행하게 된다. 변환에 있어서 변환 영역 내의 값들의 분포와 특성에 따라서 코딩 효율이 달라질 수 있다.The transform unit 110 obtains a transform coefficient value by converting the pixel value of the received video signal. For example, a discrete cosine transform (DCT) or a wavelet transform may be used. In particular, the discrete cosine transform divides the input picture signal into blocks having a predetermined size to perform the transform. In the transform, the coding efficiency may vary depending on the distribution and the characteristics of the values in the transform domain.

양자화부(115)는 변환부(110)에서 출력된 변환 계수 값을 양자화한다. 역양자화부(120)에서는 변환 계수 값을 역양자화하고, 역변환부(125)에서는 역양자화된 변환 계수값을 이용하여 원래의 화소값을 복원한다.The quantization unit 115 quantizes the transform coefficient value output from the transform unit 110. The inverse quantization unit 120 inverse quantizes the transform coefficient value, and the inverse transform unit 125 restores the original pixel value by using the inverse quantized transform coefficient value.

필터링부(130)는 복원된 픽쳐의 품질 개선을 위한 필터링 연산을 수행한다. 예를 들어, 디블록킹 필터 및 적응적 루프 필터 등이 포함될 수 있다. 필터링을 거친 픽쳐는 출력되거나 참조 픽쳐로 이용하기 위하여 복호 픽쳐 버퍼(Decoded Picture Buffer, 156)에 저장된다.The filtering unit 130 performs a filtering operation for improving the quality of the reconstructed picture. For example, a deblocking filter and an adaptive loop filter may be included. The filtered picture is output or stored in a decoded picture buffer 156 for use as a reference picture.

코딩 효율을 높이기 위하여 픽쳐 신호를 그대로 코딩하는 것이 아니라, 예측부(150)를 통해 이미 코딩된 영역을 이용하여 픽쳐를 예측하고, 예측된 픽쳐에 원 픽쳐와 예측 픽쳐 간의 레지듀얼 값을 더하여 복원 픽쳐를 획득하는 방법이 사용된다. 인트라 예측부(152)에서는 현재 픽쳐 내에서 화면내 예측을 수행하며, 인터 예측부(154)에서는 복호 픽쳐 버퍼(156)에 저장된 참조 픽쳐를 이용하여 현재 픽쳐를 예측한다. 인트라 예측부(152)는 현재 픽쳐 내의 복원된 영역들로부터 화면내 예측을 수행하여, 화면내 부호화 정보를 엔트로피 코딩부(160)에 전달한다. 인터 예측부(154)는 다시 모션 추정부(154a) 및 모션 보상부(154b)를 포함하여 구성될 수 있다. 모션 추정부(154a)에서는 복원된 특정 영역을 참조하여 현재 영역의 모션 벡터값을 획득한다. 모션 추정부(154a)에서는 참조 영역의 위치 정보(참조 프레임, 모션 벡터 등) 등을 엔트로피 코딩부(160)로 전달하여 비트스트림에 포함될 수 있도록 한다. 모션 추정부(154a)에서 전달된 모션 벡터값을 이용하여 모션 보상부(154b)에서는 화면간 모션 보상을 수행한다.Rather than coding the picture signal as it is, the prediction unit 150 predicts the picture using a region already coded, and adds a residual value between the original picture and the predicted picture to the predicted picture to improve coding efficiency. The method of obtaining is used. The intra predictor 152 performs intra prediction within the current picture, and the inter predictor 154 predicts the current picture using a reference picture stored in the decoded picture buffer 156. The intra prediction unit 152 performs intra prediction from the reconstructed regions in the current picture, and transmits intra coding information to the entropy coding unit 160. The inter predictor 154 may further include a motion estimator 154a and a motion compensator 154b. The motion estimation unit 154a obtains a motion vector value of the current region by referring to the restored specific region. The motion estimator 154a transmits the position information (reference frame, motion vector, etc.) of the reference region to the entropy coding unit 160 to be included in the bitstream. The motion compensation unit 154b performs inter-screen motion compensation by using the motion vector value transmitted from the motion estimation unit 154a.

엔트로피 코딩부(160)는 양자화된 변환 계수, 화면간 부호화 정보, 화면내 부호화 정보 및 인터 예측부(154)로부터 입력된 참조 영역 정보 등을 엔트로피 코딩하여 비디오 신호 비트스트림을 생성한다. 여기서 엔트로피 코딩부(160)에서는 가변 길이 코딩(Variable Length Coding, VLC) 방식과 산술 코딩(arithmetic coding) 등이 사용될 수 있다. 가변 길이 코딩(VLC) 방식은 입력되는 심볼들을 연속적인 코드워드로 변환하는데, 코드워드의 길이는 가변적일 수 있다. 예를 들어, 자주 발생하는 심볼들을 짧은 코드워드로, 자주 발생하지 않은 심볼들은 긴 코드워드로 표현하는 것이다. 가변 길이 코딩 방식으로서 컨텍스트 기반 적응형 가변 길이 코딩(Context-based Adaptive Variable Length Coding, CAVLC) 방식이 사용될 수 있다. 산술 코딩은 연속적인 데이터 심볼들을 하나의 소수로 변환하는데, 산술 코딩은 각 심볼을 표현하기 위하여 필요한 최적의 소수 비트를 얻을 수 있다. 산술 코딩으로서 컨텍스트 기반 적응형 산술 부호화(Context-based Adaptive Binary Arithmetic Code, CABAC)가 이용될 수 있다.The entropy coding unit 160 entropy codes the quantized transform coefficients, inter picture encoding information, intra picture encoding information, and reference region information input from the inter prediction unit 154 to generate a video signal bitstream. In the entropy coding unit 160, a variable length coding (VLC) scheme, arithmetic coding, or the like may be used. The variable length coding (VLC) scheme converts input symbols into consecutive codewords, which may have a variable length. For example, frequently occurring symbols are represented by short codewords and infrequently occurring symbols by long codewords. As a variable length coding method, a context-based adaptive variable length coding (CAVLC) method may be used. Arithmetic coding converts consecutive data symbols into a single prime number, which can obtain the optimal fractional bits needed to represent each symbol. Context-based Adaptive Binary Arithmetic Code (CABAC) may be used as the arithmetic coding.

상기 생성된 비트스트림은 NAL(Network Abstraction Layer) 유닛을 기본 단위로 캡슐화 되어 있다. NAL 유닛은 부호화된 슬라이스 세그먼트를 포함하는데, 상기 슬라이스 세그먼트는 정수 개의 코딩 트리 유닛(Coding Tree Unit)으로 이루어진다. 비디오 디코더에서 비트스트림을 디코딩하기 위해서는 먼저 비트스트림을 NAL 유닛 단위로 분리한 후, 분리 된 각각의 NAL 유닛을 디코딩해야 한다.The generated bitstream is encapsulated in a NAL unit. The NAL unit includes a coded slice segment, which consists of an integer number of coding tree units. In order to decode the bitstream in the video decoder, the bitstream must first be divided into NAL unit units, and then each separated NAL unit must be decoded.

도 2는 본 발명의 일 실시예에 따른 비디오 신호 디코딩 장치(200)의 개략적인 블록도이다. 도 2를 참조하면 본 발명의 디코딩 장치(200)는 크게 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(225), 필터링부(230), 예측부(250)를 포함한다.2 is a schematic block diagram of a video signal decoding apparatus 200 according to an embodiment of the present invention. Referring to FIG. 2, the decoding apparatus 200 of the present invention largely includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 225, a filtering unit 230, and a prediction unit 250.

엔트로피 디코딩부(210)는 비디오 신호 비트스트림을 엔트로피 디코딩하여, 각 영역에 대한 변환 계수, 모션 정보 등을 추출한다. 역양자화부(220)는 엔트로피 디코딩된 변환 계수를 역양자화하고, 역변환부(225)는 역양자화된 변환 계수를 이용하여 원래의 화소값을 복원한다.The entropy decoding unit 210 entropy decodes the video signal bitstream and extracts transform coefficients and motion information for each region. The inverse quantization unit 220 inverse quantizes the entropy decoded transform coefficient, and the inverse transform unit 225 restores the original pixel value by using the inverse quantized transform coefficient.

한편, 필터링부(230)는 픽쳐에 대한 필터링을 수행하여 화질을 향상시킨다. 여기에는 블록 왜곡 현상을 감소시키기 위한 디블록킹 필터 및/또는 픽쳐 전체의 왜곡 제거를 위한 적응적 루프 필터 등이 포함될 수 있다. 필터링을 거친 픽쳐는 출력되거나 다음 프레임에 대한 참조 픽쳐로 이용하기 위하여 복호 픽쳐 버퍼(Decoded Picture Buffer, 256)에 저장된다.Meanwhile, the filtering unit 230 performs filtering on the picture to improve the picture quality. This may include a deblocking filter to reduce block distortion and / or an adaptive loop filter to remove distortion of the entire picture. The filtered picture is output or stored in a decoded picture buffer (256) for use as a reference picture for the next frame.

또한, 본 발명의 예측부(250)는 인트라 예측부(252) 및 인터 예측부(254)를 포함하고, 전술한 엔트로피 디코딩부(210)를 통해 디코딩된 부호화 타입, 각 영역에 대한 변환 계수, 모션 정보 등을 활용하여 예측 픽쳐를 복원하게 된다.In addition, the predictor 250 of the present invention includes an intra predictor 252 and an inter predictor 254, and includes a coding type decoded by the entropy decoder 210 described above, a transform coefficient for each region, The predictive picture is reconstructed by using motion information.

이와 관련하여, 상기 인트라 예측부(252)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행하게 된다. 인터 예측부(254)는 복호 픽쳐 버퍼(256)에 저장된 참조 픽쳐 및 모션 정보를 이용하여 예측 픽쳐를 생성한다. 인터 예측부(254)는 다시 모션 추정부(254a) 및 모션 보상부(254b)를 포함하여 구성될 수 있다. 모션 추정부(254a)에서는 현재 블록과 코딩에 사용하는 참조 픽쳐의 참조 블록간의 위치 관계를 나타내는 모션 벡터를 획득하여 모션 보상부(254b)로 전달한다.In this regard, the intra prediction unit 252 performs the intra prediction from the decoded samples in the current picture. The inter prediction unit 254 generates the predictive picture using the reference picture and the motion information stored in the decoded picture buffer 256. The inter predictor 254 may again include a motion estimator 254a and a motion compensator 254b. The motion estimator 254a obtains a motion vector indicating the positional relationship between the current block and the reference block of the reference picture used for coding and transfers the motion vector to the motion compensator 254b.

상기 인트라 예측부(252) 또는 인터 예측부(254)로부터 출력된 예측값, 및 역변환부(225)로부터 출력된 화소값이 더해져서 복원된 비디오 프레임이 생성된다.The predicted value output from the intra predictor 252 or the inter predictor 254 and the pixel value output from the inverse transform unit 225 are added to generate a reconstructed video frame.

이하에서는, 상기 인코딩 장치(100)와 디코딩 장치(200)의 동작에 있어서, 도 3 내지 도 5를 참조하여 코딩 유닛 및 예측 유닛 등을 분할하는 방법을 설명하기로 한다.Hereinafter, a method of dividing a coding unit, a prediction unit, etc. with reference to FIGS. 3 to 5 in the operations of the encoding apparatus 100 and the decoding apparatus 200 will be described.

코딩 유닛이란 상기에서 설명한 비디오 신호의 처리 과정에서, 예를 들어 화면내(intra)/화면간(inter) 예측, 변환(transform), 양자화(quantization) 및/또는 엔트로피 코딩(entropy coding) 등의 과정에서 픽쳐를 처리하기 위한 기본 단위를 의미한다. 하나의 픽쳐를 코딩하는 데 있어서 사용되는 코딩 유닛의 크기는 일정하지 않을 수 있다. 코딩 유닛은 사각형 형태를 가질 수 있고, 하나의 코딩 유닛은 다시 여러 개의 코딩 유닛으로 분할 가능하다.A coding unit is a process such as intra / inter prediction, transform, quantization and / or entropy coding in the processing of the video signal described above. Means a basic unit for processing a picture. The size of the coding unit used in coding one picture may not be constant. The coding unit may have a rectangular shape, and one coding unit may be further divided into several coding units.

도 3은 코딩 유닛을 분할하는 본 발명의 일 실시예를 나타낸다. 예를 들어, 2N X 2N 크기를 가지는 하나의 코딩 유닛은 다시 N X N 크기를 가지는 네 개의 코딩 유닛으로 분할될 수 있다. 이러한 코딩 유닛의 분할은 재귀적으로 이루어질 수 있으며, 모든 코딩 유닛들이 동일한 형태로 분할될 필요는 없다. 다만, 코딩 및 처리과정에서의 편의를 위하여 최대 코딩 유닛의 크기 및/또는 최소 코딩 유닛의 크기에 대한 제한이 있을 수 있다.3 shows an embodiment of the present invention for dividing a coding unit. For example, one coding unit having a size of 2N × 2N may be divided into four coding units having a size of N × N. The splitting of such coding units can be done recursively, and not all coding units need to be split in the same form. However, there may be a limitation on the size of the maximum coding unit and / or the size of the minimum coding unit for convenience in coding and processing.

하나의 코딩 유닛에 대하여, 해당 코딩 유닛이 분할되는지 여부를 나타내는 정보를 저장할 수 있다. 도 4는 도 3에서 도시하는 코딩 유닛의 분할 구조를 플래그 값을 이용하여 계층적으로 나타내는 방법에 대한 일 실시예를 도시한 것이다. 코딩 유닛의 분할 여부를 나타내는 정보는 해당 유닛이 분할 된 경우 '1', 분할되지 않은 경우 '0'의 값으로 할당할 수 있다. 도 4에서 도시하듯이, 분할 여부를 나타내는 플래그 값이 1이면 해당 노드에 대응하는 코딩 유닛은 다시 4개의 코딩 유닛으로 나누어지고, 0이면 더 이상 나누어지지 않고 해당 코딩 유닛에 대한 처리 프로세스가 수행될 수 있다.For one coding unit, information indicating whether the corresponding coding unit is split may be stored. FIG. 4 illustrates an embodiment of a method for hierarchically representing a division structure of a coding unit illustrated in FIG. 3 using a flag value. Information indicating whether a coding unit is divided may be allocated to a value of '1' when the corresponding unit is divided and '0' when it is not divided. As shown in FIG. 4, when a flag value indicating whether to split is 1, a coding unit corresponding to a corresponding node is divided into 4 coding units, and when 0, a processing process for the coding unit is performed without being divided further. Can be.

상기에서 설명한 코딩 유닛의 구조는 재귀적인 트리 구조를 이용하여 나타낼 수 있다. 즉, 하나의 픽쳐 또는 최대 크기 코딩 유닛을 루트(root)로 하여, 다른 코딩 유닛으로 분할되는 코딩 유닛은 분할된 코딩 유닛의 개수만큼의 자식(child) 노드를 가지게 된다. 따라서, 더 이상 분할되지 않는 코딩 유닛이 리프(leaf) 노드가 된다. 하나의 코딩 유닛에 대하여 정방형 분할만이 가능하다고 가정할 때, 하나의 코딩 유닛은 최대 4개의 다른 코딩 유닛으로 분할될 수 있으므로 코딩 유닛을 나타내는 트리는 쿼드 트리(Quad tree) 형태가 될 수 있다.The structure of the coding unit described above may be represented using a recursive tree structure. That is, a coding unit split into another coding unit with one picture or maximum size coding unit as a root has as many child nodes as the number of split coding units. Thus, coding units that are no longer split become leaf nodes. Assuming that only square division is possible for one coding unit, one coding unit may be divided into up to four other coding units, so a tree representing the coding unit may be in the form of a quad tree.

인코더에서는 비디오 픽쳐의 특성(예를 들어, 해상도)에 따라서 혹은 코딩의 효율을 고려하여 최적의 코딩 유닛의 크기가 선택되고 이에 대한 정보 또는 이를 유도할 수 있는 정보가 비트스트림에 포함될 수 있다. 예를 들면, 최대 코딩 유닛의 크기 및 트리의 최대 깊이가 정의될 수 있다. 정방형 분할을 할 경우, 코딩 유닛의 높이 및 너비는 부모 노드의 코딩 유닛의 높이 및 너비의 반이 되므로, 상기와 같은 정보를 이용하면 최소 코딩 유닛 크기를 구할 수 있다. 혹은 역으로, 최소 코딩 유닛 크기 및 트리의 최대 깊이를 미리 정의하여 이용하고, 이를 이용하여 최대 코딩 유닛의 크기를 유도하여 이용할 수 있다. 정방형 분할에서 유닛의 크기는 2의 배수 형태로 변화하기 때문에, 실제 코딩 유닛의 크기는 2를 밑으로 하는 로그값으로 나타내어 전송 효율을 높일 수 있다.In the encoder, an optimal coding unit size is selected according to characteristics (eg, resolution) of a video picture or in consideration of coding efficiency, and information about the same or information capable of deriving the coding unit may be included in the bitstream. For example, the size of the largest coding unit and the maximum depth of the tree can be defined. In the case of square division, since the height and width of the coding unit are half the height and width of the coding unit of the parent node, the minimum coding unit size can be obtained using the above information. Alternatively, the minimum coding unit size and the maximum depth of the tree may be defined in advance, and the maximum coding unit size may be derived and used. Since the size of the unit changes in a multiple of 2 in square division, the size of the actual coding unit is represented by a logarithm of the base of 2, thereby improving transmission efficiency.

디코더에서는 현재 코딩 유닛이 분할되었는지 여부를 나타내는 정보를 획득할 수 있다. 이러한 정보는 특정 조건 하에만 획득하게(전송되게) 하면 효율을 높일 수 있다. 예를 들어 현재 코딩 유닛이 분할 가능한 조건은 현재 위치에서 현재 코딩 유닛 크기를 더한 것이 픽쳐의 크기보다 작고, 현재 유닛 크기가 기 설정된 최소 코딩 유닛 크기보다 큰 경우이므로, 이러한 경우에만 현재 코딩 유닛이 분할되었는지를 나타내는 정보를 획득할 수 있다.The decoder may obtain information indicating whether the current coding unit is split. This information can be obtained only if the information is obtained (transmitted) under certain conditions, thereby increasing efficiency. For example, the condition that the current coding unit can be divided is that the current coding unit is divided by the current coding unit size at the current position is smaller than the picture size and the current unit size is larger than the preset minimum coding unit size. Information indicating whether or not it can be obtained.

만약 상기 정보가 코딩 유닛이 분할되었음을 나타내는 경우, 분할될 코딩 유닛의 크기는 현재 코딩 유닛의 반이 되고, 현재 처리 위치를 기준으로 하여 4개의 정방형 코딩 유닛들로 분할된다. 각 분할된 코딩 유닛들에 대해서 상기와 같은 처리를 반복할 수 있다.If the information indicates that the coding unit is split, the size of the coding unit to be split is half of the current coding unit, and is split into four square coding units based on the current processing position. The above process can be repeated for each divided coding units.

도 5는 코딩 유닛을 분할하는 본 발명의 추가적인 실시예를 나타낸다. 본 발명의 추가적인 실시예에 따르면, 전술한 쿼드 트리 형태의 코딩 유닛은 수평 분할 또는 수직 분할의 바이너리 트리(binary tree) 구조로 더욱 분할될 수 있다. 즉, 루트 코딩 유닛에 대하여 정사각형의 쿼드 트리 분할이 먼저 적용되며, 쿼드 트리의 리프 노드에서 직사각형의 바이너리 트리 분할이 추가적으로 적용될 수 있다. 일 실시예에 따르면, 바이너리 트리 분할은 대칭적인 수평 분할 또는 대칭적인 수직 분할일 수 있으나, 본 발명은 이에 한정되지 않는다.5 shows a further embodiment of the present invention for dividing a coding unit. According to a further embodiment of the present invention, the aforementioned quad tree type coding unit may be further divided into a binary tree structure of horizontal division or vertical division. That is, square quad tree splitting is first applied to the root coding unit, and rectangular binary tree splitting can be additionally applied at leaf nodes of the quad tree. According to an embodiment, the binary tree split may be symmetric horizontal split or symmetric vertical split, but the present invention is not limited thereto.

바이너리 트리의 각 분할 노드에서, 분할 형태(즉, 수평 분할 또는 수직 분할)를 지시하는 플래그가 추가적으로 시그널링 될 수 있다. 일 실시예에 따르면, 상기 플래그의 값이 '0'인 경우 수평 분할이 지시되고, 상기 플래그의 값이 '1'인 경우 수직 분할이 지시될 수 있다.At each split node of the binary tree, a flag indicating the split type (ie, horizontal split or vertical split) may be additionally signaled. According to an embodiment, when the value of the flag is '0', horizontal division may be indicated, and when the value of the flag is '1', vertical division may be indicated.

다만, 본 발명의 실시예에서 코딩 유닛의 분할 방법은 전술한 방법들로 한정되지 않으며, 비대칭적인 수평/수직 분할, 3개의 직사각형 코딩 유닛으로 분할되는 트리플 트리(triple tree) 등이 적용될 수도 있다.However, in the embodiment of the present invention, the splitting method of the coding unit is not limited to the above-described methods, and asymmetric horizontal / vertical splitting, a triple tree divided into three rectangular coding units, and the like may be applied.

코딩을 위한 픽쳐 예측(모션 보상)은 더 이상 나누어지지 않는 코딩 유닛(즉 코딩 유닛 트리의 리프 노드)을 대상으로 이루어진다. 이러한 예측을 수행하는 기본 단위를 이하에서는 예측 유닛(prediction unit) 또는 예측 블록(prediction block)이라고 한다.Picture prediction (motion compensation) for coding is directed to coding units (i.e. leaf nodes of the coding unit tree) that are no longer divided. The basic unit for performing such prediction is hereinafter referred to as a prediction unit or a prediction block.

이하, 본 명세서에서 사용되는 유닛 이라는 용어는 예측을 수행하는 기본 단위인 상기 예측 유닛을 대체하는 용어로 사용될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 더욱 광의적으로는 상기 코딩 유닛을 포함하는 개념으로 이해될 수 있다.Hereinafter, the term unit used in the present specification may be used as a term to replace the prediction unit, which is a basic unit for performing prediction. However, the present invention is not limited thereto and may be broadly understood as a concept including the coding unit.

디코딩이 수행되는 현재 유닛을 복원하기 위해서 현재 유닛이 포함된 현재 픽쳐 또는 다른 픽쳐들의 디코딩된 부분이 이용될 수 있다. 복원에 현재 픽쳐만을 이용하는, 즉 화면내 예측만을 수행하는 픽쳐(슬라이스)를 인트라 픽쳐 또는 I 픽쳐(슬라이스), 화면내 예측과 화면간 예측을 모두 수행할 수 있는 픽쳐(슬라이스)를 인터 픽쳐(슬라이스)라고 한다. 인터 픽쳐(슬라이스) 중 각 유닛을 예측하기 위하여 최대 하나의 모션 벡터 및 레퍼런스 인덱스를 이용하는 픽쳐(슬라이스)를 예측 픽쳐(predictive picture) 또는 P 픽쳐(슬라이스)라고 하며, 최대 두 개의 모션 벡터 및 레퍼런스 인덱스를 이용하는 픽쳐(슬라이스)를 쌍예측 픽쳐(Bi-predictive picture) 또는 B 픽쳐(슬라이스) 라고 한다.The decoded portion of the current picture or other pictures in which the current unit is included may be used to reconstruct the current unit in which decoding is performed. An intra picture or I picture (slice) that uses only the current picture for reconstruction, that is, performs only intra picture prediction, and an inter picture (slice) that can perform both intra picture and inter picture prediction. ). A picture (slice) that uses up to one motion vector and reference index to predict each unit of an inter picture (slice) is called a predictive picture or P picture (slice), and up to two motion vectors and a reference index A picture using a slice is called a bi-predictive picture or a B picture.

인트라 예측부에서는 현재 픽쳐 내의 복원된 영역들로부터 대상 유닛의 픽셀값을 예측하는 화면내 예측(Intra prediction)을 수행한다. 예를 들어, 현재 유닛을 중심으로, 좌측 및/또는 상단에 위치한 유닛들의 복원된 픽셀로부터 현재 유닛의 픽셀값을 예측할 수 있다. 이때, 현재 유닛의 좌측에 위치한 유닛들은 현재 유닛에 인접한 좌측 유닛, 좌측 상단 유닛 및 좌측 하단 유닛을 포함할 수 있다. 또한, 현재 유닛의 상단에 위치한 유닛들은 현재 유닛에 인접한 상단 유닛, 좌측 상단 유닛 및 우측 상단 유닛을 포함할 수 있다.The intra prediction unit performs intra prediction to predict the pixel value of the target unit from the reconstructed regions in the current picture. For example, the pixel value of the current unit can be predicted from the reconstructed pixels of units located on the left and / or top, centering on the current unit. In this case, the units located on the left side of the current unit may include a left unit, an upper left unit, and a lower left unit adjacent to the current unit. In addition, units located at the top of the current unit may include a top unit, a left top unit, and a top right unit adjacent to the current unit.

한편, 인터 예측부에서는 현재 픽쳐가 아닌 복원된 다른 픽쳐들의 정보를 이용하여 대상 유닛의 픽셀값을 예측하는 화면간 예측(Inter prediction)을 수행한다. 이때, 예측에 이용되는 픽쳐를 참조 픽쳐(reference picture)라고 한다. 화면간 예측 과정에서 현재 유닛을 예측하는데 어떤 참조 영역을 이용하는지는, 해당 참조 영역이 포함된 참조 픽쳐를 나타내는 인덱스 및 모션 벡터(motion vector) 정보 등을 이용하여 나타낼 수 있다.Meanwhile, the inter prediction unit performs inter prediction for predicting a pixel value of a target unit by using information of other reconstructed pictures other than the current picture. In this case, a picture used for prediction is referred to as a reference picture. Which reference region is used to predict the current unit in the inter prediction process may be indicated by using an index indicating a reference picture including the reference region, motion vector information, and the like.

화면간 예측에는 L0 예측, L1 예측 및 쌍예측(Bi-prediction)이 있을 수 있다. L0 예측은 L0 픽쳐 리스트에 포함된 1개의 참조 픽쳐를 이용한 예측이고, L1 예측은 L1 필쳐 리스트에 포함된 1개의 참조 픽쳐를 이용한 예측을 의미한다. 이를 위해서는 1세트의 모션 정보(예를 들어, 모션 벡터 및 참조 픽쳐 인덱스)가 필요할 수 있다. 쌍예측 방식에서는 최대 2개의 참조 영역을 이용할 수 있는데, 이 2개의 참조 영역은 동일한 참조 픽쳐에 존재할 수도 있고, 서로 다른 픽쳐에 각각 존재할 수도 있다. 즉, 쌍예측 방식에서는 최대 2세트의 모션 정보(예를 들어, 모션 벡터 및 참조 픽쳐 인덱스)가 이용될 수 있는데, 2개의 모션 벡터가 동일한 참조 픽쳐 인덱스에 대응될 수도 있고 서로 다른 참조 픽쳐 인덱스에 대응될 수도 있다. 이때, 참조 픽쳐들은 시간적으로 현재 픽쳐 이전이나 이후 모두에 표시(또는 출력)될 수 있다.The inter prediction may include L0 prediction, L1 prediction, and bi-prediction. L0 prediction means prediction using one reference picture included in the L0 picture list, and L1 prediction means prediction using one reference picture included in the L1 picture list. For this purpose, one set of motion information (eg, a motion vector and a reference picture index) may be required. In the bi-prediction method, up to two reference regions may be used, and these two reference regions may exist in the same reference picture or may exist in different pictures, respectively. That is, in the pair prediction method, up to two sets of motion information (eg, a motion vector and a reference picture index) may be used, and two motion vectors may correspond to the same reference picture index or may be different from each other. It may also correspond. In this case, the reference pictures may be displayed (or output) before or after the current picture in time.

모션 벡터 및 참조 픽쳐 인덱스를 이용하여 현재 유닛의 참조 유닛을 획득할 수 있다. 상기 참조 유닛은 상기 참조 픽쳐 인덱스를 가진 참조 픽쳐 내에 존재한다. 또한, 상기 모션 벡터에 의해서 특정된 유닛의 픽셀값 또는 보간(interpolation)된 값이 상기 현재 유닛의 예측값(predictor)으로 이용될 수 있다. 서브펠(sub-pel) 단위의 픽셀 정확도를 갖는 모션 예측을 위하여 이를 테면, 휘도 신호에 대하여 8-탭 보간 필터가, 색차 신호에 대하여 4-탭 보간 필터가 사용될 수 있다. 다만, 서브펠 단위의 모션 예측을 위한 보간 필터는 이에 한정되지 않는다. 이와 같이 모션 정보를 이용하여, 이전에 디코딩된 픽쳐로부터 현재 유닛의 텍스쳐를 예측하는 모션 보상(motion compensation)이 수행된다.The reference unit of the current unit may be obtained using the motion vector and the reference picture index. The reference unit exists in a reference picture having the reference picture index. In addition, a pixel value or an interpolated value of a unit specified by the motion vector may be used as a predictor of the current unit. For motion prediction with pixel accuracy on a sub-pel basis, for example, an 8-tap interpolation filter may be used for the luminance signal and a 4-tap interpolation filter may be used for the chrominance signal. However, the interpolation filter for motion prediction in the subpel unit is not limited thereto. As such, using motion information, motion compensation is performed to predict the texture of the current unit from a previously decoded picture.

이하, 도 6 및 도 7을 참고로 본 발명의 실시예에 따른 화면내 예측 방법을 더욱 구체적으로 설명하도록 한다. 전술한 바와 같이, 인트라 예측부에서는 현재 유닛의 좌측 및/또는 상단에 위치한 인접 픽셀들을 참조 픽셀로 이용하여 현재 유닛의 픽셀값을 예측한다.Hereinafter, the intra prediction method according to an embodiment of the present invention will be described in more detail with reference to FIGS. 6 and 7. As described above, the intra prediction unit predicts pixel values of the current unit by using adjacent pixels located at the left and / or the top of the current unit as reference pixels.

도 6에 도시된 바와 같이, 현재 유닛의 크기가 NXN일 경우, 현재 유닛의 좌측 및/또는 상단에 위치한 최대 4N+1개의 인접 픽셀들을 사용하여 참조 픽셀들이 설정될 수 있다. 참조 픽셀로 사용될 적어도 일부의 인접 픽셀이 아직 복원되지 않은 경우, 인트라 예측부는 기 설정된 규칙에 따른 참조 샘플 패딩 과정을 수행하여 참조 픽셀을 획득할 수 있다. 또한, 인트라 예측부는 화면내 예측의 오차를 줄이기 위해 참조 샘플 필터링 과정을 수행할 수 있다. 즉, 인접 픽셀들 및/또는 참조 샘플 패딩 과정에 의해 획득된 픽셀들에 필터링을 수행하여 참조 픽셀들이 획득할 수 있다. 인트라 예측부는 이와 같이 획득된 참조 픽셀들을 이용하여 현재 유닛의 픽셀들을 예측한다.As shown in FIG. 6, when the size of the current unit is NXN, reference pixels may be set using up to 4N + 1 adjacent pixels located on the left and / or top of the current unit. If at least some of the adjacent pixels to be used as the reference pixels have not been reconstructed yet, the intra predictor may obtain the reference pixels by performing a reference sample padding process according to a preset rule. In addition, the intra predictor may perform a reference sample filtering process to reduce an error of intra prediction. That is, the reference pixels may be obtained by filtering the pixels acquired by the adjacent pixels and / or the reference sample padding process. The intra predictor predicts the pixels of the current unit by using the reference pixels thus obtained.

도 7은 화면내 예측에 사용되는 예측 모드들의 일 실시예를 도시한다. 화면내 예측을 위해, 화면내 예측 방향을 지시하는 화면내 예측 모드 정보가 시그널링될 수 있다. 현재 유닛이 화면내 예측 유닛일 경우, 비디오 신호 디코딩 장치는 비트스트림으로부터 현재 유닛의 화면내 예측 모드 정보를 추출한다. 비디오 신호 디코딩 장치의 인트라 예측부는 추출된 화면내 예측 모드 정보에 기초하여 현재 유닛에 대한 화면내 예측을 수행한다.7 illustrates one embodiment of prediction modes used for intra picture prediction. For intra prediction, intra prediction mode information indicating an intra prediction direction may be signaled. When the current unit is an intra picture prediction unit, the video signal decoding apparatus extracts intra picture prediction mode information of the current unit from the bitstream. The intra prediction unit of the video signal decoding apparatus performs the intra prediction on the current unit based on the extracted intra prediction mode information.

본 발명의 일 실시예에 따르면, 화면내 예측 모드는 총 67개의 모드를 포함할 수 있다. 각각의 화면내 예측 모드는 기 설정된 인덱스(즉, 인트라 모드 인덱스)를 통해 지시될 수 있다. 예를 들어, 도 7에 도시된 바와 같이 인트라 모드 인덱스 0은 평면(planar) 모드를 지시하고, 인트라 모드 인덱스 1은 DC 모드를 지시하며, 인트라 모드 인덱스 2~66은 서로 다른 방향 모드들(즉, 각도 모드들)을 각각 지시할 수 있다. 화면내 예측부는 현재 유닛의 화면내 예측 모드 정보에 기초하여, 현재 유닛의 화면내 예측에 사용될 참조 픽셀들 및/또는 보간된 참조 픽셀들을 결정한다. 인트라 모드 인덱스가 특정 방향 모드를 지시할 경우, 현재 유닛의 현재 픽셀로부터 상기 특정 방향에 대응하는 참조 픽셀 또는 보간된 참조 픽셀이 현재 픽셀의 예측에 사용된다. 따라서, 화면내 예측 모드에 따라 서로 다른 세트의 참조 픽셀들 및/또는 보간된 참조 픽셀들이 화면내 예측에 사용될 수 있다.According to an embodiment of the present invention, the intra prediction mode may include a total of 67 modes. Each intra prediction mode may be indicated through a preset index (ie, an intra mode index). For example, as shown in FIG. 7, intra mode index 0 indicates a planar mode, intra mode index 1 indicates a DC mode, and intra mode indexes 2 to 66 indicate different directional modes (ie, , Angle modes), respectively. The intra prediction unit determines reference pixels and / or interpolated reference pixels to be used for intra prediction of the current unit based on the intra prediction mode information of the current unit. When the intra mode index indicates a specific direction mode, a reference pixel or interpolated reference pixel corresponding to the specific direction from the current pixel of the current unit is used for prediction of the current pixel. Thus, different sets of reference pixels and / or interpolated reference pixels may be used for intra prediction according to the intra prediction mode.

참조 픽셀들 및 화면내 예측 모드 정보를 이용하여 현재 유닛의 화면내 예측이 수행되고 나면, 비디오 신호 디코딩 장치는 역변환부로부터 획득된 현재 유닛의 잔차 신호를 현재 유닛의 화면내 예측값과 더하여 현재 유닛의 픽셀 값들을 복원한다.After the intra prediction of the current unit is performed by using the reference pixels and the intra prediction mode information, the video signal decoding apparatus adds the residual signal of the current unit obtained from the inverse transform unit with the intra prediction of the current unit to determine the current unit. Restore pixel values.

도8은 16x16의 크기를 갖은 변환 블록과 4x4의 서브변환블록의 예를 나타낸 도면이다. 서브변환 블록 단위로 변환 후 계수(이하 변환계수)를 여러 방법으로 스캔하여 여러 종류의 신택스 요소로 나타낸 다음 확률모델 혹은 bypass로 CABAC(Context-Based Adaptive Binary Arithmetic Coding)의 입력 값이 된다. 서브 변환 블록은 정사각형 혹은 직사각형 형태의 다양한 크기로 구성 될 수 있다. 8 illustrates an example of a transform block having a size of 16 × 16 and a sub transform block of 4 × 4. After transforming by sub-conversion block unit, the coefficients (hereinafter, referred to as transform coefficients) are scanned in various ways and represented as various types of syntax elements, and then input into CABAC (Context-Based Adaptive Binary Arithmetic Coding) as a probability model or bypass. The sub transform block can be composed of various sizes, such as square or rectangular.

도 9는 Transform sub-block coefficients 부호화의 일예를 나타낸 도면이다. 9 is a diagram illustrating an example of encoding Transform sub-block coefficients.

도9-1은 변환 블록내 4x4단위로 구성된 coefficient group(CG)의 변환 계수를 나타낸 실시예이다. 도9-2는 상기 도9-1을 부호화 하기위해 Significance flag, coefficient level greater than 1, coefficient level greater than2, Sign flag, remaining level(remaining absolute level) 플래그 들을 사용한다. Significance flag는 변환계수의 위치를 알려주는 지시자이다. coefficient level greater than 1는 절대값이 0보다 큰 변환계수 중 1보다 큰지 작은지에 대한 지시자이며 스캔순서에 의해 첫번째부터 8번째 계수들에 대해서만 표시하며 9번째 이상은 표시하지 않는다. coefficient level greater than2는 coefficient level greater than1로 지시된 변화 계수 중에서 스캔 순서에 의해 절대값이 2보다 큰 첫번째에 대해서만 지시자로 사용된다. , Sign flag는 변환계수의 부호 정보를 알려주는 지시자이다. remaining level(remaining absolute level)은 상기 지시자들을 빼고 남은 절대값의 크기를 정수로 지시한다.9-1 illustrates an embodiment of transform coefficients of a coefficient group (CG) configured of 4x4 units in a transform block. 9-2 uses Significance flag, coefficient level greater than 1, coefficient level greater than 2, Sign flag, and remaining level (remaining absolute level) flags to encode FIG. 9-1. The significance flag is an indicator of the location of the conversion factor. coefficient level greater than 1 is an indicator of whether the absolute value is greater than or less than 1 of the conversion coefficients greater than 0. It is only displayed for the first to eighth coefficients in the scanning order. coefficient level greater than2 is used as an indicator only for the first change coefficient indicated by coefficient level greater than1, whose absolute value is greater than 2, depending on the scanning order. The sign flag is an indicator that indicates the sign information of the conversion coefficient. The remaining level (remaining absolute level) indicates the magnitude of the remaining absolute value without the above indicators as an integer.

도10은 변환 계수 그룹내에서 1개의 변환 계수에 대해 부호 hiding의 예를 나타낸 도면이다. 10 shows an example of code hiding for one transform coefficient in a transform coefficient group.

하나의 변환 계수 -3에 대한 부호 hiding에 관한 일 실시예이다. 도10-1은 도10-2처럼 분리하여 고려할 수 있고 실제 부호 (-)에 대해 인코더는 hiding하고자 하는 변환계수의 부호를 부호조합 2가지 각각에 대해서 변환/양자화/역양자화/역변환으로 변환계수 그룹 전체 혹은 일부에 대해(그룹 전체 혹은 일부는 역변환에만 한정할 수 있다.) 샘플값(잔차) 재 복원하여 도12에 기술된 discontinuity를 판단하는 방법으로 각각의 부호조합에 대해 cost값을 계산한다. 역변환의 횟수를 최소화 하는 방법도 고려할 수 있다. 절대값이 1인 non-zero coefficient 각각에 대해서만 한번씩 역변환을 하고 reconstructed elemental residual or 템플릿 형태로 lookup table에 미리 계산되고 저장 할 수 있다. 최소 cost값으로 정렬하여 그중 가장 작은 것에 대해서 1비트로 cost의 부호조합이 원래 변환계수의 실제 부호와 맞으면 1이고 맞지 않으면 0이 되며, 0일 때는 2번째를 정답으로 판단하고 역변환하고 다음 순서를 진행한다. 상기 1비트는 최소 cost를 갖는 부호 조합이 맞냐/맞지 않느냐로 context model를 만들어 사용 할 수 있다. One embodiment relates to code hiding for one transform coefficient -3. Fig. 10-1 can be considered separately as in Fig. 10-2, and for the actual sign (-), the encoder transforms the sign of the transform coefficient to be hidden by transform / quantization / dequantization / inverse transform for each of the two code combinations. For all or part of the group (all or part of the group can be limited to inverse transformation only), the cost value for each code combination is calculated by reconstructing the sample value (residual) to determine the discontinuity described in FIG. . Consideration can be given to minimizing the number of inverse transforms. Only one non-zero coefficient with an absolute value of 1 can be inversely transformed and precomputed and stored in a lookup table in the form of a reconstructed elemental residual or template. Sort by the minimum cost value and use 1 bit for the smallest of them. If the code combination of cost matches the actual sign of the original conversion coefficient, it is 1, and if it is not, 0 is determined. do. The 1-bit can be used to create a context model whether the code combination having the minimum cost is correct or not.

도11은 변환 계수 그룹내에서 2개의 변환 계수에 대해 부호 hiding의 예를 나타낸 도면이다. 11 is a diagram showing an example of code hiding for two transform coefficients in a transform coefficient group.

2개의 부호 비트를 hiding하는 방법으로 부호의 조합은 2^2개가 가능하다. 예를 들면 부호조합1:(++), 부호조합2: (+-), 부호조합3:(-+), 부호조합4: (--)이 될 수 있다. 인코더는 부호 hiding하고자 하는 변환계수의 부호를 부호조합4가지 각각에 대해서 변환/양자화/역양자화/역변환으로 변환계수 그룹을 재 복원하여 도12 이하에 기술된 discontinuity를 판단하는 방법으로 각각의 부호조합에 대해 cost값을 계산한다. 최소의 cost를 갖는 부호가 인코더가 의도한 정학환 값이면 디코더도 같은 방법으로 cost를 계산하여 최소 cost를 갖는 부호를 적용하여 현재 블록을 복원 할 수 있다. 하지만 잔차 신호의 절대값의 크기에 따라 그 정확도가 다를 수 있다. 그 값이 큰 경우는 변환/역변환된 잔차 신호의 값 차기가 커서 부호가 정확하지 않으면 cost가 커지게 된다. 하지만, 그 값이 작은 경우에는 복원된 잔차 신호의 크기차가 작아 cost값 계산의 정확도가 떨어 질 수 있다.By hiding two code bits, 2 ^ 2 code combinations are possible. For example, the code combination 1: (++), code combination 2: (+-), code combination 3: (-+), code combination 4: (-). The encoder reconstructs the transform coefficient group by transform / quantization / inverse quantization / inverse transformation for each of the four code combinations for the code hiding to encode the codes. Calculate the cost value for. If the code having the minimum cost is a Hakhwan value intended by the encoder, the decoder may calculate the cost and apply the code having the minimum cost to restore the current block. However, the accuracy may vary depending on the magnitude of the absolute value of the residual signal. If the value is large, the cost is increased if the sign is not correct because the value difference of the transformed / inversely transformed residual signal is large. However, when the value is small, the accuracy of cost value calculation may be reduced because the magnitude difference of the restored residual signal is small.

도12는 화면내 예측에 사용된 예측 모드를 그룹화한 도면이다. 12 is a grouping of prediction modes used for intra prediction.

화면내 예측 모드들 중 DC, Planar등 무방향성 예측 모드 그룹 하나와 방향성을 나타내는 각도 모드를 5개 그룹으로 나타낸 도면이다. 화면내 예측 모드에 따라 cost 계산 방법에서 참조 샘플 선택하는 방법이 다를 수 있다. 화면내 예측모드가 미리 정해진 해당 그룹에 포함되면 해당 그룹에서 사용하는 cost계산 방법을 사용하도록 한다. 혹은 예측 모드의 각도에 기반하여 샘플값을 보간하여 결정할 수 있다. 2개의 샘플간 선형 보간 방법/가중 보간 방법들을 사용할 수 있다. 두 샘플 간의 보간 방법은 HEVC/H.256 에서 사용된 예측 모드 기반 샘플값 취득 방법을 사용하는 것도 가능하다.Among the intra prediction modes, one non-directional prediction mode group such as DC and Planar and an angular mode indicating directionality are illustrated in five groups. Depending on the intra prediction mode, the method of selecting a reference sample in the cost calculation method may be different. If the intra prediction mode is included in the predetermined group, the cost calculation method used in the group is used. Alternatively, the sample value may be determined by interpolating based on the angle of the prediction mode. Two intersample linear interpolation methods / weighted interpolation methods can be used. The interpolation method between two samples may use the prediction mode based sample value acquisition method used in HEVC / H.256.

도13는 주변 복원된 블록의 일부 상측과 좌측 샘플들과 현재 코딩 블록의 상단 및 좌측 샘플값의 불연속성을 측정하는 방법을 나타낸 도면이다. 아래 수학식1과 같이 정의 하여 cost값을 계산 할 수 있다. Cost를 계산하는 방법은 보다 다양한 방법으로 정의하여 사용할 수 있고 수학식1은 그중 일 실시예일 뿐이다. 계산에 필요한 샘플 구성 방법도 여러가지 형태로 구성할 수 있다. 본 발명에서는 좌측과 우측 샘플과 이웃 샘플을 이용하는 형태로 설명 하지만 3면 혹은 4면 모두 사용 가능한 경우는 확장 가능하다.FIG. 13 is a diagram illustrating a method of measuring a discontinuity of some upper and left samples of a neighboring reconstructed block and upper and left sample values of a current coding block. It can be defined as Equation 1 below to calculate the cost value. The method of calculating the cost can be defined and used in more various ways, and Equation 1 is only one embodiment thereof. The sample configuration required for the calculation can be configured in various forms. In the present invention, the left and right samples and the neighboring samples will be described in the form of using all three or four sides can be extended.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

where R is reconstructed neighbors, P is prediction of the current block, and r is the residual hypothesis. The term (-R-1+2R0-P1) can be calculated only once per block and only residual hypothesis is subtracted.where R is reconstructed neighbors, P is prediction of the current block, and r is the residual hypothesis. The term (-R -1 + 2R 0 -P 1 ) can be calculated only once per block and only residual hypothesis is subtracted.

도14는 주변 복원된 블록의 일부 상측과 좌측 샘플들과 현재 코딩 블록의 상단 및 좌측 샘플값의 불연속성을 측정하는 방법을 나타낸 도면이다. 도14는 도 13과 다르게 샘플 구성 방법이 좌상단에서 차이가 있다. 혹은 도 14의 구성에서 좌상단의 모서리에 있는 샘플은 우측과 좌측 모두에 계산되는 형태로 구성할 수 있다. 도 13과 14의 방법은 화면내 예측 모드 중 무방향성 예측 모드에 적용할 수 있다.FIG. 14 is a diagram illustrating a method of measuring a discontinuity of some upper and left samples of a neighboring reconstructed block and upper and left sample values of a current coding block. FIG. 14 differs from FIG. 13 in that the sample configuration method is at the top left. Alternatively, in the configuration of FIG. 14, the sample at the upper left corner may be configured to be calculated on both the right side and the left side. 13 and 14 may be applied to the non-directional prediction mode among the intra prediction modes.

도15는 cost 계산 시 화면내 예측 모드가 도12의 그룹M1에 포함된 경우에 사용되는 샘플 구성을 나타낸 도면이다. 화면내 예측 모드가 수평 방향 모드인 경우 현재 블록의 좌측 참조 샘플 값을 이용해 예측을 한 경우로 참조 샘플과 원본 샘플 간의 차이가 가장 적을 수 있다. 따라서 잔차 신호의 부호가 바뀌면 cost계산 시 그 차이가 커지게 된다. 최소 cost를 갖는 부호 조합이 정답일 확률을 높일 수 있다.FIG. 15 is a diagram illustrating a sample configuration used when an intra prediction mode is included in group M1 of FIG. When the intra prediction mode is the horizontal mode, the prediction is performed by using the left reference sample value of the current block. The difference between the reference sample and the original sample may be smallest. Therefore, if the sign of the residual signal is changed, the difference is large when calculating the cost. It is possible to increase the probability that the code combination having the minimum cost is the correct answer.

도16는 cost 계산 시 화면내 예측 모드가 도12의 그룹M3에 포함된 경우에 사용되는 샘플 구성을 나타낸 도면이다. 화면내 예측 모드가 수직 방향 모드인 경우 현재 블록의 우측 참조 샘플 값을 이용해 예측을 한 경우로 참조 샘플과 원본 샘플 간의 차이가 가장 적을 수 있다. 따라서 잔차 신호의 부호가 바뀌면 cost계산 시 그 차이가 커지게 된다. 최소 cost를 갖는 부호 조합이 정답일 확률을 높일 수 있다. FIG. 16 is a diagram illustrating a sample configuration used when an intra prediction mode is included in group M3 of FIG. 12 when a cost is calculated. When the intra prediction mode is the vertical mode, the prediction is performed using the right reference sample value of the current block. The difference between the reference sample and the original sample may be the smallest. Therefore, if the sign of the residual signal is changed, the difference is large when calculating the cost. It is possible to increase the probability that the code combination having the minimum cost is the correct answer.

도17는 cost 계산 시 화면내 예측 모드가 도12의 그룹M0 / M4에 포함된 경우에 사용되는 샘플 구성을 나타낸 도면이다. 화면내 예측 모드가 수평대각(M0)/수직대각(M4) 방향 모드인 경우 현재 블록의 수평/주식 대각방향으로 참조 샘플 값을 이용해 예측을 한 경우로 참조 샘플과 원본 샘플 간의 차이가 가장 적을 수 있다. 따라서 잔차 신호의 부호가 바뀌면 cost계산 시 그 차이가 커지게 된다. 최소 cost를 갖는 부호 조합이 정답일 확률을 높일 수 있다. FIG. 17 is a diagram illustrating a sample configuration used when an intra prediction mode is included in the group MO / M4 of FIG. If the intra prediction mode is in the horizontal diagonal (M0) / vertical diagonal (M4) direction mode, the difference between the reference sample and the original sample may be the smallest when the prediction is made using the reference sample value in the horizontal / stock diagonal direction of the current block. have. Therefore, if the sign of the residual signal is changed, the difference is large when calculating the cost. It is possible to increase the probability that the code combination having the minimum cost is the correct answer.

도18은 cost 계산 시 화면내 예측 모드가 도12의 그룹M0 / M4에 포함된 경우에 사용되는 샘플 구성의 다른 예를 나타낸 도면이다. 도 17과 다르게 현재블록의 좌측 샘플과 우측 샘플 모두를 cost 계산에 사용하도록 하는 방법으로 주변 블록의 샘플 구성이 현재 블록의 높이/넓이를 초과하여 구성하고 있다.FIG. 18 is a diagram illustrating another example of a sample configuration used when an intra prediction mode is included in the group MO / M4 of FIG. Unlike in FIG. 17, a sample configuration of a neighboring block exceeds the height / width of the current block in such a manner that both left and right samples of the current block are used for cost calculation.

도19은 cost 계산 시 화면내 예측 모드가 도12의 그룹M2에 포함된 경우에 사용되는 샘플 구성의 예를 나타낸 도면이다. 화면내 예측 모드가 대각(M2) 방향 모드인 경우 현재 블록의 대각방향으로 참조 샘플 값을 이용해 예측을 한 경우로 참조 샘플과 원본 샘플 간의 차이가 가장 적을 수 있다. 따라서 잔차 신호의 부호가 바뀌면 cost계산 시 그 차이가 커지게 된다. 최소 cost를 갖는 부호 조합이 정답일 확률을 높일 수 있다. 19 is a diagram illustrating an example of a sample configuration used when an intra prediction mode is included in group M2 of FIG. 12 when a cost is calculated. When the intra prediction mode is the diagonal (M2) direction mode, the prediction is performed using the reference sample value in the diagonal direction of the current block, and the difference between the reference sample and the original sample may be smallest. Therefore, if the sign of the residual signal is changed, the difference is large when calculating the cost. It is possible to increase the probability that the code combination having the minimum cost is the correct answer.

도 20은 cost 계산 시 화면내 예측 모드가 도12의 그룹M2에 포함된 경우에 사용되는 샘플 구성의 다른 예를 나타낸 도면이다. 도 19과 다르게 예측 블록의 모든 샘플을 사용할 수 있도록 구성한 예로 좌상단의 이웃샘플들을 추가한 경우이다. 추가 이웃 샘플을 구성하는 부담은 있지만 예측 모드내 좌측과 우측 샘플 모드를 이용하여 cost를 계산하여 그 정확도를 높일 수 있다.20 is a diagram illustrating another example of a sample configuration used when an intra prediction mode is included in group M2 of FIG. Unlike in FIG. 19, an example in which all samples of the prediction block are used is added with neighboring samples in the upper left corner. Although there is a burden of configuring additional neighboring samples, the accuracy can be increased by calculating the cost using the left and right sample modes in the prediction mode.

도 21은 잔차 신호 대한 변환/역변환에 사용된 변환기 수식을 나타낸 도면이다. 비디오 신호는 화면내/화면간 예측 방법들을 이용해 예측블록을 생성한다. 인코더는 원본블록과 예측 블록과의 차이를 구하고 이를 잔차 신호라 한다. 잔차 신호를 양자화 하고 변환을 하고 부호화기를 수행한다. 디코더는 복호화/역양자화/역변환을 수행하여 잔차 신호를 복원하고 예측으로 구한 블록과 더하여 복원 블록을 생성한다. 인코더/디코더는 양자화와 역양자화 시 변환에 사용된 변환기의 타입을 여러 종류의 것들 중의 하나를 사용할 수 있다. 또한 예측변환 블록에 대해 한번 변환/역변환 후 추가 변환을 수행할 수 있다. 한번 변환된 영역의 일부 영역에 대해 수행할 수 있다. 여러 형태로 그 영역 설정하여 사용할 수 있다.21 is a diagram illustrating a converter equation used for transforming / inverse transforming a residual signal. The video signal generates a prediction block using intra / inter prediction methods. The encoder finds the difference between the original block and the prediction block and calls it a residual signal. The residual signal is quantized, transformed, and coded. The decoder performs decoding, inverse quantization, and inverse transformation to restore the residual signal, and generate a reconstructed block in addition to the block obtained by prediction. The encoder / decoder can use one of several types of converters used for conversion in quantization and dequantization. In addition, additional transform may be performed after the transform / inverse transform once on the prediction transform block. This can be done for some areas of the once converted area. The area can be set and used in various forms.

도 22는 변환기 종류를 지정된 알고리즘에 따라 변환하고 순서를 정하는 방법에 대한 cost구성 샘플 예를 나타내 도면이다. 추가 변환에 사용된 변환기의 종류도 여러가지가 있을 수 있어 추가 지시자를 인코더가 디코더에 알려 줄 수 있다. 예를 들어, 추가 변환기의 종류가 4가지 이면 고정된 비트를 사용하면 항상 2비트로 구성된 정보를 사용하게 된다. 이러한 정보를 줄이기 위해 Truncated unary라는 이진화 방법을 사용할 수 있다. 예를 들면 0, 10, 110, 111형태로 이진화가 되며 최소 1비트에서 최대 3비트가 필요하다. 정보 단위 즉 코딩 유닛/변환유닛/예측 유닛별로 인코더가 알려줄 지시자의 정보를 디코더도 같은 방식으로 구성할 수 있는 알고리즘이 필요하다. 예를 들어 추가 변환기의 형태에 대한 지시자를 알려 줄 때 도22의 방법으로 코스트 계산을 수행한다. 이때 변환기의 모든 종류로 잔차 신호를 양자화/역양자화 후 변환/역변환하고 예측 블록에 대한 복원 블록을 각각 생성하여 도22의 형태로 코스트를 계산하여 코스트가 낮은 것을 가장 최소의 비트를 사용하는 첫번째 지시자가 되며 이진화 비트 0을 사용한다. 코스트가 가장 큰 변환기 타입은 네번째 지시자가 되며 이진화 비트 111을 사용한다. 이는 인코더와 디코더가 같은 방식으로 해당 지시자와 대응되는 변환기 타입을 해당 알고리즘으로 유추 할 수 있다. 도22에서 예측 블록의 좌측 열과 우측 행의 샘플을 이웃하는 복수개의 샘플들을 이용하여 해당 코스트를 계산 할 수 있다. 현재 예측블록의 오른쪽에도 복원된 블록이 있으면 같은 방법으로 3면에 대해 같은 코스트 계산 방법을 적용할 수 있다. 아래쪽 방향에 대해서도 복원 블록이 있는 경우 확장 적용할 수 있다. 또한, 4면 중 복원 블록이 있는 면들에 대해서 적응적으로 적용할 수 있다.22 is a diagram showing an example of a cost configuration sample for a method of converting and ordering a transducer type according to a specified algorithm. There can be many different types of converters used for further conversion, so that the encoder can inform the decoder of additional indicators. For example, if there are four types of additional converters, using fixed bits will always use two bits of information. To reduce this information, we can use a binarization method called Truncated unary. For example, it is binarized in the form of 0, 10, 110, and 111, and a minimum of 1 bit and a maximum of 3 bits are required. There is a need for an algorithm in which the decoder can configure the information of the indicator to be informed by the encoder for each information unit, that is, a coding unit / conversion unit / prediction unit. For example, the cost calculation is performed using the method of FIG. In this case, the first indicator using the least bit that the lowest cost is calculated by calculating the cost in the form of FIG. 22 by quantizing / dequantizing the residual signal and then transforming / inverting the residual signal and generating a reconstruction block for the prediction block, respectively. And use the binarization bit 0. The converter type with the highest cost is the fourth indicator and uses the binarization bit 111. This allows the encoder and the decoder to infer the type of converter corresponding to the indicator to the algorithm in the same manner. In FIG. 22, a corresponding cost may be calculated using a plurality of neighboring samples of the left column and the right row of the prediction block. If there is a reconstructed block on the right side of the current prediction block, the same cost calculation method can be applied to three sides in the same way. If there is a recovery block for the downward direction, it can be extended. In addition, the present invention may be adaptively applied to the planes with the reconstruction block among the four planes.

이상에서는 본 발명을 구체적인 실시예를 통하여 설명하였으나, 당업자라면 본 발명의 취지 및 범위를 벗어나지 않고 수정, 변경을 할 수 있다. 따라서 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술분야에 속한 사람이 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다.In the above described the present invention through specific embodiments, those skilled in the art can make modifications, changes without departing from the spirit and scope of the present invention. Therefore, what can be easily inferred by the person of the technical field to which this invention belongs from the detailed description and the Example of this invention is interpreted as belonging to the scope of the present invention.

100 : 인코딩 장치 200 : 디코딩 장치100: encoding device 200: decoding device

Claims (1)

비디오 신호 처리 장치 및 방법.
Video signal processing apparatus and method.
KR1020180046415A 2018-04-21 2018-04-21 A method and an apparatus for processing a video signal using cost measurement for sign data hiding KR20190122514A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180046415A KR20190122514A (en) 2018-04-21 2018-04-21 A method and an apparatus for processing a video signal using cost measurement for sign data hiding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180046415A KR20190122514A (en) 2018-04-21 2018-04-21 A method and an apparatus for processing a video signal using cost measurement for sign data hiding

Publications (1)

Publication Number Publication Date
KR20190122514A true KR20190122514A (en) 2019-10-30

Family

ID=68462999

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180046415A KR20190122514A (en) 2018-04-21 2018-04-21 A method and an apparatus for processing a video signal using cost measurement for sign data hiding

Country Status (1)

Country Link
KR (1) KR20190122514A (en)

Similar Documents

Publication Publication Date Title
KR102424328B1 (en) Methods of coding block information using quadtree and appararuses for using the same
US11616984B2 (en) Video signal processing method and device using secondary transform
KR20100017453A (en) A method and an apparatus for processing a video signal
KR20140071438A (en) Apparatus of decoding an image
US11044470B2 (en) Video signal processing method and device using reference sample
WO2013003466A1 (en) Coding syntax elements using vlc codewords
WO2020175965A1 (en) Intra prediction-based video signal processing method and device
KR20160140410A (en) Method and apparatus for processing a video signal
US20230071633A1 (en) Inverse quantization device and method used in video decoding device
KR20210058971A (en) Video signal processing method and apparatus using cross-component linear model
KR20200113173A (en) Method and Apparatus for Intra Prediction Based on Deriving Prediction Mode
KR20190122514A (en) A method and an apparatus for processing a video signal using cost measurement for sign data hiding
KR20200045366A (en) A method and an apparatus for processing a video signal using multiple transform selection
KR20190119459A (en) A method and an apparatus for processing a video signal using sign data hiding for transform coefficients
US11973986B2 (en) Video signal processing method and device using secondary transform
KR20190129641A (en) A method and an apparatus for processing a video signal using a calculation method of the average dc value for prediction
KR20160140409A (en) Method and apparatus for processing a video signal
KR20200025171A (en) A method and an apparatus for processing a video signal using multiple transform selection
KR20200023135A (en) A method and an apparatus for processing a video signal using multiple transform selection
KR20230139780A (en) Method and Apparatus for Video Coding Using Adaptive Multiple Transform Selection
KR20230132371A (en) Method and Apparatus for Video Coding Using Adaptive Chrominance Space Conversion
KR20160131939A (en) Method and apparatus for processing a video signal