KR20140092423A - Method for determining scalable video coding mode and apparatus for using the same - Google Patents

Method for determining scalable video coding mode and apparatus for using the same Download PDF

Info

Publication number
KR20140092423A
KR20140092423A KR1020120149718A KR20120149718A KR20140092423A KR 20140092423 A KR20140092423 A KR 20140092423A KR 1020120149718 A KR1020120149718 A KR 1020120149718A KR 20120149718 A KR20120149718 A KR 20120149718A KR 20140092423 A KR20140092423 A KR 20140092423A
Authority
KR
South Korea
Prior art keywords
prediction
block
unit
information
base layer
Prior art date
Application number
KR1020120149718A
Other languages
Korean (ko)
Inventor
이선영
Original Assignee
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팬택 filed Critical 주식회사 팬택
Priority to KR1020120149718A priority Critical patent/KR20140092423A/en
Priority to PCT/KR2013/009836 priority patent/WO2014098368A1/en
Publication of KR20140092423A publication Critical patent/KR20140092423A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Disclosed are a method for determining an encoding/decoding mode for a hierarchical video and an apparatus using the same. An intra-screen prediction method includes the steps of determining if intra-screen prediction is performed with respect to a first video processing unit of a basic layer; decoding information of a basic layer predictor if the intra-screen prediction is performed with respect to the first video processing unit; and performing intra-screen prediction with respect to a second video processing unit corresponding to the first video processing unit in an enhanced layer based on the information of the basic layer. Information of the basic layer predictor may be information used for determining whether a reference pixel of the basic layer is used or a reference pixel of the enhanced layer is used as a reference pixel used to perform the intra-screen prediction for the second image processing unit. Accordingly, the video encoding/decoding efficiency of the enhanced layer can be increased.

Description

계층적 영상 부/복호화 모드 결정 방법 및 이러한 방법을 사용하는 장치{METHOD FOR DETERMINING SCALABLE VIDEO CODING MODE AND APPARATUS FOR USING THE SAME}[0001] METHOD FOR DETERMINING SCALABLE VIDEO CODING MODE AND APPARATUS FOR USING THE SAME [0002]

본 발명은 계층적 영상 부/복호화(scalable video coding) 방법 및 장치에 관한 것으로 더욱 상세하게는 계층적 비디오 부/복호화 모드를 결정하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for hierarchical video coding / decoding, and more particularly to a method and apparatus for determining a hierarchical video coding / decoding mode.

최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 고효율의 영상 압축 기술들이 활용될 수 있다.Recently, the demand for high resolution and high quality images such as high definition (HD) image and ultra high definition (UHD) image is increasing in various applications. As the image data has high resolution and high quality, the amount of data increases relative to the existing image data. Therefore, when the image data is transmitted using a medium such as a wired / wireless broadband line or stored using an existing storage medium, The storage cost is increased. High-efficiency image compression techniques can be utilized to solve these problems caused by high-resolution and high-quality image data.

영상 압축 기술로 현재 픽쳐의 이전 또는 이후 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 화면 간 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 화면 내 예측 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.An inter picture prediction technique for predicting a pixel value included in a current picture from a previous or a subsequent picture of a current picture by an image compression technique, an intra picture prediction technique for predicting a pixel value included in a current picture using pixel information in the current picture, There are various techniques such as an entropy encoding technique in which a short code is assigned to a value having a high appearance frequency and a long code is assigned to a value having a low appearance frequency. Image data can be effectively compressed and transmitted or stored using such an image compression technique.

본 발명의 제1 목적은 계층적 영상 부호화 및 복호화 방법을 제공하는 것이다. A first object of the present invention is to provide a hierarchical image coding and decoding method.

또한, 본 발명의 제2 목적은 계층적 영상 부호화 및 복호화 방법을 수행하는 장치를 제공하는 것이다.A second object of the present invention is to provide an apparatus for performing a hierarchical image coding and decoding method.

상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 측면에 따른 화면 내 예측 방법은 기본 계층의 제1 영상 처리 단위가 화면 내 예측을 수행하는지 여부에 대해 판단하는 단계, 상기 제1 영상 처리 단위가 화면 내 예측을 수행하는 경우, 기본 계층 예측자 정보를 복호화하는 단계와 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계를 포함할 수 있되, 상기 기본 계층 예측자 정보는 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용할 것인지 상기 향상 계층의 참조 픽셀을 사용할 것인지 여부를 결정하기 위한 정보일 수 있다. 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계는 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하여 화면 내 예측된 블록을 생성하는 단계와상기 화면 내 예측된 블록을 업샘플링하는 단계를 포함할 수 있다. 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계는 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 업샘플링하는 단계와 상기 업샘플링된 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하는 단계를 포함할 수 있다. 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계는 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 향상 계층에서 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀 정보를 획득하는 단계와 상기 참조 픽셀 정보를 기초로 화면 내 예측을 수행하는 단계를 포함할 수 있다. 상기 화면 내 예측 방법은 상기 제2 영상 처리 단위가 베이스 예측 모드를 수행하여 예측을 수행하는지 여부를 판단하는 단계를 더 포함할 수 있다. 상기 제1 영상 처리 단위 및 상기 제2 영상 처리 단위는 코딩 블록(coding block) 단위, CTB(coding tree block) 단위, 슬라이스(slice) 단위 및 픽쳐(picture) 단위 중 하나의 영상 처리 단위일 수 있다. 상기 기본 계층 예측자 정보는 플래그 정보로서 플래그 값이 1일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하고, 플래그 값이 0일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시할 수 있다. According to another aspect of the present invention, there is provided an intra-frame prediction method including: determining whether a first image processing unit of a base layer performs intra-frame prediction; A step of decoding the base layer predictor information when the processing unit performs intra prediction and a step of decoding the base layer predictor information based on the base layer predictor information, Wherein the base layer predictor information includes information on whether to use a reference pixel of the base layer as a reference pixel for performing intra prediction on the second image processing unit, And may be information for determining whether to use the reference pixel. Wherein the performing of intra prediction on a second image processing unit corresponding to the first image processing unit in the enhancement layer based on the base layer predictor information comprises: In-picture prediction is performed on the basis of the reference pixels of the first image processing unit to indicate that the reference pixels of the base layer are to be used as reference pixels for performing intra-prediction on the intra-frame prediction, And upsampling the intra-frame predicted block. Wherein the performing of intra prediction on a second image processing unit corresponding to the first image processing unit in the enhancement layer based on the base layer predictor information comprises: Sampling the reference pixels of the first image processing unit when instructing to use the reference pixels of the base layer as reference pixels for performing intra prediction on the first image processing unit, And performing intra-frame prediction based on the reference pixels of the frame. Wherein the performing of intra prediction on a second image processing unit corresponding to the first image processing unit in the enhancement layer based on the base layer predictor information comprises: In the case where it is instructed to use a reference pixel of the enhancement layer as a reference pixel for performing intra-prediction on the second enhancement layer, the enhancement layer acquires reference pixel information for performing intra- And performing intra-frame prediction based on the reference pixel information. The intra-frame prediction method may further include determining whether the second image processing unit performs a base prediction mode to perform prediction. The first image processing unit and the second image processing unit may be one of a coding block unit, a coding tree block unit, a slice unit, and a picture unit . Wherein the base layer predictor information is flag information, and when the flag value is 1, the base layer predictor information uses a reference pixel of the base layer as a reference pixel for performing intra-picture prediction on the second image processing unit , And when the flag value is 0, the base layer predictor information may indicate to use the reference pixel of the enhancement layer as a reference pixel for performing intra-picture prediction on the second image processing unit have.

상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 측면에 따른 화면 내 예측을 수행하는 영상 복호화 장치는 기본 계층의 제1 영상 처리 단위가 화면 내 예측을 수행하는 경우, 기본 계층 예측자 정보를 복호화하는 엔트로피 복호화부, 기본 계층의 제1 영상 처리 단위가 화면 내 예측을 수행하는지 여부에 대해 판단하고 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 예측부를 포함할 수 있되, 상기 기본 계층 예측자 정보는 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용할 것인지 상기 향상 계층의 참조 픽셀을 사용할 것인지 여부를 결정하기 위한 정보일 수 있다. 상기 예측부는 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하여 화면 내 예측된 블록을 생성하고 상기 화면 내 예측된 블록을 업샘플링하도록 구현될 수 있다. 상기 예측부는, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 업샘플링하고 상기 업샘플링된 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하도록 구현될 수 있다. 상기 예측부는 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 향상 계층에서 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀 정보를 획득하고 상기 참조 픽셀 정보를 기초로 화면 내 예측을 수행하도록 구현될 수 있다. 상기 예측부는 상기 제2 영상 처리 단위가 베이스 예측 모드를 수행하여 예측을 수행하는지 여부를 판단하도록 구현될 수 있다. 상기 제1 영상 처리 단위 및 상기 제2 영상 처리 단위는 코딩 블록(coding block) 단위, CTB(coding tree block) 단위, 슬라이스(slice) 단위 및 픽쳐(picture) 단위 중 하나의 영상 처리 단위일 수 있다. 상기 기본 계층 예측자 정보는 플래그 정보로서 플래그 값이 1일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하고, 플래그 값이 0일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시할 수 있다.According to another aspect of the present invention, there is provided an apparatus for performing intra-picture prediction, the intra-picture prediction apparatus comprising: An entropy decoding unit for determining whether the first image processing unit of the base layer performs intra-frame prediction, and an entropy decoding unit for decoding the first image processing unit in the enhancement layer based on the base layer predictor information, 2 prediction unit for performing intra prediction on the second image processing unit, wherein the base layer predictor information is a reference pixel for performing intra-frame prediction on the second image processing unit, Or information for determining whether to use the reference pixels of the enhancement layer. When the base layer predictor information indicates to use a reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, the predicting unit may include a reference of the first image processing unit Pixel prediction based on the pixels to generate intra-picture predicted blocks, and upsample the intra-picture predicted blocks. When the base layer predictor information indicates to use a reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, And perform intra-frame prediction based on the up-sampled reference pixels of the first image processing unit. Wherein if the base layer predictor information indicates that a reference pixel of the enhancement layer is to be used as a reference pixel for intra prediction on the second image processing unit, Acquiring reference pixel information for performing intra-frame prediction on a processing unit, and performing intra-frame prediction based on the reference pixel information. The prediction unit may be configured to determine whether the second image processing unit performs a base prediction mode to perform prediction. The first image processing unit and the second image processing unit may be one of a coding block unit, a coding tree block unit, a slice unit, and a picture unit . Wherein the base layer predictor information is flag information, and when the flag value is 1, the base layer predictor information uses a reference pixel of the base layer as a reference pixel for performing intra-picture prediction on the second image processing unit , And when the flag value is 0, the base layer predictor information may indicate to use the reference pixel of the enhancement layer as a reference pixel for performing intra-picture prediction on the second image processing unit have.

상술한 바와 같이 본 발명의 실시예에 따른 계층적 영상 부/복호화 모드 결정 방법 및 이러한 방법을 사용하는 장치에 따르면 다양한 계층적 영상 부/복호화 방법을 사용함으로서 필요에 따라 기본 계층의 영상 정보를 향상 계층의 영상에 대한 부호화 및 복호화를 수행하기 위해 사용할 수 있다. 따라서, 향상 계층의 영상 부/복호화 효율을 높일 수 있다.As described above, according to the hierarchical image decoding / decoding mode determination method and apparatus using the hierarchical image decoding / decoding mode according to the embodiment of the present invention, various hierarchical image decoding / decoding methods are used, And may be used to perform coding and decoding of the image of the layer. Therefore, it is possible to enhance the image coding / decoding efficiency of the enhancement layer.

도 1은 본 발명의 실시예에 따른 부호화 장치를 나타낸 블록도이다.
도 2는 본 발명의 다른 실시예에 따른 복호화기를 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 계층적 비디오 부호화 방법을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 계층적 비디오 복호화 방법을 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 부호화 블록 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 부호화 블록 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 순서도이다.
도 7은 본 발명의 실시예에 따른 슬라이스 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 개념도이다.
도 8은 본 발명의 실시예에 따른 슬라이스 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 순서도이다.
도 9는 본 발명의 실시예에 따른 슬라이스 스킵 모드를 사용하는 슬라이스를 지시하기 위한 방법을 나타낸 개념도이다.
도 10은 본 발명의 실시예에 따른 텍스쳐 예측 모드(texture prediction mode)를 이용한 계층적 영상 복호화 방법을 나타낸 개념도이다.
도 11은 본 발명의 실시예에 따른 텍스쳐 예측 모드를 이용한 계층적 영상 복호화 방법을 나타낸 순서도이다.
도 12는 본 발명의 실시예에 따른 슬라이스 단위로 텍스쳐 예측 모드를 수행하는 방법을 나타낸 개념도이다.
도 13은 본 발명의 실시예에 따른 슬라이스 단위로 텍스쳐 예측 모드를 수행하는 방법을 나타낸 순서도이다.
도 14는 본 발명의 실시예에 따른 기본 계층 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다.
도 15는 본 발명의 실시예에 따른 기본 계층 모드를 사용한 계층적 영상 복호화 방법을 나타낸 순서도이다.
도 16은 본 발명의 실시예에 따른 슬라이스 단위로 베이스 예측 모드를 수행하는 방법을 나타낸 개념도이다.
도 17은 본 발명의 실시예에 따른 슬라이스 단위로 베이스 예측 모드를 수행하는 방법을 나타낸 순서도이다.
도 18은 본 발명의 실시예에 따른 부호화 블록 스킵 모드와 텍스쳐 예측 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다.
도 19는 본 발명의 실시예에 따른 스킵 모드, 텍스쳐 예측 모드, 베이스 예측 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다.
도 20은 본 발명의 실시예에 따른 부호화 블록 스킵 모드, 텍스쳐 예측 모드, 베이스 예측 모드를 사용한 계층적 영상 예측 방법을 나타낸 순서도이다.
도 21은 본 발명의 실시예에 따른 부호화 블록 단위에서 베이스 예측 모드를 사용할 경우 화면 내 예측을 수행하는 방법을 나타낸 순서도이다.
도 22는 본 발명의 실시예에 따른 기본 계층의 참조 픽셀 정보 기초로 예측 블록의 화면 내 예측을 수행하는 방법을 나타낸 개념도이다.
도 23은 본 발명의 실시예에 따른 변환 블록의 분할 정보에 대한 계층적 비디오 코딩 방법을 나타낸 순서도이다.
1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a decoder according to another embodiment of the present invention.
3 is a conceptual diagram illustrating a hierarchical video encoding method according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a hierarchical video decoding method according to an embodiment of the present invention.
5 is a conceptual diagram illustrating a hierarchical image decoding method using an encoding block skip mode according to an embodiment of the present invention.
6 is a flowchart illustrating a hierarchical image decoding method using an encoding block skip mode according to an embodiment of the present invention.
7 is a conceptual diagram illustrating a hierarchical image decoding method using a slice skip mode according to an embodiment of the present invention.
8 is a flowchart illustrating a hierarchical image decoding method using a slice skip mode according to an embodiment of the present invention.
9 is a conceptual diagram illustrating a method for indicating a slice using a slice skip mode according to an embodiment of the present invention.
10 is a conceptual diagram illustrating a hierarchical image decoding method using a texture prediction mode according to an embodiment of the present invention.
11 is a flowchart illustrating a hierarchical image decoding method using a texture prediction mode according to an embodiment of the present invention.
12 is a conceptual diagram illustrating a method of performing a texture prediction mode in units of slices according to an embodiment of the present invention.
13 is a flowchart illustrating a method of performing a texture prediction mode in units of slices according to an embodiment of the present invention.
14 is a conceptual diagram illustrating a hierarchical image decoding method using a base layer mode according to an embodiment of the present invention.
15 is a flowchart illustrating a hierarchical image decoding method using a base layer mode according to an embodiment of the present invention.
16 is a conceptual diagram illustrating a method of performing a base prediction mode on a slice basis according to an embodiment of the present invention.
17 is a flowchart illustrating a method of performing a base prediction mode in units of slices according to an embodiment of the present invention.
18 is a conceptual diagram illustrating a hierarchical image decoding method using a coding block skip mode and a texture prediction mode according to an embodiment of the present invention.
19 is a conceptual diagram illustrating a hierarchical image decoding method using a skip mode, a texture prediction mode, and a base prediction mode according to an embodiment of the present invention.
20 is a flowchart illustrating a hierarchical image prediction method using an encoding block skip mode, a texture prediction mode, and a base prediction mode according to an embodiment of the present invention.
FIG. 21 is a flowchart illustrating a method of performing intra prediction when a base prediction mode is used in units of encoding blocks according to an embodiment of the present invention.
22 is a conceptual diagram illustrating a method of performing intra prediction of a prediction block based on reference pixel information of a base layer according to an embodiment of the present invention.
23 is a flowchart illustrating a hierarchical video coding method for division information of a transform block according to an embodiment of the present invention.

본 발명의 실시예 및 도면에 개시된 각 구성부들은 영상 부호화 장치의 서로 다른 특징적인 기능들을 나타내기 위해 독립적인 구성으로 개시한 것이다. 각 구성부들이 반드시 분리된 하드웨어나 하나의 소프트웨어 구성 단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벋어나지 않는 한 본 발명의 권리범위에 포함된다.The embodiments of the present invention and the respective components disclosed in the drawings disclose an independent configuration to represent different characteristic functions of the image encoding apparatus. It does not mean that each component is necessarily composed of separate hardware or a single software component unit. That is, each constituent unit is included in each constituent unit for convenience of explanation, and at least two constituent units of the constituent units may be combined to form one constituent unit, or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and the separate embodiments of the components are also included in the scope of the present invention unless otherwise departing from the spirit of the present invention.

또한, 일부의 본 발명에서 개시된 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리 범위에 포함된다.
In addition, some of the components disclosed in the present invention are not essential components that perform essential functions in the present invention, but may be optional components only for improving performance. The present invention can be implemented only with components essential for realizing the essence of the present invention, except for the components used for the performance improvement, and can be implemented by only including the essential components except the optional components used for performance improvement Are also included in the scope of the present invention.

도 1은 본 발명의 실시예에 따른 부호화 장치를 나타낸 블록도이다.1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.

도 1을 참조하면, 부호화 장치는 분할부(100), 예측부(110), 화면 내 예측부(103), 화면 간 예측부(106), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 부호화부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 포함할 수 있다.1, the encoding apparatus includes a division unit 100, a prediction unit 110, an intra prediction unit 103, an inter-picture prediction unit 106, a conversion unit 115, a quantization unit 120, An entropy encoding unit 130, an inverse quantization unit 135, an inverse transformation unit 140, a filter unit 145, and a memory 150. [

부호화 장치는 이하의 본 발명의 실시예에서 설명하는 영상 부호화 방법에 의해 구현될 수 있으나, 일부의 구성부에서의 동작은 부호화기의 복잡도를 낮추기 위해 또는 빠른 실시간 부호화를 위해 수행되지 않을 수 있다. 예를 들어, 예측부에서 화면 내 예측을 수행함에 있어서, 실시간으로 부호화를 수행하기 위해 모든 화면 내 예측 모드 방법을 사용하여 최적의 화면 내 부호화 방법을 선택하는 방법을 사용하지 않고 일부의 제한적인 개수의 화면 내 예측 모드를 사용하여 그 중에서 하나의 화면 내 예측 모드를 최종 화면 내 예측 모드로 선택하는 방법이 사용될 수 있다. 또 다른 예로 화면 내 예측 또는 화면 간 예측을 수행함에 있어 사용되는 예측 블록의 형태를 제한적으로 사용하도록 하는 것도 가능하다. The encoding apparatus can be implemented by the image encoding method described in the embodiments of the present invention, but operations in some constituent units may not be performed for lowering the complexity of the encoder or for fast real-time encoding. For example, in performing intra-picture prediction in the prediction unit, it is not necessary to use a method of selecting an optimal intra-picture coding method using all the intra-picture prediction mode methods in order to perform coding in real time, The intra-picture prediction mode may be used as the final intra-picture prediction mode. As another example, it is also possible to restrictively use the type of the prediction block used in intra-picture prediction or inter-picture prediction.

부호화 장치에서 처리되는 블록의 단위는 부호화를 수행하는 부호화 블록(coding block), 예측을 수행하는 예측 블록(prediction block), 변환을 수행하는 변환 블록(transform block)이 될 수 있다. 부호화 블록을 부호화 또는 복호화하기 위해 사용되는 정보를 포함하는 일정한 정보 단위를 부호화 단위(CU, Coding Unit), 예측 블록에 대한 예측을 수행하기 위해 사용되는 정보를 포함하는 일정한 정보 단위를 예측 단위(PU, Prediction Unit), 변환 블록에 변환을 수행하기 위해 사용되는 정보를 포함하는 단위를 변환 단위(TU, Transform Unit)라는 용어로 표현할 수 있다.The unit of the block processed in the encoding apparatus may be a coding block for performing encoding, a prediction block for performing prediction, and a transform block for performing conversion. A predetermined information unit including information used for encoding or decoding a coded block is referred to as a coding unit (CU), and a certain information unit including information used for performing prediction for a prediction block is referred to as a prediction unit (PU) , Prediction Unit), and a unit including information used for performing conversion on a conversion block can be expressed by the term conversion unit (TU).

이하, 본 발명의 실시예에서 사용되는 현재 블록은 예측 또는 변환 또는 부호화의 대상이 되는 블록을 의미할 수 있다. 예측 수행 시 현재 블록은 현재 예측의 대상이 되는 블록이 될 수 있다. 변환 수행 시 현재 블록은 현재 변환의 대상이 되는 변환 블록이 될 수 있다. 부호화 또는 복호화 수행 시 현재 블록은 부호화 또는 복호화의 대상이 되는 부호화 블록이 될 수 있다. 즉, 수행되는 영상 처리에 따라 현재 블록이 의미하는 단위가 달라질 수 있다.Hereinafter, the current block used in the embodiment of the present invention may refer to a block to be predicted, transformed, or encoded. In the prediction, the current block may be a block that is the target of the current prediction. When performing the conversion, the current block may be a conversion block that is the subject of the current conversion. When encoding or decoding is performed, the current block may be an encoding block to be encoded or decoded. That is, the unit of the current block may be changed according to the image processing to be performed.

분할부(100)에서는 하나의 픽쳐를 복수의 부호화 블록, 예측 블록 및 변환 블록의 조합으로 분할하고 소정의 기준(예를 들어, 비용 함수)으로 그 중 하나의 부호화 블록, 예측 블록 및 변환 블록의 분할 조합을 선택하여 픽쳐를 분할할 수 있다.In the division unit 100, one picture is divided into a combination of a plurality of encoding blocks, a prediction block, and a transform block, and one of the encoded blocks, the prediction block, and the transform block It is possible to divide the picture by selecting the division combination.

예를 들어, 픽쳐에서 부호화 블록을 분할하기 위해서는 쿼드 트리 구조(Quadtree Structure)와 같은 재귀적인 트리 구조를 사용할 수 있다. 이하, 본 발명의 실시예에서는 부호화 블록의 의미는 부호화를 수행하는 블록이라는 의미뿐만 아니라 복호화를 수행하는 블록이라는 의미로도 사용할 수 있다.For example, a recursive tree structure such as a quadtree structure can be used to divide a coded block in a picture. Hereinafter, in the embodiment of the present invention, the meaning of an encoding block may be used not only for a block for performing encoding but also for a block for performing decoding.

예측 블록은 화면 내 예측 또는 화면 간 예측을 수행하는 블록이 될 수 있다. 화면 내 예측을 수행하는 블록의 형태로는 2Nx2N, NxN과 같은 정사각형의 형태나 SDIP(Short Distance Intra Prediction)를 사용하는 직사각형의 형태의 예측 블록 형태를 가질 수 있다. 화면 간 예측을 수행하는 블록으로는 2Nx2N, NxN과 같은 정사각형의 형태 또는 정사각형 형태의 예측 블록을 동일한 형태로 이분할한 형태인 2NxN, Nx2N 또는 비대칭 형태인 AMP (Asymetric Motion Partitioning)를 사용한 예측 블록 분할 방법이 있다. 예측 블록의 형태에 따라 변환부(115)에서는 변환을 수행하는 방법이 달라질 수 있다.The prediction block may be a block that performs intra-picture prediction or inter-picture prediction. The block for performing the intra prediction can have a square shape such as 2Nx2N, NxN, or a rectangular block shape using SDIP (Short Distance Intra Prediction). As the blocks for performing inter-picture prediction, 2NxN or Nx2N, which is a divided form of a square block or square block such as 2Nx2N or NxN, or a prediction block division using asymmetric AMP (Asymmetric Motion Partitioning) There is a way. The method of performing the transform in the transform unit 115 may vary depending on the type of the prediction block.

예측부(110)는 화면 내 예측을 수행하는 화면 내 예측부(103)와 화면 간 예측을 수행하는 화면 간 예측부(106)를 포함할 수 있다. 예측부(110)에서는 예측 블록에 대해 화면 간 예측을 사용할 것인지 또는 화면 내 예측을 수행할 것인지를 결정할 수 있다. 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예를 들어, 화면 내 예측을 수행함에 있어서 예측 모드는 예측 블록 단위로 결정되고, 예측을 수행하는 과정은 변환 블록 단위를 기초로 수행될 수도 있다. 생성된 예측된 블록(또는 예측된 샘플)과 원본 블록(또는 원본 샘플) 사이의 잔차값(잔차 블록)은 변환부(115)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(130)에서 부호화되어 복호화기에 전달될 수 있다.The prediction unit 110 may include an intra prediction unit 103 for performing intra prediction and an inter prediction unit 106 for performing inter prediction. The prediction unit 110 can determine whether to use inter-picture prediction or intra-picture prediction for the prediction block. The processing unit in which the prediction is performed may differ from the processing unit in which the prediction method and the concrete contents are determined. For example, in performing intra prediction, the prediction mode may be determined on a prediction block basis, and the process of performing prediction may be performed based on a conversion block unit. The residual value (residual block) between the generated predicted block (or the predicted sample) and the original block (or the original sample) may be input to the transforming unit 115. In addition, the prediction mode information, motion vector information, and the like used for prediction can be encoded by the entropy encoding unit 130 and transmitted to the decoder along with the residual value.

PCM(Pulse Coded Modulation) 부호화 모드를 사용할 경우, 예측부(110)를 통해 예측을 수행하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.When the PCM (Pulse Coded Modulation) coding mode is used, it is also possible to directly encode the original block and transmit it to the decoding unit without performing the prediction through the predicting unit 110. [

화면 내 예측부(103)에서는 현재 블록(예측 블록)의 주변에 존재하는 참조 픽셀을 기초로 예측된 블록을 생성할 수 있다. 현재 블록에 대한 최적의 화면 내 예측 모드를 산출하기 위해서 현재 블록에 대해 복수의 화면 내 예측 모드를 사용하여 예측을 하고 그 중 하나의 화면 내 예측 모드를 현재 블록을 예측하기 위한 화면 내 예측 모드로 사용할 수 있다. 화면 내 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행 시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 화면 내 예측 모드는 종류가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 정보를 예측한 화면 내 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.The intra-frame prediction unit 103 can generate a predicted block based on the reference pixels existing in the vicinity of the current block (the prediction block). In order to calculate an optimal intra-picture prediction mode for the current block, a plurality of intra-picture prediction modes are used for the current block, and one intra-picture prediction mode is used as an intra-picture prediction mode Can be used. In the intra prediction, the prediction mode may have a directional prediction mode in which reference pixel information is used according to a prediction direction, and a non-directional mode in which prediction information is not used. The mode for predicting the luminance information and the intra prediction mode for predicting the chrominance information may be different from each other and utilize intra prediction mode information or predicted luminance signal information in which luminance information is predicted to predict color difference information .

이하, 본 발명의 실시예에서는 현재 블록(650)의 화면 내 예측모드를 산출하기 위해 사용되는 주변에 위치한 블록을 주변 블록이라고 정의한다. 주변 블록은 현재 블록의 좌상단 화소의 좌표를 (x,y)라고 할 때 (x-1,y)에 위치한 화소값를 포함하는 주변 블록 A(660)와 (x, y-1)에 위치한 화소값을 포함하는 제2 주변 블록(604)을 주변 블록이라고 할 수 있다.Hereinafter, in the embodiment of the present invention, a neighboring block used to calculate the intra prediction mode of the current block 650 is defined as a neighboring block. The neighboring block is a neighboring block A 660 having pixel values located at (x-1, y) and a pixel value (x, y-1) located at (x, y-1) May be referred to as a neighboring block.

현재 블록의 주변 블록의 화면 내 예측 모드 정보로부터 현재 블록의 화면 내 예측 모드 정보를 부호화할 수 있다. 즉, 현재 블록의 화면 내 예측 모드는 현재 블록의 주변에 존재하는 예측 블록의 화면 내 예측 모드로부터 예측할 수 있다.Picture prediction mode information of the current block from the intra-picture prediction mode information of the neighboring block of the current block. That is, the intra-picture prediction mode of the current block can be predicted from the intra-picture prediction mode of the prediction block existing around the current block.

현재 블록과 주변 블록의 화면 내 예측 모드가 동일할 경우, 플래그 정보를 이용하여 현재 블록과 주변 블록의 예측 모드가 동일하다는 정보를 지시할 수 있다. 만약, 현재 블록과 주변 블록의 예측 모드가 상이할 경우, 엔트로피 부호화를 수행하여 현재 블록의 화면 내 예측 모드 정보를 부호화할 수 있다.If the intra-frame prediction mode of the current block is the same as the intra-frame prediction mode of the current block, information indicating that the prediction mode of the current block and the neighboring block are the same can be indicated using the flag information. If the prediction mode of the current block is different from that of the neighboring block, intra-picture prediction mode information of the current block can be encoded by performing entropy coding.

주변 블록의 예측 모드가 가용하지 않은 경우, 미리 설정된 화면 내 예측 모드값을 후보 화면 내 예측 모드값으로 설정하여 현재 예측 블록의 화면 내 예측 모드를 예측할 수 있다.If the prediction mode of the neighboring block is not available, the intra prediction mode of the current prediction block can be predicted by setting the preset intra prediction mode value to the intra prediction mode value.

화면 내 예측부(103)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측된 블록 또는 예측된 샘플을 생성할 수 있다. 이러한 현재 블록 주변의 픽셀을 참조하여 생성된 블록 또는 샘플을 예측된 블록 또는 예측된 샘플이라고 표현할 수 있다.The intra prediction unit 103 may generate a predicted block or a predicted sample based on the reference pixel information around the current block which is pixel information in the current picture. A block or a sample generated by referring to pixels around the current block can be expressed as a predicted block or a predicted sample.

화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 동일할 경우, 예측 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 블록에 대한 화면 내 예측을 수행할 수 있다.When intra prediction is performed, when the size of the prediction block is equal to the size of the transform block, the intra prediction is performed on the basis of the pixel existing on the left side of the prediction block, the pixel existing on the upper left side, Prediction can be performed.

화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 상이할 경우, 변환 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 이용하여 화면 내 예측을 수행할 수 있다. 또한, 최소 부호화 블록에 대해서만 NxN 분할을 사용하는 화면 내 예측을 사용할 수 있다.When the size of the prediction block differs from the size of the transform block in performing intra prediction, intra-picture prediction is performed using a pixel existing on the left side of the transform block, a pixel existing on the upper left side, . In addition, intra prediction using NxN division can be used for only the minimum coded block.

화면 내 예측 방법은 예측 모드에 따라 참조 화소에 AIS(Adaptive Intra Smoothing) 필터를 적용한 후 예측된 블록(또는 예측된 샘플로도 표현될 수 있다.)을 생성할 수 있다. 참조 화소에 적용되는 AIS 필터의 종류는 상이할 수 있다. 화면 내 예측이 수행된 이후에 참조 픽셀과 예측된 블록에 존재하는 일부 픽셀에 대한 추가적인 필터링을 수행할 수 있다. 참조 픽셀과 예측된 블록에 존재하는 일부 픽셀에 대한 필터링은 화면 내 예측 모드의 방향성에 따라 다른 필터링 계수를 사용하여 필터링을 사용할 수 있다.The intra prediction method can generate a predicted block (or a predicted sample) after applying an Adaptive Intra Smoothing (AIS) filter to a reference pixel according to a prediction mode. The type of the AIS filter applied to the reference pixel may be different. After intra prediction has been performed, additional filtering may be performed on the reference pixels and some pixels present in the predicted block. The filtering for some pixels existing in the reference pixel and the predicted block can be performed using different filtering coefficients depending on the direction of the intra prediction mode.

화면 간 예측부(106)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 블록(예를 들어, 예측된 블록 또는 예측된 샘플)를 생성할 수 있다. 화면 간 예측부(106)는 참조 픽쳐 보간부, 움직임 예측부, 움직임 보상부가 포함할 수 있다. 참조 픽쳐 보간부에서는 메모리(150)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.The inter-picture prediction unit 106 may generate a prediction block (e.g., a predicted block or a predicted sample) based on information of at least one of a previous picture or a following picture of the current picture. The inter-picture predicting unit 106 may include a reference picture interpolating unit, a motion predicting unit, and a motion compensating unit. In the reference picture interpolating unit, reference picture information is supplied from the memory 150 and pixel information of an integer pixel or less can be generated in the reference picture. In the case of a luminance pixel, a DCT-based interpolation filter having a different filter coefficient may be used to generate pixel information of an integer number of pixels or less in units of quarter pixels. In the case of a color difference signal, a DCT-based 4-tap interpolation filter having a different filter coefficient may be used to generate pixel information of an integer number of pixels or less in units of 1/8 pixel.

화면 간 예측부(106)는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 움직임 예측을 수행할 수 있다. 움직임 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 움직임 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 움직임 벡터값을 가질 수 있다. 화면 간 예측부(106)에서는 움직임 예측 방법을 다르게 하여 현재 예측 블록을 예측할 수 있다. 움직임 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법 등 다양한 방법이 사용될 수 있다.The inter-picture predicting unit 106 can perform motion prediction based on the reference picture interpolated by the reference picture interpolating unit. Various methods such as Full Search-based Block Matching Algorithm (FBMA), Three Step Search (TSS), and New Three-Step Search Algorithm (NTS) can be used to calculate motion vectors. The motion vector may have a motion vector value of 1/2 or 1/4 pixel unit based on the interpolated pixel. The inter-picture prediction unit 106 can predict a current prediction block by differently performing a motion prediction method. As the motion prediction method, various methods such as a skip method, a merge method, and an AMVP (Advanced Motion Vector Prediction) method can be used.

계층적 영상 부호화를 수행하는 경우 예측부(110)가 기본 계층(base layer)에 포함되어 있는지 아니면 향상 계층(enhanced layer)에 포함되어 있는지 여부에 따라 서로 다른 예측 동작을 수행할 수 있다. 예측부(110)가 기본 계층에 포함되어 있는 경우는 전술한 실시예와 동일하게 동작할 수 있다. 하지만, 예측부(110)가 향상 계층에 포함되어 있는 경우, 계층적 영상 부호화 모드에 따라 예측부가 화면 간 예측 및 화면 내 예측을 수행하지 않거나, 기본 계층의 예측부에서 생성된 영상 예측 관련 정보(예를 들어, 화면 내 예측 모드, 움직임 예측 관련 정보 등)을 수신받아 해당 정보를 기초로 예측을 수행할 수도 있다. 구체적인 예에 대해서는 추가적으로 상술한다. In performing hierarchical image coding, the prediction unit 110 may perform different prediction operations depending on whether the prediction unit 110 is included in a base layer or an enhancement layer. In the case where the prediction unit 110 is included in the base layer, it can operate in the same manner as the above-described embodiment. However, when the prediction unit 110 is included in the enhancement layer, the prediction unit does not perform inter-picture prediction and intra-picture prediction according to the hierarchical image encoding mode, Intra prediction mode, motion prediction related information, etc.), and perform prediction based on the information. Specific examples will be further described in detail.

예측부(110)에서 예측을 수행한 예측된 블록 또는 예측된 샘플과 원본 블록 또는 원본 샘플과 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(115)로 입력될 수 있다. 변환부(115)에서는 잔차 블록을 DCT(Discrete Cosine Transform) 또는 DST(Discrete Sine Transform)와 같은 변환 방법을 사용하여 변환할 수 있다. 잔차 블록을 변환하기 위해 DCT를 적용할지 DST를 적용할지는 잔차 블록에 대응하는 예측 블록의 화면 내 예측 모드 정보 및/또는 예측 블록의 크기 정보를 기초로 결정할 수 있다. 즉, 변환부에서는 예측 블록의 크기에 따라 변환 방법을 다르게 사용할 수 있다.A residual block including the predicted block or the predicted sample which has been predicted by the predictor 110 and the residual value which is a difference value from the original block or the original sample can be generated. The generated residual block may be input to the conversion unit 115. The transforming unit 115 can transform the residual block using a transform method such as DCT (Discrete Cosine Transform) or DST (Discrete Sine Transform). Whether to apply the DCT or the DST to transform the residual block can be determined based on the intra prediction mode information of the prediction block corresponding to the residual block and / or the size information of the prediction block. That is, the conversion unit can use the conversion method differently depending on the size of the prediction block.

양자화부(120)는 변환부(115)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공될 수 있다.The quantization unit 120 may quantize the values converted into the frequency domain by the conversion unit 115. [ The quantization factor may vary depending on the block or the importance of the image. The values calculated by the quantization unit 120 may be provided to the inverse quantization unit 135 and the reorder unit 125.

재정렬부(125)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(125)에서는 지그-재그 스캔(Zig-Zag Scan)방법을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. 변환 블록의 크기 및 화면 내 예측 모드에 따라 지그-재그 스캔 방법이 아닌 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔 방법, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔 방법이 사용될 수 있다. 즉, 변환 블록의 크기 및 화면 내 예측 모드에 따라 지그-재그 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.The reordering unit 125 may rearrange the coefficient values on the quantized residual values. The reordering unit 125 rearranges the two-dimensional block type coefficients into a one-dimensional vector form through a coefficient scanning method Can be changed. For example, the rearranging unit 125 may scan a DC coefficient to a coefficient of a high frequency region using a Zig-Zag scan method, and change the DC coefficient to a one-dimensional vector form. A vertical scanning method of scanning a two-dimensional block type coefficient in a column direction instead of a jig-jag scanning method according to a size of a conversion block and an intra-picture prediction mode, and a horizontal scanning method of scanning a two- Can be used. That is, it is possible to determine whether any scan method among the jig-jag scan, the vertical scan and the horizontal scan is used according to the size of the conversion block and the intra prediction mode.

엔트로피 부호화부(130)는 재정렬부(125)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.The entropy encoding unit 130 may perform entropy encoding based on the values calculated by the reordering unit 125. For entropy encoding, various encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be used.

엔트로피 부호화부(130)는 재정렬부(125) 및 예측부(110)로부터 부호화 블록의 잔차값 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 블록 정보, 예측 블록 정보 및 변환 블록 정보, 움직임 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 제공받아 소정의 부호화 방법을 기초로 엔트로피 부호화를 수행할 수 있다. 또한, 엔트로피 부호화부(130)에서는 재정렬부(125)에서 입력된 부호화 단위의 정보를 엔트로피 부호화할 수 있다. The entropy encoding unit 130 receives the residual value coefficient information of the encoding block, the block type information, the prediction mode information, the split block information, the prediction block information, the transform block information, the motion vector information , Reference frame information, block interpolation information, filtering information, and the like, and performs entropy encoding based on a predetermined encoding method. In addition, the entropy encoding unit 130 can entropy encode the information of the encoding unit input by the reordering unit 125. [

역양자화부(135) 및 역변환부(140)에서는 양자화부(120)에서 양자화된 값들을 역양자화하고 변환부(115)에서 변환된 값들을 역변환한다. 역양자화부(135) 및 역변환부(140)에서 생성된 잔차값(Residual)은 예측부(110)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부를 통해서 예측된 블록과 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다.The inverse quantization unit 135 and the inverse transformation unit 140 dequantize the quantized values in the quantization unit 120 and invert the converted values in the conversion unit 115. [ The residual value generated by the inverse quantization unit 135 and the inverse transform unit 140 is combined with a predicted block through a motion estimation unit, a motion compensation unit and an intra prediction unit included in the prediction unit 110, Block) can be generated.

필터부(145)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다. The filter unit 145 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).

디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링을 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행처리가 되도록 할 수 있다.The deblocking filter can remove block distortion caused by the boundary between the blocks in the reconstructed picture. It may be determined whether to apply a deblocking filter to the current block based on pixels included in a few columns or rows included in the block to determine whether to perform deblocking. When a deblocking filter is applied to a block, a strong filter or a weak filter may be applied according to the deblocking filtering strength required. In applying the deblocking filter, the horizontal filtering and the vertical filtering may be performed concurrently when the vertical filtering and the horizontal filtering are performed.

오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.The offset correction unit may correct the offset of the deblocked image with respect to the original image in units of pixels. In order to perform offset correction for a specific picture, pixels included in an image are divided into a predetermined number of areas, and then an area to be offset is determined and an offset is applied to the area. Alternatively, Can be used.

ALF (Adaptive Loop Filter)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 영상에 포함된 픽셀을 적어도 하나 이상의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF의 크기 및 계수는 달라질 수 있다. ALF는 다양한 형태를 가질 수 있으며, 필터에 그에 따라 포함되는 계수의 개수도 달라질 수 있다. 이러한 ALF의 필터링 관련 정보(필터 계수 정보, ALF On/Off 정보, 필터 형태 정보)는 비트스트림 형태로 파라메터 셋에 포함되어 전송될 수 있다.The ALF (Adaptive Loop Filter) can perform filtering based on a value obtained by comparing the filtered restored image and the original image. After dividing the pixels included in the image into at least one group, one filter to be applied to the group may be determined and different filtering may be performed for each group. The information related to whether to apply the ALF may be transmitted for each coding unit (CU), and the size and the coefficient of the ALF to be applied may be changed according to each block. The ALF may have various forms, and the number of coefficients included in the filter may also vary. The filtering related information (filter coefficient information, ALF On / Off information, filter type information) of the ALF can be transmitted as a bit stream in the parameter set.

메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 화면 간 예측을 수행 시 예측부(110)에 제공될 수 있다.
The memory 150 may store the reconstructed block or picture calculated through the filter unit 145 and the reconstructed block or picture stored therein may be provided to the predictor 110 when inter-picture prediction is performed.

도 2는 본 발명의 다른 실시예에 따른 복호화기를 나타낸 블록도이다.2 is a block diagram illustrating a decoder according to another embodiment of the present invention.

도 2를 참조하면, 복호화기는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235), 메모리(240)가 포함될 수 있다.2, the decoder includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a predicting unit 230, a filter unit 235, a memory 240, May be included.

부호화기에서 비트스트림이 입력된 경우, 입력된 비트스트림은 부호화기와 반대의 절차로 복호화될 수 있다.When a bitstream is input in the encoder, the input bitstream can be decoded in a procedure opposite to that of the encoder.

엔트로피 복호화부(210)는 부호화기의 엔트로피 부호화부에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. The entropy decoding unit 210 may perform entropy decoding in a procedure opposite to that in which the entropy encoding unit of the encoder performs the entropy encoding.

엔트로피 복호화부(210)에서 복호화된 정보 중 예측된 블록(또는 예측된 샘플)을 생성하기 위한 정보는 예측부(230)로 제공되고 엔트로피 복호화부에서 엔트로피 복호화를 수행한 잔차값은 재정렬부(215)로 입력될 수 있다.Information for generating a predicted block (or a predicted sample) out of the information decoded by the entropy decoding unit 210 is provided to the predicting unit 230. The residual value obtained by performing entropy decoding in the entropy decoding unit is supplied to a reordering unit 215 ).

엔트로피 복호화부(210)에서는 부호화기에서 수행된 화면 내 예측 및 화면 간 예측에 관련된 정보를 복호화할 수 있다. 전술한 바와 같이 부호화기에서 화면 내 예측 및 화면 간 예측을 수행시 예를 들어 주변의 예측 모드가 가용하지 않은 경우 등의 제약이 있는 경우, 이러한 제약을 기초로 한 엔트로피 복호화를 수행해 현재 블록에 대한 화면 내 예측 및 화면 간 예측에 관련된 정보를 제공받을 수 있다. The entropy decoding unit 210 can decode information related to intra-picture prediction and inter-picture prediction performed by the encoder. In the case where there is a constraint such as when the intra-picture prediction and the inter-picture prediction are performed in the encoder, for example, when the surrounding prediction mode is not available, as described above, entropy decoding based on the constraint is performed, It is possible to receive information related to the intra prediction and inter prediction.

재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 부호화부에서 재정렬한 방법을 기초로 재정렬을 수행할 수 있다. 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부에서는 부호화부에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 해당 부호화부에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다. The reordering unit 215 can perform reordering based on a method in which the entropy decoding unit 210 rearranges the entropy-decoded bitstreams in the encoding unit. The coefficients represented by the one-dimensional vector form can be rearranged by restoring the coefficients of the two-dimensional block form again. The reordering unit may perform reordering by receiving information related to the coefficient scanning performed by the encoding unit and performing a reverse scanning based on the scanning order performed by the encoding unit.

역양자화부(220)는 부호화기에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다. The inverse quantization unit 220 can perform inverse quantization based on the quantization parameters provided by the encoder and the coefficient values of the re-arranged blocks.

역변환부(225)는 부호화기에서 수행한 양자화 결과에 대해 변환부에서 수행한 DCT 및 DST에 대해 역 DCT 및 역 DST를 수행할 수 있다. 역변환은 부호화기에서 결정된 변환 단위를 기초로 수행될 수 있다. 부호화기의 변환부에서는 DCT와 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 복호화기의 역변환부(225)에서는 부호화기의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다.The inverse transform unit 225 may perform inverse DCT and inverse DST on the DCT and DST performed by the transform unit on the quantization result performed by the encoder. The inverse transform can be performed based on the conversion unit determined in the encoder. In the transform unit of the encoder, DCT and DST can be selectively performed according to a plurality of information such as a prediction method, a size and a prediction direction of the current block, and the inverse transform unit 225 of the inverse transform unit transforms transform information The inverse transform can be performed.

예측부(230)는 엔트로피 복호화부(210)에서 제공된 예측된 블록(또는 예측된 샘플) 생성 관련 정보와 메모리(240)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측된 블록(또는 예측된 샘플)을 생성할 수 있다.The predictor 230 predicts the predicted block (or predicted sample) generated based on the predicted block (or predicted sample) generation related information provided by the entropy decoding unit 210 and the previously decoded block or picture information provided in the memory 240, Lt; / RTI > sample).

전술한 바와 같이 부호화기에서의 동작과 동일하게 화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 동일할 경우, 예측 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 블록에 대한 화면 내 예측을 수행하지만, 화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 상이할 경우, 변환 블록을 기초로 한 참조 픽셀을 이용하여 화면 내 예측을 수행할 수 있다. 또한, 최소 크기의 부호화 블록에 대해서만 NxN 분할을 사용하는 화면 내 예측을 사용할 수 있다.As described above, when intra prediction is performed in the same manner as in the encoder, when the size of the prediction block and the size of the transform block are the same, a pixel existing on the left side of the prediction block, a pixel existing on the upper left side, However, when intra prediction is performed, when the size of the prediction block is different from the size of the transform block, the intra-picture prediction is performed using the reference block based on the transform block, Can be performed. In addition, intra prediction using NxN division can be used only for the minimum size encoded block.

예측부(230)는 예측 블록 판별부, 화면 간 예측부 및 화면 내 예측부를 포함할 수 있다. 예측 블록 판별부는 엔트로피 복호화부에서 입력되는 예측 블록 정보, 화면 내 예측 방법의 예측 모드 정보, 화면 간 예측 방법의 움직임 예측 관련 정보 등 다양한 정보를 입력 받고 부호화 블록에서 예측 블록을 구분하고, 예측 블록이 화면 간 예측을 수행하는지 아니면 화면 내 예측을 수행하는지 여부를 판별할 수 있다. 화면 간 예측부는 부호화기에서 제공된 정보를 이용해 현재 예측 블록이 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 블록에 대한 화면 간 예측을 수행할 수 있다.The prediction unit 230 may include a prediction block determination unit, an inter picture prediction unit, and an intra prediction unit. The prediction block discriminator receives various information such as the prediction block information input from the entropy decoding unit, the prediction mode information of the intra prediction method, the motion prediction related information of the inter picture prediction method, and separates the prediction blocks in the encoding block. It is possible to determine whether inter-picture prediction is performed or intra-picture prediction is performed. The inter picture prediction unit may perform inter picture prediction on the current prediction block based on the information included in at least one of the previous picture of the current picture or the following picture including the current prediction block using the information provided by the encoder.

화면 간 예측을 수행하기 위해 부호화 블록을 기준으로 해당 부호화 블록에 포함된 예측 블록의 움직임 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode) 중 어떠한 방법인지 여부를 판단할 수 있다. In order to perform the inter-picture prediction, the motion prediction method of the prediction block included in the encoded block is based on a skip mode, a merge mode, or an AMVP mode Can be determined.

화면 내 예측부는 현재 픽쳐 내의 화소 정보를 기초로 예측된 블록(또는 예측된 샘플로도 표현할 수 있다.)을 생성할 수 있다. 예측 블록이 화면 내 예측을 수행한 예측 블록인 경우, 부호화기에서 제공된 예측 블록의 화면 내 예측 모드 정보를 기초로 화면 내 예측을 수행할 수 있다. 화면 내 예측부에는 AIS 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로서 현재 예측 블록의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 부호화기에서 제공된 예측 블록의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다. 또한, 부호화기에서 마찬가지로 예측 블록을 생성 후 참조 픽셀과 함께 추가적으로 필터링을 수행할 수 있다.The intra prediction unit can generate a predicted block (or a predicted sample) based on the pixel information in the current picture. If the prediction block is a prediction block in which intra prediction is performed, the intra prediction can be performed on the basis of the intra prediction mode information of the prediction block provided by the encoder. The intra-frame prediction unit may include an AIS filter, a reference pixel interpolator, and a DC filter. The AIS filter performs filtering on the reference pixels of the current block and determines whether the filter is applied or not according to the prediction mode of the current prediction block. The AIS filtering can be performed on the reference pixel of the current block using the prediction mode and the AIS filter information of the prediction block provided by the encoder. When the prediction mode of the current block is a mode in which AIS filtering is not performed, the AIS filter may not be applied. In addition, the encoder may similarly generate a prediction block and perform additional filtering together with the reference pixel.

참조 화소 보간부는 예측 블록의 예측 모드가 참조 화소를 보간한 화소값을 기초로 화면 내 예측을 수행하는 예측 블록일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소를 생성할 수 있다. 현재 블록의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측된 블록(또는 예측된 샘플로도 표현할 수 있다.)을 생성할 수 있다.The reference pixel interpolator can interpolate the reference pixels to generate reference pixels in units of pixels less than an integer value when the prediction mode of the prediction block is a prediction block that performs intra-frame prediction based on the pixel value obtained by interpolating the reference pixels . The reference pixel may not be interpolated in the prediction mode in which the prediction mode of the current block generates the prediction block without interpolating the reference pixel. The DC filter can generate a predicted block (or a predicted sample) through filtering when the prediction mode of the current block is the DC mode.

계층적 영상 복호화를 수행하는 경우 예측부(110)가 기본 계층(base layer)에 포함되어 있는지 아니면 향상 계층(enhanced layer)에 포함되어 있는지 여부에 따라 서로 다른 예측 동작을 수행할 수 있다. 예측부(110)가 기본 계층에 포함되어 있는 경우는 전술한 실시예와 동일하게 동작할 수 있다. 하지만, 예측부(110)가 향상 계층에 포함되어 있는 경우, 계층적 영상 복호화 모드에 따라 예측부가 화면 간 예측 및 화면 내 예측을 수행하지 않거나, 기본 계층의 예측부에서 생성된 영상 예측 관련 정보(예를 들어, 화면 내 예측 모드, 움직임 예측 관련 정보 등)을 수신받아 해당 정보를 기초로 예측을 수행할 수도 있다. 구체적인 예에 대해서는 추가적으로 상술한다.복원된 블록 또는 픽쳐는 필터부(235)로 제공될 수 있다. 필터부(235)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.In performing hierarchical image decoding, the prediction unit 110 may perform different prediction operations depending on whether the prediction unit 110 is included in a base layer or an enhancement layer. In the case where the prediction unit 110 is included in the base layer, it can operate in the same manner as the above-described embodiment. However, when the prediction unit 110 is included in the enhancement layer, the prediction unit 110 does not perform inter-picture prediction and intra-picture prediction according to the hierarchical image decoding mode, Intra prediction mode, motion prediction related information, etc.), and perform prediction based on the information. The restored block or picture may be provided to the filter unit 235. [ The filter unit 235 may include a deblocking filter, an offset correction unit, and an ALF.

부호화기로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 복호화기의 디블록킹 필터에서는 부호화기에서 제공된 디블록킹 필터 관련 정보를 제공받고 복호화기에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. 부호화기에서와 마찬가지로 우선 수직 디블록킹 필터링 및 수평 디블록킹 필터링을 수행하되, 겹치는 부분에 있어서는 수직 디블록킹 및 수평 디블록킹 중 적어도 하나를 수행할 수 있다. 수직 디블록킹 필터링 및 수평 디블록킹 필터링이 겹치는 부분에서 이전에 수행되지 못한 수직 디블록킹 필터링 또는 수평 디블록킹 필터링이 수행될 수 있다. 이러한 디블록킹 필터링 과정을 통해서 디블록킹 필터링의 병행 처리(Parallel Processing)이 가능하다. Information on whether a deblocking filter has been applied to the block or picture from the encoder and information on whether a strong filter or a weak filter is applied can be provided when the deblocking filter is applied. In the deblocking filter of the decoder, information related to the deblocking filter provided by the encoder is provided, and the decoder can perform deblocking filtering for the corresponding block. The vertical deblocking filtering and the horizontal deblocking filtering are performed as in the encoder, and at least one of the vertical deblocking and the horizontal deblocking can be performed in the overlapping portion. Vertical deblocking filtering or horizontal deblocking filtering that has not been performed previously can be performed at the overlapping portions of the vertical deblocking filtering and the horizontal deblocking filtering. Parallel processing of deblocking filtering is possible through the deblocking filtering process.

오프셋 보정부는 부호화 시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.The offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction applied to the image and the offset value information during encoding.

ALF는 필터링을 수행 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 부호화기로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 블록에 ALF를 적용할 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.The ALF can perform filtering based on the comparison between the reconstructed image and the original image after filtering. The ALF can be applied to the encoding block based on the ALF application information and the ALF coefficient information provided from the encoder. Such ALF information may be provided in a specific parameter set.

메모리(240)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다.
The memory 240 may store the reconstructed picture or block to be used as a reference picture or a reference block, and may also provide the reconstructed picture to the output unit.

이하 본 발명의 실시예에서는 계층적 비디오 코딩(scalable video coding) 방법에 대해 개시한다. 계층적 비디오 코딩 방법은 기본 계층(base layer)에 있는 영상 정보를 기초로 향상 계층(enhancement layer)의 영상 정보를 예측하는 방법이다. 아래에서는 이러한 계층적 비디오 코딩 방법에 대해 개시한다.
Hereinafter, a scalable video coding method will be described in an embodiment of the present invention. The hierarchical video coding method is a method of predicting image information of an enhancement layer based on image information in a base layer. This hierarchical video coding method will be described below.

도 3은 본 발명의 실시예에 따른 계층적 비디오 부호화 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating a hierarchical video encoding method according to an embodiment of the present invention.

도 3을 참조하면, 영상은 기본 계층(base layer, 300)과 향상 계층(enhancement layer, 350)를 통해 부호화가 수행될 수 있다. 계층적 영상 부호화 방법에서는 계층적 영상 부호화 방법에 따라 기본 계층(300)에서 생성된 영상 예측 정보가 향상 계층(350)의 영상 부호화를 수행하기 위해 사용될 수 있다. 예를 들어, 영상 예측 정보는 기본 계층의 픽셀을 업샘플링하여 생성한 정보, 기본 계층에서 블록을 예측하기 위해 사용된 화면 내 예측 모드 정보, 움직임 예측 관련 정보 일 수 있다.Referring to FIG. 3, an image may be encoded through a base layer 300 and an enhancement layer 350. In the hierarchical image coding method, the image prediction information generated in the base layer 300 according to the hierarchical image coding method can be used to perform image coding of the enhancement layer 350. For example, the image prediction information may be information generated by upsampling the pixels of the base layer, intra prediction mode information used for predicting the block in the base layer, and motion prediction related information.

기본 계층(300)은 모드 결정부(305), 예측부(310), 변환 및 양자화부(325), 역변환 및 역양자화부(330), 엔트로피 부호화부(335), 복원부(315), 필터부(320)를 포함할 수 있다. 각 부분별 동작은 도 1에서 개시한 바와 유사하고 모드 결정부(305)는 영상 부호화 방법으로 화면 내 예측 방법을 사용할지 아니면 화면 간 예측 방법을 사용할지 여부에 대한 결정을 수행하는 구성부이다.The base layer 300 includes a mode determining unit 305, a predicting unit 310, a transforming and quantizing unit 325, an inverse transforming and inverse quantizing unit 330, an entropy coding unit 335, a restoring unit 315, (320). The operation of each part is similar to that disclosed in FIG. 1, and the mode determination unit 305 determines whether to use the intra picture prediction method or the inter picture prediction method in the image encoding method.

계층 간 영상 부호화 방법 중 하나로 기본 계층에서 생성된 블록의 픽셀 정보가 업샘플링하여 향상 계층에서 사용할 수 있다. 이러한 방법을 사용하는 경우, 기본 계층(300)의 블록의 픽셀 정보는 업샘플링부(340)에서 업샘플링되고, 추가의 계층 간 필터링부(345, 347)를 거친 후에 향상 계층(350)으로 입력될 수 있다. 업 샘플링을 수행하기 위해 보간(interpolation)을 수행할 수 있다.One of the inter-layer image encoding methods is to use the up-sampling of the pixel information of the block generated in the base layer and use it in the enhancement layer. The pixel information of the block of the base layer 300 is upsampled by the upsampling unit 340 and is input to the enhancement layer 350 after passing through the additional inter-layer filtering units 345 and 347. [ . Interpolation may be performed to perform the upsampling.

또 다른 계층 간 부호화 방법으로 기본 계층에서 블록의 예측에 사용된 화면 내 예측 모드 정보 또는 움직임 예측 관련 정보를 향상 계층에 전송하고, 이러한 예측 관련 정보를 향상 계층에서 이용할 수도 있다. 계층 간 영상 부호화 방법은 이뿐만 아니라 다양한 방법을 사용할 수 있고 기본 계층으로부터 영상 예측 정보를 수신하여 향상 계층에서 예측을 수행하는 방법을 계층 간 예측 방법(inter layer prediction)이라고 할 수 있다.Intra-picture prediction mode information or motion prediction related information used for prediction of a block in a base layer may be transmitted to an enhancement layer using another inter-layer coding method, and such prediction related information may be used in an enhancement layer. The inter-layer video coding method can use various methods as well as inter layer prediction method for receiving prediction image information from the base layer and performing prediction in the enhancement layer.

또한 향상 계층에서는 기본 계층으로부터 영상 예측 정보를 수신하지 않고 향상 계층의 정보만을 사용하여 영상 예측 및 부호화 과정을 수행할 수도 있다.Also, in the enhancement layer, the image prediction and encoding process may be performed using only the enhancement layer information without receiving the image prediction information from the base layer.

향상 계층(350)도 기본 계층(300)과 동일하게 모드 결정부(355), 예측부(360), 변환 및 양자화부(375), 역변환 및 역양자화부(380), 엔트로피 부호화부(385), 복원부(365), 필터부(370)를 포함할 수 있다. 각 구성부별 동작은 도 1에서 개시한 바와 동일한 구성을 가질 수 있다. 향상 계층(350)의 모드 결정부(355)는 향상 계층(350) 내의 영상 정보를 이용한 영상 예측 방법 또는 기본 계층의 영상 예측 정보를 이용한 영상 예측 방법(inter layer prediction) 등 여러 가지 영상 부호화 방법 중 하나의 예측 방법을 선택하기 위한 구성부로 사용될 수 있다.The enhancement layer 350 includes a mode determination unit 355, a prediction unit 360, a transform and quantization unit 375, an inverse transform and inverse quantization unit 380, an entropy encoding unit 385, A restoration unit 365, and a filter unit 370. [ The operation of each constituent unit may have the same configuration as that shown in Fig. The mode determination unit 355 of the enhancement layer 350 may perform various image encoding methods such as an image prediction method using image information in the enhancement layer 350 or an interlayer prediction method using image prediction information of a base layer And can be used as a component for selecting one prediction method.

즉, 향상 계층의 모드 결정부(355)에서는 영상 부호화부에서 수행할 영상 예측 방법을 선택할 수 있다. That is, the mode determination unit 355 of the enhancement layer can select an image prediction method to be performed by the image encoding unit.

업샘플링 및 계층 간 필터링부(340, 345, 347)에서 생성된 정보, 기본 계층 정보, 향상 계층 정보는 멀티플렉싱(multiplexing, 395)이 수행되어 계층적 비트스트림(scalable bitstream)으로 생성되어 영상 복호화부로 전송될 수 있다.
Information, base layer information, and enhancement layer information generated in the up-sampling and inter-layer filtering units 340, 345, and 347 are multiplexed 395 to be generated as a scalable bitstream, Lt; / RTI >

도 4는 본 발명의 실시예에 따른 계층적 비디오 복호화 방법을 나타낸 개념도이다. 4 is a conceptual diagram illustrating a hierarchical video decoding method according to an embodiment of the present invention.

도 4를 참조하면, 영상 정보는 영상 부호화부로부터 생성된 계층적 비트스트림(scalable bitstream)을 통해 전송될 수 있다. 계층적 비트스트림은 디멀티플렉싱(demultiplexing, 405)되어 기본 계층(400)의 엔트로피 복호화부(410), 향상 계층(450)의 엔트로피 복호화부(455) 및 필터 계수 엔트로피 복호화부(485)로 입력될 수 있다.Referring to FIG. 4, the image information may be transmitted through a scalable bitstream generated from the image encoding unit. The hierarchical bit stream is demultiplexed 405 and input to the entropy decoding unit 410 of the base layer 400, the entropy decoding unit 455 and the filter coefficient entropy decoding unit 485 of the enhancement layer 450 .

기본 계층(400)에 대해 우선적으로 기술하면, 기본 계층(400)의 엔트로피 복호화부(410)로 입력된 정보는 역양자화부 및 역변환부(415) 및 모드 결정부(420)로 입력될 수 있다. 복호화된 정보를 기초로 모드 결정부(420)에서는 화면 간 예측(inter prediction)을 수행할 것인지 아니면 화면 내 예측(intra prediction)을 수행할 것인지 여부에 대해 결정할 수 있다. 모드 결정부(420)에서 출력된 예측 모드 정보를 기초로 예측부(425)에서는 예측을 수행할 수 있다. 역양자화부 및 역변환부(415)에서는 엔트로피 복호화부(410)에서 생성된 잔차 정보를 역변환 및 역양자화하여 잔차 정보를 생성할 수 있다. 즉, 도 2의 영상 복호화 단계와 동일한 방법으로 영상 복호화가 수행될 수 있다.Information input to the entropy decoding unit 410 of the base layer 400 may be input to the inverse quantization unit and the inverse transform unit 415 and the mode determination unit 420 . Based on the decoded information, the mode determination unit 420 may determine whether inter prediction or intra prediction is to be performed. The prediction unit 425 can perform prediction based on the prediction mode information output from the mode determination unit 420. [ The inverse quantization unit and inverse transform unit 415 can generate residual information by inversely transforming and inverse-quantizing the residual information generated by the entropy decoding unit 410. [ That is, image decoding can be performed in the same manner as the image decoding step of FIG.

기본 계층(400)에서 영상 복호화 과정을 마친 후 생성된 정보는 만약, 향상 계층(450)이 기본 계층(400)의 블록에 포함된 픽셀을 업샘플링한 정보를 사용하여 복호화를 수행할 경우 업샘플링부(440)로 전송될 수 있다. 업샘플링된 정보는 계층 간 필터링(445, 447)을 거쳐서 향상 계층(450)으로 전송될 수 있다.If the enhancement layer 450 performs decoding using information obtained by upsampling the pixels included in the block of the base layer 400, the information generated after the image decoding process in the base layer 400 is completed, (440). ≪ / RTI > The upsampled information may be sent to enhancement layer 450 via inter-layer filtering 445 and 447. [

향상 계층(450)의 엔트로피 복호화부(455)에서 복호화된 정보를 기초로 향상 계층(450)의 모드 결정부(465)에서는 영상 부호화 단계에서 향상 계층(450)은 어떠한 영상 부호화 방법 또는 영상 예측 방법을 사용하여 부호화를 수행하였는지 여부를 판단할 수 있다.In the mode determination unit 465 of the enhancement layer 450 based on the information decoded by the entropy decoding unit 455 of the enhancement layer 450, the enhancement layer 450 in the image encoding step performs an image encoding method or an image prediction method It is possible to determine whether or not encoding has been performed.

향상 계층(450)의 모드 결정부(465)에서는 영상 부호화부의 향상 계층에서 부호화를 수행 시 사용한 영상 예측 방법과 동일한 예측 방법을 사용하여 영상 복호화를 수행할 수 있다. 영상 복호화 단계에 수행되는 영상 예측 방법으로 크게는 기본 계층(400)의 정보를 참조하여 영상 예측을 수행하는 방법 또는 기본 계층(400)의 정보를 사용하지 않고 영상 예측을 수행하는 방법을 사용할 수 있다. 기본 계층(400)의 정보를 사용하지 않고 영상 예측 수행하는 경우 향상 계층(450)에서는 기본 계층(400)으로부터 따로 영상 관련 정보를 수신하지 않는다.The mode determination unit 465 of the enhancement layer 450 may perform image decoding using the same prediction method as the image prediction method used in the enhancement layer of the image encoding unit. The image prediction method performed in the image decoding step may be a method of performing image prediction with reference to information of the base layer 400 or a method of performing image prediction without using information of the base layer 400 . When the image prediction is performed without using the information of the base layer 400, the enhancement layer 450 does not receive image related information separately from the base layer 400. [

이하 본 발명의 실시예에서는 계층적 비디오 코딩(scalable video coding) 방법에 대해 개시한다. 계층적 영상 복호화 방법 중 베이스 예측 모드는 향상 계층(enhancement layer)의 블록을 예측하기 위해 기본 계층(base layer)의 블록을 예측하기 위해 사용된 영상 예측 정보를 사용하는 모드를 의미할 수 있다. 영상 예측 정보는 예를 들어, 기본 계층의 블록에서 사용한 화면 내 예측 모드, 또는 움직임 예측 관련 정보 등이 될 수 있다.
Hereinafter, a scalable video coding method will be described in an embodiment of the present invention. Among the hierarchical image decoding methods, the base prediction mode may mean a mode using image prediction information used for predicting a block of a base layer to predict a block of an enhancement layer. The image prediction information may be, for example, an intra prediction mode used in a block of a base layer, motion prediction related information, or the like.

도 5는 본 발명의 실시예에 따른 부호화 블록 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 개념도이다.5 is a conceptual diagram illustrating a hierarchical image decoding method using an encoding block skip mode according to an embodiment of the present invention.

도 5에서는 계층적 영상 복호화 방법 중 부호화 블록 스킵 모드를 사용한 영상 예측 방법에 대해 개시한다.FIG. 5 shows an image prediction method using a coded block skip mode among the hierarchical image decoding methods.

부호화 블록 스킵 모드는 기본 계층의 부호화 블록 단위(500)에 존재하는 영상 정보 를 업샘플링(upsampling)하여 업샘플링된 기본 계층의 부호화 블록 단위(520)에 존재하는 영상 정보를 향상 계층의 부호화 블록 단위(540)에 대한 복원된 영상 정보로 사용하는 방법이다. 영상 정보는 픽셀 정보로서 휘도 픽셀값 또는 색차 픽셀값이 될 수 있다.The encoded block skip mode upsampling the image information existing in the encoding block unit 500 of the base layer and compresses the image information existing in the upsampled base layer encoding block unit 520 to the encoding block unit of the enhancement layer (540). The image information may be a luminance pixel value or a color difference pixel value as pixel information.

향상 계층에서는 업샘플링된 영상 정보에 대해 추가적으로 필터링을 통해 복원 블록을 생성할 수도 있다.In the enhancement layer, a restoration block may be generated by filtering the upsampled image information.

기본 계층의 부호화 블록 단위(500)에 포함된 영상 정보를 업샘플링하기 위해 다양한 방법이 사용될 수 있다. 예를 들어, DCT-IF(discrete cosine transform-interpolation filtering)를 사용하여 기본 계층에 존재하는 샘플들 사이의 값을 보간하여 영상을 업샘플링할 수 있다. 필터로 다양한 필터가 사용될 수 있는데 샘플의 성분에 따라 8 탭 DCT-IF는 휘도 샘플에 적용될 수 있고 4 탭 DCT-IF는 색차 샘플에 적용될 수 있다.Various methods can be used to upsample the image information included in the encoding block unit 500 of the base layer. For example, the image can be up-sampled by interpolating values between samples existing in the base layer using discrete cosine transform-interpolation filtering (DCT-IF). Various filters can be used as filters. Depending on the components of the sample, the 8-tap DCT-IF can be applied to luminance samples and the 4-tap DCT-IF can be applied to color difference samples.

즉, 부호화 블록 스킵 모드를 사용하여 예측을 수행하는 부호화 블록 단위(540)는 향상 계층의 부호화 블록 단위(540)에 상응하는 위치에 존재하는 기본 계층의 부호화 블록 단위(500)의 영상 정보를 업샘플링을 한 값을 향상 계층의 복원 블록의 정보로서 사용할 수 있다. 즉, 향상 계층의 부호화 블록 단위(540)에 대해 부호화 블록 스킵 모드를 사용하는 경우 향상 계층의 부호화 블록 단위(540)에 포함되는 적어도 하나의 예측 블록에 대해서는 따로 영상 예측 과정이 수행될 필요가 없이 기본 계층의 부호화 블록 단위(500)의 영상 정보를 업샘플링한 정보를 향상 계층의 부호화 블록 단위(540)의 복원 블록으로 바로 사용할 수 있다. 기본 계층의 영상 단위와 향상 계층의 영상 단위가 대응된다는 각각의 계층의 픽쳐에서 영상 단위의 상대적인 위치가 동일하다는 의미를 가질 수도 있고, 계층 간 예측을 수행 시 계층 간에 참조되는 영상 단위라는 의미를 가질 수도 있다.That is, the coding block unit 540 for performing prediction using the coding block skip mode updates the video information of the coding block unit 500 of the base layer existing at the position corresponding to the coding block unit 540 of the enhancement layer And the sampled value can be used as the information of the restoration block of the enhancement layer. That is, when the coded block skip mode is used for the enhancement layer coded block unit 540, at least one prediction block included in the enhancement layer coded block unit 540 does not need to perform the image prediction process separately The information obtained by upsampling the video information of the encoding block unit 500 of the base layer can be directly used as a reconstruction block of the encoding block unit 540 of the enhancement layer. It may mean that the relative positions of the image units are the same in the picture of each layer that the image unit of the base layer corresponds to the image unit of the enhancement layer and may have the meaning of an image unit referenced between layers It is possible.

이하, 본 발명의 실시예에 따른 계층적 영상 복호화 방법에서는 설명의 편의상 기본 계층에서 향상 계층의 블록에 대응되는 기본 계층의 블록을 ‘기본 계층의 대응되는 블록’, ‘기본 계층 에서 대응되는 블록’, ‘대응되는 블록’ 또는 ‘대응 블록’이라는 용어로 정의하여 동일한 의미로 사용한다. 기본 계층에서 대응되는 단윈는 블록 단위가 아닌 CTB(coding tree block), 슬라이스, 픽쳐 등과 같은 단위가 될 수도 있다.Hereinafter, in the hierarchical image decoding method according to an embodiment of the present invention, a block of a base layer corresponding to a block of an enhancement layer in a base layer is referred to as a 'corresponding block in a base layer' , 'Corresponding block', or 'corresponding block'. The corresponding unit in the base layer may be a unit such as a coding tree block (CTB), a slice, a picture, etc., instead of a block unit.

부호화 블록 스킵 모드를 사용한 복호화 과정을 수행하기 위해서는 부호화 블록이 부호화 블록 스킵 모드를 사용함을 지시하는 구문 요소(syntax element)가 새롭게 정의될 수 있다. 예를 들어, 부호화 블록 단위로 부호화 블록 스킵 모드가 수행되는 경우 특정 부호화 블록이 부호화 블록 스킵 모드를 수행함을 지시하는 구문 요소는 블록 정보를 전송하기 위한 비트스트림의 헤더 정보로서 전송될 수 있다.In order to perform a decoding process using a coded block skip mode, a syntax element indicating that a coded block uses a coded block skip mode may be newly defined. For example, when a coded block skip mode is performed in units of coded blocks, a syntax element indicating that a specific coded block performs a coded block skip mode may be transmitted as header information of a bit stream for transmitting block information.

예를 들어, 부호화 블록 스킵 모드를 지시하는 구문 요소는 비트스트림(bit-stream) 내 부호화 유닛 헤더(coding unit header)에 존재할 수 있고, 이러한 구문 요소의 명칭을 부호화 블록 스킵 플래그(CB_skip_flag)라고 정의하여 사용할 수 있다.For example, a syntax element indicating a coding block skip mode may exist in a coding unit header in a bit-stream, and the name of such syntax element is defined as a coding block skip flag (CB_skip_flag) Can be used.

본 발명의 실시예에서 사용하는 여러 구문 요소의 명칭 및 구문 요소의 정의는 하나의 예시로서 동일한 구문 요소를 표현하기 위해 다른 구문 요소 명칭이 사용될 수 있다. 또한, 동일한 구문 요소의 기능이 다른 구문 요소에 포함되어 동일한 역할을 수행하는 것도 가능하다.The names of the various syntax elements used in the embodiment of the present invention and definitions of the syntax elements may be used as another example of syntax element names to represent the same syntax elements. It is also possible for a function of the same syntax element to be included in another syntax element to perform the same role.

부호화 블록 단위에 대한 부호화 블록 스킵 플래그(CB_skip_flag)를 복호화한 결과 부호화 블록 단위가 부호화 블록 스킵 모드를 수행되는 것으로 판단되면(예를 들어, ON 또는 ‘1’), 현재 부호화 블록을 복호화하기 위한 구문 요소(syntax element) 및/또는 현재 부호화 블록 이하의 단위(예를 들어, 예측 블록, 변환 블록)에 관련된 구문 요소(syntax element)들이 명시적으로 비트스트림(bit-stream)으로 전송이 되지 않을 수 있다. 이러한 경우, 필요에 따라 영상 복호화부에서 일부 구문 요소(syntax element) 값을 유추(infer)하여 복호화 과정을 수행할 수 있다.
(For example, ON or '1') as a result of decoding the encoded block skip flag CB_skip_flag for each encoded block unit, a syntax for decoding the current encoded block is determined Syntax elements associated with a unit of syntax elements and / or units below a current encoding block (e.g., a prediction block, a transform block) may not be explicitly transmitted in a bit-stream. have. In this case, the image decoding unit may infer the values of some syntax elements to perform a decoding process, if necessary.

도 6은 본 발명의 실시예에 따른 부호화 블록 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 순서도이다.6 is a flowchart illustrating a hierarchical image decoding method using an encoding block skip mode according to an embodiment of the present invention.

도 6에서는 부호화 블록 스킵 플래그를 기초로 향상 계층의 부호화 블록 단위에 대해 부호화 블록 스킵 모드를 이용한 예측 방법을 적용할지 여부를 판단하는 방법에 대해 개시한다.FIG. 6 shows a method for determining whether to apply a prediction method using a coding block skip mode to a coding block unit of an enhancement layer on the basis of a coding block skip flag.

도 6을 참조하면, 부호화 블록 스킵 플래그(CB_skip_flag)의 값을 판단한다(단계 S600).Referring to FIG. 6, the value of the encoded block skip flag CB_skip_flag is determined (step S600).

복호화된 부호화 블록 스킵 플래그에 대한 정보를 기초로 부호화 블록 단위에 부호화 블록 스킵 모드가 적용되는지 여부에 대한 정보를 얻을 수 있다. 예를 들어, 부호화 블록 스킵 플래그의 값이 ‘1’인 경우 부호화 블록 단위에 대해 부호화 블록 스킵 모드가 적용됨을 지시하고 부호화 블록 스킵 플래그의 값이 ‘0’인 경우 부호화 블록 단위가 부호화 블록 스킵 모드를 수행하지 않음을 지시할 수 있다.Information on whether a coded block skip mode is applied to each coded block can be obtained based on information on the decoded coded block skip flag. For example, when the value of the coded block skip flag is '1', it means that the coded block skip mode is applied to each coded block unit. If the value of the coded skip flag is '0' It can be instructed not to perform.

부호화 블록 스킵 모드를 사용하여 부호화 블록 단위의 영상 정보를 복원한다(단계 S610).And restores the video information of each coded block unit using the coded block skip mode (step S610).

부호화 블록 단위가 부호화 블록 스킵 모드를 사용하여 복호화를 수행하는 경우 기본 계층의 대응되는 부호화 블록 단위의 영상 정보를 업샘플링하여 향상 계층의 부호화 블록 단위의 복원 블록을 생성할 수 있다. 즉, 업샘플링된 기본 계층의 대응되는 부호화 단위의 영상 정보는 향상 계층에서는 부호화 블록 단위의 복원 블록 정보가 될 수 있다. 업샘플링 방법으로 다양한 방법이 사용될 수 있다.When decoding is performed using a coded block skip mode for each coded block unit, the reconstructed block for each coded block unit of the enhancement layer can be generated by upsampling the image information of the corresponding coded block unit of the base layer. That is, the video information of the corresponding encoding unit of the upsampled base layer can be restored block information in the enhancement layer in units of the encoding block. Various methods can be used as the upsampling method.

향상 계층에서는 업샘플링된 영상 정보에 대해 주변의 블록들과의 단차를 줄이기 위해 추가적으로 필터링을 수행하여 복원 블록을 생성하는 것도 가능하다.In the enhancement layer, it is also possible to generate a restoration block by additionally filtering the upsampled image information in order to reduce a step with neighboring blocks.

부호화 블록 단위가 예측 방법으로 부호화 블록 스킵 모드를 사용하지 않는 경우 다른 영상 예측 방법을 사용하여 부호화 블록 단위의 영상 정보를 예측한다(단계 S620).If the encoding block unit does not use the encoding block skip mode as the prediction method, the image information of each encoding block unit is predicted using another image prediction method (step S620).

부호화 블록 단위에 대한 다른 영상 예측 방법으로 향상 계층의 영상 정보만으로 복호화를 수행하는 방법을 사용할 수 있다. 이뿐만 아니라 이하 후술할 향상 계층에서의 다양한 계층간(inter-layer) 영상 예측 방법이 사용될 수도 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.
It is possible to use a method of performing decoding using only the image information of the enhancement layer by another image prediction method for each encoding block unit. In addition, various inter-layer image prediction methods in an enhancement layer to be described below may be used, and these embodiments are also included in the scope of the present invention.

도 7은 본 발명의 실시예에 따른 슬라이스 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 개념도이다.7 is a conceptual diagram illustrating a hierarchical image decoding method using a slice skip mode according to an embodiment of the present invention.

도 7에서는 부호화 블록 이외의 단위에 대해 적용되는 계층간 스킵 모드를 이용한 영상 예측 방법에 대해 개시한다. 설명의 편의상 슬라이스(slice) 단위로 계층간 스킵 모드를 수행하는 슬라이스 스킵 모드에 대해 개시한다. 하지만, 슬라이스 단위가 아닌 CTB(coding tree block) 단위, 픽쳐 단위에 대해서도 계층 간 스킵 모드를 적용할 수 있고 이러한 경우, 계층간 스킵 모드를 특정하기 위해 CTB 스킵 모드, 픽쳐 스킵 모드 등 다양한 용어가 사용될 수 있다.FIG. 7 shows an image prediction method using an inter-layer skip mode applied to a unit other than an encoding block. For convenience of explanation, a slice skip mode in which an inter-layer skip mode is performed in units of slices will be described. However, the inter-layer skip mode can be applied not only to a slice unit but also to a coding tree block (CTB) unit and a picture unit. In this case, various terms such as a CTB skip mode and a picture skip mode are used to specify a skip mode between layers .

CTB는 슬라이스를 분할하는 기본 단위로서 NxN 크기의 정사각형 형태를 가질 수 있다. CTB를 루트(root)로 쿼드트리 구조(quardtree structure)로 분할하여 부호화 블록을 생성할 수 있다. 복수개의 CTB가 일정한 기준으로 모인 집합을 슬라이스라고 할 수 있고, 슬라이스가 모여 하나의 픽쳐를 생성할 수 있다.The CTB is a basic unit for dividing a slice, and can have a square shape of NxN size. The encoded block can be generated by dividing the CTB as a root into a quad-tree structure. A set in which a plurality of CTBs are gathered based on a certain reference can be referred to as a slice, and a single picture can be generated by assembling slices.

도 7을 참조하면, 기본 계층의 대응되는 슬라이스 단위(700)의 영상 정보를 업샘플링한다.Referring to FIG. 7, the image information of the corresponding slice unit 700 of the base layer is upsampled.

기본 계층의 영역에 존재하는 슬라이스 단위(700)의 영상 정보를 업샘플링하여 향상 계층의 슬라이스 단위(740)의 영상 정보를 복원할 수 있다. 슬라이스 스킵 모드는 전술한 부호화 블록 스킵 모드와 동일하게 기본 계층에서 대응되는 슬라이스 단위(700)의 영상 정보를 업샘플링한 슬라이스 단위(720)의 영상 정보를 향상 계층의 슬라이스 단위(740)에 대한 복원 영상 정보로서 사용할 수 있다.The image information of the slice unit 700 existing in the base layer region may be upsampled to restore the image information of the slice unit 740 of the enhancement layer. In the slice skip mode, the image information of the slice unit 720 obtained by upsampling the image information of the slice unit 700 corresponding to the base layer in the same manner as the above-described encoded block skip mode is restored to the slice unit 740 of the enhancement layer And can be used as image information.

즉, 슬라이스 스킵 방법을 사용하는 경우 슬라이스에 포함된 모든 CTB 들에 대하여 향상 계층에서는 따로 영상 예측 과정 및 추가의 복호화 과정을 수행할 필요가 없다. 즉, 기본 계층의 대응되는 슬라이스 단위(700)의 영상 정보를 업 샘플링한 슬라이스 단위(720)의 영상 정보(720)가 향상 계층에서 복원된 영상 정보(740)가 될 수 있다. 향상 계층에서는 슬라이스 단위(740)에 포함되는 복원된 영상 정보에 대해 필터링을 수행할 수도 있다.That is, when using the slice skip method, it is not necessary to separately perform an image prediction process and an additional decoding process in the enhancement layer for all the CTBs included in the slice. That is, the image information 720 of the slice unit 720 in which the image information of the corresponding slice unit 700 of the base layer is upsampled can be the image information 740 reconstructed in the enhancement layer. In the enhancement layer, the reconstructed image information included in the slice unit 740 may be filtered.

향상 계층의 슬라이스 단위(740)가 슬라이스를 수행함을 지시하는 구문 요소(syntax element)가 새롭게 정의되어 사용될 수 있다. 예를 들어, 특정한 슬라이스가 슬라이스 스킵 모드를 사용하여 예측을 수행하는 슬라이스인지 여부에 대한 플래그를 정의할 수 있다. 이러한 플래그 정보는 슬라이스 헤더에 포함되어 전송되거나, 슬라이스가 포함되는 데이터 단위인 NAL(network abstraction layer) 단위의 NAL 타입 정보로 정의되어 전송될 수도 있다.
A syntax element indicating that the slice unit 740 of the enhancement layer performs the slice may be newly defined and used. For example, a flag may be defined as to whether a particular slice is a slice that performs a prediction using slice skip mode. The flag information may be included in a slice header or transmitted as a NAL type information in units of a network abstraction layer (NAL), which is a data unit in which a slice is included.

도 8은 본 발명의 실시예에 따른 슬라이스 스킵 모드를 이용한 계층적 영상 복호화 방법을 나타낸 순서도이다.8 is a flowchart illustrating a hierarchical image decoding method using a slice skip mode according to an embodiment of the present invention.

도 8을 참조하면, 슬라이스 단위에서 슬라이스 스킵 모드가 사용되는지 여부를 판단한다(단계 S800).Referring to FIG. 8, it is determined whether a slice skip mode is used in a slice unit (step S800).

슬라이스 단위 또는 NAL 단위 등과 같은 단위에서 특정한 슬라이스 단위에서 슬라이스 스킵 모드를 사용한 예측이 수행되는지 여부를 판단하기 위한 정보를 복호화할 수 있다. 예를 들어, 슬라이스 단위에서 정의된 플래그 정보인 슬라이스 스킵 플래그(slice_skip_flag)를 사용하여 슬라이스 단위에서 슬라이스 스킵 모드가 사용되어 복호화되는지 여부에 대한 정보를 판단할 수 있다. NAL 단위에서는 NAL 단위에 포함된 슬라이스에 대해 슬라이스 스킵 모드를 사용한 예측이 수행되는지 여부에 대한 정보를 NAL 타입 정보를 이용하여 지시할 수 있다.It is possible to decode information for determining whether or not a prediction using a slice skip mode is performed in a specific slice unit in a unit such as a slice unit or a NAL unit. For example, using the slice skip flag (slice_skip_flag) which is flag information defined in a slice unit, information on whether or not a slice skip mode is used and decoded can be determined. In the NAL unit, information on whether prediction using a slice skip mode is performed for a slice included in a NAL unit can be indicated using NAL type information.

슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수를 복호화한다(단계 S810).The number of rows of the slice information and the number of remaining CTBs of the slice are decoded (step S810).

슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수를 기초로 슬라이스 스킵 모드를 사용하여 예측을 수행하는 슬라이스 내 전체 CTB 개수를 판단할 수 있다. 슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수는 슬라이스 스킵 모드를 사용하는 슬라이스 단위를 지시하기 위해 사용되는 변수의 예시이다. 따라서, 다른 변수를 사용하여 슬라이스 스킵 모드를 사용하는 슬라이스 단위를 판단하는 것도 가능하다.
It is possible to determine the total number of CTBs in the slice that performs the prediction using the slice skip mode based on the number of rows of the slice and the number of remaining CTBs of the slice. The number of rows of slice information and the number of remaining CTBs of a slice are examples of variables used to indicate a slice unit using a slice skip mode. Therefore, it is also possible to determine a slice unit using a slice skip mode by using another variable.

도 9는 본 발명의 실시예에 따른 슬라이스 스킵 모드를 사용하는 슬라이스를 지시하기 위한 방법을 나타낸 개념도이다.9 is a conceptual diagram illustrating a method for indicating a slice using a slice skip mode according to an embodiment of the present invention.

도 9를 참조하면, 하나의 픽쳐에 두 개의 슬라이스(제1 슬라이스(900), 제2 슬라이스(910 내지 950)가 존재할 수 있다. 제2 슬라이스는 네 줄에 해당하는 CTB(910, 920, 930, 940)와 추가의 3개의 CTB(950)를 포함할 수 있다.9, two slices (a first slice 900 and a second slice 910 to 950) may exist in one picture. The second slice includes four rows of CTBs 910, 920, and 930 , 940) and three additional CTBs 950.

특정한 슬라이스를 지시하기 위해서는 슬라이스의 행의 개수에 대한 정보 및 슬라이스의 남은 CTB 개수에 대한 정보를 사용하여 슬라이스 스킵 모드를 사용하여 예측을 수행하는 슬라이스 단위에 대한 정보를 얻을 수 있다. 즉, 해당 슬라이스 내 전체 CTB 개수를 알 수 있다.To indicate a specific slice, information on the number of slice rows and information on the number of remaining CTBs of a slice may be used to obtain information on a slice unit that performs a prediction using a slice skip mode. That is, the total number of CTBs in the slice can be known.

제2 슬라이스의 경우 슬라이스의 행의 개수(num_rows_in slice)가 4에 해당하고, 남은 CTB의 개수(num_extra_CTBs_in_Col)의 개수는 3에 해당한다. 이러한 정보를 기초로 슬라이스 스킵 모드를 사용하여 예측을 수행하는 제2 슬라이스 내 전체 CTB 개수를 지시할 수 있다.In the case of the second slice, the number of rows (num_rows_in slice) of slices corresponds to 4, and the number of remaining CTBs (num_extra_CTBs_in_Col) corresponds to 3. Based on this information, a slice skip mode can be used to indicate the total number of CTBs in the second slice that perform the prediction.

슬라이스 스킵 모드를 적용하여 슬라이스 단위 영상 정보 복원한다(단계 S820).The slice skip mode is applied to restore slice-unit image information (step S820).

슬라이스 스킵 모드를 사용하는 것으로 지시된 슬라이스 단위에 대하여 슬라이스 스킵 모드를 사용하여 생성된 슬라이스 단위의 영상 정보를 복원된 슬라이스의 영상 정보로서 출력할 수 있다. 즉, 기본 계층의 대응되는 슬라이스 단위의 영상 정보를 업샘플링한 정보를 슬라이스 단위의 복원 영상 정보로서 생성할 수 있다. 복원된 슬라이스 단위의 영상 정보에 대해서는 필터링이 적용되어 필터링된 영상 정보를 최종적인 슬라이스의 영상 정보로 출력할 수도 있다.The image information of the slice unit generated using the slice skip mode for the slice unit indicated by using the slice skip mode can be outputted as the image information of the restored slice. That is, information obtained by upsampling the image information of the corresponding slice unit of the base layer can be generated as reconstruction image information of the slice unit. Filtering is applied to the reconstructed image information of the slice unit, and the filtered image information may be output as the image information of the final slice.

슬라이스 또는 CTB가 계층간 스킵 모드를 사용하는 경우, 향상 계층에서는 현재 단위에 대한 데이터(data) 부분의 구문 요소(syntax element) 및/또는 현재 단위 이하의 단위에 대한 구문 요소(syntax element)들이 명시적으로 비트스트림(bit-stream)으로 전송이 되지 않고, 필요에 따라 구문 요소 값들을 유추하여 복호화 과정을 수행할 수 있다.If the slice or the CTB uses the inter-layer skip mode, the enhancement layer determines whether the syntax element of the data portion for the current unit and / or the syntax element for the unit below the current unit It is possible to perform a decoding process by referring to syntax element values as needed without being transmitted in a bit-stream.

슬라이스 단위로 스킵이 수행됨을 나타내기 위해 슬라이스 헤더의 슬라이스 스킵 플래그 정보만을 복호하여 향상 계층의 슬라이스 단위에 대한 슬라이스 스킵 모드를 수행할 수 있다. 또한, 슬라이스 스킵 플래그 정보에 따라 슬라이스에 포함되는 다른 복호화/복호화 단위의 계층간 스킵 모드를 지시하는 플래그 정보를 변화시켜 계층간 스킵 모드를 사용한 예측을 수행하는 것도 가능하다. 예를 들어, 슬라이스 스킵 플래그(slice_skip_flag)가 ON일 경우, 슬라이스 단위 내 모든 CTB의 CTB 스킵 플래그(CTB_skip_flag) 또는 부호화 블록의 부호화 블록 스킵 플래그(CB_skip_flag)를 ON으로 유도(infer)하여, 복호화 과정을 수행할 수도 있다. 부호화 블록 스킵 플래그(CB_skip_flag)는 부호화 블록 단위로 스킵이 수행됨을 나타내기 위한 플래그이고, CTB 스킵 플래그(CTB_skip_flag)는 CTB 단위로 스킵이 수행됨을 나타내기 위한 플래그이다. 이러한 방법을 사용하는 경우, 명시적으로 bit-stream 상의 CTB 스킵 플래그(CTB_skip_flag) 또는 부호화 블록 스킵 플래그(CB_skip_flag)의 값을 ON으로 전송한 경우와 동일한 효과를 가질 수 있다. 특정 플래그가 ‘on’이라는 것은 플래그가 지시하는 동작을 수행함을 의미한다.It is possible to perform a slice skip mode for the slice unit of the enhancement layer by decoding only the slice skip flag information of the slice header to indicate that the skip is performed in units of slices. It is also possible to perform prediction using the inter-layer skip mode by changing the flag information indicating the inter-layer skip mode of another decoding / decoding unit included in the slice according to the slice skip flag information. For example, when the slice skip flag (slice_skip_flag) is ON, the CTB skip flag (CTB_skip_flag) of all the CTBs in the slice unit or the coding block skip flag (CB_skip_flag) of the coding block is turned on to invert . The coded block skip flag (CB_skip_flag) is a flag for indicating that skipping is performed in units of coded blocks, and the CTB skip flag (CTB_skip_flag) is a flag for indicating that skipping is performed in units of CTBs. When this method is used, the same effect can be obtained as in the case of explicitly transmitting the values of the CTB skip flag (CTB_skip_flag) or the encoding block skip flag (CB_skip_flag) on the bit-stream to ON. When a specific flag is 'on', it means that the operation indicated by the flag is performed.

다시 도 8를 참조하면, 단계 S800의 판단 결과, 슬라이스에서 슬라이스 스킵 모드가 사용되지 않는 경우, 다른 영상 예측 방법을 사용하여 영상 복호화를 수행할 수 있다(단계 S830).Referring back to FIG. 8, if it is determined in step S800 that the slice skip mode is not used in the slice, image decoding may be performed using another image prediction method (step S830).

예를 들어, 기본 계층에서 따로 영상 정보를 제공받지 않고 향상 계층에서 일반적인 복호화 과정을 수행하여 영상 복호화를 수행할 수 있다. 또 다른 예로, 기본 계층의 영상 정보를 사용한 다양한 계층 간 예측 방법을 사용할 수 있다.
For example, image decoding can be performed by performing a general decoding process in an enhancement layer without separately providing image information in the base layer. As another example, various inter-layer prediction methods using video information of the base layer can be used.

도 10은 본 발명의 실시예에 따른 텍스쳐 예측 모드(texture prediction mode)를 이용한 계층적 영상 복호화 방법을 나타낸 개념도이다.10 is a conceptual diagram illustrating a hierarchical image decoding method using a texture prediction mode according to an embodiment of the present invention.

도 10에서는 잔차 정보를 추가적으로 활용하는 텍스쳐 예측 모드를 사용한 영상 예측 방법에 대해 개시한다.FIG. 10 shows an image prediction method using a texture prediction mode in which residual information is additionally used.

도 10을 참조하면, (1) 기본 계층에서 대응되는 부호화 단위(1000)의 영상 정보를 업샘플링한다.Referring to FIG. 10, (1) video information of a corresponding encoding unit 1000 in the base layer is upsampled.

(2) 기본 계층에서 대응되는 부호화 단위를 업샘플링한 부호화 단위(1020)의 영상 정보(1020)를 복호화된 잔차 신호(1040)와 더하여 향상 계층에서 부호화 단위(1060)의 복원된 영상 정보를 산출한다.(2) The image information 1020 of the coding unit 1020 obtained by upsampling the corresponding coding unit in the base layer is added to the decoded residual signal 1040, and the reconstructed image information of the coding unit 1060 is calculated in the enhancement layer do.

잔차 신호(또는 잔차 신호, 차분 신호)는 영상 부호화 단계에서 업 샘플링된 기본 계층의 부호화 단위(1020)의 영상 정보와 향상 계층의 원본 블록의 영상 정보를 뺀 값이 될 수 있다. 잔차 정보는 부호화 단계에서 엔트로피 부호화되어 영상 복호화부로 전송되어 텍스쳐 예측을 수행하기 위해 사용될 수 있다.The residual signal (or residual signal, difference signal) may be a value obtained by subtracting the image information of the encoding unit 1020 of the base layer upsampled in the image encoding step and the image information of the original block of the enhancement layer. The residual information may be entropy-encoded in the encoding step and transmitted to the image decoding unit to perform texture prediction.

영상 부호화 단계에서는 예측된 신호를 원본 블록에서 빼서 잔차 정보만을 엔트로피 부호화하여 전송할 수 있고, 영상 복호화 단계에서는 영상 부호화 단계에서 수행된 영상 예측 방법과 동일한 방법을 수행하여 예측을 수행한 후 영상 부호화부에서 전송된 잔차 정보를 더하여 복원된 영상 정보를 산출할 수 있다.In the image encoding step, the predicted signal may be subtracted from the original block, and only the residual information may be entropy encoded and transmitted. In the image decoding step, prediction is performed by performing the same method as the image prediction method performed in the image encoding step, The reconstructed image information can be calculated by adding the transmitted residual information.

텍스쳐 예측 모드를 이용한 향상 계층의 영상 예측 방법에서는 향상 계층의 부호화 블록 단위(1060)에 대응되는 기본 계층의 부호화 블록 단위(1000)에 포함된 영상 정보를 업샘플링하고 업샘플링한 기본 계층의 부호화 블록 단위(1020)의 영상 정보에 복호화된 잔차 정보(1040)를 더하는 방법을 사용하여 영상 복호화를 수행할 수 있다.In the image prediction method of the enhancement layer using the texture prediction mode, the image information included in the encoding block unit 1000 of the base layer corresponding to the enhancement layer encoding block unit 1060 is upsampled and upsampled, The decoded residual information 1040 may be added to the image information of the unit 1020 to decode the image.

향상 계층에서 부호화 블록 단위에 대해 텍스쳐 예측 모드가 수행되는 것을 지시하기 위해 새로운 구문 요소가 정의되어 사용될 수 있다. 부호화 블록 텍스쳐 예측 플래그(CB_texture_prediction_flag)는 부호화 블록이 텍스쳐 예측을 수행하는지 여부를 지시하기 위한 플래그 정보로서 사용될 수 있다. A new syntax element may be defined and used to indicate that the texture prediction mode is to be performed for an encoding block unit in the enhancement layer. The encoding block texture prediction flag CB_texture_prediction_flag may be used as flag information for indicating whether the encoding block performs texture prediction.

예를 들어, 부호화 블록 텍스쳐 예측 플래그(CB_texture_prediction_flag)가 1일 경우, 부호화 블록 단위에서 텍스쳐 예측이 수행됨을 지시하고, 부호화 블록 텍스쳐 예측 플래그(CB_texture_prediction_flag)가 0인 경우, 부호화 블록 단위에서 텍스쳐 예측이 수행되지 않음을 지시할 수 있다.For example, when the coding block texture prediction flag (CB_texture_prediction_flag) is 1, it indicates that texture prediction is performed in units of coding blocks. If the coding block texture prediction flag (CB_texture_prediction_flag) is 0, texture prediction is performed in units of coding blocks Can be indicated.

텍스쳐 예측이 수행되는 부호화 블록 단위(1060)에 대해서는 향상 계층에서는 따로 예측을 수행하지 않으므로 예측을 수행하기 위한 추가적인 구문 요소 정보는 전송되지 않을 수 있다. 필요한 경우, 부호화 블록에 대한 복호화를 수행하기 위해 필요한 정보가 유추되어 사용될 수 있다.
Since the enhancement layer does not perform prediction separately on the encoding block unit 1060 in which the texture prediction is performed, additional syntax element information for performing prediction may not be transmitted. If necessary, information necessary for performing decoding on the encoding block can be inferred and used.

도 11은 본 발명의 실시예에 따른 텍스쳐 예측 모드를 이용한 계층적 영상 복호화 방법을 나타낸 순서도이다.11 is a flowchart illustrating a hierarchical image decoding method using a texture prediction mode according to an embodiment of the present invention.

도 11을 참조하면, 향상 계층의 부호화 블록 단위에 스킵 모드를 적용되는지 여부를 판단한다(단계 S1100).Referring to FIG. 11, it is determined whether a skip mode is applied to a coding block unit of the enhancement layer (step S1100).

스킵 플래그는 향상 계층에서 스킵 모드(skip mode)를 사용한 예측을 수행할지 여부를 판단하기 위한 플래그 정보일 수 있다. 여기서 사용되는 스킵 모드는 향상 계층의 영상 예측 정보만을 사용하여 복호화가 스킵 모드로서 전술한 부호화 블록 스킵 모드, 슬라이스 스킵 모드와 다르다.The skip flag may be flag information for determining whether to perform prediction using the skip mode in the enhancement layer. The skip mode used here differs from the above-described coding block skip mode and slice skip mode in that decoding is performed using only the image prediction information of the enhancement layer.

즉, 향상 계층의 부호화 블록 단위에서 스킵 모드가 수행되는 경우 향상 계층의 부호화 블록 단위에 포함되는 예측 블록은 기본 계층의 영상 정보를 사용하지 않고 예측을 수행할 수 있다. 향상 계층에서 수행되는 화면 간 예측 방법으로 스킵(SKIP) 모드, 머지 모드, AMVP(advanced motion vector prediction)가 사용될 수 있다. 스킵 플래그는 이러한 화면 간 예측 모드 중 스킵 모드를 사용하여 예측을 수행하는지 여부를 판단하는 플래그이다. 스킵 모드를 사용할 경우, 향상 계층에 미리 복호화된 다른 블록의 영상 예측 정보(예를 들어, 움직임 예측 관련 정보)를 사용하여 예측을 수행할 수 있다. 향상 계층에서 사용되는 스킵 모드에서도 예측된 블록에 대해 원본 블록과의 잔차 정보를 따로 부호화/복호화하지 않고 미리 복호화된 다른 블록에 대한 정보를 바로 복원 블록으로서 사용할 수 있다.That is, when the skip mode is performed in the enhancement layer encoding block unit, the prediction blocks included in the enhancement layer encoding block unit can perform prediction without using the image information of the base layer. As an inter-picture prediction method performed in the enhancement layer, a skip (SKIP) mode, a merge mode, and an advanced motion vector prediction (AMVP) can be used. The skip flag is a flag for determining whether to perform the prediction using the skip mode among the inter-picture prediction modes. When the skip mode is used, prediction can be performed using the video prediction information (e.g., motion prediction-related information) of another block previously decoded in the enhancement layer. Information on other blocks previously decoded can be immediately used as a reconstruction block without coding / decoding the residual information with respect to the original block separately in the skip mode used in the enhancement layer.

스킵 플래그 판단 결과 향상 계층의 부호화 블록 단위에 대해 스킵 모드가 적용되는 것으로 판단되는 경우, 스킵 모드를 사용하여 부호화 블록 단위에 포함되는 예측 블록을예측하여 부호화 블록 단위의 영상 정보를 복원한다(단계 S1110).If it is determined that the skip mode is applied to a coding block unit of the enhancement layer as a result of the skip flag determination, the prediction block included in the coding block unit is predicted using the skip mode to restore the video information in units of the coding block (step S1110 ).

예를 들어, 스킵 플래그가 1 경우, 부호화 블록 단위에 포함되는 예측 블록에 대해 스킵 모드를 사용하여 복호화한 것으로 판단한다. 스킵 모드를 사용하는 예측 블록의 경우 향상 계층의 영상 예측 정보만을 이용하여예측을 수행한다(단계 S1120).For example, when the skip flag is 1, it is determined that the prediction block included in the encoding block unit is decoded using the skip mode. In the case of the prediction block using the skip mode, prediction is performed using only the prediction information of the enhancement layer (step S1120).

텍스쳐 예측 모드를 복호화한다(단계 S1130).The texture prediction mode is decoded (step S1130).

스킵 플래그가 0일 경우 텍스쳐 예측 모드 플래그를 복호화하여 부호화 블록 단위에 대해 텍스쳐 예측가 적용되는지 여부에 대해 판단할 수 있다. 텍스쳐 예측 모드는 전술한 도 10에서 개시한 영상 예측 모드로서 기본 계층에서 대응되는 부호화 블록 단위의 영상 정보를 업샘플링하고 복호화된 잔차 정보를 더하여 향상 계층의 부호화 단위에 대한 영상 정보를 복원하는 방법을 가리킨다.If the skip flag is 0, the texture prediction mode flag is decoded to judge whether or not the texture prediction is applied to the encoding block unit. The texture prediction mode is a picture prediction mode disclosed in FIG. 10 as described above. In the texture prediction mode, a method of upsampling image information of a unit of a corresponding encoding block in the base layer and adding decoded residual information to restore the image information of the enhancement layer encoding unit Point.

부호화 블록 단위에 텍스쳐 예측 모드가 적용되는지 여부를 판단한다(단계 S1130).It is determined whether the texture prediction mode is applied to each coding block (step S1130).

단계 S1130을 통해 텍스쳐 예측 모드 플래그를 복호화한 결과를 기초로 부호화 블록 단위에 대해 텍스쳐 예측 모드가 적용되는지 여부를 판단할 수 있다. 텍스쳐 예측 모드 플래그는 부호화 블록 단위에 대해 텍스쳐 예측이 수행되는지 여부를 지시하는 플래그이다. 예를 들어, 텍스쳐 예측 모드 플래그가 ‘1’일 경우 부호화 블록 단위에 텍스쳐 예측 모드가 적용됨을 나타낼 수 있고, 텍스쳐 예측 모드 플래그가 ‘0’일 경우 부호화 블록 단위에 대해 텍스쳐 예측이 적용되지 않음을 나타낼 수 있다.It may be determined in step S1130 whether the texture prediction mode is applied to the encoding block unit based on the result of decoding the texture prediction mode flag. The texture prediction mode flag is a flag indicating whether or not texture prediction is performed for each encoding block unit. For example, if the texture prediction mode flag is '1', it indicates that the texture prediction mode is applied to each coding block unit. If the texture prediction mode flag is '0', texture prediction is not applied to each coding block unit .

부호화 블록 단위에 텍스쳐 예측 모드가 적용되는 경우 부호화 블록 단위에 대해 텍스쳐 예측 모드를 사용한 예측을 수행하여 복호화를 수행한다(단계 S1140).If the texture prediction mode is applied to each coded block unit, prediction is performed using the texture prediction mode for each coded block unit to perform decoding (step S1140).

부호화 블록 단위에 텍스쳐 예측 모드가 적용되는 경우 향상 계층에서는 기본 계층에서 대응되는 부호화 블록 단위의 영상 정보를 업샘플링한 영상 정보와 잔차 정보를 더하여 복원 블록을 생성할 수 있다.When a texture prediction mode is applied to a coding block unit, the enhancement layer can generate a reconstruction block by adding image information obtained by upsampling image information of a corresponding encoding block unit in the base layer and residual information.

부호화 블록 단위에 텍스쳐 예측 모드가 적용되지 않는 경우 다른 영상 예측 방법을 사용하여 부호화 블록 단위에 대한 영상 예측이 수행될 수 있다(단계 S1150).If the texture prediction mode is not applied to each coding block unit, the image prediction for each coding block unit may be performed using another image prediction method (step S1150).

예를 들어, 부호화 블록 단위에 텍스쳐 예측 모드가 적용되지 않는 경우, 향상 계층에서는 기본 계층에서 전송된 영상 정보를 받지 않고 향상 계층에서만 영상 예측을 수행할 수 있다. 또 다른 방법으로 다른 계층 간 영상 예측 방법을 사용하여 부호화 단위에 대한 예측을 수행하는 것도 가능하다.
For example, if the texture prediction mode is not applied to a coding block unit, the enhancement layer can perform image prediction only in the enhancement layer without receiving the image information transmitted from the base layer. Alternatively, it is also possible to perform prediction for an encoding unit using another inter-layer prediction method.

도 12는 본 발명의 실시예에 따른 슬라이스 단위로 텍스쳐 예측 모드를 수행하는 방법을 나타낸 개념도이다.12 is a conceptual diagram illustrating a method of performing a texture prediction mode in units of slices according to an embodiment of the present invention.

도 12에서도 설명의 편의상 슬라이스 단위로 텍스쳐 예측 모드를 사용하는 방법에 대해 개시하나, 슬라이스 단위가 아닌 CTB, 픽쳐 단위로 텍스쳐 예측 모드를 사용할 수도 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.In FIG. 12, a method of using a texture prediction mode in units of slices is described for convenience of description, but a CTB, not a slice unit, and a texture prediction mode may be used for a picture unit, and these embodiments are also included in the scope of the present invention.

도 12를 참조하면, 향상 계층의 슬라이스 단위(1200)에서 텍스쳐 예측 모드를 사용하는 경우 기본 계층에서 대응되는 슬라이스 단위(1200)의 영상 정보를 업샘플링한다. Referring to FIG. 12, when the texture prediction mode is used in the enhancement layer slice unit 1200, the image information of the corresponding slice unit 1200 in the base layer is upsampled.

부호화 블록 단위로 텍스쳐 예측을 하는 경우와 동일하게 업샘플링된 슬라이스 단위(1220)에 잔차 정보(원본 정보과 예측 정보의 차이값)(1240)가 더해져 향상 계층의 슬라이스 단위(1260)의 영상 정보를 복원할 수 있다.The residual information (the difference value between the original information and the prediction information) 1240 is added to the upsampled slice unit 1220 in the same manner as in the texture prediction in units of the coded blocks, and the image information of the slice unit 1260 of the enhancement layer is restored can do.

슬라이스 단위로 텍스쳐 예측이 적용된다는 정보를 전송하기 위해 새로운 구문 요소 정보가 정의될 수 있다. 예를 들어, 슬라이스 텍스쳐 예측 플래그(slice_texture_prediction_flag)와 같은 플래그 정보를 기초로 슬라이스 단위에 대한 텍스쳐 예측 모드의 수행 여부 정보를 전송하거나, NAL 단위의 타입 정보로 텍스쳐 예측 슬라이스(texture-prediction slice)라는 타입 정보를 새롭게 정의하여 해당 NAL 단위에 포함된 슬라이스에서 텍스쳐 예측 모드가 적용된다는 정보를 전송할 수 있다.
New syntax element information can be defined to convey information that texture prediction is applied in slice units. For example, information on whether or not the texture prediction mode is performed for a slice unit may be transmitted based on flag information such as a slice texture prediction flag (slice_texture_prediction_flag), or a type of texture-prediction slice Information can be newly defined and information indicating that the texture prediction mode is applied to the slice included in the corresponding NAL unit can be transmitted.

도 13은 본 발명의 실시예에 따른 슬라이스 단위로 텍스쳐 예측 모드를 수행하는 방법을 나타낸 순서도이다.13 is a flowchart illustrating a method of performing a texture prediction mode in units of slices according to an embodiment of the present invention.

도 13을 참조하면, 슬라이스 단위로 텍스쳐 예측 모드가 적용되는지 여부에 대해 판단한다(단계 S1300).Referring to FIG. 13, it is determined whether the texture prediction mode is applied in units of slices (step S1300).

슬라이스 단위로 텍스쳐 예측 모드가 적용되는지 여부에 대하여 슬라이스 단위로 전송되는 슬라이스 텍스쳐 예측 플래그(slice_texture_prediction_flag)를 사용하여 판단하거나, 전송된 NAL 단위의 NAL 타입 정보가 텍스쳐 예측 슬라이스(texture-prediction slice)인지 여부를 통해 확인할 수 있다.Whether or not the texture prediction mode is applied in units of slices is determined by using a slice texture prediction flag (slice_texture_prediction_flag) transmitted in slice units, or whether the transmitted NAL type information of the NAL unit is a texture-prediction slice .

슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수를 복호화한다(단계 S1320).The number information of the slice and the number of remaining CTBs of the slice are decoded (step S1320).

슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수를 기초로 텍스쳐 예측 모드를 사용하는 슬라이스 내 전체 CTB 개수를 판단할 수 있다. 슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수는 슬라이스 텍스쳐 예측 모드를 사용하는 슬라이스를 결정하기 위한 하나의 변수로서 다른 변수를 사용하여 슬라이스 텍스쳐 예측 모드를 사용하는 슬라이스를 판단하는 것도 가능하다.It is possible to determine the total number of CTBs in the slice using the texture prediction mode based on the number of rows of slices and the number of remaining CTBs of the slice. The number of rows of slice information and the number of remaining CTBs of a slice can be used as one variable for determining a slice using the slice texture prediction mode, and it is also possible to determine a slice using the slice texture prediction mode using another variable.

슬라이스에 대해 텍스쳐 예측 모드를 적용하여 예측을 수행한다(단계 S1330).The texture prediction mode is applied to the slice to perform prediction (step S1330).

텍스쳐 예측 모드를 사용하는 슬라이스 단위에 대해 텍스쳐 예측 모드를 사용한 예측을 수행한다.Prediction is performed using the texture prediction mode for a slice unit using the texture prediction mode.

슬라이스 단위로 슬라이스 텍스쳐 예측 플래그(slice_texture_prediction_flag)가 전송되어 그 슬라이스에 포함되는 부호화/복호화 단위들이 텍스쳐 예측을 수행하도록 할 수 있다. 또 다른 방법으로, 슬라이스 단위로 텍스쳐 예측 플래그가 전송되는 경우 슬라이스 내의 모든 CTB의 CTB 텍스쳐 예측 플래그(CTB_texture prediction_flag)를 모두 on으로 설정하거나 슬라이스 내의 모든 부호화 블록의 부호화 블록 텍스쳐 예측 플래그(CB_texture_prediction_flag)를 ON으로 유도(infer)하여, 복호화 과정을 수행할 수 있다. A slice texture prediction flag slice_texture_prediction_flag is transmitted in units of slices so that encoding / decoding units included in the slice can perform texture prediction. Alternatively, when the texture prediction flag is transmitted in units of slices, the CTB texture prediction flag (CTB_texture prediction_flag) of all the CTBs in the slice is set to on or the coding block texture prediction flag (CB_texture_prediction_flag) of all the coding blocks in the slice is set to ON To perform a decoding process.

부호화 블록 텍스쳐 예측 플래그(CB_texture_prediction_flag)는 부호화 블록 단위로 텍스쳐 예측이 수행됨을 나타내기 위한 플래그이고, CTB 텍스쳐 예측 플래그(CTB_texture_prediction_flag)는 CTB 단위로 텍스쳐 예측이 수행됨을 나타내기 위한 플래그이다. 이러한 방법을 사용하는 경우, 명시적으로 비트스트림(bit-stream) 상의 CTB 텍스쳐 예측 플래그(CTB_texture_prediction_flag) 또는 부호화 블록 텍스쳐 예측 플래그(CB_texture_prediction_flag)의 값을 ON으로 전송한 경우와 동일한 효과를 가질 수 있다.The encoded block texture prediction flag (CB_texture_prediction_flag) is a flag for indicating that texture prediction is performed in units of a coded block. The CTB texture prediction flag (CTB_texture_prediction_flag) is a flag for indicating that texture prediction is performed in units of CTB. Using this method can have the same effect as explicitly transmitting the value of the CTB texture prediction flag (CTB_texture_prediction_flag) or the encoding block texture prediction flag (CB_texture_prediction_flag) on the bit stream to ON.

다시 도 13을 참조하면, 단계 S1300의 판단 결과, 슬라이스 단위에서 슬라이스 텍스쳐 예측 모드가 적용되지 않는 경우, 다른 예측 방법을 사용한 예측을 수행할 수 있다(단계 S1320).Referring back to FIG. 13, if it is determined in step S1300 that the slice texture prediction mode is not applied in units of slices, prediction using another prediction method may be performed (step S1320).

예를 들어, 향상 계층에서는 일반적인 복호화 과정을 수행하여 영상 복호화를 수행할 수 있다. 일반적인 복호화 과정은 향상 계층의 정보만을 사용하여 복호화를 수행하는 계층 내 예측 방법 또는 다양한 계층 간 예측 방법을 사용할 수 있다.For example, in the enhancement layer, a general decryption process can be performed to perform image decryption. In the general decoding process, intra-layer prediction methods or various inter-layer prediction methods for performing decoding using only information of the enhancement layer can be used.

또 다른 예로, 다른 계층 간 예측 방법을 사용하여 향상 계층에 대한 예측을 수행할 수 있다.
As another example, prediction can be performed on the enhancement layer using an inter-layer prediction method.

도 14는 본 발명의 실시예에 따른 기본 계층 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다. 14 is a conceptual diagram illustrating a hierarchical image decoding method using a base layer mode according to an embodiment of the present invention.

도 14에서는 향상 계층의 부호화 블록에 대해 기본 계층에서 대응되는 부호화 블록 정보의 영상 예측 관련 정보를 사용하여 향상 계층의 부호화 블록에 대한 예측을 수행하는 방법에 대해 개시한다.FIG. 14 illustrates a method of performing prediction for a coding block of an enhancement layer using the prediction information associated with the coding block information in the base layer with respect to the coding block of the enhancement layer.

도 14를 참조하면, 기본 계층에서 대응되는 부호화 블록 단위(1400)에서 화면 내 예측 또는 화면 간 예측을 수행한 경우, 화면 내 예측에 사용된 정보(예를 들어, 화면 내 예측 모드) 또는 화면 간 예측에 사용된 정보(예를 들어, 움직임 예측 관련 정보)가 향상 계층에서 대응되는 부호화 블록 단위(1440)에서 영상 예측을 수행하는데 사용될 수 있다.14, when the intra-picture prediction or the inter-picture prediction is performed in the corresponding encoding block unit 1400 in the base layer, the information used for the intra-picture prediction (for example, intra-picture prediction mode) The information used for prediction (e.g., motion prediction related information) can be used to perform image prediction in the corresponding encoding block unit 1440 in the enhancement layer.

화면 내 예측을 예로 들면, 향상 계층의 부호화 블록 단위에 대응되는 기본 계층의 부호화 블록 단위에서 7번 화면 내 예측 모드를 사용하여 화면 내 예측을 수행한 경우, 향상 계층의 부호화 블록 단위에서도 7번 화면 내 예측 모드를 사용하여 부호화 블록에 대한 화면 내 예측을 수행할 수 있다.For example, when intra prediction is performed using intra prediction mode 7 in units of coding blocks of a base layer corresponding to a coding block unit of the enhancement layer, intra prediction is performed in units of coding blocks of the enhancement layer Intra prediction on the encoding block can be performed using the intra prediction mode.

화면 간 예측을 예로 들면, 향상 계층에 대응되는 기본 계층의 부호화 블록 단위에 포함된 예측 블록에서 특정한 참조 픽쳐에서 특정한 움직임 벡터를 사용하여 화면 간 예측을 수행하는 경우, 기본 계층에서 사용된 움직임 벡터에 대한 스케일링을 수행하고 상기 참조 픽쳐를 이용하여 향상 계층의 부호화 블록 단위에 포함된 예측 단위에 대한 화면 간 예측을 수행 시 사용할 수 있다.For example, when inter-picture prediction is performed using a specific motion vector in a specific reference picture in a prediction block included in a base layer coding block unit corresponding to an enhancement layer, And perform inter-picture prediction for a prediction unit included in a coding block unit of the enhancement layer using the reference picture.

위와 같은 방법은 하나의 예시로서 다른 화면 내 예측 관련 정보 및 다른 화면 간 예측 관련 정보를 기본 계층의 부호화 단위에서 유도하여 향상 계층의 부호화 단위에 대한 영상 예측에 사용할 수 있다. 기본 계층의 부호화 블록 단위에 포함된 예측 블록이 복수개인 경우 각각의 예측 블록에 대응되는 향상 계층의 부호화 블록 단위의 예측 블록에 대해 예측 관련 정보를 유도하여 블록에 대한 예측을 수행할 수 있다. As an example, the above method can be used for image prediction for an encoding unit of an enhancement layer by deriving other intra-frame prediction related information and other inter-frame prediction related information from the encoding unit of the base layer. If there are a plurality of prediction blocks included in the base layer coding block unit, the prediction related information may be derived for the prediction blocks related to the prediction blocks in the enhancement layer coding block units corresponding to the respective prediction blocks to predict the blocks.

예를 들어, 하나의 부호화 블록(2Nx2N)이 4개의 예측 블록(NxN)으로 분할되고, 분할된 4개의 예측 블록이 각각 1, 2, 3, 4 번 화면 내 예측 모드를 수행할 경우, 기본 계층 부호화 블록 단위에 대응되는 향상 계층의 부호화 단위의 예측 블록들도 1, 2, 3, 4 번 화면 내 예측 모드를 사용하여 화면 내 예측을 수행할 수 있다.For example, when one encoding block (2Nx2N) is divided into four prediction blocks (NxN), and the divided four prediction blocks perform the intra-picture prediction modes 1, 2, 3 and 4, respectively, The prediction blocks of the encoding unit of the enhancement layer corresponding to the encoding block unit can also perform intra picture prediction using the intra picture prediction modes 1, 2, 3 and 4.

도 14를 다시 참조하면, 기본 계층(1400)에서 사용된 화면 내 예측 모드 정보가 복호화되어 향상 계층(1440)에서 화면 내 예측을 수행하기 위해 사용된다. 화면 내 예측 모드 정보를 기초로 예측되어 생성된 블록은 영상 부호화기에서 전송된 잔차 정보(1420)와 더해져 향상 계층에서 복원 블록을 생성할 수 있다.
Referring back to FIG. 14, the intra prediction mode information used in the base layer 1400 is decoded and used to perform intra prediction in the enhancement layer 1440. The predicted block generated based on the intra prediction mode information may be combined with the residual information 1420 transmitted from the image encoder to generate a reconstruction block in the enhancement layer.

도 15는 본 발명의 실시예에 따른 기본 계층 모드를 사용한 계층적 영상 복호화 방법을 나타낸 순서도이다.15 is a flowchart illustrating a hierarchical image decoding method using a base layer mode according to an embodiment of the present invention.

도 15를 참조하면, 스킵 플래그를 복호화한다(단계 S1500).Referring to Fig. 15, the skip flag is decoded (step S1500).

스킵 플래그는 전술한 바와 같이 향상 계층의 부호화 블록 단위에 포함되는 예측 단위가 스킵 모드를 사용한 예측 방법을 사용할지 여부를 판단하는 플래그일 수 있다.The skip flag may be a flag for determining whether or not the prediction unit included in the enhancement layer encoding block unit uses the skip mode prediction method as described above.

부호화 블록 단위에 대해 스킵 모드가 적용되는 것으로 판단되는 경우 스킵 모드를 사용하여 부호화 블록 단위에 포함되는 예측 단위를 예측하여 복원 블록을 생성한다(단계 S1510).If it is determined that the skip mode is applied to the encoded block unit, a prediction unit included in the encoded block unit is predicted using the skip mode to generate a restored block (step S1510).

예를 들어, 스킵 플래그가 1일 경우, 부호화 블록 단위에 대해 스킵 모드를 적용하여 부호화 블록 단위에 포함되는 예측 블록이 스킵 모드를 사용한 예측을 수행한 것으로 판단할 수 있다.For example, when the skip flag is 1, it can be determined that a skip mode is applied to a unit of a coded block so that a prediction block included in each coded block unit performs prediction using the skipped mode.

베이스 예측 모드를 사용하는지 여부를 판단한다(단계 S1520).It is determined whether the base prediction mode is used (step S1520).

베이스 모드 플래그는 부호화 블록 단위에 포함되는 예측 단위에 대해 베이스 예측 모드를 이용한 예측이 수행되는지 여부를 지시하는 플래그이다. 스킵 플래그가 0인 경우 베이스 모드 플래그를 복호화하여 부호화 블록 단위가 베이스 예측 모드가 적용되는지 여부를 판단할 수 있다.The base mode flag is a flag indicating whether prediction using a base prediction mode is to be performed for a prediction unit included in a unit of a coding block. If the skip flag is 0, the base mode flag can be decoded to determine whether the base prediction mode is applied to the encoding block unit.

복호화된 베이스 모드 플래그 값을 기초로 부호화 블록 단위에 대해 베이스 예측 모드가 적용되는지 여부에 대한 판단을 수행할 수 있다. 베이스 모드 플래그가 ‘1’인 경우 부호화 블록 단위로 베이스 예측 모드가 적용되어 기본 계층의 영상 예측 정보를 기초로 향상 계층에 대한 예측이 수행되는지 여부를 지시할 수 있다. 베이스 모드 플래그가 ‘0’인 경우, 부호화 블록 단위에 대해 베이스 예측 모드가 적용되지 않고 다른 영상 예측 모드를 사용한 영상 복호화가 수행됨을 지시할 수 있다. 영상 예측 정보는 화면 내 예측 모드 정보, 움직임 예측 관련 정보 등 향상 계층에서 화면 내 예측 또는 화면 간 예측을 수행하는데 있어 사용되는 정보일 수 있다.Based on the decoded base mode flag value, whether or not the base prediction mode is applied to each encoding block unit. If the base mode flag is '1', the base prediction mode is applied in units of coded blocks to indicate whether prediction for the enhancement layer is performed based on the image prediction information of the base layer. If the base mode flag is '0', it can be indicated that the base decoding mode is not applied to the encoding block unit but the image decoding is performed using another image prediction mode. The image prediction information may be information used for performing intra-frame prediction or inter-frame prediction in the enhancement layer, such as intra-frame prediction mode information and motion prediction related information.

부호화 블록 단위에 베이스 예측 모드가 적용되는 경우 기본 계층의 영상 예측 정보를 유도하여 예측을 수행한다(단계 S1530).If the base prediction mode is applied to the encoding block unit, prediction is performed by deriving the image prediction information of the base layer (step S1530).

부호화 블록 단위에서 베이스 예측 모드가 적용되는 경우 기본 계층에서 화면 내 예측 모드 정보, 움직임 예측 관련 정보 등을 유도할 수 있다. 향상 계층의 부호화 블록 단위에 대응되는 기본 계층의 부호화 블록 단위에 포함되는 예측 블록에서 사용한 영상 예측 정보는 향상 계층의 부호화 블록 단위에 포함된 예측 블록을 예측하기 위한 정보로서 사용될 수 있다. 기본 계층의 영상 예측 정보를 기초로 향상 계층에서 예측을 수행하여 생성된 블록은 잔차 정보와 더해져 복원 블록을 생성할 수 있다.If the base prediction mode is applied in units of coding blocks, the intra-picture prediction mode information and the motion prediction-related information can be derived from the base layer. The image prediction information used in the prediction block included in the encoding block unit of the base layer corresponding to the encoding block unit of the enhancement layer can be used as information for predicting the prediction block included in the enhancement layer encoding block unit. The block generated by performing prediction in the enhancement layer based on the image prediction information of the base layer can be added to the residual information to generate a reconstruction block.

부호화 블록 단위에서 베이스 예측 모드가 적용되지 않는 경우 다른 영상 예측 방법을 사용할 수 있다(단계 S1540).If the base prediction mode is not applied in units of encoding blocks, another image prediction method may be used (step S1540).

부호화 블록에 베이스 예측 모드가 적용되지 않는 경우, 예를 들어, 향상 계층에서는 기본 계층에서 전송된 영상 정보를 받지 않고 향상 계층의 영상 정보만을 사용하여 영상 예측을 수행할 수 있다. 예를 들어, 화면 내 예측 방법, 화면 간 예측 방법 중 머지 모드, AMVP를 기초로 한 화면 간 예측 방법을 사용하여 부호화 블록에 대한 예측을 수행할 수 있다.For example, if the base prediction mode is not applied to the encoding block, the enhancement layer can perform image prediction using only enhancement layer image information without receiving the image information transmitted from the base layer. For example, it is possible to perform prediction on an encoding block by using an intra prediction method, a merge mode among inter prediction methods, and an inter picture prediction method based on AMVP.

또한, 베이스 예측 모드를 제외한 다른 계층 간 영상 예측 방법을 사용하여 영상 예측을 수행할 수 있다.
In addition, image prediction can be performed using the inter-layer image prediction method except for the base prediction mode.

도 16은 본 발명의 실시예에 따른 슬라이스 단위로 베이스 예측 모드를 수행하는 방법을 나타낸 개념도이다.16 is a conceptual diagram illustrating a method of performing a base prediction mode on a slice basis according to an embodiment of the present invention.

도 16에서도 설명의 편의상 슬라이스 단위로 슬라이스 베이스 예측 모드를 사용하는 방법에 대해 개시하나, 슬라이스 단위가 아닌 CTB, 픽쳐 단위로 베이스 예측 모드를 사용할 수도 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.16 shows a method of using a slice base prediction mode in units of slices for convenience of explanation, but a CTB, not a slice unit, and a base prediction mode may be used for each picture, and these embodiments are also included in the scope of the present invention .

도 16을 참조하면, 향상 계층의 슬라이스 단위(1640)에서 슬라이스 베이스 예측 모드를 사용하여 예측을 수행하는 경우 기본 계층에서 대응되는 슬라이스 영역(1600)에 포함되는 블록에서 예측 관련 정보를 유도한다. Referring to FIG. 16, when prediction is performed using the slice base prediction mode in the slice unit 1640 of the enhancement layer, prediction related information is derived from blocks included in the slice area 1600 corresponding to the base layer.

예를 들어, 향상 계층의 슬라이스(1640)에 포함되는 특정한 예측 블록에 대한 정보를 대응되는 기본 계층의 슬라이스(1600)에 포함되는 예측 블록에서 예측 관련 정보(예를 들어, 화면 내 예측 모드 정보, 움직임 예측 관련 정보)를 유도하여 사용할 수 있다. 향상 계층의 슬라이스 단위(1640)에서는 기본 계층 슬라이스 단위(1600)의 예측 관련 정보를 기초로 예측을 수행한 후 잔차 정보(1620)과 더해져 복원된 슬라이스가 생성될 수 있다.For example, information on a specific prediction block included in the slice 1640 of the enhancement layer may be predicted in prediction blocks included in the corresponding slice 1600 of the base layer (e.g., intra prediction mode information, Motion prediction related information) can be derived and used. In the slice unit 1640 of the enhancement layer, prediction is performed based on the prediction-related information of the base layer slice unit 1600, and then the reconstructed slice is added to the residual information 1620.

슬라이스 단위로 슬라이스 베이스 예측 모드가 적용된다는 정보를 전송하기 위해 새로운 구문 요소 정보가 정의될 수 있다. 예를 들어, 슬라이스 기본 계층 플래그(slice_base_layer_flag)와 같은 플래그 정보를 기초로 현재 슬라이스에서 슬라이스 베이스 예측 모드의 수행 여부 정보를 전송하거나, NAL 단위의 타입 정보로 기본 계층 슬라이스 타입(base-layer slice type)이라는 NAL 타입 정보를 새롭게 정의하여 해당 NAL 단위에 포함된 슬라이스가 슬라이스 베이스 예측 모드를 사용한다는 정보를 전송할 수 있다.
New syntax element information can be defined to convey information that the slice base prediction mode is applied in slice units. For example, based on flag information such as a slice base layer flag (slice_base_layer_flag), information on whether or not the slice base prediction mode is to be performed may be transmitted in the current slice, or a base-layer slice type may be used as type information in units of NAL. And information indicating that the slice included in the NAL unit uses the slice base prediction mode can be transmitted.

도 17은 본 발명의 실시예에 따른 슬라이스 단위로 베이스 예측 모드를 수행하는 방법을 나타낸 순서도이다.17 is a flowchart illustrating a method of performing a base prediction mode in units of slices according to an embodiment of the present invention.

도 17을 참조하면, 슬라이스 단위에 슬라이스 베이스 예측 모드가 적용되는지 여부에 대해 판단한다(단계 S1700).Referring to FIG. 17, it is determined whether a slice base prediction mode is applied to a slice unit (step S1700).

슬라이스에 슬라이스 베이스 예측 모드가 적용되는지 여부에 대하여 슬라이스 단위로 전송되는 슬라이스 기본 계층 플래그(slice_base_layer_flag)를 사용하여 판단하거나, 전송된 NAL 단위의 NAL 타입 정보가 기본 계층 슬라이스 타입(base_layer_slice type)인지 여부를 통해 확인할 수 있다.Whether or not the slice base prediction mode is applied to the slice is determined using a slice base layer flag (slice_base_layer_flag) transmitted in slice units, or whether the transmitted NAL type information of the NAL unit is a base layer slice type (base_layer_slice type) .

슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수를 복호화한다(단계 S1710).The number of rows of the slice and the number of remaining CTBs of the slice are decoded (step S1710).

슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수를 기초로 베이스 예측 모드를 사용하는 슬라이스 내 전제 CTB 개수를 지시할 수 있다. 슬라이스의 행의 개수 정보 및 슬라이스의 남은 CTB 개수는 베이스 예측 모드를 사용하는 슬라이스를 지시하기 위한 하나의 변수로서 다른 변수를 사용하여 베이스 예측 모드가 적용되는 슬라이스 단위를 지시하는 것도 가능하다.The number of total number of CTBs in a slice using the base prediction mode can be designated based on the number of rows of slice information and the number of remaining CTBs of the slice. The number of rows of the slice and the number of remaining CTBs of the slice can be used to indicate a slice unit to which the base prediction mode is applied by using another variable as one variable for indicating a slice using the base prediction mode.

슬라이스 베이스 예측 모드를 사용하여 슬라이스에 대한 예측을 수행한다(단계 S1730).The slice base prediction mode is used to predict the slice (step S1730).

슬라이스 단위로 슬라이스 기본 계층 플래그(slice_base_layer_flag)가 ‘on’으로 전송되는 경우를 예로 들면, 슬라이스 내의 모든 CTB의 CTB 기본 계층 플래그(CTB_base_layer_flag)를 ‘on’으로 유도하거나, 부호화 블록의 부호화 블록 기본 계층 플래그(CB CB_base_layer_flag)를 ‘on’으로 유도(infer)하여, 복호화 과정을 수행할 수 있다. For example, when the slice base layer flag (slice_base_layer_flag) is transmitted as 'on' in slice units, the CTB base layer flag (CTB_base_layer_flag) of all the CTBs in the slice may be 'on' (CB CB_base_layer_flag) to 'on', thereby performing a decoding process.

부호화 블록 기본 계층 플래그(CB_base_layer_flag)는 부호화 블록 단위로 베이스 예측 모드를 수행함을 나타내기 위한 플래그이고, CTB 기본 계층 플래그(CTB_base_layer_flag)는 CTB 단위로 베이스 예측 모드가 수행됨을 나타내기 위한 플래그이다. 이러한 방법을 사용하는 경우, 명시적으로 비트스트림(bit-stream) 상의 CTB 기본 계층 플래그(CTB_base_layer_flag) 또는 CB 기본 계층 플래그(CB_base_layer_flag)의 값을 ON으로 설정하여 전송한 경우와 동일한 효과를 가질 수 있다.The coding block base layer flag (CB_base_layer_flag) is a flag for indicating that the base prediction mode is performed in units of coded blocks, and the CTB base layer flag (CTB_base_layer_flag) is a flag for indicating that the base prediction mode is performed in units of CTBs. When this method is used, the same effect can be obtained as when the CTB base layer flag (CTB_base_layer_flag) or the CB base layer flag (CB_base_layer_flag) on the bit stream is set to be ON .

단계 S1700의 판단 결과, 슬라이스 단위에서 베이스 예측 모드가 적용되지 않는 경우, 향상 계층의 정보만을 사용하여 복호화를 수행하는 계층 내 예측 방법 또는 다양한 계층 간 예측 방법을 사용하여 슬라이스 단위에 포함되는 블록에 대한 예측을 수행할 수 있다(단계 S1720).
As a result of the determination in step S1700, if the base prediction mode is not applied in units of slices, the intra prediction method or the inter-layer prediction method for performing decoding using only the enhancement layer information or various inter- Prediction can be performed (step S1720).

도 18은 본 발명의 실시예에 따른 부호화 블록 스킵 모드와 텍스쳐 예측 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다.18 is a conceptual diagram illustrating a hierarchical image decoding method using a coding block skip mode and a texture prediction mode according to an embodiment of the present invention.

도 18에서는 전술한 부호화 블록 스킵 모드와 텍스쳐 예측 모드를 사용하는 영상 복호화 방법에 대해 개시한다.
18, an image decoding method using the above-described encoding block skip mode and texture prediction mode will be described.

도 18을 참조하면, 부호화 블록 스킵 모드 플래그를 복호화하여 부호화 블록 단위에 부호화 블록 스킵 모드가 적용되는지 여부를 판단한다(단계 S1800).Referring to FIG. 18, it is determined whether a coded block skip mode is applied to a coded block unit by decoding a coded block skip mode flag (step S1800).

부호화 블록 스킵 모드는 전술한 바와 같이 잔차 정보 없이 기본 계층의 영상 정보를 업샘플링하여 영상 복호화를 수행하는 방법이다. 부호화 블록 스킵 모드 플래그를 우선적으로 복호화하여 부호화 블록 단위에 부호화 블록 스킵 모드가 적용되는지 여부를 판단한다.The coded block skip mode is a method of up-sampling image information of the base layer and performing image decoding without residual information as described above. The encoding block skip mode flag is preferentially decoded to determine whether the encoding block skip mode is applied to each encoding block.

부호화 블록 단위에 부호화 블록 스킵 모드가 적용되는 경우, 향상 계층의 부호화 블록 단위에 포함되는 예측 블록에 대해 부호화 블록 스킵을 사용하여 영상 예측을 수행할 수 있다(단계 S1810)When a coded block skip mode is applied to each coded block, the predicted block included in the coded block unit of the enhancement layer may be subjected to image prediction using a coded block skip (step S1810)

향상 계층에서 부호화 블록 스킵 방법은 기본 계층의 영상 정보를 업샘플링하여 향상 계층의 영상 정보를 생성하는 방법을 말한다.In the enhancement layer, an encoding block skip method refers to a method of generating image information of an enhancement layer by upsampling image information of a base layer.

부호화 블록 단위에 부호화 블록 스킵 모드가 적용되지 않는 경우, 스킵 플래그를 복호화하여 스킵 모드를 사용하여 복호화할지 여부를 판단한다 (단계 S1820).If the coded block skip mode is not applied to each coded block, the skip flag is decoded and it is determined whether to decode the skip mode using the skip mode (step S1820).

스킵 플래그는 전술한 바와 같이 부호화 블록에 대해 향상 계층 내의 영상 예측 정보만으로 스킵 모드를 사용하여 복호화를 수행할지 여부를 나타내는 플래그이다. 스킵 모드는 향상 계층의 영상 정보만을 사용하여 영상 예측을 수행하는 방법으로서 따로 잔차 정보(원본 블록과 예측 블록의 차이값 정보)를 복원하지 않고 향상 계층에서 복호화된 움직임 예측 관련 정보만을 사용하여 영상을 복원하는 방법을 가리킨다.As described above, the skip flag is a flag indicating whether or not decoding is performed using the skip mode with only the image prediction information in the enhancement layer for the encoding block. The skip mode is a method of performing an image prediction using only the enhancement layer image information. As a result, the residual information (the difference value information between the original block and the prediction block) is not restored but the image is reconstructed using only the motion prediction- Indicates how to restore.

스킵 모드를 사용하여 복호화를 수행한다(단계 S1830).The decoding is performed using the skip mode (step S1830).

부호화 블록 단위에 스킵 모드가 적용되는 경우 향상 계층에서는 잔차 정보 없이 움직임 예측 관련 정보 또는 화면 내 예측 모드 정보 등을 이용하여 부호화 블록에 대한 복호화를 수행한다.When a skip mode is applied to a coded block unit, the enhancement layer decodes the coded block using motion prediction related information or intra prediction mode information without residual information.

부호화 블록 단위에 스킵 모드가 적용되지 않는 경우, 텍스쳐 예측 모드 플래그를 복호화하여 부호화 블록 단위에 대해 텍스쳐 예측 모드가 적용되는지 여부를 판단한다 (단계 S1840).If the skip mode is not applied to each coded block, the texture prediction mode flag is decoded to determine whether the texture prediction mode is applied to the coded block unit (step S1840).

스킵 모드가 적용되지 않는 경우 텍스쳐 예측 모드 플래그를 복호화하여 부호화 블록 단위에서 텍스쳐 예측 모드가 적용되는지 여부를 판단한다.If the skip mode is not applied, the texture prediction mode flag is decoded to determine whether the texture prediction mode is applied in units of encoding blocks.

부호화 블록 단위에 대해 텍스쳐 예측 모드를 적용한다(단계 S1850).The texture prediction mode is applied to each encoding block unit (step S1850).

단계 S1840을 통한 텍스쳐 예측 모드 플래그를 판단한 결과, 부호화 블록 단위에 대해 텍스쳐 예측 모드가 적용되는 경우, 부호화 블록 단위에 대해 텍스쳐 모드 예측를 적용할 수 있다. 텍스쳐 예측 모드는 전술한 바와 같이 대응되는 기본 계층의 부호화 블록 단위의 영상 정보를 업샘플링하고 복호화된 잔차 정보를 더하는 방법을 사용하여 복호화를 수행하는 방법을 가리킨다.As a result of the determination of the texture prediction mode flag through step S1840, if the texture prediction mode is applied to each coding block unit, the texture mode prediction can be applied to each coding block unit. The texture prediction mode refers to a method of performing decoding using a method of upsampling image information of a corresponding base layer encoding block unit and adding decoded residual information as described above.

부호화 블록 단위에서 텍스쳐 예측 모드가 적용되지 않는 경우 다른 영상 예측 방법을 사용하여 영상 복호화를 수행한다(단계 S1860).If the texture prediction mode is not applied in units of encoding blocks, image decoding is performed using another image prediction method (step S1860).

예를 들어, 단계 S1840을 통한 판단 결과 부호화 블록이 텍스쳐 예측 모드가 적용되지 않는 경우, 향상 계층에서는 기본 계층에서 전송된 영상 정보를 받지 않고 향상 계층의 영상 정보만을 사용하여 영상 예측을 수행할 수 있다. 또한 다른 계층 간 영상 예측 방법을 사용하는 것도 가능하다.For example, if it is determined in step S1840 that the texture prediction mode is not applied to the encoding block, the enhancement layer may perform image prediction using only enhancement layer image information without receiving the image information transmitted from the base layer . It is also possible to use another layer-to-layer image prediction method.

도 18에서는 부호화 블록 단위로 향상 계층에서 두 개의 예측 모드가 사용되는 방법에 대해 예시하였으나, 전술한 바와 같이 슬라이스나 CTB 단위로 해당 예측 모드가 사용되는지 여부에 대해 판단할 수도 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.
Although FIG. 18 exemplifies a method in which two prediction modes are used in the enhancement layer for each coded block, it may be determined whether the corresponding prediction mode is used in units of slices or CTBs as described above. And are included in the scope of the invention.

도 19는 본 발명의 실시예에 따른 스킵 모드, 텍스쳐 예측 모드, 베이스 예측 모드를 사용한 계층적 영상 복호화 방법을 나타낸 개념도이다.19 is a conceptual diagram illustrating a hierarchical image decoding method using a skip mode, a texture prediction mode, and a base prediction mode according to an embodiment of the present invention.

도 19에서는 부호화 블록 단위에 대해 전술한 스킵 모드, 텍스쳐 예측 모드와 베이스 예측 모드가 적용되어 예측이 수행되는 방법에 대해 개시한다.FIG. 19 shows a method in which prediction is performed by applying the skip mode, the texture prediction mode and the base prediction mode to the encoding block unit.

도 19를 참조하면, 스킵 모드 플래그를 복호화하여 부호화 블록이 스킵 모드가 적용되는지 여부를 판단한다(단계 S1900).Referring to FIG. 19, a skip mode flag is decoded to determine whether a skip mode is applied to an encoding block (step S1900).

스킵 모드 플래그는 부호화 블록에 스킵 모드가 적용되어 영상 복호화를 수행하였는지 여부를 판단하기 위한 플래그 정보이다. 스킵 모드는 영상 정보를 사용하여 영상 예측을 수행하는 방법으로서 따로 잔차 정보(원본 블록과 예측 블록의 차이값 정보)를 복원하지 않고 향상 계층에서 복호화된 움직임 예측 관련 정보만을 사용하여 영상을 복원하는 방법을 가리킨다.The skip mode flag is flag information for determining whether a skip mode is applied to an encoding block to perform image decoding. The skip mode is a method of performing image prediction using image information and separately restoring the image using only the motion prediction related information decoded in the enhancement layer without restoring the residual information (difference value information between the original block and the prediction block) Lt; / RTI >

스킵 모드 플래그를 우선적으로 복호화하여 부호화 블록 단위에 스킵 모드가 적용되었는지 여부를 판단한다.The skip mode flag is preferentially decoded to determine whether or not the skip mode is applied to each coded block.

부호화 블록을 스킵 모드를 사용하여 복호화한다(단계 S1910).The coded block is decoded using the skip mode (step S1910).

부호화 블록 단위에 대해 스킵 모드가 적용될 경우 부호화 블록에 대해 향상 계층의 예측 관련 정보만을 사용하여 부호화 블록 단위에 대한 예측을 수행할 수 있다.When a skip mode is applied to a unit of a coded block, prediction can be performed for each coded block using only prediction related information of the enhancement layer for the coded block.

부호화 블록 단위에 스킵 모드가 적용되지 않는 경우, 텍스쳐 예측 플래그를 복호화하여 부호화 블록에 텍스쳐 예측 모드를 적용하여 복호화할지 여부를 판단한다(단계 S1920).If the skip mode is not applied to each coded block, the texture prediction flag is decoded to determine whether to decode the texture block by applying the texture prediction mode to the coded block (step S1920).

텍스쳐 예측 플래그는 부호화 블록 단위에 대해 텍스쳐 예측 모드를 적용하여 예측을 수행하는지 여부를 나타내는 플래그이다. 예를 들어, 텍스쳐 예측 플래그가 ‘1’인 경우 텍스쳐 예측 모드를 수행할 수 있고, 텍스쳐 예측 플래그가 ‘0’인 경우, 부호화 블록 단위에 대해 텍스쳐 예측이 아닌 다른 예측 방법이 수행함을 지시할 수 있다.The texture prediction flag is a flag indicating whether prediction is performed by applying a texture prediction mode to a unit of a coded block. For example, if the texture prediction flag is '1', the texture prediction mode can be performed. If the texture prediction flag is '0', it is possible to instruct that a prediction method other than the texture prediction have.

텍스쳐 예측을 수행한다(단계 S1930).Texture prediction is performed (step S1930).

텍스쳐 예측 모드 플래그를 복호화한 결과 부호화 블록 단위에 텍스쳐 예측 모드가 적용되는 경우, 향상 계층의 부호화 블록에 대응되는 기본 계층의 블록을 업 샘플링한 정보와 잔차 정보를 기초로 복원 블록을 생성할 수 있다.If the texture prediction mode is applied to the encoding block as a result of decoding the texture prediction mode flag, a reconstruction block can be generated based on the information obtained by upsampling the block of the base layer corresponding to the enhancement layer encoding block and the residual information .

베이스 모드 플래그를 복호화하여 부호화 블록이 베이스 모드를 사용하여 복호화할지 여부를 판단한다(단계 S1940).The base mode flag is decoded to determine whether to decode the encoded block using the base mode (step S1940).

베이스 모드 플래그는 부호화 블록 단위에 대해 베이스 모드를 이용한 예측을 수행하는지 여부를 지시하는 플래그이다.The base mode flag is a flag indicating whether to perform prediction using the base mode for each encoding block unit.

베이스 모드를 사용하여 복원 블록을 생성한다(단계 S1950).A restoration block is generated using the base mode (step S1950).

베이스 모드 플래그를 복호화를 수행한 결과 부호화 블록 단위에 대해 베이스 모드를 적용되는 경우, 향상 계층의 부호화 블록 단위에 대응되는 기본 계층의 부호화 블록 단위에 포함되는 예측 블록의 예측 관련 정보(예를 들어, 화면 내 예측 모드 정보, 움직임 예측 관련 정보)를 유도하여 향상 계층에 대한 예측을 수행할 수 있다.When the base mode is applied to the encoding block unit as a result of decoding the base mode flag, prediction related information of the prediction block included in the encoding block unit of the base layer corresponding to the encoding block unit of the enhancement layer (for example, Intra prediction mode information, and motion prediction related information) to predict the enhancement layer.

베이스 모드를 사용하지 않고 복원 블록을 생성한다(단계 S1960).A restoration block is generated without using the base mode (step S1960).

부호화 블록 단위에 대해 베이스 예측 모드가 적용되지 않는 경우, 향상 계층에서는 기본 계층에서 전송된 영상 정보를 받지 않고 향상 계층의 영상 정보만을 사용하여 영상 예측을 수행할 수 있다. 예를 들어, 화면 내 예측 방법, 화면 간 예측 방법 중 머지 모드, AMVP를 기초로 한 화면 간 예측 방법을 사용하여 부호화 블록에 대한 예측을 수행할 수 있다. 또한 다른 계층 간 예측 방법을 사용하여 향상 계층의 부호화 블록 단위에 대한 예측이 수행되는 것도 가능하다.
If the base prediction mode is not applied to the encoding block unit, the enhancement layer can perform image prediction using only enhancement layer image information without receiving the image information transmitted from the base layer. For example, it is possible to perform prediction on an encoding block by using an intra prediction method, a merge mode among inter prediction methods, and an inter picture prediction method based on AMVP. It is also possible that prediction is performed for each encoding block unit of the enhancement layer using another inter-layer prediction method.

도 19에서는 부호화 블록 단위로 향상 계층에서 두 개의 예측 모드가 사용되는 방법에 대해 예시하였으나, 전술한 바와 같이 슬라이스나 CTB 단위로 해당 예측 모드가 사용되는지 여부에 대해 판단할 수도 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.
Although FIG. 19 illustrates a method in which two prediction modes are used in an enhancement layer for each coded block, it may be determined whether the corresponding prediction mode is used in units of slices or CTBs as described above. And are included in the scope of the invention.

도 20은 본 발명의 실시예에 따른 부호화 블록 스킵 모드, 텍스쳐 예측 모드, 베이스 예측 모드를 사용한 계층적 영상 예측 방법을 나타낸 순서도이다.20 is a flowchart illustrating a hierarchical image prediction method using an encoding block skip mode, a texture prediction mode, and a base prediction mode according to an embodiment of the present invention.

도 20에서는 부호화 블록에 대해 CB 스킵 모드, 텍스쳐 예측 모드, 베이스 예측 모드가 적용되는지 여부를 판단하여 부호화 블록에 대한 복호화를 수행하는 방법에 대해 개시한다.In FIG. 20, a method for deciding whether or not a CB skip mode, a texture prediction mode, and a base prediction mode are applied to an encoding block and performing decoding on the encoding block will be described.

도 20을 참조하면, 부호화 블록 스킵 모드 플래그를 복호화하여 부호화 블록 단위에 대해 스킵 모드가 적용되는지 여부를 판단한다(단계 S2000).Referring to FIG. 20, the encoding block skip mode flag is decoded to determine whether a skip mode is applied to a unit of a coded block (step S2000).

부호화 블록 스킵 모드는 잔차 정보 없이 기본 계층의 부호화 블록 단위의 영상 정보를 업샘플링하여 영상 복호화를 수행하는 방법이다. 부호화 블록 스킵 모드 플래그를 우선적으로 복호화하여 부호화 블록 단위에 부호화 블록 스킵 모드가 적용되는지 여부를 판단한다.The encoded block skip mode is a method of performing image decoding by upsampling image information of a base layer in units of encoding blocks without residual information. The encoding block skip mode flag is preferentially decoded to determine whether the encoding block skip mode is applied to each encoding block.

부호화 블록 단위가 부호화 블록 스킵 모드가 적용되는 경우, 기본 계층의 영상 정보를 업샘플링한 영상을 생성한다(단계 S2010).If the encoding block skip mode is applied to the encoding block unit, an image obtained by upsampling the image information of the base layer is generated (step S2010).

부호화 블록이 부호화 블록 스킵 모드를 사용하지 않는 경우, 부호화 블록 단위에 스킵 모드가 적용되는지 여부를 판단한다(단계 S2020).If the encoding block does not use the encoding block skip mode, it is determined whether a skip mode is applied to each encoding block (step S2020).

스킵 플래그는 전술한 바와 같이 부호화 블록 단위에 대해 스킵 모드를 사용하여 복호화를 수행할지 여부를 나타내는 플래그이다. 스킵 모드는 영상 정보를 사용하여 영상 예측을 수행하는 방법으로서 따로 잔차 정보(원본 블록과 예측 블록의 차이값 정보)를 복원하지 않고 향상 계층에서 복호화된 움직임 예측 관련 정보만을 사용하여 영상을 복원하는 방법을 가리킨다.The skip flag is a flag indicating whether or not decoding is performed using a skip mode for each encoding block unit as described above. The skip mode is a method of performing image prediction using image information and separately restoring the image using only the motion prediction related information decoded in the enhancement layer without restoring the residual information (difference value information between the original block and the prediction block) Lt; / RTI >

스킵 모드를 사용하여 복호화를 수행한다(단계 S2030).Decryption is performed using the skip mode (step S2030).

부호화 블록 단위에 스킵 모드가 적용되는 경우 향상 계층에서는 잔차 정보 없이 향상 계층에서 복호화된 움직임 예측 관련 정보 또는 화면 내 예측 모드 정보 등을 이용하여 부호화 블록에 대한 복호화를 수행한다.When a skip mode is applied to a coded block unit, the enhancement layer decodes the coded block using the motion prediction related information decoded in the enhancement layer, the intra prediction mode information, or the like without residual information.

스킵 모드가 적용되지 않는 경우 텍스쳐 예측 모드 플래그를 복호화하여 부호화 블록 단위에 포함된 예측 블록이 텍스쳐 예측 모드를 이용한 예측을 수행하는지 여부를 판단한다(단계 S2040).If the skip mode is not applied, the texture prediction mode flag is decoded to determine whether the prediction block included in the encoding block unit performs prediction using the texture prediction mode (step S2040).

부호화 블록 단위를 텍스쳐 예측 모드를 사용하여 복호화한다(단계 S2050).The encoding block unit is decoded using the texture prediction mode (step S2050).

단계 S2040을 통한 텍스쳐 예측 모드 플래그를 판단한 결과, 부호화 블록이 텍스쳐 예측 모드가 적용된 경우, 부호화 블록 단위에 대해 텍스쳐 모드 예측를 적용하여 복호화를 수행한다. 텍스쳐 예측 모드는 전술한 바와 같이 향상 계층의 부호화 블록 단위에 대응되는 기본 계층의 부호화 블록 정보를 업샘플링하고 복호화된 잔차 정보를 더하는 방법을 사용하여 복호화를 수행하는 방법을 가리킨다.As a result of determining the texture prediction mode flag through step S2040, when a texture block is applied to the texture prediction mode, texture mode prediction is applied to a unit of the encoding block to perform decoding. The texture prediction mode refers to a method of performing decoding using a method of upsampling the base layer encoding block information corresponding to the enhancement layer encoding block unit and adding the decoded residual information as described above.

부호화 블록 단위에 대해 텍스쳐 예측 모드가 적용되지 않는 경우 베이스 모드 플래그를 복호화하여 부호화 블록이 베이스 모드를 사용하여 복호화할지 여부를 판단한다(단계 S2060).If the texture prediction mode is not applied to a unit of a coded block, the base mode flag is decoded to determine whether the coded block should be decoded using the base mode (step S2060).

베이스 모드 플래그는 부호화 블록 단위에서 베이스 예측 모드를 이용한 예측을 수행하는지 여부를 지시하는 플래그이다.The base mode flag is a flag indicating whether prediction is to be performed using the base prediction mode in encoding block units.

베이스 예측 모드를 사용하여 복원 블록을 생성한다(단계 S2070).A restoration block is generated using the base prediction mode (step S2070).

베이스 예측 모드 플래그를 복호화한 결과 부호화 블록 단위가 베이스 예측 모드를 사용한 예측을 수행하는 경우, 향상 계층의 부호화 블록에 대응되는 기본 계층의 부호화 블록의 예측 관련 정보(예를 들어, 화면 내 예측 모드 정보, 움직임 예측 관련 정보)를 유도하여 향상 계층의 부호화 블록에 포함된 예측 블록에 대한 예측을 수행할 수 있다.When the prediction mode flag is decoded and the encoding block unit performs prediction using the base prediction mode, prediction related information of the base layer encoding block corresponding to the enhancement layer encoding block (for example, intra prediction mode information , Motion prediction related information) to predict a prediction block included in an enhancement layer coding block.

베이스 예측 모드를 사용하지 않고 복원 블록을 생성한다(단계 S2080).A restoration block is generated without using the base prediction mode (step S2080).

부호화 블록이 베이스 예측 모드를 사용하여 예측을 수행하지 않는 경우, 향상 계층에서는 기본 계층에서 전송된 영상 정보를 받지 않고 향상 계층의 영상 정보만을 사용하여 영상 예측을 수행할 수 있다. 예를 들어, 화면 내 예측 방법, 화면 간 예측 방법 중 머지 모드, AMVP를 기초로 한 화면 간 예측 방법을 사용하여 부호화 블록에 대한 예측을 수행할 수 있다. 또 다른 예로 다른 계층 간 영상 예측 방법을 사용하여 예측을 수행하는 것도 가능하다.When the encoding block does not perform prediction using the base prediction mode, the enhancement layer can perform image prediction using only enhancement layer image information without receiving the image information transmitted from the base layer. For example, it is possible to perform prediction on an encoding block by using an intra prediction method, a merge mode among inter prediction methods, and an inter picture prediction method based on AMVP. As another example, it is also possible to perform prediction using a different inter-layer prediction method.

도 20에서는 부호화 블록 단위로 향상 계층에서 세 개의 예측 모드가 사용되는 방법에 대해 예시하였으나, 전술한 바와 같이 슬라이스나 CTB 단위로 해당 예측 모드가 사용되는지 여부에 대해 판단할 수도 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.
Although FIG. 20 exemplifies a method in which three prediction modes are used in the enhancement layer for each coded block, it may be determined whether the corresponding prediction mode is used in units of slices or CTBs as described above. And are included in the scope of the invention.

도 21은 본 발명의 실시예에 따른 부호화 블록 단위에서 베이스 예측 모드를 사용할 경우 화면 내 예측을 수행하는 방법을 나타낸 순서도이다.FIG. 21 is a flowchart illustrating a method of performing intra prediction when a base prediction mode is used in units of encoding blocks according to an embodiment of the present invention.

도 21에서는 부호화 블록 단위에 베이스 예측 모드가 적용되어 예측을 수행할 경우로서 화면 내 예측을 수행하는 경우를 나타낸다.FIG. 21 shows a case in which intra prediction is performed as a case of performing prediction by applying a base prediction mode to a unit of a coding block.

도 21을 참조하면, 부호화 블록 단위에 베이스 예측 모드가 적용되는 경우, 기본 계층의 부호화 블록 단위에서 화면 내 예측 모드를 사용하는지 여부를 판단한다(단계 S2100).Referring to FIG. 21, when the base prediction mode is applied to a unit of a coded block, it is determined whether an intra prediction mode is used for each coded block of the base layer (step S2100).

본 발명의 실시예에 따르면, 기본 계층의 부호화 블록 단위에서 화면 내 예측 모드를 사용할 경우, 화면 내 예측을 수행하기 위한 기본 계층의 참조 픽셀의 활용 방법에 대해 결정할 수 있다. 따라서, 우선적으로 기본 계층의 부호화 블록 단위에 대해 화면 내 예측이 수행되는지에 대해 판단할 수 있다.According to the embodiment of the present invention, when the intra prediction mode is used in units of coding blocks of the base layer, it can be determined how to use the reference pixels of the base layer to perform intra prediction. Therefore, it can be determined whether or not the intra-picture prediction is performed with respect to the encoding block unit of the base layer in advance.

단계 S2100의 판단 결과, 기본 계층의 블록에서 화면 내 예측을 수행하지 않는 경우, 기본 계층의 대응되는 블록에서 베이스 예측 모드를 사용하여 영상 예측을 수행할 수 있다(S2110).As a result of the determination in step S2100, if the intra-frame prediction is not performed in the base layer block, the image prediction may be performed using the base prediction mode in the corresponding block of the base layer (S2110).

화면 내 예측을 수행하지 않는 경우, 기본 계층의 대응되는 블록에서는 화면 간 예측을 수행할 수 있고, 기본 계층의 대응되는 블록에서 움직임 예측 관련 정보를 유도하여 향상 계층의 블록에 대한 예측을 수행할 수 있다.If intra prediction is not performed, inter prediction may be performed in the corresponding block of the base layer, and motion prediction related information may be derived from the corresponding block of the base layer to perform prediction on the block of the enhancement layer have.

단계 S2100의 판단 결과, 기본 계층의 블록에서 화면 내 예측을 수행하는 경우, 기본 계층 예측자 플래그를 복호화하여 기본 계층의 참조 픽셀을 이용할 것인지 여부를 판단한다(단계 S2120).As a result of the determination in step S2100, when intraprediction is performed in the base layer block, the base layer predictor flag is decoded to determine whether to use the reference pixels of the base layer (step S2120).

기본 계층 예측자 플래그는 향상 계층의 부호화 블록 단위에 포함되는 예측 블록들이 화면 내 예측을 수행함에 있어서 기본 계층의 참조 픽셀을 이용할 것인지 또는 향상 계층의 참조 픽셀을 사용할지 여부를 판단하기 위한 플래그로 사용될 수 있다.The base layer predictor flag is used as a flag for determining whether the prediction blocks included in the enhancement layer encoding block unit use the reference pixels of the base layer or the reference pixels of the enhancement layer in performing intra prediction .

기본 계층의 참조 픽셀 정보 기초로 예측 블록의 화면 내 예측을 수행한다(단계 S2130).Intra prediction of the prediction block is performed based on the reference pixel information of the base layer (step S2130).

기본 계층 예측자 플래그를 기초로 판단한 결과 부호화 블록 단위에 포함되는 예측 블록이 기본 계층의 참조 픽셀을 이용하여 예측을 수행하는 블록인 것으로 판단될 수 있다.It may be determined that the prediction block included in the encoding block unit is a block that performs prediction using the reference pixels of the base layer as a result of the determination based on the base layer predictor flag.

기본 계층의 참조 픽셀 정보 기초로 예측 블록의 화면 내 예측을 수행하는 방법으로는 두 가지 방법이 사용될 수 있다. 도 22에서는 기본 계층의 참조 픽셀 정보 기초로 예측 블록의 화면 내 예측을 수행하는 두 가지 방법에 대해 개시한다.
As a method of performing in-frame prediction of the prediction block based on the reference pixel information of the base layer, two methods can be used. 22 shows two methods of performing intra prediction of a prediction block on the basis of reference pixel information of a base layer.

도 22는 본 발명의 실시예에 따른 기본 계층의 참조 픽셀 정보 기초로 예측 블록의 화면 내 예측을 수행하는 방법을 나타낸 개념도이다.22 is a conceptual diagram illustrating a method of performing intra prediction of a prediction block based on reference pixel information of a base layer according to an embodiment of the present invention.

도 22의 (A)를 참조하면, (1) 기본 계층에서 참조 픽셀 정보(2200)를 복원하고 기본 계층 블록의 참조 픽셀 정보(2200)를 업샘플링(2210)한다.Referring to FIG. 22A, (1) the reference pixel information 2200 is restored in the base layer and the reference pixel information 2200 of the base layer block is up-sampled 2210.

기본 계층 블록의 참조 픽셀 정보(2200)를 업샘플링(2210)하여 향상 계층의 블록에 대한 화면 내 예측을 수행하기 위한 참조 픽셀 정보를 생성할 수 있다.The reference pixel information 2200 of the base layer block may be up-sampled 2210 to generate reference pixel information for performing intra-frame prediction of the block of the enhancement layer.

(2) 업샘플링된 참조 픽셀 정보를 기초로 향상 계층의 블록에 대한 예측된 블록(2220)을 생성한다.(2) generates a predicted block 2220 for a block of an enhancement layer based on the upsampled reference pixel information.

향상 계층에서는 생성된 예측된 블록을 기초로 향상 계층의 부호화 블록에 대응되는 기본 계층의 부호화 블록에서 사용된 화면 내 예측 모드를 유도하여 화면 내 예측을 수행할 수 있다. In the enhancement layer, the intra prediction mode used in the encoding block of the base layer corresponding to the encoding block of the enhancement layer is derived based on the generated predicted block to perform intra prediction.

즉, 도 22의 (A)에서는 기본 계층의 참조 픽셀 정보(2200)를 업샘플링(2210)하여 업샘플링된 참조 픽셀 정보을 이용하여 예측된 블록(2220)을 생성하고, 생성된 예측된 블록을 기초로 화면 내 예측을 수행할 수 있다.
22 (A), the reference pixel information 2200 of the base layer is up-sampled 2210 to generate a predicted block 2220 using upsampled reference pixel information, Intra prediction can be performed.

도 22의 (B)는 기본 계층에서 참조 픽셀(2250)을 사용하여 예측을 수행한 정보를 업샘플링하는 방법을 사용할 수 있다. In FIG. 22B, a method of up-sampling information that has been predicted using the reference pixel 2250 in the base layer may be used.

(1) 기본 계층의 참조 픽셀(2250)을 기초로 향상 계층의 부호화 블록에 대응되는 기본 계층의 부호화 블록에서 사용된 화면 내 예측 모드를 사용하여 화면 내 예측을 수행한다. (1) Intra prediction is performed using the intra prediction mode used in the base layer coding block corresponding to the coding block of the enhancement layer based on the reference pixel 2250 of the base layer.

도 22의 (A)와 달리 (B)는 기본 계층의 참조 픽셀 정보(2250)를 바로 이용하여 예측된 블록(2260)을 생성할 수 있다.Unlike (A) in FIG. 22, (B) can directly generate the predicted block 2260 using the reference pixel information 2250 of the base layer.

(2) 생성된 예측된 블록(2260)을 업샘플링(2270)하여 향상 계층의 블록에 대한 예측된 블록을 생성한다.(2) Upsampling (2270) the generated predicted block 2260 to generate a predicted block for a block of the enhancement layer.

화면 내 예측을 수행하여 생성된 기본 계층의 예측된 블록(2260)을 업샘플링(2270)하여 향상 계층에 대한 예측된 블록(2280)을 생성한다. 즉, 도 22의 (B)에서는 기본 계층의 참조 픽셀 정보(2250)를 기초로 화면 내 예측을 수행한 후 예측된 블록(2260)을 기초로 업 샘플링(2270)을 수행하여 향상 계층을 위한 예측된 블록(2280)을 생성할 수 있다.Performs in-frame prediction to upsample (2270) the generated predicted block (2260) of the base layer to generate a predicted block (2280) for the enhancement layer. 22 (B), in-picture prediction is performed based on the reference pixel information 2250 of the base layer, and up-sampling 2270 is performed based on the predicted block 2260, Lt; RTI ID = 0.0 > 2280 < / RTI >

도 22에서 설명한 기본 계층의 참조 픽셀 정보를 이용한 두 가지 화면 내 예측 방법은 수신단/송신단이 동일하게 사용할 수도 있고, 하나의 구문 요소(syntax element)를 두어 구분할 수도 있다.In the two intraprediction methods using the reference pixel information of the base layer described in FIG. 22, the receiving end / the transmitting end can use the same or separate syntax elements.

다시 도 21를 참조하면, 향상 계층의 참조 픽셀 정보 기초로 예측 블록의 화면 내 예측을 수행한다(단계 S2140).Referring again to FIG. 21, intra prediction of a prediction block is performed based on reference pixel information of an enhancement layer (step S2140).

기본 계층 예측자 플래그를 기초로 판단한 결과 블록이 향상 계층의 참조 픽셀을 이용하여 예측을 수행하는 블록인 것으로 판단될 수 있다(단계 S2140). 향상 계층의 참조 픽셀은 향상 계층의 블록에 존재하는 참조 픽셀 정보로서 향상 계층에서 이미 복호화하여 생성된 블록에 존재하는 픽셀 정보일 수 있다.Based on the base layer predictor flag, it can be determined that the block is a block that performs prediction using the reference pixels of the enhancement layer (step S2140). The reference pixel of the enhancement layer may be pixel information existing in a block generated by decoding in the enhancement layer as reference pixel information existing in a block of the enhancement layer.

도 21에서는 부호화 블록 단위에 대해 기본 계층 예측자 플래그가 적용되는 경우에 대해 개시하였으나, 부호화 블록 단위가 아닌 CTB 또는 슬라이스에 포함되는 블록에 대해 기본 계층 예측자가 사용될지 여부에 대한 정보를 전송할 수 있다. Although FIG. 21 shows a case where a base layer predictor flag is applied to a unit of a coded block, information about whether a base layer predictor is used for a block included in a CTB or a slice other than the unit of a coded block can be transmitted .

예를 들어, 슬라이스 헤더에서 전송된 기본 계층 예측자 플래그가 on이 되는 경우 향상 계층의 슬라이스에 포함된 블록 중 화면 내 예측 모드를 사용하는 블록들에 대하여 참조 픽셀 정보가 기본 계층에서 유도되어 사용될 수 있다.
For example, when the base layer predictor flag transmitted from the slice header is turned on, the reference pixel information may be derived from the base layer and used for the blocks using the intra prediction mode among the blocks included in the slice of the enhancement layer have.

도 23은 본 발명의 실시예에 따른 변환 블록의 분할 정보에 대한 계층적 비디오 코딩 방법을 나타낸 순서도이다. 23 is a flowchart illustrating a hierarchical video coding method for division information of a transform block according to an embodiment of the present invention.

도 23에서는 변환 블록에 대한 분할 정보를 기본 계층에서 획득할지 아니면 향상 계층에서 획득할지 여부에 판단하는 방법을 나타낸 순서도이다. FIG. 23 is a flowchart showing a method for determining whether division information for a transform block is obtained in a base layer or in an enhancement layer.

도 23을 참조하면, 기본 계층 변환 플래그(BL_transform_partition_flag)를 복호화한다(단계 S2300).Referring to FIG. 23, the base layer conversion flag (BL_transform_partition_flag) is decoded (step S2300).

기본 계층 변환 플래그는 향상 계층에서 변환 블록의 분할 정보를 기본 계층의 변환 블록의 분할 정보로부터 유도하여 사용한 것인지 아니면, 향상 계층에서 변환 블록에 대한 분할 정보를 따로 결정하여 분할을 수행하는지 여부를 지시하기 위한 플래그이다.The base layer conversion flag indicates whether the division information of the conversion block in the enhancement layer is derived from the division information of the conversion block of the base layer or whether the division information for the conversion block is separately determined in the enhancement layer .

기본 계층의 변환 블록 분할 정보를 사용하는지 여부를 판단한다(단계 S2310).It is determined whether or not the conversion block partition information of the base layer is used (step S2310).

기본 계층의 변환 블록 분할 정보를 사용할 경우, 기본 계층의 변환 블록 분할 정보(split_transform_flag)를 읽어온다(단계 S2320).When using the conversion block division information of the base layer, the conversion block division information (split_transform_flag) of the base layer is read (step S2320).

기본 계층의 변환 블록 분할 정보를 사용할 경우 기본 계층의 변환 블록 분할 정보를 읽어서 향상 계층에서 동일하게 사용할 수 있다. 즉, 향상 계층의 부호화 블록에 대응되는 기본 계층의 부호화 블록에 포함된 변환 블록이 분할된 방법과 동일한 방법으로 향상 계층의 부호화 블록을 분할하여 변환 블록을 생성할 수 있다.When using the conversion block partition information of the base layer, the conversion block partition information of the base layer can be read and used equally in the enhancement layer. That is, a transform block can be generated by dividing an enhancement layer encoded block in the same manner as a method in which a transform block included in a base layer encoded block corresponding to an enhancement layer encoded block is divided.

기본 계층의 변환 블록 분할 정보를 사용하지 않을 경우, 향상 계층의 변환 블록 분할 정보(split_transform_flag)를 읽어온다(단계 S2330).When the conversion block division information of the base layer is not used, the conversion block division information (split_transform_flag) of the enhancement layer is read (step S2330).

기본 계층의 변환 블록 분할 정보를 사용하지 않을 경우 향상 계층의 변환 블록 분할 정보를 복호화하여 향상 계층의 변환 블록 분할 정보를 획득할 수 있다.
If the transform block division information of the base layer is not used, the transform block division information of the enhancement layer can be obtained by decoding the transform block division information of the enhancement layer.

도 23에서는 부호화 블록 단위에 대해 기본 계층의 변환 블록 분할 정보를 사용하는 방법에 대해 개시하였으나 부호화 블록 단위가 아닌 CTB 또는 슬라이스에 포함되는 블록에 대해 기본 계층의 변환 블록 분할 정보가 사용될지 여부에 대해 결정하여 플래그 정보를 통해 복호화될 수 있다.Although FIG. 23 discloses a method of using conversion block division information of a base layer for each coding block unit, it is possible to determine whether conversion block division information of a base layer is used for a block included in a CTB or a slice, And can be decoded through the flag information.

예를 들어, 슬라이스 헤더에서 전송된 기본 계층의 변환 블록 분할 정보 플래그가 ‘on’이 되는 경우 향상 계층의 슬라이스에 포함된 변환 블록들에 대한 분할이 기본 계층의 슬라이스에 포함된 변환 블록들과 동일한 형태의 분할 정보를 가질 수 있다.
For example, when the conversion block division information flag of the base layer transmitted from the slice header becomes 'on', the division of the conversion blocks included in the slice of the enhancement layer is the same as the conversion blocks included in the slice of the base layer Type information.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

Claims (14)

화면 내 예측 방법에 있어서,
기본 계층의 제1 영상 처리 단위가 화면 내 예측을 수행하는지 여부에 대해 판단하는 단계; 및
상기 제1 영상 처리 단위가 화면 내 예측을 수행하는 경우, 기본 계층 예측자 정보를 복호화하는 단계; 및
상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계를 포함하되,
상기 기본 계층 예측자 정보는 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용할 것인지 상기 향상 계층의 참조 픽셀을 사용할 것인지 여부를 결정하기 위한 정보인 화면 내 예측 방법.
In the intra prediction method,
Determining whether the first image processing unit of the base layer performs intra-frame prediction; And
Decoding the base layer predictor information when the first image processing unit performs intra prediction; And
Performing in-picture prediction on a second image processing unit corresponding to the first image processing unit in an enhancement layer based on the base layer predictor information,
The base layer predictor information is information for determining whether to use a reference pixel of the base layer or a reference pixel of the enhancement layer as a reference pixel for performing intra-picture prediction on the second image processing unit Intra prediction method.
제1항에 있어서, 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계는,
상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하여 화면 내 예측된 블록을 생성하는 단계; 및
상기 화면 내 예측된 블록을 업샘플링하는 단계를 포함하는 화면 내 예측 방법.
2. The method of claim 1, wherein performing intra-frame prediction on a second image processing unit corresponding to the first image processing unit in the enhancement layer based on the base layer predictor information comprises:
When the base layer predictor information indicates to use a reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, Generating intra-picture predicted blocks by performing intra-frame prediction with the intra-frame prediction; And
And upsampling the in-picture predicted block.
제1항에 있어서, 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계는,
상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 업샘플링하는 단계; 및
상기 업샘플링된 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하는 단계를 포함하는 화면 내 예측 방법.
2. The method of claim 1, wherein performing intra-frame prediction on a second image processing unit corresponding to the first image processing unit in the enhancement layer based on the base layer predictor information comprises:
When the base layer predictor information indicates to use a reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, the reference pixel of the first image processing unit is updated Sampling; And
And performing intra-picture prediction based on the upsampled reference pixels of the first image processing unit.
제1항에 있어서, 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 단계는,
상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 향상 계층에서 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀 정보를 획득하는 단계; 및
상기 참조 픽셀 정보를 기초로 화면 내 예측을 수행하는 단계를 포함하는 화면 내 예측 방법.
2. The method of claim 1, wherein performing intra-frame prediction on a second image processing unit corresponding to the first image processing unit in the enhancement layer based on the base layer predictor information comprises:
When the base layer predictor information indicates to use a reference pixel of the enhancement layer as a reference pixel for performing intra-frame prediction on the second image processing unit, Acquiring reference pixel information for performing intra-frame prediction on the intra-frame prediction; And
And performing intra prediction on the basis of the reference pixel information.
제1항에 있어서,
상기 제2 영상 처리 단위가 베이스 예측 모드를 수행하여 예측을 수행하는지 여부를 판단하는 단계를 더 포함하는 화면 내 예측 방법.
The method according to claim 1,
Further comprising the step of determining whether the second image processing unit performs a base prediction mode to perform prediction.
제1 항에 있어서, 상기 제1 영상 처리 단위 및 상기 제2 영상 처리 단위는,
코딩 블록(coding block) 단위, CTB(coding tree block) 단위, 슬라이스(slice) 단위 및 픽쳐(picture) 단위 중 하나의 영상 처리 단위인 화면 내 예측 방법.
2. The image processing apparatus according to claim 1, wherein the first image processing unit and the second image processing unit comprise:
Wherein the image processing unit is one of a coding block unit, a coding tree block unit, a slice unit, and a picture unit.
제1항에 있어서, 상기 기본 계층 예측자 정보는,
플래그 정보로서 플래그 값이 1일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하고, 플래그 값이 0일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시하는 계층적 영상 복호화 방법.
The apparatus of claim 1, wherein the base layer predictor information comprises:
When the flag value is 1, indicates that the base layer predictor information uses the reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, Is 0, the base layer predictor information indicates to use a reference pixel of the enhancement layer as a reference pixel for performing intra-picture prediction on the second image processing unit.
화면 내 예측을 수행하는 영상 복호화 장치에 있어서,
기본 계층의 제1 영상 처리 단위가 화면 내 예측을 수행하는 경우, 기본 계층 예측자 정보를 복호화하는 엔트로피 복호화부; 및
기본 계층의 제1 영상 처리 단위가 화면 내 예측을 수행하는지 여부에 대해 판단하고 상기 기본 계층 예측자 정보에 기초하여 향상 계층에서 상기 제1 영상 처리 단위에 대응되는 제2 영상 처리 단위에 대한 화면 내 예측을 수행하는 예측부를 포함하되,
상기 기본 계층 예측자 정보는 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용할 것인지 상기 향상 계층의 참조 픽셀을 사용할 것인지 여부를 결정하기 위한 정보인 영상 복호화 장치.
A video decoding apparatus for performing intra prediction, the apparatus comprising:
An entropy decoding unit decoding the base layer predictor information when the first image processing unit of the base layer performs intra prediction; And
Determining whether the first image processing unit of the base layer performs intra-frame prediction, and determining whether the first image processing unit of the base layer performs intra-frame prediction for the second image processing unit corresponding to the first image processing unit in the enhancement layer And a prediction unit for performing prediction,
The base layer predictor information is information for determining whether to use a reference pixel of the base layer or a reference pixel of the enhancement layer as a reference pixel for performing intra-picture prediction on the second image processing unit Image decoding apparatus.
제8항에 있어서, 상기 예측부는,
상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하여 화면 내 예측된 블록을 생성하고 상기 화면 내 예측된 블록을 업샘플링하도록 구현되는 영상 복호화 장치.
9. The apparatus of claim 8,
When the base layer predictor information indicates to use a reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, And performs up-sampling on the in-picture predicted block.
제8항에 있어서, 상기 예측부는,
상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 제1 영상 처리 단위의 참조 픽셀을 업샘플링하고 상기 업샘플링된 상기 제1 영상 처리 단위의 참조 픽셀을 기초로 화면 내 예측을 수행하도록 구현되는 영상 복호화 장치.
9. The apparatus of claim 8,
When the base layer predictor information indicates to use a reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, the reference pixel of the first image processing unit is updated And performs intra-frame prediction based on the upsampled reference pixels of the first image processing unit.
제8항에 있어서, 상기 예측부는,
상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시하는 경우, 상기 향상 계층에서 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀 정보를 획득하고 상기 참조 픽셀 정보를 기초로 화면 내 예측을 수행하도록 구현되는 영상 복호화 장치.
9. The apparatus of claim 8,
When the base layer predictor information indicates to use a reference pixel of the enhancement layer as a reference pixel for performing intra-frame prediction on the second image processing unit, And performs intra-picture prediction on the basis of the reference pixel information.
제8항에 있어서, 상기 예측부는,
상기 제2 영상 처리 단위가 베이스 예측 모드를 수행하여 예측을 수행하는지 여부를 판단하도록 구현되는 영상 복호화 장치.
9. The apparatus of claim 8,
Wherein the second image processing unit is configured to determine whether to perform prediction by performing a base prediction mode.
제8항에 있어서, 상기 제1 영상 처리 단위 및 상기 제2 영상 처리 단위는,
코딩 블록(coding block) 단위, CTB(coding tree block) 단위, 슬라이스(slice) 단위 및 픽쳐(picture) 단위 중 하나의 영상 처리 단위인 영상 복호화 장치.
The image processing apparatus according to claim 8, wherein the first image processing unit and the second image processing unit comprise:
Wherein the image processing unit is one of a coding block unit, a coding tree block unit, a slice unit, and a picture unit.
제8항에 있어서, 상기 기본 계층 예측자 정보는,
플래그 정보로서 플래그 값이 1일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 기본 계층의 참조 픽셀을 사용하는 것을 지시하고, 플래그 값이 0일 경우, 상기 기본 계층 예측자 정보가 상기 제2 영상 처리 단위에 대한 화면 내 예측을 수행하기 위한 참조 픽셀로 상기 향상 계층의 참조 픽셀을 사용하는 것을 지시하는 계층적 영상 복호화 장치.
9. The apparatus of claim 8, wherein the base layer predictor information comprises:
When the flag value is 1, indicates that the base layer predictor information uses the reference pixel of the base layer as a reference pixel for performing intra-frame prediction on the second image processing unit, Is 0, the base layer predictor information indicates to use a reference pixel of the enhancement layer as a reference pixel for performing intra-picture prediction on the second image processing unit.
KR1020120149718A 2012-12-20 2012-12-20 Method for determining scalable video coding mode and apparatus for using the same KR20140092423A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120149718A KR20140092423A (en) 2012-12-20 2012-12-20 Method for determining scalable video coding mode and apparatus for using the same
PCT/KR2013/009836 WO2014098368A1 (en) 2012-12-20 2013-11-01 Method for determining scalable video encoding/decoding mode, and apparatus using such method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120149718A KR20140092423A (en) 2012-12-20 2012-12-20 Method for determining scalable video coding mode and apparatus for using the same

Publications (1)

Publication Number Publication Date
KR20140092423A true KR20140092423A (en) 2014-07-24

Family

ID=50978641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120149718A KR20140092423A (en) 2012-12-20 2012-12-20 Method for determining scalable video coding mode and apparatus for using the same

Country Status (2)

Country Link
KR (1) KR20140092423A (en)
WO (1) WO2014098368A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180031615A (en) * 2016-09-20 2018-03-28 주식회사 케이티 Method and apparatus for processing a video signal
WO2019093597A1 (en) * 2017-11-09 2019-05-16 삼성전자 주식회사 Apparatus and method for encoding image on basis of motion vector resolution, and decoding apparatus and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114615500A (en) * 2020-12-08 2022-06-10 华为技术有限公司 Enhancement layer coding and decoding method and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100913088B1 (en) * 2005-01-21 2009-08-21 엘지전자 주식회사 Method and apparatus for encoding/decoding video signal using prediction information of intra-mode macro blocks of base layer
KR20090103675A (en) * 2008-03-28 2009-10-01 삼성전자주식회사 Method for coding/decoding a intra prediction mode of video and apparatus for the same
KR20110014000A (en) * 2009-08-04 2011-02-10 광운대학교 산학협력단 Apparatus and method of deblocking filtering an image data and decoding apparatus and method using the same
KR101752418B1 (en) * 2010-04-09 2017-06-29 엘지전자 주식회사 A method and an apparatus for processing a video signal
WO2012098878A1 (en) * 2011-01-19 2012-07-26 パナソニック株式会社 Video encoding method and video decoding method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180031615A (en) * 2016-09-20 2018-03-28 주식회사 케이티 Method and apparatus for processing a video signal
WO2019093597A1 (en) * 2017-11-09 2019-05-16 삼성전자 주식회사 Apparatus and method for encoding image on basis of motion vector resolution, and decoding apparatus and method
KR20200042949A (en) * 2017-11-09 2020-04-24 삼성전자주식회사 Apparatus and method for encoding image based on motion vector resolution, and apparatus and method for decoding
KR20210019138A (en) * 2017-11-09 2021-02-19 삼성전자주식회사 Apparatus and method for encoding image based on motion vector resolution, and apparatus and method for decoding image
US11184620B2 (en) 2017-11-09 2021-11-23 Samsung Electronics Co., Ltd. Apparatus and method for encoding image on basis of motion vector resolution, and decoding apparatus and method
US11700379B2 (en) 2017-11-09 2023-07-11 Samsung Electronics Co., Ltd. Apparatus and method for encoding image on basis of motion vector resolution, and decoding apparatus and method
US11700380B2 (en) 2017-11-09 2023-07-11 Samsung Electronics Co., Ltd. Apparatus and method for encoding image on basis of motion vector resolution, and decoding apparatus and method

Also Published As

Publication number Publication date
WO2014098368A1 (en) 2014-06-26

Similar Documents

Publication Publication Date Title
KR102540995B1 (en) Intra prediction method of chrominance block using luminance sample, and apparatus using same
KR101552632B1 (en) Method of coefficient scan based on partition mode of prediction unit and apparatus using the same
KR101465920B1 (en) Method for partitioning block and decoding device
KR101855269B1 (en) Intra prediction method and encoding apparatus and decoding apparatus using same
JP2019530366A (en) Block division and intra prediction method and apparatus in image coding system
KR20180051424A (en) Method and apparatus for processing a video signal
US20160165260A1 (en) Scalable video signal encoding/decoding method and apparatus
KR20180025284A (en) Method and apparatus for processing a video signal
US20220053190A1 (en) Method and apparatus for coding image using adaptation parameter set
KR20140018873A (en) Method for encoding and decoding image information
KR20180056396A (en) Method and apparatus for processing a video signal
KR20130045807A (en) Method for predicting quantization parameter based on intra prediction mode and apparatus using the same
KR101468078B1 (en) Method and apparatus for intra prediction
KR20140138544A (en) Method for deriving motion information in multi-layer structure and apparatus using the same
KR20140092423A (en) Method for determining scalable video coding mode and apparatus for using the same
KR20140079661A (en) Method for scalable video coding using most probable mode and apparatus for using the same
KR20140080884A (en) Method for decoding intra prediction mode of chroma block on scalable video coding and apparatus for using the same
KR20130085603A (en) Methods of chroma block intra prediction and appratuses using the same
KR20190113654A (en) Method and apparatus for processing video signal
US11863754B2 (en) Method and for reconstructing chroma block and video decoding apparatus

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid