WO2013147455A1 - Inter-layer prediction method and apparatus using same - Google Patents

Inter-layer prediction method and apparatus using same Download PDF

Info

Publication number
WO2013147455A1
WO2013147455A1 PCT/KR2013/002331 KR2013002331W WO2013147455A1 WO 2013147455 A1 WO2013147455 A1 WO 2013147455A1 KR 2013002331 W KR2013002331 W KR 2013002331W WO 2013147455 A1 WO2013147455 A1 WO 2013147455A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
clipping
prediction
layer
range
Prior art date
Application number
PCT/KR2013/002331
Other languages
French (fr)
Korean (ko)
Inventor
박준영
전병문
박승욱
임재현
전용준
박내리
김철근
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2013147455A1 publication Critical patent/WO2013147455A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability

Definitions

  • the present invention relates to video compression technology, and more particularly, to a method and apparatus for storing image information in scalable video coding.
  • video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .
  • a consumer who purchases video content on a mobile terminal can view the same video content on a larger screen and at a higher resolution through a large display in the home.
  • the quality of the image for example, the image quality, the resolution of the image, the size of the image. It is necessary to provide scalability in the frame rate of video and the like. In addition, various image processing methods associated with such scalability should be discussed.
  • An embodiment of the present invention provides an interlayer prediction method for clipping information on a differential image, and an apparatus using the same.
  • an embodiment of the present invention provides an interlayer prediction method and an apparatus using the same, which can reduce storage capacity by storing an image in consideration of an increased bit depth.
  • an embodiment of the present invention provides a prediction method and an apparatus using the same that can perform inter-layer prediction without changing the bit depth of the residual by clipping the pixel value of the differential image.
  • An embodiment of the present invention obtains a difference between a reconstructed picture of an enhancement layer of a reference picture referenced by a current picture and an image upsampled from a reconstructed picture of a base layer of the reference picture, and obtains a difference picture of the reference picture. Generating a pixel value of the difference image out of the clipping range to the clipping range such that the range of pixel values of the difference image is a preset clipping range; and using the clipped difference image And performing inter prediction of the current picture.
  • the bit depth of the pixel value of the clipped differential image may be equal to or less than the bit depth of the pixel value of the reconstructed image with respect to the enhancement layer.
  • the step of clipping Clip a pixel value such that a range of pixel values of the difference image is-(1 ⁇ (n-number of clipping bits)) to ((1 ⁇ (n-number of clipping bits))-1), and the clipping
  • the number of bits may be a bit depth of pixel values of the difference image to be reduced.
  • the clipping may include pixel values ranging from-((1 ⁇ n)-1) to-((1 ⁇ (n-number of clipping bits)) + 1) of the difference image to-(1 ⁇ ( n-the number of clipping bits)) and the pixel values in the range of (1 ⁇ (n-number of clipping bits)) to ((1 ⁇ n)-1) of the difference image ((1 ⁇ (n -Clipping Bits))-1)
  • Adding a preset offset to the pixel value of the difference image such that the range of the pixel value of the clipped difference image is shifted from 0 to ((1 ⁇ (n-number of clipping bits + 1))-1). can do.
  • the step of clipping May clip the pixel value such that the range of the pixel value of the difference image is-((1 ⁇ (n-number of clipping bits)) -1) to (1 ⁇ (n-number of clipping bits)).
  • the clipping may include pixel values in the range of-((1 ⁇ n)-1) to-(1 ⁇ (n-number of clipping bits)) of the difference image-((1 ⁇ (n-clipping) Number of bits)) -1), and pixel values in the range of ((1 ⁇ (n-number of clipping bits)) + 1) to ((1 ⁇ n)-1) of the difference image (1 ⁇ You can clip with ⁇ (n-number of clipping bits).
  • Adding a preset offset to the pixel value of the difference image such that the range of the pixel value of the clipped difference image is shifted from 0 to ((1 ⁇ (n-number of clipping bits + 1))-1). can do.
  • the method may further include storing the clipped difference image.
  • an interlayer prediction method for clipping information on a differential image and an apparatus using the same are provided.
  • an interlayer prediction method capable of reducing storage capacity by storing an image in consideration of an increased bit depth, and an apparatus using the same.
  • a prediction method and an apparatus using the same that can perform interlayer prediction without changing the bit depth of the residual by clipping the pixel value of the differential image.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
  • FIG. 3 is a diagram schematically illustrating a method of performing intra prediction when an inter-layer difference mode is applied according to the present invention.
  • FIG. 4 is a diagram for describing clipping of a differential image, according to an exemplary embodiment.
  • FIG. 5 is a diagram for describing clipping of a difference image, according to another exemplary embodiment.
  • FIG. 6 is a diagram for describing clipping of a differential image, according to another exemplary embodiment.
  • FIG. 7 is a control flowchart illustrating a clipping method of a differential image according to the present invention.
  • each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • input signals may be processed for each layer.
  • the input signals may differ in at least one of resolution, frame rate, bit-depth, color format, and aspect ratio. Can be.
  • scalable coding includes scalable encoding and scalable decoding.
  • prediction between layers is performed by using differences between layers, that is, based on scalability, thereby reducing overlapping transmission / processing of information and increasing compression efficiency.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
  • the encoding apparatus 100 includes an encoder 105 for layer 1 and an encoder 135 for layer 0.
  • Layer 0 may be a base layer, a reference layer, or a lower layer
  • layer 1 may be an enhancement layer, a current layer, or an upper layer.
  • the encoding unit 105 of the layer 1 includes a prediction unit 110, a transform / quantization unit 115, a filtering unit 120, a memory 125, an entropy coding unit 130, and a MUX (Multiplexer, 165). do.
  • the encoding unit 135 of the layer 0 includes a prediction unit 140, a transform / quantization unit 145, a filtering unit 150, a memory 155, and an entropy coding unit 160.
  • the prediction units 110 and 140 may perform inter prediction and intra prediction on the input image.
  • the prediction units 110 and 140 may perform prediction in predetermined processing units.
  • the performing unit of prediction may be a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
  • the prediction units 110 and 140 may determine whether to apply inter prediction or intra prediction in a CU unit, determine a mode of prediction in a PU unit, and perform prediction in a PU unit or a TU unit. have. Prediction performed includes generation of a prediction block and generation of a residual block (residual signal).
  • a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture.
  • prediction blocks may be generated by performing prediction based on pixel information in a current picture.
  • inter prediction there are a skip mode, a merge mode, a motion vector predictor (MVP) mode method, and the like.
  • a reference picture may be selected with respect to the current PU that is a prediction target, and a reference block corresponding to the current PU may be selected within the reference picture.
  • the prediction unit 110 may generate a prediction block based on the reference block.
  • the prediction block may be generated in integer sample units or may be generated in integer or less pixel units.
  • the motion vector may also be expressed in units of integer pixels or units of integer pixels or less.
  • motion information that is, information such as an index of a reference picture, a motion vector, and a residual signal
  • residuals may not be generated, transformed, quantized, or transmitted.
  • the prediction mode may have 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planner mode (Planar mode).
  • a prediction block may be generated after applying a filter to a reference sample.
  • the PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N ⁇ 2N block, a 2N ⁇ N block, an N ⁇ 2N block, an N ⁇ N block (N is an integer), or the like.
  • the PU In the case of intra prediction, the PU may be a 2N ⁇ 2N block or an N ⁇ N block (where N is an integer).
  • the PU of the N ⁇ N block size may be set to apply only in a specific case.
  • the NxN block size PU may be used only for the minimum size CU or only for intra prediction.
  • PUs such as N ⁇ mN blocks, mN ⁇ N blocks, 2N ⁇ mN blocks, or mN ⁇ 2N blocks (m ⁇ 1) may be further defined and used.
  • the prediction units 110 and 140 may perform prediction on the layer 1 by using the information of the layer 0.
  • a method of predicting information of a current layer using information of another layer is referred to as inter-layer prediction for convenience of description.
  • Information of the current layer that is predicted using information of another layer may include texture, motion information, unit information, predetermined parameters (eg, filtering parameters, etc.).
  • information of another layer used for prediction for the current layer may include texture, motion information, unit information, and predetermined parameters (eg, filtering parameters).
  • inter-layer motion prediction is also referred to as inter-layer inter prediction.
  • prediction of a current block of layer 1 may be performed using motion information of layer 0 (reference layer or base layer).
  • motion information of a reference layer may be scaled.
  • inter-layer texture prediction is also called inter-layer intra prediction or intra base layer (BL) prediction.
  • Inter layer texture prediction may be applied when a reference block in a reference layer is reconstructed by intra prediction.
  • the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer.
  • the texture of the reference block may be scaled by upsampling.
  • inter-layer unit parameter prediction derives unit (CU, PU, and / or TU) information of a base layer and uses it as unit information of an enhancement layer, or based on unit information of a base layer. Unit information may be determined.
  • the unit information may include information at each unit level.
  • information about a partition (CU, PU and / or TU) may include information on transform, information on prediction, and information on coding.
  • information on a PU partition and information on prediction (eg, motion information, information on a prediction mode, etc.) may be included.
  • the information about the TU may include information about a TU partition, information on transform (transform coefficient, transform method, etc.).
  • the unit information may include only the partition information of the processing unit (eg, CU, PU, TU, etc.).
  • inter-layer parameter prediction may derive a parameter used in the base layer to reuse it in the enhancement layer or predict a parameter for the enhancement layer based on the parameter used in the base layer.
  • interlayer prediction As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.
  • the prediction unit may use inter-layer residual prediction, which predicts the residual of the current layer using residual information of another layer as inter-layer prediction, and performs prediction on the current block in the current layer based on the residual layer.
  • the prediction unit may use inter-layer prediction as inter-layer prediction to perform prediction on the current block in the current layer by using a difference (difference image) between the reconstructed picture of the current layer and the resampled picture of another layer. You can also make predictions.
  • the prediction unit may use interlayer syntax prediction, which is used to predict or generate a texture of a current block using syntax information of another layer as interlayer prediction.
  • the syntax information of the reference layer used for prediction of the current block may be information about an intra prediction mode, motion information, and the like.
  • inter-layer syntax prediction may be performed by referring to the intra prediction mode from a block to which the intra prediction mode is applied in the reference layer and referring to motion information from the block MV to which the inter prediction mode is applied.
  • the reference layer is a P slice or a B slice
  • the reference block in the slice may be a block to which an intra prediction mode is applied.
  • inter-layer prediction may be performed to generate / predict a texture for the current block by using an intra prediction mode of the reference block among syntax information of the reference layer.
  • the transform / quantization units 115 and 145 may perform transform on the residual block in transform block units to generate transform coefficients and quantize the transform coefficients.
  • the transform block is a block of samples and is a block to which the same transform is applied.
  • the transform block can be a transform unit (TU) and can have a quad tree structure.
  • the transform / quantization units 115 and 145 may generate a 2D array of transform coefficients by performing transform according to the prediction mode applied to the residual block and the size of the block. For example, if intra prediction is applied to a residual block and the block is a 4x4 residual array, the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
  • DST discrete sine transform
  • DCT discrete cosine transform
  • the transform / quantization unit 115 and 145 may quantize the transform coefficients to generate quantized transform coefficients.
  • the transform / quantization units 115 and 145 may transfer the quantized transform coefficients to the entropy coding units 130 and 180.
  • the transform / quantization unit 145 may rearrange the two-dimensional array of quantized transform coefficients into one-dimensional arrays according to a predetermined scan order and transfer them to the entropy coding units 130 and 180.
  • the transform / quantizers 115 and 145 may transfer the reconstructed block generated based on the residual and the predictive block to the filtering units 120 and 150 for inter prediction.
  • the transform / quantization units 115 and 145 may skip transform and perform quantization only or omit both transform and quantization as necessary.
  • the transform / quantization unit 115 or 165 may omit the transform for a block having a specific prediction method or a specific size block, or a block of a specific size to which a specific prediction block is applied.
  • the entropy coding units 130 and 160 may perform entropy encoding on the quantized transform coefficients.
  • Entropy encoding may use, for example, an encoding method such as Exponential Golomb, Context-Adaptive Binary Arithmetic Coding (CABAC), or the like.
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the filtering units 120 and 150 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
  • ALF adaptive loop filter
  • SAO sample adaptive offset
  • the deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter.
  • the SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
  • the filtering units 120 and 150 may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO without applying all of the deblocking filter, ALF, and SAO.
  • the memories 125 and 155 may receive the reconstructed block or the reconstructed picture from the filtering units 120 and 150 and store the received reconstructed pictures.
  • the memories 125 and 155 may provide the reconstructed blocks or pictures to the predictors 110 and 140 that perform inter prediction.
  • Information output from the entropy coding unit 160 of layer 0 and information output from the entropy coding unit 130 of layer 1 may be multiplexed by the MUX 185 and output as a bitstream.
  • the encoding unit 105 of the layer 1 has been described as including the MUX 165.
  • the MUX is separate from the encoding unit 105 of the layer 1 and the encoding unit 135 of the layer 0. It may be a device or a module of.
  • FIG. 2 is a block diagram illustrating an example of interlayer prediction in an encoding apparatus that performs scalable coding according to the present invention.
  • the decoding apparatus 200 includes a decoder 210 of layer 1 and a decoder 250 of layer 0.
  • Layer 0 may be a base layer, a reference layer, or a lower layer
  • layer 1 may be an enhancement layer, a current layer, or an upper layer.
  • the decoding unit 210 of the layer 1 includes an entropy decoding unit 215, a reordering unit 220, an inverse quantization unit 225, an inverse transform unit 230, a prediction unit 235, a filtering unit 240, and a memory 245. ) May be included.
  • the decoding unit 250 of the layer 0 may include an entropy decoding unit 255, a reordering unit 260, an inverse quantization unit 265, an inverse transform unit 270, a filtering unit 280, and a memory 285. .
  • the DEMUX 205 may demultiplex the information for each layer and deliver the information to the decoding device for each layer.
  • the entropy decoding units 215 and 255 may perform entropy decoding corresponding to the entropy coding scheme used in the encoding apparatus. For example, when CABAC is used in the encoding apparatus, the entropy decoding units 215 and 255 may also perform entropy decoding using CABAC.
  • Information for generating a prediction block among the information decoded by the entropy decoding units 215 and 255 is provided to the prediction units 235 and 275, and a residual value of which entropy decoding is performed by the entropy decoding units 215 and 255. That is, the quantized transform coefficients may be input to the reordering units 220 and 260.
  • the reordering units 220 and 260 may rearrange the information of the bitstreams entropy decoded by the entropy decoding units 215 and 255, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.
  • the reordering units 220 and 260 may rearrange the quantized transform coefficients of the one-dimensional array into the coefficients of the two-dimensional array.
  • the reordering units 220 and 260 may generate a two-dimensional array of coefficients (quantized transform coefficients) by performing scanning based on the prediction mode applied to the current block (transform block) and / or the size of the transform block.
  • the inverse quantizers 225 and 265 may generate transform coefficients by performing inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
  • the inverse transform units 230 and 270 may perform inverse transform on the transform performed by the transform unit of the encoding apparatus.
  • the inverse transform units 230 and 270 may perform inverse DCT and / or inverse DST on a discrete cosine transform (DCT) and a discrete sine transform (DST) performed by an encoding apparatus.
  • DCT discrete cosine transform
  • DST discrete sine transform
  • the DCT and / or DST in the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size of a current block, and a prediction direction, and the inverse transformers 230 and 270 of the decoding apparatus may perform transform information performed in the encoding apparatus. Inverse transformation may be performed based on.
  • the inverse transform units 230 and 270 may apply inverse DCT and inverse DST according to a prediction mode / block size.
  • the inverse transformers 230 and 270 may apply an inverse DST to a 4x4 luma block to which intra prediction is applied.
  • the inverse transform units 230 and 270 may fixedly use a specific inverse transform method regardless of the prediction mode / block size.
  • the inverse transform units 330 and 370 may apply only inverse DST to all transform blocks.
  • the inverse transform units 330 and 370 may apply only inverse DCT to all transform blocks.
  • the inverse transformers 230 and 270 may generate a residual or residual block by inversely transforming the transform coefficients or the block of the transform coefficients.
  • the inverse transformers 230 and 270 may also skip the transformation as needed or in accordance with the manner encoded in the encoding apparatus. For example, the inverse transforms 230 and 270 may omit the transform for a block having a specific prediction method or a specific size or a block of a specific size to which a specific prediction block is applied.
  • the prediction units 235 and 275 may perform prediction on the current block based on prediction block generation related information transmitted from the entropy decoding units 215 and 255 and previously decoded blocks and / or picture information provided by the memories 245 and 285.
  • a prediction block can be generated.
  • the prediction units 235 and 275 may perform intra prediction on the current block based on pixel information in the current picture.
  • the prediction units 235 and 275 may perform information on the current block based on information included in at least one of a previous picture or a subsequent picture of the current picture. Inter prediction may be performed. Some or all of the motion information required for inter prediction may be derived from the information received from the encoding apparatus and correspondingly.
  • the prediction block may be a reconstruction block.
  • the prediction unit 235 of layer 1 may perform inter prediction or intra prediction using only information in layer 1, or may perform inter layer prediction using information of another layer (layer 0).
  • the predictor 235 of the layer 1 may perform prediction on the current block by using one of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1.
  • the prediction unit 235 of the layer 1 may perform prediction on the current block by using a plurality of pieces of information of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. have.
  • the predictor 235 of the layer 1 may receive motion information of the layer 1 from the predictor 275 of the layer 0 to perform motion prediction.
  • Inter-layer motion prediction is also called inter-layer inter prediction.
  • inter-layer motion prediction prediction of a current block of a current layer (enhanced layer) may be performed using motion information of a reference layer (base layer).
  • the prediction unit 335 may scale and use motion information of the reference layer when necessary.
  • the predictor 235 of the layer 1 may receive texture information of the layer 1 from the predictor 275 of the layer 0 to perform texture prediction.
  • Texture prediction is also called inter layer intra prediction or intra base layer (BL) prediction. Texture prediction may be applied when the reference block of the reference layer is reconstructed by intra prediction.
  • inter-layer intra prediction the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
  • the predictor 235 of the layer 1 may receive unit parameter information of the layer 1 from the predictor 275 of the layer 0 to perform unit parameter prediction.
  • unit parameter prediction unit (CU, PU, and / or TU) information of the base layer may be used as unit information of the enhancement layer, or unit information of the enhancement layer may be determined based on unit information of the base layer.
  • the predictor 235 of the layer 1 may receive parameter information regarding the filtering of the layer 1 from the predictor 275 of the layer 0 to perform parameter prediction.
  • parameter prediction the parameters used in the base layer can be derived and reused in the enhancement layer, or the parameters for the enhancement layer can be predicted based on the parameters used in the base layer.
  • the adders 290 and 295 may generate reconstruction blocks using the prediction blocks generated by the predictors 235 and 275 and the residual blocks generated by the inverse transformers 230 and 270.
  • the adders 290 and 295 can be viewed as separate units (restore block generation unit) for generating the reconstruction block.
  • Blocks and / or pictures reconstructed by the adders 290 and 295 may be provided to the filtering units 240 and 280.
  • the filtering unit 240 of the layer 1 filters the reconstructed picture by using parameter information transmitted from the predicting unit 235 of the layer 1 and / or the filtering unit 280 of the layer 0. You can also do
  • the filtering unit 240 may apply filtering to or between layers using the parameters predicted from the parameters of the filtering applied in the layer 0.
  • the memories 245 and 285 may store the reconstructed picture or block to use as a reference picture or reference block.
  • the memories 245 and 285 may output the stored reconstructed picture through a predetermined output unit (not shown) or a display (not shown).
  • the reordering unit, the inverse quantization unit, and the inverse transform unit have been described. However, as in the encoding apparatus of FIG. It can also be configured.
  • the prediction unit of layer 1 may be different from the interlayer prediction unit that performs prediction using information of another layer (layer 0). It may also be regarded as including an inter / intra predictor for performing prediction without using the information of).
  • inter-layer prediction for predicting information of a current layer using information of another layer may be performed.
  • inter-layer difference prediction is performed to predict the current block in the current layer by using a difference (difference image) between the reconstructed image of the current layer and the resampled image of another layer during interlayer prediction.
  • a reconstructed picture of the base layer is referred to as an R BL
  • an image obtained by upsampling an R BL according to the resolution of an enhancement layer is called a UR BL .
  • the reconstructed image of the enhancement layer is called R EL .
  • the reconstructed image may be an image before applying the in-loop filtering. Also, the reconstructed image may be an image after applying some of a deblocking filter, a sample adaptive offset filter, and / or an adaptive loop filter. Furthermore, the reconstructed image may be an image after applying all of the in-loop filters.
  • a difference image obtained by subtracting the value of UR BL from R EL is D
  • independent encoding / decoding may be performed in a domain of the D images.
  • This method is referred to herein as inter-layer differential picture coding or inter-layer differential mode (IL-Diff mode).
  • the inter-layer difference mode may be applied in a sequence unit, picture unit, slice unit, LCU (Largest CU) unit, coding unit (CU) unit, or prediction unit (PU) unit.
  • a flag indicating whether to use the interlayer differential mode may be transmitted from the encoding apparatus to the decoding apparatus.
  • coding (encoding / decoding) using other scalability may not be performed, but only a single layer coding (encoding / decoding) method may be used. In this case, bits for indicating whether to perform coding using other scalability can be saved.
  • the inter-layer difference mode may be performed by the predictors 110 and 235 of FIGS. 1 and 2.
  • FIG. 3 is a diagram schematically illustrating a method of performing intra prediction when an inter-layer difference mode is applied according to the present invention.
  • the current picture 300 of the enhancement layer includes a reconstruction area 305 and an unrestored area 310 before and after the current block 315.
  • the reconstructed image R EL can be obtained from the reconstructed region 305.
  • a reconstructed image R EL is performed.
  • the image UR BL 325 upsampled the reconstructed image R BL 320 of the base layer includes a block P BL 330 corresponding to the current block 315.
  • the prediction unit (the prediction unit of the encoding apparatus) may derive the difference D between the reconstructed image of the base layer and the reconstructed image of the enhancement layer as shown in Equation 1.
  • R EL may use an image in which an in-loop filter such as a deblocking filter, SAO, or ALF is not applied due to the existence of the region 310 that has not been reconstructed yet.
  • an in-loop filter such as a deblocking filter, SAO, or ALF
  • the R BL may be a reconstructed image in which the in-loop filter is applied, or may be a reconstructed image in which a part of the in-loop filter is applied.
  • the reconstructed image may be a state in which the loop filter is not applied.
  • the predictor performs intra prediction on the current block 355 in the differential image D 340 with reference to the pixel values of the reconstructed region 345 except for the unrestored region 350 in the differential image D 340. can do.
  • the prediction unit (the prediction unit of the decoding apparatus) may reconstruct the current block by using the block value P BL in the UR BL existing at the same position as the current block.
  • Equation 2 P D is a prediction block generated by performing intra prediction from the reconstructed region of the differential image D, and RES is a residual block.
  • the prediction unit When the inter-layer difference mode is applied, the prediction unit generates a differential image D R for a reference picture of the current picture to perform inter prediction on the current block. For example, the prediction unit generates a differential image D R of the reference picture of the current picture by using the reconstruction picture of the enhancement layer of the reference picture and the reconstruction picture of the base layer of the reference picture.
  • the prediction unit may generate the prediction block P D in the differential image domain of the current block based on the differential image D R of the reference picture.
  • the prediction unit may reconstruct the current block by using the prediction block as shown in Equation 3.
  • Equation 3 R EL is the current block reconstructed in the enhancement layer.
  • P BL is a block existing at the same position as the current block in the UR BL , and RES is a residual block.
  • the differential picture D R of the reference picture may be generated in advance and stored in a decoded picture buffer (DPB).
  • DPB decoded picture buffer
  • each time it generates a difference image D R is R EL of the reference picture may be calculated for a given block to the required position for the current block of the current block is reconstructed by the motion information.
  • inter prediction for the inter-layer difference mode a part or all of the in-loop filter, as well as the reconstructed image without the in-loop filter applied as a reference picture reconstructed in the enhancement layer when generating the differential image for the reference picture, are generated. It is also possible to use a reconstructed image of the state where the is applied.
  • the range of pixel values of the block to which the prediction is applied and the residual block is different from that of applying other prediction methods.
  • a prediction method other than the interlayer differential mode is expressed as a normal mode and assuming that the bit depth of the input image is 8, the pixel value range and the bit depth of the image block are assumed. It can be expressed as shown in Table 1 below.
  • the range of pixel values is 0 to 255. Accordingly, the range of pixel values of the difference image obtained through the subtraction operation between the reconstructed images is -255 to 255.
  • the signal of the prediction block to which intra and inter prediction are applied / applied is also an 8 bits signal.
  • the residual pixel value for the prediction block having a pixel value in the range of 0 to 255 is -255 to 255, and the residual signal becomes 9 bits, and the signal to be converted, that is, the pixel value of the residual block to be converted is also a 9 bit signal. .
  • a pixel value of a block to which intra and inter prediction are applied to the inter-layer difference mode that is, a prediction block of a differential image has a range of -255 to 255, and a required bit for processing one pixel value is 9 bits.
  • the pixel values of the residual block and the transform block for the differential image are extended to a larger range and range from -511 to 511, and the bits for processing the pixel values of the residual block and the transform block are used to process the prediction block. 10 bits, one more than the required bit.
  • bit depth of the input image input to the encoding apparatus is a
  • bit depth of the prediction block to which intra and inter prediction are applied and the reconstructed image is a
  • bit of the signal to which residual and transformation of the prediction block is to be performed is a.
  • the depth becomes a + 1.
  • the bit depth of the input image is a
  • the bit depth of the differential image formed as the difference value of the reconstructed image in order to perform prediction in the differential mode is a + 1
  • the residual and transformation of the differential image is performed.
  • the bit depth of may be a + 2.
  • the differential image for the reference picture is pre-generated and stored in a memory such as a DPB during inter prediction for the inter-layer differential image mode.
  • the range of pixel values of the reconstructed image is greater than or equal to 0 ((1 ⁇ (bit depth + bit depth increase)) -1) Will have a value less than or equal to
  • the reconstructed picture may include a reconstructed picture of the current picture and an upsampled picture of the reconstructed picture of the reference picture.
  • the increased bit depth refers to an increased number of bits than the bit depth of the input image when the extended range of pixel values of the input image is processed. This may be the case when the range of the pixel value may be extended for the purpose of improving the image quality. For example, when the bit depth of the input image is 8, the range of pixel values may be extended by increasing the bit depth of the input image by one or two specific bits.
  • bit depth of an input image + increased bit depth in consideration of a bit depth that may be changed in an image processing process is expressed as a bit depth n of a reconstructed image. If the bit depth of the input image is not increased in the image processing process, the bit depth of the input image is the same as the bit depth of the reconstructed image, and if the bit depth is increased in the image processing process, the bit depth of the reconstructed image is increased to the bit depth of the input image. It becomes the value which added bit depth.
  • bit depth of the reconstructed image is n
  • bit depth of the difference image formed by the difference between the reconstructed image for the enhancement layer of the reference picture and the reconstructed image for the base layer of the reference picture is n + 1.
  • the range of pixel values of the reconstructed image is 0 to 255
  • the range of pixel values of the differential image is -255 to 255, which is a 9-bit signal.
  • bit depth of the difference image is larger by 1 bit per pixel than the input image, an additional memory is required by 1 bit per pixel when storing the difference image than when storing the input image or the reconstructed image.
  • the residual of the residual image is a signal larger than 1 bit per pixel than the residual of the normal mode, the difference in bit depth between the processing of the residual of the differential image and the processing of the residual in the normal mode is different. Occurs.
  • the difference image is an image obtained by subtracting the reconstructed image of the up-sampled base layer from the reconstructed image of the enhancement layer
  • the distribution of pixel values may be different from that of the conventional image.
  • the pixel values of the reconstructed image are relatively evenly distributed in the range of 0 to 255, while the pixel values of the differential image may be distributed around 0.
  • the pixel value of the difference image is clipped in a predetermined range in consideration of the distribution form of the pixel value, the number of bits per pixel for storing the difference image can be reduced, and the size of the memory in the DPB can be saved.
  • the range of pixel values of the difference image may be clipped such that the bit depth of the pixel value of the difference image is equal to or smaller than the bit depth of the pixel value of the reconstructed image.
  • the bit depth of the residual of the difference image may be adjusted to be equal to the bit depth of the residual of the prediction block for which prediction is performed according to the normal mode.
  • the memory and the converter used in the single-layer image processing may be used in the inter-layer image processing without modification.
  • FIG. 4 is a diagram for describing clipping of a differential image, according to an exemplary embodiment.
  • the pixel values of the difference image are clipped so that the range of the pixel values of the difference image becomes the original half.
  • the bit depth of the pixel value of the differential image may be adjusted to be the same as the bit depth of the pixel value of the reconstructed image.
  • the reconstructed image may have a pixel value of 0 to 255 as shown in (a).
  • Each pixel of the reconstructed image may be represented by any one of a total of 256 pixel values.
  • the pixel value of the difference image composed of the difference value of the reconstructed image may be distributed in the range of -255 to 255.
  • Each pixel of the difference image may have any one of a total of 512 pixel values, and 9 bits are required to process pixel values of the difference image.
  • the pixel value in the range of -255 to -129 is clipped to -128 in the difference image, and similarly the pixel value in the range of 128 to 255 is clipped to 127. That is, in the difference image, the pixel value in the range of -255 to -129 is changed to -128, and the pixel value in the range of 128 to 255 is changed to 127.
  • the pixel value in the range of -255 to -129 of the difference image may be stored as -128, and the pixel value in the range of 128 to 255 may be stored as 127.
  • pixel values in the range of -128 to 127 may be stored without clipping.
  • the pixel value in the range of -255 to 255 to the pixel value in the range of -128 to 127 is -128, and the pixel value in the range of 128 to 255 is clipped to 127. .
  • the pixel value of the difference image is -128 to 127, and each pixel can have any one of 256 pixels. Therefore, the pixel of the difference image is processed as an 8-bit signal. Therefore, the difference image may be stored in the memory as an 8-bits signal per pixel like the reconstructed image.
  • (d) shows an example in which the range of pixel values of the difference image to be clipped differs from (c).
  • pixel values in the range of -255 to -128 are clipped to -127
  • pixel values in the range of 129 to 255 are clipped to 128 in the difference image.
  • the pixel value of the clipped differential image has a range of -127 to 128. Pixel values ranging from -127 to 128 can be processed or stored as 8-bit signals.
  • the clipping method according to FIGS. 4C and 4D is as follows.
  • the pixel range of the reconstructed image is greater than or equal to 0 and has a value less than or equal to ((1 ⁇ n)-1), and the pixel range of the difference image is-((1 ⁇ n)-1)
  • the range of pixel values of the difference image is-(1 ⁇ (n-1)) ⁇ ((1 ⁇ (n-1))-1) or Clip from-((1 ⁇ (n-1))-1) to (1 ⁇ (n-1)).
  • bit depth necessary for processing the pixel value of the differential image through clipping is adjusted to the bit depth of the pixel value of the reconstructed image.
  • FIG. 5 is a diagram for describing clipping of a difference image, according to another exemplary embodiment.
  • the pixel values of the difference image are clipped so that the range of the pixel values of the difference image becomes the original 1/4.
  • the bit depth of the pixel value of the difference image may be adjusted to be smaller than the bit depth of the pixel value of the reconstructed image.
  • the pixel value of the difference image composed of the difference values of the reconstructed images is distributed in the range of -255 to 255.
  • One embodiment of the present invention in order to change a pixel value in the range of -255 to 255 to a pixel value in the range of -64 to 63, -255 to-not belonging to the range of -64 to 63 Clip a pixel value in the range of 65 to -64 and a pixel value in the range of 64 to 255 that is not in the range of -64 to 63. That is, in the difference image, the pixel value in the range of -255 to -65 is changed to -64, and the pixel value in the range of 64 to 255 is changed to 63.
  • the pixel value in the range of -255 to -65 of the difference image may be stored as -64, and the pixel value in the range of 64 to 255 may be stored as 63.
  • the pixel value range of the difference image is -64 to 63, and each pixel can have any one of 128 pixels, so 7 bits are required to process the pixel of the clipped difference image.
  • the difference image may be stored in the memory as a signal having a bit depth less than the reconstructed image, that is, a 7it signal per pixel.
  • (c) shows that the range of pixel values of the difference image is clipped at -63 to 64.
  • pixel values in the range of -255 to -64 are clipped to -63
  • pixel values in the range of 65 to 255 are clipped to 64.
  • the pixel value of the clipped differential image may be processed or stored as a 7-bit signal as shown in (b).
  • the clipping method according to FIGS. 5B and 5C is summarized as follows.
  • the range of pixel values of the reconstructed image is greater than or equal to 0 and less than or equal to ((1 ⁇ n)-1), and the range of pixel values of the differential image is-((1 ⁇ n )-1) ⁇ ((1 ⁇ n)-1), the range of pixel values of the difference image is-((1 ⁇ (n-2))) ⁇ ((1 ⁇ (n-2) ))-1) or-((1 ⁇ (n-2))-1) to (1 ⁇ (n-2)).
  • the bit depth required to process the pixel value of the differential image can be adjusted to a value smaller than the bit depth of the pixel value of the reconstructed image. You can also reduce the size further.
  • a more generalized clipping method according to FIGS. 4 and 5 is as follows.
  • clipping bits refer to bit depths to be saved per pixel through clipping.
  • the clipping bit is 1 in the embodiment of FIG. 4 and the clipping bit in the embodiment described in FIG. 5.
  • the above-described clipping of the differential image is applied only when a differential image of the reference picture is obtained for inter prediction on the inter-layer difference mode, and the differential image of the reconstructed region of the current picture is selected for intra prediction on the inter-layer difference mode. It may not apply when seeking. Unlike the difference picture of the reference picture, the pixel value of the difference picture for the reconstructed area of the current picture is used only temporarily for the prediction applying the difference mode of the current picture. This is because there is little need.
  • FIG. 6 is a diagram for describing clipping of a differential image, according to another exemplary embodiment.
  • the reconstructed image may have a pixel value of 0 to 255.
  • the pixel values of the difference image composed of the difference values of the reconstructed images are distributed in the range of -255 to 255 as shown in (b).
  • a pixel value in the range of -255 to -129 can be clipped to -128, and a pixel value in the range of 128 to 255 can be clipped to 127.
  • the range of pixel values of the clipped difference image is -128 to 127.
  • the range of pixel values is shifted to the pixel value range of the reconstructed image by applying a preset offset to the pixel value of the clipped differential image. Pixel values in the range of -128 to 127 of the difference image are shifted to the range of 0 to 255, and pixel values of the difference image are stored to the shifted range of 0 to 255.
  • Pixel values of the difference image clipped in the range of -127 to 128 may also be shifted to the range of 0 to 255.
  • a pixel value of a difference image clipped in a range of -64 to 63 or -63 to 64 may be shifted to a range of 0 to 127.
  • FIG. 7 is a control flowchart illustrating a clipping method of a differential image according to the present invention.
  • the prediction unit of the encoding apparatus and the decoding apparatus obtains a difference between the reconstructed image of the enhancement layer of the reference picture and the image upsampled from the reconstructed image of the base layer of the reference picture, and generates a differential image of the reference picture (S701). ).
  • the predictor clips the pixel values of the difference image out of the clipping range into the clipping range so that the range of pixel values of the difference image becomes a preset clipping range (S702).
  • the pixel value of the difference image may be clipped such that the bit depth of the pixel value of the difference image is equal to or less than the bit depth of the pixel value of the reconstructed image.
  • the bit depth of the pixel value of the reconstructed image is n and the range of the pixel value of the differential image is-((1 ⁇ n)-1) to ((1 ⁇ n)-1), the pixel value of the differential image is clipped. It can be clipped in the range- (1 ⁇ (n-number of clipping bits)) to ((1 ⁇ (n-number of clipping bits))-1).
  • the number of clipping bits means the bit depth of the pixel value of the difference image to be reduced, and may be 1 or 2.
  • pixel values in the range of (1 ⁇ (n-number of clipping bits)) to ((1 ⁇ n)-1) of the difference image are ( Clipped to (1 ⁇ (n-number of clipping bits))-1).
  • the pixel value of the difference image may be clipped to the clipping range ⁇ ((1 ⁇ (n ⁇ number of clipping bits)) ⁇ 1) to (1 ⁇ (n ⁇ number of clipping bits)).
  • the pixel values in the range of-((1 ⁇ n)-1) to-(1 ⁇ (n-number of clipping bits)) of the difference image are-((1 ⁇ (n-number of clipping bits)) -1) is clipped to, and pixel values in the range of ((1 ⁇ (n-number of clipping bits)) + 1) to ((1 ⁇ n)-1) of the difference image are (1 ⁇ (n-clipping) Is clipped to)
  • the pixel value of the difference image may be shifted by adding a predetermined offset to the pixel value of the difference image which has been subjected to the clipping process.
  • the bit depth of the residual for the difference image is equal to or less than the bit depth of the residual for the prediction block on which the prediction is performed according to the normal mode.
  • a memory, a converter, and the like which are used when processing an image of a single layer, may be used for inter-layer image processing without additional modification.
  • the prediction unit performs inter prediction on the current picture using the clipped difference image (S703).
  • the prediction unit may generate a prediction block in the differential image domain of the current block based on the differential image of the reference picture.
  • the prediction unit may reconstruct the current block by adding a residual block and a reference block existing at the same position as the current block in the reconstructed image of the base layer to the prediction block generated in the differential image domain.
  • the pixel value of the clipped differential image may be stored in a memory such as a DPB.
  • the difference picture of the reference picture may be generated before the inter prediction and stored in a memory such as a DPB, and may be stored in a block specified as a position necessary for reconstruction of the current block by motion information of the current block. It may also be calculated for. That is, the difference image may be generated in picture units or, if necessary, in block units.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An inter-layer prediction method according to the present invention comprises the steps of: generating a differential image for a reference picture by acquiring a difference between a reconstructed image for an enhancement layer of the reference picture to which a current picture refers, and an upsampled image of a reconstructed image for a base layer of the reference picture; clipping, to a clipping range, a pixel value of the differential image that is outside the clipping range, such that the pixel value of the differential image is within a preset clipping range; and inter-predicting the current picture using the clipped differential image. As a result, the present invention provides the method for predicting the interlayer which can reduce storage capacity by storing the image on the basis of the increased bit depth and the apparatus using the same.

Description

인터 레이어 예측 방법 및 이를 이용하는 장치Interlayer prediction method and apparatus using same
본 발명은 비디오 압축 기술에 관한 것으로서 더 구체적으로는 스케일러블 비디오 코딩에서 영상 정보를 저장하는 방법 및 장치에 관한 것이다.TECHNICAL FIELD The present invention relates to video compression technology, and more particularly, to a method and apparatus for storing image information in scalable video coding.
최근 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 영상이 고해상도를 가지고 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가하고 있다. Recently, the demand for high resolution and high quality images is increasing in various applications. As an image has a high resolution and high quality, the amount of information on the image also increases.
정보량의 증가로 인해 다양한 성능의 장치와 다양한 환경의 네트워크가 등장하고 있다. 다양한 성능의 장치와 다양한 환경의 네트워크가 등장함에 따라서, 동일한 콘텐츠를 다양한 품질로 이용할 수 있게 되었다.As information volume increases, devices with various performances and networks with various environments are emerging. With the emergence of devices of varying performance and networks of different environments, the same content is available in different qualities.
구체적으로, 단말 장치가 지원할 수 있는 품질의 영상이 다양해지고, 구축된 네트워크 환경이 다양해짐으로써, 어떤 환경에서는 일반적인 품질의 영상을 이용하지만, 또 다른 환경에서는 더 높은 품질의 영상을 이용할 수 있게 된다.In detail, as the video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .
예를 들어, 휴대 단말에서 비디오 콘텐츠를 구매한 소비자가 가정 내 대화면의 디스플레이를 통해 동일한 비디오 콘텐츠를 더 큰 화면과 더 높은 해상도로 감상할 수 있게 되는 것이다.For example, a consumer who purchases video content on a mobile terminal can view the same video content on a larger screen and at a higher resolution through a large display in the home.
최근에는 HD(High Definition) 해상도를 가지는 방송이 서비스되면서 많은 사용자들은 이미 고해상도, 고화질의 영상에 익숙해지고 있고, 서비스 제공자와 사용자들은 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)의 서비스에도 관심을 기울이고 있다.In recent years, broadcasts having a high definition (HD) resolution are being serviced, and many users are already accustomed to high resolution and high definition video.Ultra High Definition (UHD) has more than four times the resolution of an HDTV. I am also interested in the services of the company.
따라서, 다양한 환경에서 사용자가 요구하는 영상 서비스를 품질에 따라서 다양하게 제공하기 위해 고용량 비디오에 대한 고효율의 인코딩/디코딩 방법을 기반으로 영상의 품질, 예컨대 영상의 화질, 영상의 해상도, 영상의 크기, 비디오의 프레임 레이트 등에 스케일러빌러티를 제공하는 것이 필요하다. 또한, 이러한 스케일러빌러티에 수반되는 다양한 영상 처리 방법이 논의되어야 한다.Therefore, in order to provide various video services required by users in various environments according to the quality, based on a high-efficiency encoding / decoding method for high-capacity video, the quality of the image, for example, the image quality, the resolution of the image, the size of the image, It is necessary to provide scalability in the frame rate of video and the like. In addition, various image processing methods associated with such scalability should be discussed.
본 발명의 일 실시예는 차분 영상에 대한 정보를 클리핑 하는 인터 레이어 예측 방법 및 이를 이용하는 장치를 제공한다. An embodiment of the present invention provides an interlayer prediction method for clipping information on a differential image, and an apparatus using the same.
또한, 본 발명의 일 실시예는 증가된 비트 뎁스를 고려하여 영상을 저장함으로써 저장 용량을 감소시킬 수 있는 인터 레이어 예측 방법 및 이를 이용하는 장치를 제공한다.In addition, an embodiment of the present invention provides an interlayer prediction method and an apparatus using the same, which can reduce storage capacity by storing an image in consideration of an increased bit depth.
또한, 본 발명의 일 실시예는 차분 영상의 픽셀값을 클리핑함으로써 레지듀얼의 비트 뎁스의 변화 없이 인터 레이어 예측을 수행할 수 있는 예측 방법 및 이를 이용하는 장치를 제공한다.In addition, an embodiment of the present invention provides a prediction method and an apparatus using the same that can perform inter-layer prediction without changing the bit depth of the residual by clipping the pixel value of the differential image.
본 발명의 일 실시형태는 현재 픽처가 참조하는 참조 픽처의 인핸스먼트 레이어에 대한 복원 영상과 상기 참조 픽처의 베이스 레이어에 대한 복원 영상을 업샘플링 한 영상의 차이를 구하여 상기 참조 픽처에 대한 차분 영상을 생성하는 단계와, 상기 차분 영상의 픽셀값의 범위가 기설정된 클리핑 범위가 되도록 상기 클리핑 범위를 벗어나는 상기 차분 영상의 픽셀값을 상기 클리핑 범위로 클리핑하는 단계와, 상기 클리핑된 차분 영상을 이용하여 상기 현재 픽처의 인터 예측을 수행하는 단계를 포함할 수 있다.An embodiment of the present invention obtains a difference between a reconstructed picture of an enhancement layer of a reference picture referenced by a current picture and an image upsampled from a reconstructed picture of a base layer of the reference picture, and obtains a difference picture of the reference picture. Generating a pixel value of the difference image out of the clipping range to the clipping range such that the range of pixel values of the difference image is a preset clipping range; and using the clipped difference image And performing inter prediction of the current picture.
상기 클리핑된 차분 영상의 픽셀값의 비트 뎁스는 상기 인핸스먼트 레이어에 대한 상기 복원 영상의 픽셀값의 비트 뎁스 이하일 수 있다. The bit depth of the pixel value of the clipped differential image may be equal to or less than the bit depth of the pixel value of the reconstructed image with respect to the enhancement layer.
상기 복원 영상의 픽셀값의 비트 뎁스가 n이고, 상기 차분 영상의 픽셀값의 범위가 -( (1<< n ) - 1 ) ~ ( (1<< n) - 1 )이면, 상기 클리핑하는 단계는 상기 차분 영상의 픽셀값의 범위가 -(1<<( n - 클리핑 비트수 ) ) ~ ( (1<<( n - 클리핑 비트수 ) ) - 1 )가 되도록 픽셀값을 클리핑하고, 상기 클리핑 비트수는 감소시키고자 하는 상기 차분 영상의 픽셀값의 비트 뎁스일 수 있다.If the bit depth of the pixel value of the reconstructed image is n and the range of the pixel value of the difference image is-((1 << n)-1) to ((1 << n)-1), the step of clipping Clip a pixel value such that a range of pixel values of the difference image is-(1 << (n-number of clipping bits)) to ((1 << (n-number of clipping bits))-1), and the clipping The number of bits may be a bit depth of pixel values of the difference image to be reduced.
상기 클리핑하는 단계는, 상기 차분 영상의 -( (1<< n ) - 1 ) ~ - ( ( 1<<( n - 클리핑 비트수 ) ) + 1) 범위의 픽셀값을 -(1<<( n - 클리핑 비트수 ) )으로 클리핑하고, 상기 차분 영상의 (1<<( n - 클리핑 비트수 ) ) ~ ( (1<< n) - 1 )범위의 픽셀값을 ( (1<<( n - 클리핑 비트수 ) ) - 1 )으로 클리핑할 수 있다. The clipping may include pixel values ranging from-((1 << n)-1) to-((1 << (n-number of clipping bits)) + 1) of the difference image to-(1 << ( n-the number of clipping bits)) and the pixel values in the range of (1 << (n-number of clipping bits)) to ((1 << n)-1) of the difference image ((1 << (n -Clipping Bits))-1)
클리핑된 상기 차분 영상의 픽셀값의 범위가 0 ~ ( (1<< (n - 클리핑 비트수 + 1)) - 1 )로 시프트 되도록 상기 차분 영상의 픽셀값에 기설정된 오프셋을 더하는 단계를 더 포함할 수 있다. Adding a preset offset to the pixel value of the difference image such that the range of the pixel value of the clipped difference image is shifted from 0 to ((1 << (n-number of clipping bits + 1))-1). can do.
상기 복원 영상의 픽셀값의 비트 뎁스가 n이고, 상기 차분 영상의 픽셀값의 범위가 -( (1<< n ) - 1 ) ~ ( (1<< n) - 1 )이면, 상기 클리핑하는 단계는 상기 차분 영상의 픽셀값의 범위가 - ( (1<<( n - 클리핑 비트수 ) ) -1 ) ~ (1<<( n - 클리핑 비트수 ) ) 가 되도록 픽셀값을 클리핑할 수 있다. If the bit depth of the pixel value of the reconstructed image is n and the range of the pixel value of the difference image is-((1 << n)-1) to ((1 << n)-1), the step of clipping May clip the pixel value such that the range of the pixel value of the difference image is-((1 << (n-number of clipping bits)) -1) to (1 << (n-number of clipping bits)).
상기 클리핑하는 단계는, 상기 차분 영상의 -( (1<< n ) - 1 ) ~ - ( 1<<( n - 클리핑 비트수 ) ) 범위의 픽셀값을 - ( (1<<( n - 클리핑 비트수 ) ) -1 )으로 클리핑하고, 상기 차분 영상의 ( (1<<( n - 클리핑 비트수 ) ) + 1) ~ ( (1<< n) - 1 )범위의 픽셀값을 (1<<( n - 클리핑 비트수 ) )으로 클리핑할 수 있다. The clipping may include pixel values in the range of-((1 << n)-1) to-(1 << (n-number of clipping bits)) of the difference image-((1 << (n-clipping) Number of bits)) -1), and pixel values in the range of ((1 << (n-number of clipping bits)) + 1) to ((1 << n)-1) of the difference image (1 < You can clip with <(n-number of clipping bits).
클리핑된 상기 차분 영상의 픽셀값의 범위가 0 ~ ( (1<< (n - 클리핑 비트수 + 1)) - 1 )로 시프트 되도록 상기 차분 영상의 픽셀값에 기설정된 오프셋을 더하는 단계를 더 포함할 수 있다. Adding a preset offset to the pixel value of the difference image such that the range of the pixel value of the clipped difference image is shifted from 0 to ((1 << (n-number of clipping bits + 1))-1). can do.
클리핑된 상기 차분 영상을 저장하는 단계를 더 포함할 수 있다. The method may further include storing the clipped difference image.
본 발명의 일 실시예에 따르면 차분 영상에 대한 정보를 클리핑 하는 인터 레이어 예측 방법 및 이를 이용하는 장치가 제공된다. According to an embodiment of the present invention, an interlayer prediction method for clipping information on a differential image and an apparatus using the same are provided.
또한, 본 발명의 일 실시예에 따르면 증가된 비트 뎁스를 고려하여 영상을 저장함으로써 저장 용량을 감소시킬 수 있는 인터 레이어 예측 방법 및 이를 이용하는 장치를 제공한다. According to an embodiment of the present invention, there is provided an interlayer prediction method capable of reducing storage capacity by storing an image in consideration of an increased bit depth, and an apparatus using the same.
또한, 본 발명의 일 실시예에 따르면 차분 영상의 픽셀값을 클리핑함으로써 레지듀얼의 비트 뎁스의 변화 없이 인터 레이어 예측을 수행할 수 있는 예측 방법 및 이를 이용하는 장치가 제공된다.According to an embodiment of the present invention, there is provided a prediction method and an apparatus using the same that can perform interlayer prediction without changing the bit depth of the residual by clipping the pixel value of the differential image.
도 1은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 인코딩 장치를 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 디코딩 장치를 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
도 3은 본 발명에 따라서 인터 레이어 차분 모드를 적용하는 경우에, 인트라 예측을 수행하는 방법을 개략적으로 설명하는 도면이다.3 is a diagram schematically illustrating a method of performing intra prediction when an inter-layer difference mode is applied according to the present invention.
도 4는 본 발명의 일 실시예에 따른 차분 영상의 클리핑을 설명하기 위한 도면이다.4 is a diagram for describing clipping of a differential image, according to an exemplary embodiment.
도 5는 발명의 다른 실시예에 따른 차분 영상의 클리핑을 설명하기 위한 도면이다.5 is a diagram for describing clipping of a difference image, according to another exemplary embodiment.
도 6은 본 발명의 또 다른 실시예에 따른 차분 영상의 클리핑을 설명하기 위한 도면이다.6 is a diagram for describing clipping of a differential image, according to another exemplary embodiment.
도 7은 본 발명에 따른 차분 영상의 클리핑 방법을 설명하기 위한 제어 흐름도이다.7 is a control flowchart illustrating a clipping method of a differential image according to the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the invention to the specific embodiments. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the spirit of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 비디오 인코딩 장치/디코딩 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.On the other hand, each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented. For example, two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations. Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and redundant description of the same components is omitted.
스케일러빌러티를 지원하는 비디오 코딩 방법(이하, ‘스케일러블 코딩’이라 함)에서는 입력 신호들을 레이어 별로 처리할 수 있다. 레이어에 따라서 입력 신호(입력 영상)들은 해상도(resolution), 프레임 레이트(frame rate), 비트 뎁스(bit-depth), 컬러 포맷(color format), 애스팩트 율(aspect ratio) 중 적어도 하나가 상이할 수 있다.In a video coding method supporting scalability (hereinafter, referred to as 'scalable coding'), input signals may be processed for each layer. Depending on the layer, the input signals (input images) may differ in at least one of resolution, frame rate, bit-depth, color format, and aspect ratio. Can be.
본 명세서에서, 스케일러블 코딩이라 함은 스케일러블 인코딩과 스케일러블 디코딩을 포함한다.In the present specification, scalable coding includes scalable encoding and scalable decoding.
스케일러블 인코딩/디코딩에서는 레이어 간의 차이를 이용하여, 즉 스케일러빌러티에 기반하여, 레이어 간의 예측을 수행함으로써 정보의 중복 전송/처리를 줄이고 압축 효율을 높일 수 있다.In scalable encoding / decoding, prediction between layers is performed by using differences between layers, that is, based on scalability, thereby reducing overlapping transmission / processing of information and increasing compression efficiency.
도 1은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 인코딩 장치를 개략적으로 도시한 블록도이다.  1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
도 1을 참조하면, 인코딩 장치(100)는 레이어 1에 대한 인코딩부(105)와 레이어 0에 대한 인코딩부(135)를 포함한다. Referring to FIG. 1, the encoding apparatus 100 includes an encoder 105 for layer 1 and an encoder 135 for layer 0.
레이어 0은 베이스 레이어, 참조 레이어 혹은 하위 레이어일 수 있으며, 레이어 1은 인핸스먼트 레이어, 현재 레이어 혹은 상위 레이어일 수 있다. Layer 0 may be a base layer, a reference layer, or a lower layer, and layer 1 may be an enhancement layer, a current layer, or an upper layer.
레이어 1의 인코딩부(105)는 예측부(110), 변환/양자화부(115), 필터링부(120), 메모리(125), 엔트로피 코딩부(130), 및 MUX(Multiplexer, 165)를 포함한다.The encoding unit 105 of the layer 1 includes a prediction unit 110, a transform / quantization unit 115, a filtering unit 120, a memory 125, an entropy coding unit 130, and a MUX (Multiplexer, 165). do.
레이어 0의 인코딩부(135)는 예측부(140), 변환/양자화부(145), 필터링부(150), 메모리(155) 및 엔트로피 코딩부(160)를 포함한다.The encoding unit 135 of the layer 0 includes a prediction unit 140, a transform / quantization unit 145, a filtering unit 150, a memory 155, and an entropy coding unit 160.
예측부(110, 140)는 입력된 영상에 대하여 인터 예측과 인트라 예측을 수행할 수 있다. 예측부(110, 140)는 소정의 처리 단위로 예측을 수행할 수 있다. 예측의 수행 단위는 코딩 유닛(Coding Unit: CU)일 수도 있고, 예측 유닛(Prediction Unit: PU)일 수도 있으며, 변환 유닛(Transform Unit: TU)일 수도 있다. The prediction units 110 and 140 may perform inter prediction and intra prediction on the input image. The prediction units 110 and 140 may perform prediction in predetermined processing units. The performing unit of prediction may be a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
예컨대, 예측부(110, 140)는 CU 단위로 인터 예측을 적용할 것인지 인트라 예측을 적용할 것인지를 결정하고, PU 단위로 예측의 모드를 결정하며, PU 단위 혹은 TU 단위로 예측을 수행할 수도 있다. 수행되는 예측은 예측 블록의 생성과 레지듀얼 블록(레지듀얼 신호)의 생성을 포함한다.For example, the prediction units 110 and 140 may determine whether to apply inter prediction or intra prediction in a CU unit, determine a mode of prediction in a PU unit, and perform prediction in a PU unit or a TU unit. have. Prediction performed includes generation of a prediction block and generation of a residual block (residual signal).
인터 예측을 통해서는 현재 픽처의 이전 픽처 및/또는 이후 픽처 중 적어도 하나의 픽처의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 인트라 예측을 통해서는 현재 픽처 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다.Through inter prediction, a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture. Through intra prediction, prediction blocks may be generated by performing prediction based on pixel information in a current picture.
인터 예측의 모드 또는 방법으로서, 스킵(skip) 모드, 머지(merge) 모드, MVP(Motion Vector Predictor) 모드 방법 등이 있다. 인터 예측에서는 예측 대상인 현재 PU에 대하여 참조 픽처를 선택하고, 참조 픽처 내에서 현재 PU에 대응하는 참조 블록을 선택할 수 있다. 예측부(110)는 참조 블록을 기반으로 예측 블록을 생성할 수 있다.As a mode or method of inter prediction, there are a skip mode, a merge mode, a motion vector predictor (MVP) mode method, and the like. In inter prediction, a reference picture may be selected with respect to the current PU that is a prediction target, and a reference block corresponding to the current PU may be selected within the reference picture. The prediction unit 110 may generate a prediction block based on the reference block.
예측 블록은 정수 샘플 단위로 생성될 수도 있고, 정수 이하 픽셀 단위로 생성될 수도 있다. 이때, 움직임 벡터 역시 정수 픽셀 단위 혹은 정수 픽셀 이하의 단위로 표현될 수 있다.The prediction block may be generated in integer sample units or may be generated in integer or less pixel units. In this case, the motion vector may also be expressed in units of integer pixels or units of integer pixels or less.
인터 예측에 있어서 움직임 정보 즉, 참조 픽처의 인덱스, 움직임 벡터, 레지듀얼 신호 등의 정보는 엔트로피 인코딩되어 디코딩 장치에 전달된다. 스킵 모드가 적용되는 경우에는 레지듀얼을 생성, 변환, 양자화, 전송하지 않을 수 있다.In inter prediction, motion information, that is, information such as an index of a reference picture, a motion vector, and a residual signal, is entropy encoded and transmitted to a decoding apparatus. When the skip mode is applied, residuals may not be generated, transformed, quantized, or transmitted.
인트라 예측에서 예측 모드는 33개의 방향성 예측 모드와 적어도 두 개 이상의 비방향성 모드를 가질 수 있다. 비향성성 모드는 DC 예측 모드 및 플래이너 모드(Planar 모드)을 포함할 수 있다. 인트라 예측에서는 참조 샘플에 필터를 적용한 후 예측 블록을 생성할 수도 있다.In intra prediction, the prediction mode may have 33 directional prediction modes and at least two non-directional modes. The non-directional mode may include a DC prediction mode and a planner mode (Planar mode). In intra prediction, a prediction block may be generated after applying a filter to a reference sample.
PU는 다양한 사이즈/형태의 블록일 수 있으며, 예컨대 인터 예측의 경우에 PU는 2N×2N 블록, 2N×N 블록, N×2N 블록, 또는 N×N 블록 (N은 정수) 등일 수 있다. 인트라 예측의 경우에 PU는 2N×2N 블록 또는 N×N 블록 (N은 정수) 등일 수 있다. 이때, N×N 블록 크기의 PU는 특정한 경우에만 적용하도록 설정할 수 있다. 예컨대 최소 크기 CU에 대해서만 NxN 블록 크기의 PU를 이용하도록 정하거나 인트라 예측에 대해서만 이용하도록 정할 수도 있다. 또한, 상술한 크기의 PU 외에, N×mN 블록, mN×N 블록, 2N×mN 블록 또는 mN×2N 블록 (m<1) 등의 PU를 더 정의하여 사용할 수도 있다.The PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N × 2N block, a 2N × N block, an N × 2N block, an N × N block (N is an integer), or the like. In the case of intra prediction, the PU may be a 2N × 2N block or an N × N block (where N is an integer). In this case, the PU of the N × N block size may be set to apply only in a specific case. For example, the NxN block size PU may be used only for the minimum size CU or only for intra prediction. In addition to the above-described PUs, PUs such as N × mN blocks, mN × N blocks, 2N × mN blocks, or mN × 2N blocks (m <1) may be further defined and used.
또한, 예측부(110, 140)는 레이어 0의 정보를 이용하여 레이어 1에 대한 예측을 수행할 수 있다. 본 명세서에서는 다른 레이어의 정보를 이용하여 현재 레이어의 정보를 예측하는 방법을, 설명의 편의를 위해, 인터 레이어 예측이라고 한다.In addition, the prediction units 110 and 140 may perform prediction on the layer 1 by using the information of the layer 0. In the present specification, a method of predicting information of a current layer using information of another layer is referred to as inter-layer prediction for convenience of description.
다른 레이어의 정보를 이용하여 예측되는 (즉, 인터 레이어 예측에 의해 예측되는) 현재 레이어의 정보로는 텍스처, 움직임 정보, 유닛 정보, 소정의 파라미터(예컨대, 필터링 파라미터 등) 등이 있을 수 있다.Information of the current layer that is predicted using information of another layer (ie, predicted by inter-layer prediction) may include texture, motion information, unit information, predetermined parameters (eg, filtering parameters, etc.).
또한, 현재 레이어에 대한 예측에 이용되는 (즉, 인터 레이어 예측에 이용되는) 다른 레이어의 정보로는 텍스처, 움직임 정보, 유닛 정보, 소정의 파라미터(예컨대, 필터링 파라미터 등)이 있을 수 있다.In addition, information of another layer used for prediction for the current layer (ie, used for inter-layer prediction) may include texture, motion information, unit information, and predetermined parameters (eg, filtering parameters).
인터 레이어 예측의 일 예로서, 인터 레이어 움직임 예측은 인터 레이어 인터 예측이라고도 한다. 인터 레이어 인터 예측에 의하면, 레이어 0 (참조 레이어 혹은 베이스 레이어)의 움직임 정보를 이용하여 레이어 1 (현재 레이어 혹은 인핸스먼트 레이어)의 현재 블록에 대한 예측을 수행할 수 있다.As an example of inter-layer prediction, inter-layer motion prediction is also referred to as inter-layer inter prediction. According to inter-layer inter prediction, prediction of a current block of layer 1 (current layer or enhancement layer) may be performed using motion information of layer 0 (reference layer or base layer).
인터 레이어 인터 예측을 적용하는 경우에는, 참조 레이어의 움직임 정보를 스케일링 할 수도 있다. In case of applying inter-layer inter prediction, motion information of a reference layer may be scaled.
인터 레이어 예측의 또 다른 예로서 인터 레이어 텍스쳐 예측은 인터 레이어 인트라 예측 혹은 인트라 BL(Base Layer) 예측이라고도 불린다. 인터 레이어 텍스처 예측은 참조 레이어 내 참조 블록이 인트라 예측에 의해 복원된 경우에 적용될 수 있다.As another example of inter-layer prediction, inter-layer texture prediction is also called inter-layer intra prediction or intra base layer (BL) prediction. Inter layer texture prediction may be applied when a reference block in a reference layer is reconstructed by intra prediction.
인터 레이어 인트라 예측에서는 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 참조 블록의 텍스처는 업샘플링에 의해 스케일링될 수 있다.In inter-layer intra prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
인터 레이어 예측의 다른 예인 인터 레이어 유닛 파라미터 예측에서는 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보를 유도하여 인핸스먼트 레이어의 유닛 정보로 사용하거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보를 결정할 수 있다.In another example of inter-layer prediction, inter-layer unit parameter prediction derives unit (CU, PU, and / or TU) information of a base layer and uses it as unit information of an enhancement layer, or based on unit information of a base layer. Unit information may be determined.
또한, 유닛 정보는 각 유닛 레벨에서의 정보를 포함할 수 있다. 예컨대, CU 정보의 경우, 파티션(CU, PU 및 또는 TU)에 관한 정보, 변환에 관한 정보, 예측에 대한 정보, 코딩에 대한 정보를 포함할 수 있다. PU 정보의 경우, PU 파티션에 관한 정보, 예측에 관한 정보(예컨대, 움직임 정보, 예측 모드에 관한 정보 등) 등을 포함할 수 있다. TU에 관한 정보는 TU 파티션에 관한 정보, 변환에 관한 정보(변환 계수, 변환 방법 등) 등을 포함할 수 있다.In addition, the unit information may include information at each unit level. For example, in the case of CU information, information about a partition (CU, PU and / or TU) may include information on transform, information on prediction, and information on coding. In the case of PU information, information on a PU partition and information on prediction (eg, motion information, information on a prediction mode, etc.) may be included. The information about the TU may include information about a TU partition, information on transform (transform coefficient, transform method, etc.).
또한, 유닛 정보는 처리 단위(예컨대, CU, PU, TU 등)의 분할 정보만을 포함할 수도 있다.In addition, the unit information may include only the partition information of the processing unit (eg, CU, PU, TU, etc.).
인터 레이어 예측의 또 다른 예인 인터 레이어 파라미터 예측에서는 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하도록 하거나 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.In another example of inter-layer prediction, inter-layer parameter prediction may derive a parameter used in the base layer to reuse it in the enhancement layer or predict a parameter for the enhancement layer based on the parameter used in the base layer.
여기서는 인터 레이어 예측의 예로서, 인터 레이어 텍스처 예측, 인터 레이어 움직임 예측, 인터 레이어 유닛 정보 예측, 인터 레이어 파라미터 예측을 설명하였으나, 본 발명에서 적용할 수 있는 인터 레이어 예측은 이에 한정되지 않는다.As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.
예컨대, 예측부는 인터 레이어 예측으로서 다른 레이어의 레지듀얼 정보를 이용하여 현재 레이어의 레지듀얼을 예측하고 이를 기반으로 현재 레이어 내 현재 블록에 대한 예측을 수행하는 인터 레이어 레지듀얼 예측을 이용할 수도 있다.For example, the prediction unit may use inter-layer residual prediction, which predicts the residual of the current layer using residual information of another layer as inter-layer prediction, and performs prediction on the current block in the current layer based on the residual layer.
또한, 예측부는 인터 레이어 예측으로서 현재 레이어의 복원 픽처와 다른 레이어의 복원 픽처를 업샘플링 혹은 다운샘플링한 영상 간의 차분(차분 영상)을 이용하여 현재 레이어 내 현재 블록에 대한 예측을 수행하는 인터 레이어 차분 예측을 수행할 수도 있다.In addition, the prediction unit may use inter-layer prediction as inter-layer prediction to perform prediction on the current block in the current layer by using a difference (difference image) between the reconstructed picture of the current layer and the resampled picture of another layer. You can also make predictions.
또한, 예측부는 인터 레이어 예측으로, 다른 레이어의 신택스 정보를 이용하여 현재 블록의 텍스처를 예측하거나 생성하는 인터 레이어 신택스 예측을 이용할 수도 있다. 이때, 현재 블록의 예측에 이용하는 참조 레이어의 신택스 정보는 인트라 예측 모드에 관한 정보, 움직임 정보 등일 수 있다.In addition, the prediction unit may use interlayer syntax prediction, which is used to predict or generate a texture of a current block using syntax information of another layer as interlayer prediction. In this case, the syntax information of the reference layer used for prediction of the current block may be information about an intra prediction mode, motion information, and the like.
이 때, 참조 레이어에서 인트라 예측 모드가 적용된 블록(intra)으로부터는 인트라 예측 모드를 참조하고, 인터 예측 모드가 적용된 블록(MV)으로부터는 움직임 정보를 참조하여 인터 레이어 신택스 예측을 수행할 수 있다.In this case, inter-layer syntax prediction may be performed by referring to the intra prediction mode from a block to which the intra prediction mode is applied in the reference layer and referring to motion information from the block MV to which the inter prediction mode is applied.
예를 들면, 참조 레이어가 P 슬라이스나 B 슬라이스이지만, 슬라이스 내에 참조 블록은 인트라 예측 모드가 적용된 블록일 수 있다. 이런 경우 인터 레이어 신택스 예측을 적용하면, 참조 레이어의 신택스 정보 중 참조 블록의 인트라 예측 모드를 이용하여 현재 블록에 대한 텍스처를 생성/ 예측하는 인터 레이어 예측을 수행할 수 있다.For example, although the reference layer is a P slice or a B slice, the reference block in the slice may be a block to which an intra prediction mode is applied. In this case, when inter-layer syntax prediction is applied, inter-layer prediction may be performed to generate / predict a texture for the current block by using an intra prediction mode of the reference block among syntax information of the reference layer.
변환/양자화부(115, 145)는 변환 블록 단위로 레지듀얼 블록에 대한 변환을 수행하여 변환 계수를 생성하고, 변환 계수를 양자화 할 수 있다. The transform / quantization units 115 and 145 may perform transform on the residual block in transform block units to generate transform coefficients and quantize the transform coefficients.
변환 블록은 샘플들의 사각형 블록으로서 동일한 변환이 적용되는 블록이다. 변환 블록은 변환 유닛(TU)일 수 있으며, 쿼드 트리(quad tree) 구조를 가질 수 있다. The transform block is a block of samples and is a block to which the same transform is applied. The transform block can be a transform unit (TU) and can have a quad tree structure.
변환/양자화부(115, 145)는 레지듀얼 블록에 적용된 예측 모드와 블록의 크기에 따라서 변환을 수행해서 변환 계수들의 2차원 어레이를 생성할 수 있다. 예컨대, 레지듀얼 블록에 인트라 예측이 적용되었고 블록이 4x4의 레지듀얼 배열이라면, 레지듀얼 블록을 DST(Discrete Sine Transform)를 이용하여 변환하고, 그 외의 경우라면 레지듀얼 블록을 DCT(Discrete Cosine Transform)를 이용하여 변환할 수 있다. The transform / quantization units 115 and 145 may generate a 2D array of transform coefficients by performing transform according to the prediction mode applied to the residual block and the size of the block. For example, if intra prediction is applied to a residual block and the block is a 4x4 residual array, the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
변환/양자화부(115, 145)는 변환 계수들을 양자화하여 양자화된 변환 계수를 생성할 수 있다. The transform / quantization unit 115 and 145 may quantize the transform coefficients to generate quantized transform coefficients.
변환/양자화부(115, 145)는 양자화된 변환 계수를 엔트로피 코딩부(130, 180)로 전달할 수 있다. 이때, 변환/양자화부(145)는 양자화된 변환 계수의 2차원 어레이를 소정의 스캔 순서에 따라 1차원 어레이로 재정렬하여 엔트로피 코딩부(130, 180)로 전달할 수도 있다. 또한, 변환/양자화부(115, 145)는 인터 예측을 위해, 레지듀얼과 예측 블록을 기반으로 생성된 복원 블록을 변환/양자화하지 않고, 필터링부(120, 150)에 전달할 수 있다. The transform / quantization units 115 and 145 may transfer the quantized transform coefficients to the entropy coding units 130 and 180. In this case, the transform / quantization unit 145 may rearrange the two-dimensional array of quantized transform coefficients into one-dimensional arrays according to a predetermined scan order and transfer them to the entropy coding units 130 and 180. In addition, the transform / quantizers 115 and 145 may transfer the reconstructed block generated based on the residual and the predictive block to the filtering units 120 and 150 for inter prediction.
한편, 변환/양자화부(115, 145)는 필요에 따라서, 변환을 생략(skip)하고 양자화만 수행하거나 변환과 양자화를 모두 생략할 수도 있다. 예컨대, 변환/양자화부(115, 165)는 특정한 예측 방법이 적용되거나 특정 크기를 갖는 블록, 혹은 특정 예측 블록이 적용된 특정한 크기의 블록에 대하여 변환을 생략할 수도 있다.Meanwhile, the transform / quantization units 115 and 145 may skip transform and perform quantization only or omit both transform and quantization as necessary. For example, the transform / quantization unit 115 or 165 may omit the transform for a block having a specific prediction method or a specific size block, or a block of a specific size to which a specific prediction block is applied.
엔트로피 코딩부(130, 160)는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩에는 예를 들어, 지수 골롬(Exponential Golomb), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 인코딩 방법을 사용할 수 있다. The entropy coding units 130 and 160 may perform entropy encoding on the quantized transform coefficients. Entropy encoding may use, for example, an encoding method such as Exponential Golomb, Context-Adaptive Binary Arithmetic Coding (CABAC), or the like.
필터링부(120, 150)는 디블록킹 필터, ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset)를 복원된 픽처에 적용할 수 있다. The filtering units 120 and 150 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
디블록킹 필터는 복원된 픽처에서 블록 간의 경계에 생긴 왜곡을 제거할 수 있다. ALF(Adaptive Loop Filter)는 디블록킹 필터를 통해 블록이 필터링된 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. SAO는 디블록킹 필터가 적용된 레지듀얼 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋 차이를 복원하며, 밴드 오프셋(Band Offset), 에지 오프셋(Edge Offset) 등의 형태로 적용된다. The deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture. The adaptive loop filter (ALF) may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter. The SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
필터링부(120, 150)는 디블록킹 필터, ALF, SAO를 모두 적용하지 않고 디블록킹 필터만 적용하거나 디블록킹 필터와 ALF만 적용하거나 디블록킹 필터와 SAO만을 적용할 수도 있다. The filtering units 120 and 150 may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO without applying all of the deblocking filter, ALF, and SAO.
메모리(125, 155)는 필터링부(120, 150)로부터 복원 블록 또는 복원 픽처를 전달받아 저장할 수 있다. 메모리(125, 155)는 복원 블록 또는 픽처를 인터 예측을 수행하는 예측부(110, 140)에 제공할 수 있다. The memories 125 and 155 may receive the reconstructed block or the reconstructed picture from the filtering units 120 and 150 and store the received reconstructed pictures. The memories 125 and 155 may provide the reconstructed blocks or pictures to the predictors 110 and 140 that perform inter prediction.
레이어 0의 엔트로피 코딩부(160)에서 출력되는 정보와 레이어 1의 엔트로피 코딩부(130)에서 출력되는 정보는 MUX(185)에서 멀티플렉싱되어 비트스트림으로 출력될 수 있다.Information output from the entropy coding unit 160 of layer 0 and information output from the entropy coding unit 130 of layer 1 may be multiplexed by the MUX 185 and output as a bitstream.
한편, 여기서는 설명의 편의를 위해, 레이어 1의 인코딩부(105)가 MUX(165)를 포함하는 것으로 설명하였으나, MUX는 레이어 1의 인코딩부(105) 및 레이어 0의 인코딩부(135)와는 별도의 장치 혹은 모듈일 수 있다.Meanwhile, for the convenience of description, the encoding unit 105 of the layer 1 has been described as including the MUX 165. However, the MUX is separate from the encoding unit 105 of the layer 1 and the encoding unit 135 of the layer 0. It may be a device or a module of.
도 2는 본 발명에 따라서 스케일러블 코딩을 수행하는 인코딩 장치에서의 인터 레이어 예측에 관한 일 예를 설명하는 블록도이다.2 is a block diagram illustrating an example of interlayer prediction in an encoding apparatus that performs scalable coding according to the present invention.
도 2를 참조하면, 디코딩 장치(200)는 레이어 1의 디코딩부(210)와 레이어 0의 디코딩부(250)를 포함한다.Referring to FIG. 2, the decoding apparatus 200 includes a decoder 210 of layer 1 and a decoder 250 of layer 0.
레이어 0은 베이스 레이어, 참조 레이어 혹은 하위 레이어일 수 있으며, 레이어 1은 인핸스먼트 레이어, 현재 레이어 혹은 상위 레이어일 수 있다. Layer 0 may be a base layer, a reference layer, or a lower layer, and layer 1 may be an enhancement layer, a current layer, or an upper layer.
레이어 1의 디코딩부(210)는 엔트로피 디코딩부(215), 재정렬부(220), 역양자화부(225), 역변환부(230), 예측부(235), 필터링부(240), 메모리(245)를 포함할 수 있다.The decoding unit 210 of the layer 1 includes an entropy decoding unit 215, a reordering unit 220, an inverse quantization unit 225, an inverse transform unit 230, a prediction unit 235, a filtering unit 240, and a memory 245. ) May be included.
레이어 0의 디코딩부(250)는 엔트로피 디코딩부(255), 재정렬부(260), 역양자화부(265), 역변환부(270), 필터링부(280), 메모리(285)를 포함할 수 있다.The decoding unit 250 of the layer 0 may include an entropy decoding unit 255, a reordering unit 260, an inverse quantization unit 265, an inverse transform unit 270, a filtering unit 280, and a memory 285. .
인코딩 장치로부터 영상 정보를 포함하는 비트스트림이 전송되면, DEMUX(205)는 레이어별로 정보를 디멀티플렉싱하여 각 레이어별 디코딩 장치로 전달할 수 있다.When the bitstream including the image information is transmitted from the encoding device, the DEMUX 205 may demultiplex the information for each layer and deliver the information to the decoding device for each layer.
엔트로피 디코딩부(215, 255)는 인코딩 장치에서 사용한 엔트로피 코딩 방식에 대응하여 엔트로피 디코딩을 수행할 수 있다. 예컨대, 인코딩 장치에서 CABAC이 사용된 경우에, 엔트로피 디코딩부(215, 255)도 CABAC을 이용하여 엔트로피 디코딩을 수행할 수 있다.The entropy decoding units 215 and 255 may perform entropy decoding corresponding to the entropy coding scheme used in the encoding apparatus. For example, when CABAC is used in the encoding apparatus, the entropy decoding units 215 and 255 may also perform entropy decoding using CABAC.
엔트로피 디코딩부(215, 255)에서 디코딩된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(235, 275)로 제공되고, 엔트로피 디코딩부(215, 255)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(220, 260)로 입력될 수 있다.Information for generating a prediction block among the information decoded by the entropy decoding units 215 and 255 is provided to the prediction units 235 and 275, and a residual value of which entropy decoding is performed by the entropy decoding units 215 and 255. That is, the quantized transform coefficients may be input to the reordering units 220 and 260.
재정렬부(220, 260)는 엔트로피 디코딩부(215, 255)에서 엔트로피 디코딩된 비트스트림의 정보, 즉 양자화된 변환 계수를 인코딩 장치에서 재정렬한 방법을 기초로 재정렬할 수 있다.The reordering units 220 and 260 may rearrange the information of the bitstreams entropy decoded by the entropy decoding units 215 and 255, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.
예컨대, 재정렬부(220, 260)는 1차원 어레이의 양자화된 변환 계수들을 다시 2차원 어레이의 계수들로 재정렬할 수 있다. 재정렬부(220, 260)는 현재 블록(변환 블록)에 적용된 예측 모드 및/또는 변환 블록의 크기를 기반으로 스캐닝을 수행하여 계수(양자화된 변환 계수)들의 2차원 어레이를 생성할 수 있다.For example, the reordering units 220 and 260 may rearrange the quantized transform coefficients of the one-dimensional array into the coefficients of the two-dimensional array. The reordering units 220 and 260 may generate a two-dimensional array of coefficients (quantized transform coefficients) by performing scanning based on the prediction mode applied to the current block (transform block) and / or the size of the transform block.
역양자화부(225, 265)는 인코딩 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행하여 변환 계수들을 생성할 수 있다.The inverse quantizers 225 and 265 may generate transform coefficients by performing inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
역변환부(230, 270)는 변환 계수들에 대하여 인코딩 장치의 변환부가 수행한 변환에 대한 역변환을 수행할 수 있다. 역변환부(230, 270)는 인코딩 장치에서 수행된 DCT(Discrete Cosine Transform) 및 DST(Discrete Sine Transform)에 대해 역DCT 및/또는 역DST를 수행할 수 있다.The inverse transform units 230 and 270 may perform inverse transform on the transform performed by the transform unit of the encoding apparatus. The inverse transform units 230 and 270 may perform inverse DCT and / or inverse DST on a discrete cosine transform (DCT) and a discrete sine transform (DST) performed by an encoding apparatus.
인코딩 장치에서 DCT 및/또는 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 디코딩 장치의 역변환부(230, 270)는 인코딩 장치에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다.The DCT and / or DST in the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size of a current block, and a prediction direction, and the inverse transformers 230 and 270 of the decoding apparatus may perform transform information performed in the encoding apparatus. Inverse transformation may be performed based on.
예컨대, 역변환부(230, 270)은 예측 모드/블록 크기에 따라서 역DCT와 역DST를 적용할 수 있다. 가령, 역변환부(230, 270)은 인트라 예측이 적용된 4x4 루마 블록에 대해서 역DST를 적용할 수도 있다.For example, the inverse transform units 230 and 270 may apply inverse DCT and inverse DST according to a prediction mode / block size. For example, the inverse transformers 230 and 270 may apply an inverse DST to a 4x4 luma block to which intra prediction is applied.
또한, 역변환부(230, 270)는 예측 모드/블록 크기에 상관 없이, 특정 역변환 방법을 고정적으로 사용할 수도 있다. 예컨대, 역변환부(330, 370)는 모든 변환 블록에 역DST만을 적용할 수 있다. 또한, 역변환부(330, 370)는 모든 변환 블록에 역DCT만을 적용할 수도 있다.In addition, the inverse transform units 230 and 270 may fixedly use a specific inverse transform method regardless of the prediction mode / block size. For example, the inverse transform units 330 and 370 may apply only inverse DST to all transform blocks. In addition, the inverse transform units 330 and 370 may apply only inverse DCT to all transform blocks.
역변환부(230, 270)는 변환 계수들 혹은 변환 계수의 블록을 역변환하여 레지듀얼 혹은 레지듀얼 블록을 생성할 수 있다.The inverse transformers 230 and 270 may generate a residual or residual block by inversely transforming the transform coefficients or the block of the transform coefficients.
역변환부(230, 270)는 또한, 필요에 따라서 혹은 인코딩 장치에서 인코딩된 방식에 따라서, 변환을 생략(skip) 할 수도 있다. 예컨대, 역변환(230, 270)는 특정한 예측 방법이 적용되거나 특정 크기를 갖는 블록, 혹은 특정 예측 블록이 적용된 특정한 크기의 블록에 대하여 변환을 생략할 수도 있다.The inverse transformers 230 and 270 may also skip the transformation as needed or in accordance with the manner encoded in the encoding apparatus. For example, the inverse transforms 230 and 270 may omit the transform for a block having a specific prediction method or a specific size or a block of a specific size to which a specific prediction block is applied.
예측부(235, 275)는 엔트로피 디코딩부(215, 255)로부터 전달된 예측 블록 생성 관련 정보와 메모리(245, 285)에서 제공된 이전에 디코딩된 블록 및/또는 픽처 정보를 기초로 현재 블록에 대한 예측 블록을 생성할 수 있다.The prediction units 235 and 275 may perform prediction on the current block based on prediction block generation related information transmitted from the entropy decoding units 215 and 255 and previously decoded blocks and / or picture information provided by the memories 245 and 285. A prediction block can be generated.
현재 블록에 대한 예측 모드가 인트라 예측(intra prediction) 모드인 경우에, 예측부(235, 275)는 현재 픽처 내의 픽셀 정보를 기초로 현재 블록에 대한 인트라 예측을 수행할 수 있다.When the prediction mode for the current block is an intra prediction mode, the prediction units 235 and 275 may perform intra prediction on the current block based on pixel information in the current picture.
현재 블록에 대한 예측 모드가 인터 예측(inter prediction) 모드인 경우에, 예측부(235, 275)는 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처에 포함된 정보를 기초로 현재 블록에 대한 인터 예측을 수행할 수 있다. 인터 예측에 필요한 움직임 정보의 일부 또는 전부는 인코딩 장치로부터 수신한 정보를 확인하고, 이에 대응하여 유도될 수 있다.When the prediction mode for the current block is the inter prediction mode, the prediction units 235 and 275 may perform information on the current block based on information included in at least one of a previous picture or a subsequent picture of the current picture. Inter prediction may be performed. Some or all of the motion information required for inter prediction may be derived from the information received from the encoding apparatus and correspondingly.
인터 예측의 모드로서 스킵 모드가 적용되는 경우에는 인코딩 장치로부터 레지듀얼이 전송되지 않으며 예측 블록을 복원 블록으로 할 수 있다.When the skip mode is applied as the mode of inter prediction, residual is not transmitted from the encoding apparatus, and the prediction block may be a reconstruction block.
한편, 레이어 1의 예측부(235)는 레이어 1 내의 정보만을 이용하여 인터 예측 또는 인트라 예측을 수행할 수도 있고, 다른 레이어(레이어 0)의 정보를 이용하여 인터 레이어 예측을 수행할 수도 있다.Meanwhile, the prediction unit 235 of layer 1 may perform inter prediction or intra prediction using only information in layer 1, or may perform inter layer prediction using information of another layer (layer 0).
예컨대, 레이어 1의 예측부(235)는 레이어 1의 움직임 정보, 레이어 1의 텍스처 정보, 레이어 1의 유닛 정보, 레이어 1의 파라미터 정보 중 하나를 이용하여 현재 블록에 대한 예측을 수행할 수 있다. 또한, 레이어 1의 예측부(235)는 레이어 1의 움직임 정보, 레이어 1의 텍스처 정보, 레이어 1의 유닛 정보, 레이어 1의 파라미터 정보 중 복수의 정보를 이용하여 현재 블록에 대한 예측을 수행할 수도 있다.For example, the predictor 235 of the layer 1 may perform prediction on the current block by using one of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. In addition, the prediction unit 235 of the layer 1 may perform prediction on the current block by using a plurality of pieces of information of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. have.
레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 움직임 정보를 전달받아서 움직임 예측을 수행할 수 있다. 인터 레이어 움직임 예측을 인터 레이어 인터 예측이라고도 한다. 인터 레이어 움직임 예측에 의해, 참조 레이어(베이스 레이어)의 움직임 정보를 이용하여 현재 레이어(인핸스먼트 레이어)의 현재 블록에 대한 예측이 수행될 수 있다. 예측부(335)는 필요한 경우에, 참조 레이어의 움직임 정보를 스케일링 하여 이용할 수도 있다.The predictor 235 of the layer 1 may receive motion information of the layer 1 from the predictor 275 of the layer 0 to perform motion prediction. Inter-layer motion prediction is also called inter-layer inter prediction. By inter-layer motion prediction, prediction of a current block of a current layer (enhanced layer) may be performed using motion information of a reference layer (base layer). The prediction unit 335 may scale and use motion information of the reference layer when necessary.
레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 텍스처 정보를 전달받아서 텍스처 예측을 수행할 수 있다. 텍스처 예측은 인터 레이어 인트라 예측 혹은 인트라 BL(Base Layer) 예측이라고도 불린다. 텍스처 예측은 참조 레이어의 참조 블록이 인트라 예측에 의해 복원된 경우에 적용될 수 있다. 인터 레이어 인트라 예측에서는 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 참조 블록의 텍스처는 업샘플링에 의해 스케일링될 수 있다.The predictor 235 of the layer 1 may receive texture information of the layer 1 from the predictor 275 of the layer 0 to perform texture prediction. Texture prediction is also called inter layer intra prediction or intra base layer (BL) prediction. Texture prediction may be applied when the reference block of the reference layer is reconstructed by intra prediction. In inter-layer intra prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 유닛 파라미터 정보를 전달받아서 유닛 파라미터 예측을 수행할 수 있다. 유닛 파라미터 예측에 의해, 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보가 인핸스먼트 레이어의 유닛 정보로 사용되거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보가 결정될 수 있다.The predictor 235 of the layer 1 may receive unit parameter information of the layer 1 from the predictor 275 of the layer 0 to perform unit parameter prediction. By unit parameter prediction, unit (CU, PU, and / or TU) information of the base layer may be used as unit information of the enhancement layer, or unit information of the enhancement layer may be determined based on unit information of the base layer.
레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 필터링에 관한 파라미터 정보를 전달받아서 파라미터 예측을 수행할 수도 있다. 파라미터 예측에 의해, 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하거나, 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.The predictor 235 of the layer 1 may receive parameter information regarding the filtering of the layer 1 from the predictor 275 of the layer 0 to perform parameter prediction. By parameter prediction, the parameters used in the base layer can be derived and reused in the enhancement layer, or the parameters for the enhancement layer can be predicted based on the parameters used in the base layer.
가산기(290, 295)는 예측부(235, 275)에서 생성된 예측 블록과 역변환부(230, 270)에서 생성된 레지듀얼 블록을 이용해 복원 블록을 생성할 수 있다. 이 경우, 가산기(290, 295)를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수 있다.The adders 290 and 295 may generate reconstruction blocks using the prediction blocks generated by the predictors 235 and 275 and the residual blocks generated by the inverse transformers 230 and 270. In this case, the adders 290 and 295 can be viewed as separate units (restore block generation unit) for generating the reconstruction block.
가산기(290, 295)에서 복원된 블록 및/또는 픽처는 필터링부(240, 280)로 제공될 수 있다.Blocks and / or pictures reconstructed by the adders 290 and 295 may be provided to the filtering units 240 and 280.
도 2의 예를 참조하면, 레이어 1의 필터링부(240)는 레이어 1의 예측부(235) 및/또는 레이어 0의 필터링부(280)으로부터 전달되는 파라미터 정보를 이용하여 복원된 픽처에 대한 필터링을 수행할 수도 있다. 예컨대, 레이어 1에서 필터링부(240)는 레이어 0에서 적용된 필터링의 파라미터로부터 예측된 파라미터를 이용하여 레이어 1에 대한 혹은 레이어 간의 필터링을 적용할 수 있다.Referring to the example of FIG. 2, the filtering unit 240 of the layer 1 filters the reconstructed picture by using parameter information transmitted from the predicting unit 235 of the layer 1 and / or the filtering unit 280 of the layer 0. You can also do For example, in layer 1, the filtering unit 240 may apply filtering to or between layers using the parameters predicted from the parameters of the filtering applied in the layer 0.
메모리(245, 285)는 복원된 픽처 또는 블록을 저장하여 참조 픽처 또는 참조 블록으로 사용할 수 있도록 할 수 있다. 메모리(245, 285)는 저장된 복원 픽처를 소정의 출력부(미도시) 혹은 디스플레이(미도시)를 통해 출력할 수도 있다.The memories 245 and 285 may store the reconstructed picture or block to use as a reference picture or reference block. The memories 245 and 285 may output the stored reconstructed picture through a predetermined output unit (not shown) or a display (not shown).
도 2의 예에서는 재정렬부, 역양자화부, 역변환부 등으로 나누어 설명하였으나, 도 1의 인코딩 장치에서와 같이, 역양자화/역변환부의 한 모듈에서 재정렬, 역양자화, 역변환을 순서대로 수행하도록 디코딩 장치를 구성할 수도 있다.In the example of FIG. 2, the reordering unit, the inverse quantization unit, and the inverse transform unit have been described. However, as in the encoding apparatus of FIG. It can also be configured.
도 1 및 도 2의 예에서는 예측부로 설명하였으나, 발명의 이해를 돕기 위해, 레이어 1의 예측부는 다른 레이어(레이어 0)의 정보를 이용하여 예측을 수행하는 인터 레이어 예측부와 다른 레이어(레이어 0)의 정보를 이용하지 않고 예측을 수행하는 인터/인트라 예측부를 포함하는 것으로 볼 수도 있다.In the example of FIGS. 1 and 2, the prediction unit has been described, but for better understanding, the prediction unit of layer 1 may be different from the interlayer prediction unit that performs prediction using information of another layer (layer 0). It may also be regarded as including an inter / intra predictor for performing prediction without using the information of).
이처럼, 스케일러블 비디오 코딩에서는 다른 레이어의 정보를 이용하여 현재 레이어의 정보를 예측하는 인터 레이어 예측이 수행될 수 있다.As described above, in scalable video coding, inter-layer prediction for predicting information of a current layer using information of another layer may be performed.
이하에서는 인터 레이어 예측 중 현재 레이어의 복원 영상과 다른 레이어의 복원 영상을 업샘플링 혹은 다운샘플링한 영상 간의 차분(차분 영상)을 이용하여 현재 레이어 내 현재 블록에 대한 예측을 수행하는 인터 레이어 차분 예측에 대하여 살펴본다.Hereinafter, inter-layer difference prediction is performed to predict the current block in the current layer by using a difference (difference image) between the reconstructed image of the current layer and the resampled image of another layer during interlayer prediction. Examine.
베이스 레이어의 복원 영상(reconstructed picture)을 RBL이라 하고, RBL을 인핸스먼트 레이어의 해상도(resolution)에 맞추어 업샘플링 시킨 영상을 URBL이라 하자. 그리고, 인핸스먼트 레이어의 복원 영상을 REL이라 하자. A reconstructed picture of the base layer is referred to as an R BL , and an image obtained by upsampling an R BL according to the resolution of an enhancement layer is called a UR BL . The reconstructed image of the enhancement layer is called R EL .
복원 영상은 인루프 필터링을 적용하기 전의 영상일 수 있다. 또한, 복원 영상은 인루프 필터(deblocking filter, sample adaptive offset filter 및/또는 adaptive loop filter) 중 일부를 적용한 후의 영상일 수도 있다. 더 나아가, 복원 영상은 인루프 필터 전부를 적용한 후의 영상일 수도 있다. The reconstructed image may be an image before applying the in-loop filtering. Also, the reconstructed image may be an image after applying some of a deblocking filter, a sample adaptive offset filter, and / or an adaptive loop filter. Furthermore, the reconstructed image may be an image after applying all of the in-loop filters.
여기서, REL로부터 URBL의 값을 뺀 차분 영상을 D라고 하면, D영상들의 도메인(domain)에서 독립적인 부호화/복호화를 수행할 수 있다. 이 방법을 본 명세서에서는 인터 레이어 차분 영상 코딩(Inter-layer differential picture coding) 혹은 인터 레이어 차분 모드(inter-layer differential mode: IL-Diff mode)라고 한다. Here, if a difference image obtained by subtracting the value of UR BL from R EL is D, independent encoding / decoding may be performed in a domain of the D images. This method is referred to herein as inter-layer differential picture coding or inter-layer differential mode (IL-Diff mode).
인터 레이어 차분 모드는 시퀀스 단위, 픽쳐 단위, 슬라이스 단위, LCU(Largest CU) 단위, 코딩 유닛(CU) 단위 혹은 예측 유닛(PU) 단위에서 적용될 수 있다. 인터 레이어 차분 모드를 적용하고자 하는 처리 단위에서, 인터 레이어 차분 모드를 사용할지를 알려주는 플래그가 인코딩 장치로부터 디코딩 장치로 전송될 수 있다.The inter-layer difference mode may be applied in a sequence unit, picture unit, slice unit, LCU (Largest CU) unit, coding unit (CU) unit, or prediction unit (PU) unit. In a processing unit to which the interlayer differential mode is to be applied, a flag indicating whether to use the interlayer differential mode may be transmitted from the encoding apparatus to the decoding apparatus.
인터 레이어 차분 모드가 적용된 처리 단위에 대해서는, 다른 스케일러빌러티(scalability)를 이용한 코딩(인코딩/디코딩)은 수행하지 않고, 단일 레이어 코딩(인코딩/디코딩) 방법만을 이용할 수도 있다. 이 경우, 다른 스케일러빌러티를 이용한 코딩을 수행할지 여부를 지시하기 위한 비트를 절약할 수 있다.For the processing unit to which the inter-layer difference mode is applied, coding (encoding / decoding) using other scalability may not be performed, but only a single layer coding (encoding / decoding) method may be used. In this case, bits for indicating whether to perform coding using other scalability can be saved.
인터 레이어 차분 모드는 도 1 및 도 2의 예측부(110, 235)에서 수행할 수 있다. The inter-layer difference mode may be performed by the predictors 110 and 235 of FIGS. 1 and 2.
(1) 인터 레이어 차분 모드에 대한 인트라 예측 (intra prediction for IL-Diff mode)(1) intra prediction for IL-Diff mode
도 3은 본 발명에 따라서 인터 레이어 차분 모드를 적용하는 경우에, 인트라 예측을 수행하는 방법을 개략적으로 설명하는 도면이다.3 is a diagram schematically illustrating a method of performing intra prediction when an inter-layer difference mode is applied according to the present invention.
도 3을 참조하면, 인핸스먼트 레이어의 현재 픽처(300)는 현재 블록(315) 전후의 복원 영역(305)과 미복원 영역(310)을 포함한다. 복원 영역(305)으로부터 복원 영상 REL을 얻을 수 있다. 현재 픽처(300)에 대한 복원이 완료되면, 복원 영상 REL 된다. Referring to FIG. 3, the current picture 300 of the enhancement layer includes a reconstruction area 305 and an unrestored area 310 before and after the current block 315. The reconstructed image R EL can be obtained from the reconstructed region 305. When reconstruction of the current picture 300 is completed, a reconstructed image R EL is performed.
한편, 베이스 레이어의 복원 영상 RBL(320)을 업샘플링한 영상 URBL(325)는 현재 블록(315)에 대응하는 블록 PBL(330)을 포함한다. Meanwhile, the image UR BL 325 upsampled the reconstructed image R BL 320 of the base layer includes a block P BL 330 corresponding to the current block 315.
인코딩 과정에서 예측부(인코딩 장치의 예측부)는 수식 1과 같이 베이스 레이어의 복원 영상과 인핸스먼트 레이어의 복원 영상 사이의 차분 D를 유도할 수 있다.In the encoding process, the prediction unit (the prediction unit of the encoding apparatus) may derive the difference D between the reconstructed image of the base layer and the reconstructed image of the enhancement layer as shown in Equation 1.
<수식 1><Equation 1>
D = REL - URBL D = R EL -UR BL
수식 1에선 REL은 아직 복원되지 않은 영역(310)의 존재로 인해서, 디블록킹 필터, SAO 혹은 ALF 등과 같은 인루프 필터가 적용되지 않은 상태의 영상을 사용할 수도 있다. In Equation 1, R EL may use an image in which an in-loop filter such as a deblocking filter, SAO, or ALF is not applied due to the existence of the region 310 that has not been reconstructed yet.
베이스 레이어의 복원 영상(1220)은 모든 영역이 복원된 상태이기 때문에, RBL은 인루프 필터가 적용된 상태의 복원 영상일 수도 있고, 인루프 필터의 일부가 적용된 상태의 복원 영상일 수도 있으며, 인루프 필터가 적용되지 않은 상태의 복원 영상일 수도 있다.Since the reconstructed image 1220 of the base layer is in a state in which all regions are reconstructed, the R BL may be a reconstructed image in which the in-loop filter is applied, or may be a reconstructed image in which a part of the in-loop filter is applied. The reconstructed image may be a state in which the loop filter is not applied.
예측부는 차분 영상 D(340)에서, 미복원 영역(350)을 제외하고, 복원 영역(345)의 픽셀값들을 참조하여, 차분 영상 D(340) 내 현재 블록(355)에 대하여 인트라 예측을 수행할 수 있다. The predictor performs intra prediction on the current block 355 in the differential image D 340 with reference to the pixel values of the reconstructed region 345 except for the unrestored region 350 in the differential image D 340. can do.
디코딩 과정에서 예측부(디코딩 장치의 예측부)는 현재 블록과 동일 위치에 존재하는 URBL 내의 블록값 PBL을 이용하여 수식 2와 같이 현재 블록을 복원할 수 있다.In the decoding process, the prediction unit (the prediction unit of the decoding apparatus) may reconstruct the current block by using the block value P BL in the UR BL existing at the same position as the current block.
<수식 2><Formula 2>
REL = PD + PBL + RESR EL = P D + P BL + RES
수식 2에서 PD는 차분 영상 D의 복원된 영역으로부터 인트라 예측을 수행함에 따라서 생성된 예측 블록이며, RES는 레지듀얼 블록이다.In Equation 2, P D is a prediction block generated by performing intra prediction from the reconstructed region of the differential image D, and RES is a residual block.
(2) 인터 레이어 차분 모드에 대한 인터 예측 (inter prediction for IL-Diff mode) (2) inter prediction for IL-Diff mode
인터 레이어 차분 모드를 적용할 때, 현재 블록에 대한 인터 예측을 수행하기 위해 예측부는 현재 픽처의 참조 픽처에 대한 차분 영상 DR을 생성한다. 예컨대, 예측부는 참조 픽처의 인핸스먼트 레이어에 대한 복원 영상과 참조 픽처의 베이스 레이어에 대한 복원 영상을 이용하여, 현재 픽처의 참조 픽처에 대한 차분 영상 DR을 생성한다. When the inter-layer difference mode is applied, the prediction unit generates a differential image D R for a reference picture of the current picture to perform inter prediction on the current block. For example, the prediction unit generates a differential image D R of the reference picture of the current picture by using the reconstruction picture of the enhancement layer of the reference picture and the reconstruction picture of the base layer of the reference picture.
예측부는 참조 픽처의 차분 영상 DR을 기반으로 현재 블록의 차분 영상 도메인에서 예측 블록 PD를 생성할 수 있다.The prediction unit may generate the prediction block P D in the differential image domain of the current block based on the differential image D R of the reference picture.
예측부는 예측 블록을 이용하여 수식 3과 같이 현재 블록을 복원할 수 있다.The prediction unit may reconstruct the current block by using the prediction block as shown in Equation 3.
<수식 3><Equation 3>
REL = PD + PBL + RESR EL = P D + P BL + RES
수식 3에서 REL은 인핸스먼트 레이어에서 복원된 현재 블록이다. PBL은 URBL내에서 현재 블록과 동일 위치에 존재하는 블록이며, RES는 레지듀얼 블록이다. In Equation 3, R EL is the current block reconstructed in the enhancement layer. P BL is a block existing at the same position as the current block in the UR BL , and RES is a residual block.
참조 픽처의 차분 영상 DR은 미리 생성되어 DPB(Decoded Picture Buffer)에 저장될 수 있다. DPB는 도 1 및 도 2에서 설명한 메모리에 대응할 수 있다. The differential picture D R of the reference picture may be generated in advance and stored in a decoded picture buffer (DPB). The DPB may correspond to the memory described with reference to FIGS. 1 and 2.
또한, 참조 픽처의 차분 영상 DR은 REL을 생성할 때마다, 현재 블록의 움직임 정보에 의해 현재 블록의 복원을 위해 필요한 위치로 특정된 블록에 대해서 산출될 수도 있다.Further, each time it generates a difference image D R is R EL of the reference picture may be calculated for a given block to the required position for the current block of the current block is reconstructed by the motion information.
인터 레이어 차분 모드에 대한 인터 예측에서는, 참조 픽처에 대한 차분 영상을 생성할 때 인핸스먼트 레이어에서 복원된 참조 픽처로서 인루프 필터가 적용되지 않은 상태의 복원 영상뿐만 아니라, 인루프 필터의 일부 또는 전부가 적용된 상태의 복원 영상을 이용할 수도 있다.In inter prediction for the inter-layer difference mode, a part or all of the in-loop filter, as well as the reconstructed image without the in-loop filter applied as a reference picture reconstructed in the enhancement layer when generating the differential image for the reference picture, are generated. It is also possible to use a reconstructed image of the state where the is applied.
한편, 차분 영상을 이용하여 인터 레이어 예측을 수행할 경우, 예측이 적용되는 블록 및 레지듀얼 블록의 픽셀값의 범위는 다른 예측 방법을 적용할 때와 다르다. 설명의 편의상, 인터 레이어 차분 모드가 아닌 예측 방식을 노말 모드(normal mode)라고 표현하고, 입력되는 영상의 비트 뎁스가 8이라고 가정할 경우, 영상 블록에 대한 픽셀값 범위와 비트 뎁스(bit depth)를 아래 표 1과 같이 나타낼 수 있다.On the other hand, when inter-layer prediction is performed using the differential image, the range of pixel values of the block to which the prediction is applied and the residual block is different from that of applying other prediction methods. For convenience of description, when a prediction method other than the interlayer differential mode is expressed as a normal mode and assuming that the bit depth of the input image is 8, the pixel value range and the bit depth of the image block are assumed. It can be expressed as shown in Table 1 below.
표 1
Figure PCTKR2013002331-appb-T000001
Table 1
Figure PCTKR2013002331-appb-T000001
입력 영상의 비트 뎁스의 값이 8이면, 픽셀값의 범위는 0~255가 된다. 이에 따라 복원 영상 간의 뺄셈 연산을 통해 얻게 되는 차분 영상의 픽셀값의 범위는 -255~255가 된다.If the value of the bit depth of the input video is 8, the range of pixel values is 0 to 255. Accordingly, the range of pixel values of the difference image obtained through the subtraction operation between the reconstructed images is -255 to 255.
표 1과 같이, 노말 모드의 경우, 입력 영상이 8 bits 신호이면, 인트라 및 인터 예측이 적용된/적용될 예측 블록의 신호 역시 8 bits 신호이다. 0~255 범위의 픽셀값을 갖는 예측 블록에 대한 레지듀얼 픽셀값의 범위는 -255~255으로 레지듀얼 신호는 9bits이 되고, 변환될 신호, 즉 변환될 레지듀얼 블록의 픽셀값 역시 9bits 신호이다.As shown in Table 1, in the normal mode, when the input image is an 8 bits signal, the signal of the prediction block to which intra and inter prediction are applied / applied is also an 8 bits signal. The residual pixel value for the prediction block having a pixel value in the range of 0 to 255 is -255 to 255, and the residual signal becomes 9 bits, and the signal to be converted, that is, the pixel value of the residual block to be converted is also a 9 bit signal. .
반면, 인터 레이어 차분 모드에 대한 인트라 및 인터 예측이 적용되는 블록, 즉 차분 영상의 예측 블록의 픽셀값은 -255~255의 범위를 가지며, 하나의 픽셀값을 처리하기 위한 필요한 비트는 9bits 이다. On the other hand, a pixel value of a block to which intra and inter prediction are applied to the inter-layer difference mode, that is, a prediction block of a differential image has a range of -255 to 255, and a required bit for processing one pixel value is 9 bits.
차분 영상에 대한 레지듀얼 블록 및 변환 블록의 픽셀값은 더 큰 범위로 확장되어 -511~511의 범위를 가지며, 레지듀얼 블록 및 변환 블록의 픽셀값을 처리하기 위한 비트는 예측 블록을 처리하기 위하여 필요한 비트보다 하나 증가된 10 bits이 된다. The pixel values of the residual block and the transform block for the differential image are extended to a larger range and range from -511 to 511, and the bits for processing the pixel values of the residual block and the transform block are used to process the prediction block. 10 bits, one more than the required bit.
정리하면, 인코딩 장치로 입력되는 입력 영상의 비트 뎁스를 a 이라고 하면, 인트라 및 인터 예측이 적용되는 예측 블록 및 복원 영상의 비트 뎁스는 a 이지만, 예측 블록의 레지듀얼 및 변환이 수행될 신호의 비트 뎁스는 a+1 이 된다. In summary, if the bit depth of the input image input to the encoding apparatus is a, the bit depth of the prediction block to which intra and inter prediction are applied and the reconstructed image is a, but the bit of the signal to which residual and transformation of the prediction block is to be performed is a. The depth becomes a + 1.
한편, 입력 영상의 비트 뎁스가 a일 때, 차분 모드로 예측을 수행하기 위하여 복원 영상의 차이값으로 형성되는 차분 영상의 비트 뎁스는 a+1이고, 차분 영상의 레지듀얼 및 변환이 수행된 신호의 비트 뎁스는 a+2가 될 수 있다.Meanwhile, when the bit depth of the input image is a, the bit depth of the differential image formed as the difference value of the reconstructed image in order to perform prediction in the differential mode is a + 1, and the residual and transformation of the differential image is performed. The bit depth of may be a + 2.
한편, 인터 레이어 차분 영상 모드에 대한 인터 예측 시 참조 픽처에 대한 차분 영상은 미리 생성되어 DPB와 같은 메모리에 저장된다. Meanwhile, the differential image for the reference picture is pre-generated and stored in a memory such as a DPB during inter prediction for the inter-layer differential image mode.
일반적으로, 입력 영상의 비트 뎁스에 따라 복원 영상의 픽셀값의 범위는 0보다 크거나 같고 ((1 << (비트 뎁스(bit depth)+ 증가된 비트 뎁스(bit depth increase)))-1) 보다 작거나 같은 값을 갖게 된다. 복원 영상은 현재 픽처의 복원 영상 및 참조 픽처의 복원 영상을 업샘플링 한 영상을 포함할 수 있다. In general, according to the bit depth of the input image, the range of pixel values of the reconstructed image is greater than or equal to 0 ((1 << (bit depth + bit depth increase)) -1) Will have a value less than or equal to The reconstructed picture may include a reconstructed picture of the current picture and an upsampled picture of the reconstructed picture of the reference picture.
증가된 비트 뎁스란 입력 영상의 픽셀값의 범위를 확장시켜 처리할 때 입력 영상의 비트 뎁스보다 증가된 비트수를 의미한다. 화질 개선과 같은 목적으로 픽셀값이 가질 수 있는 범위를 확장하는 경우가 이에 해당할 수 있다. 예를 들어, 입력 영상의 비트 뎁스가 8이면, 입력 영상의 비트 뎁스를 특정 비트수 1 또는 2만큼 증가시켜 픽셀값의 범위를 확장시킬 수 있다.The increased bit depth refers to an increased number of bits than the bit depth of the input image when the extended range of pixel values of the input image is processed. This may be the case when the range of the pixel value may be extended for the purpose of improving the image quality. For example, when the bit depth of the input image is 8, the range of pixel values may be extended by increasing the bit depth of the input image by one or two specific bits.
설명의 편의를 위하여, 이하에서는 영상 처리 과정에서 변경될 수 있는 비트 뎁스를 고려한 “입력 영상의 비트 뎁스 + 증가된 비트 뎁스”를 복원 영상의 비트 뎁스(n)으로 표현한다. 영상 처리 과정에서 비트 뎁스의 증가가 발생하지 않으면 입력 영상의 비트 뎁스와 복원 영상의 비트 뎁스는 같고, 영상 처리 과정에서 비트 뎁스가 증가한 경우에는 복원 영상의 비트 뎁스는 입력 영상의 비트 뎁스에 증가된 비트 뎁스를 더한 값이 된다.For convenience of explanation, hereinafter, "bit depth of an input image + increased bit depth" in consideration of a bit depth that may be changed in an image processing process is expressed as a bit depth n of a reconstructed image. If the bit depth of the input image is not increased in the image processing process, the bit depth of the input image is the same as the bit depth of the reconstructed image, and if the bit depth is increased in the image processing process, the bit depth of the reconstructed image is increased to the bit depth of the input image. It becomes the value which added bit depth.
복원 영상의 비트 뎁스가 n 이면, 참조 픽처의 인핸스먼트 레이어에 대한 복원 영상과 참조 픽처의 베이스 레이어에 대한 복원 영상의 차이로 형성되는 차분 영상의 비트 뎁스는 n+1 이 된다.If the bit depth of the reconstructed image is n, the bit depth of the difference image formed by the difference between the reconstructed image for the enhancement layer of the reference picture and the reconstructed image for the base layer of the reference picture is n + 1.
만약, 입력 영상의 비트 뎁스가 8이고, 증가된 비트 뎁스가 0인 경우, 복원 영상의 픽셀값의 범위는 0~255이고, 차분 영상의 픽셀값의 범위는 -255~255로 9bits 신호가 된다. If the bit depth of the input image is 8 and the increased bit depth is 0, the range of pixel values of the reconstructed image is 0 to 255, and the range of pixel values of the differential image is -255 to 255, which is a 9-bit signal. .
차분 영상의 비트 뎁스는 입력 영상과 비교하여 픽셀 당 1bit씩 더 크기 때문에 입력 영상 또는 복원 영상을 저장할 때보다 차분 영상을 저장할 때 픽셀 당 1bit씩 추가적인 메모리가 필요하다. Since the bit depth of the difference image is larger by 1 bit per pixel than the input image, an additional memory is required by 1 bit per pixel when storing the difference image than when storing the input image or the reconstructed image.
또한, 차분 영상의 레지듀얼은 노말 모드의 레지듀얼보다 픽셀 당 1 bit이 더 큰 신호가 되기 때문에 차분 영상의 레지듀얼을 처리할 때와 노말 모드의 레지듀얼을 처리하는 것에는 비트 뎁스에 따른 차이가 발생한다. In addition, since the residual of the residual image is a signal larger than 1 bit per pixel than the residual of the normal mode, the difference in bit depth between the processing of the residual of the differential image and the processing of the residual in the normal mode is different. Occurs.
한편, 차분 영상은 인핸스먼트 레이어의 복원 영상에서 업샘플링 한 베이스 레이어의 복원 영상을 뺀 영상이기 때문에 픽셀값의 분포는 통상적인 영상의 픽셀값 분포와 다를 수 있다. 8bits 영상의 경우, 복원 영상의 픽셀값은 0~255 범위에서 비교적 고르게 분포하는 반면, 차분 영상의 픽셀값은 0 주변에 몰려서 분포할 수 있다. On the other hand, since the difference image is an image obtained by subtracting the reconstructed image of the up-sampled base layer from the reconstructed image of the enhancement layer, the distribution of pixel values may be different from that of the conventional image. In the case of an 8-bit image, the pixel values of the reconstructed image are relatively evenly distributed in the range of 0 to 255, while the pixel values of the differential image may be distributed around 0.
픽셀값의 분포 형태를 고려하여 차분 영상의 픽셀값을 일정 범위에서 잘라낸다면(clipping), 차분 영상을 저장하기 위한 픽셀 당 bit수를 줄일 수 있고, DPB 내 메모리의 크기를 절약할 수 있다.If the pixel value of the difference image is clipped in a predetermined range in consideration of the distribution form of the pixel value, the number of bits per pixel for storing the difference image can be reduced, and the size of the memory in the DPB can be saved.
본 발명의 일 실시예에 따르면 차분 영상의 픽셀값의 비트 뎁스가 복원 영상의 픽셀값의 비트 뎁스와 같거나 작도록 차분 영상의 픽셀값의 범위를 클리핑 할 수 있다.According to an embodiment of the present invention, the range of pixel values of the difference image may be clipped such that the bit depth of the pixel value of the difference image is equal to or smaller than the bit depth of the pixel value of the reconstructed image.
이 때, 픽셀값의 분포가 희박한 영역을 클리핑함으로써 클리핑으로 인한 픽셀값 변화에 따른 비트 효율의 저하를 줄일 수 있다. 다시 말해, 픽셀값의 분포가 희박한 영역을 클리핑함으로써 클리핑을 수행하더라도 픽셀값 변화에 따른 영상의 손실을 최소화 할 수 있다. At this time, by clipping an area in which the distribution of pixel values is sparse, a decrease in bit efficiency due to a change in pixel value due to clipping can be reduced. In other words, even if clipping is performed by clipping an area where the distribution of pixel values is sparse, loss of an image due to a change in pixel value can be minimized.
또한, 차분 영상의 픽셀값 클리핑함으로써 차분 영상에 대한 레지듀얼의 비트 뎁스를 노말 모드에 따라 예측을 수행한 예측 블록에 대한 레지듀얼의 비트 뎁스와 같도록 조절할 수 있다. 이에 의해, 단일 레이어의 영상 처리에 사용되는 메모리 및 변환부는 별도의 변형 없이 그대로 인터 레이어 영상 처리에 사용될 수 있다.In addition, by clipping pixel values of the difference image, the bit depth of the residual of the difference image may be adjusted to be equal to the bit depth of the residual of the prediction block for which prediction is performed according to the normal mode. As a result, the memory and the converter used in the single-layer image processing may be used in the inter-layer image processing without modification.
도 4는 본 발명의 일 실시예에 따른 차분 영상의 클리핑을 설명하기 위한 도면이다. 본 실시예에서는 차분 영상의 픽셀값의 범위가 원래의 반이 되도록 차분 영상의 픽셀값을 클리핑 한다. 이를 통하여 차분 영상의 픽셀값의 비트 뎁스는 복원 영상의 픽셀값의 비트 뎁스와 동일하게 조절될 수 있다.4 is a diagram for describing clipping of a differential image, according to an exemplary embodiment. In the present embodiment, the pixel values of the difference image are clipped so that the range of the pixel values of the difference image becomes the original half. Through this, the bit depth of the pixel value of the differential image may be adjusted to be the same as the bit depth of the pixel value of the reconstructed image.
입력 영상이 8bits 신호로 비트 뎁스가 8이고, 영상 처리 과정에서 비트 뎁스의 증가가 발생하지 않았다면, (a)와 같이 복원 영상은 0 내지 255의 픽셀값을 가질 수 있다. 복원 영상의 각 픽셀은 총 256개의 픽셀값 중 어느 하나로 표현될 수 있다. If the input image is an 8-bit signal and the bit depth is 8 and no increase in the bit depth occurs in the image processing process, the reconstructed image may have a pixel value of 0 to 255 as shown in (a). Each pixel of the reconstructed image may be represented by any one of a total of 256 pixel values.
그리고, (b)와 같이, 복원 영상들의 차이 값으로 구성된 차분 영상의 픽셀값은 -255 내지 255의 범위에 분포될 수 있다. 차분 영상의 각 픽셀은 총 512개의 픽셀값 중 어느 하나를 가질 수 있고, 차분 영상의 픽셀값을 처리하기 위하여 9bits이 필요하다.And, as shown in (b), the pixel value of the difference image composed of the difference value of the reconstructed image may be distributed in the range of -255 to 255. Each pixel of the difference image may have any one of a total of 512 pixel values, and 9 bits are required to process pixel values of the difference image.
본 발명의 일 실시예는 (c)에 도시된 것처럼, 차분 영상에서 -255 ~ -129 범위의 픽셀값을 -128로 클리핑하고, 유사하게 128~255 범위의 픽셀값을 127로 클리핑 한다. 즉, 차분 영상에서 -255 ~ -129 범위의 픽셀값은 -128로 변경되고, 128~255 범위의 픽셀값은 127로 변경된다. According to an embodiment of the present invention, as shown in (c), the pixel value in the range of -255 to -129 is clipped to -128 in the difference image, and similarly the pixel value in the range of 128 to 255 is clipped to 127. That is, in the difference image, the pixel value in the range of -255 to -129 is changed to -128, and the pixel value in the range of 128 to 255 is changed to 127.
따라서, 차분 영상의 -255 ~ -129 범위의 픽셀값은 -128으로 저장되고, 128~255 범위의 픽셀값은 127으로 저장될 수 있다. 차분 영상에서 -128~127 범위의 픽셀값은 클리핑 없이 그대로 저장될 수 있다. Therefore, the pixel value in the range of -255 to -129 of the difference image may be stored as -128, and the pixel value in the range of 128 to 255 may be stored as 127. In the difference image, pixel values in the range of -128 to 127 may be stored without clipping.
즉, -255 내지 255의 범위의 픽셀값을 -128~127 범위의 픽셀값으로 변경하기 위하여 -255 ~ -129 범위의 픽셀값은 -128로, 128~255 범위의 픽셀값을 127로 클리핑 한다.That is, in order to change the pixel value in the range of -255 to 255 to the pixel value in the range of -128 to 127, the pixel value in the range of -255 to -129 is -128, and the pixel value in the range of 128 to 255 is clipped to 127. .
클리핑으로 인하여 차분 영상의 픽셀값의 범위는 -128~127 가 되고, 각 픽셀이 가질 수 있는 픽셀값은 256개 중 어느 하나가 되므로 클리핑된 차분 영상의 픽셀은 8bits 신호로 처리된다. 따라서, 차분 영상은 복원 영상과 같이 픽셀당 8bits 신호로 메모리에 저장될 수 있다. Due to the clipping, the pixel value of the difference image is -128 to 127, and each pixel can have any one of 256 pixels. Therefore, the pixel of the difference image is processed as an 8-bit signal. Therefore, the difference image may be stored in the memory as an 8-bits signal per pixel like the reconstructed image.
결과적으로, 복원 영상과 비교하여 픽셀 당 1bit 이 증가한 차분 영상을 저장하더라도 클리핑을 통하여 차분 영상의 비트 뎁스를 감소시켰기 때문에 증가된 bit에 대한 추가적인 메모리가 필요하지 않다. As a result, even if the difference image is increased by 1 bit per pixel compared with the reconstructed image, since the bit depth of the difference image is reduced through clipping, no additional memory for the increased bit is needed.
(d)는 클리핑되는 차분 영상의 픽셀값의 범위가 (c)와 다른 예를 도시한 것이다. 도시된 바와 같이, 차분 영상에서 -255 ~ -128 범위의 픽셀값은 -127로 클리핑되고, 129~255 범위의 픽셀값은 128로 클리핑 된다. 클리핑된 차분 영상의 픽셀값은 -127~ 128의 범위를 갖는다. -127~ 128의 범위를 갖는 픽셀값은 8bits 신호로 처리되거나 저장될 수 있다. (d) shows an example in which the range of pixel values of the difference image to be clipped differs from (c). As shown, pixel values in the range of -255 to -128 are clipped to -127, and pixel values in the range of 129 to 255 are clipped to 128 in the difference image. The pixel value of the clipped differential image has a range of -127 to 128. Pixel values ranging from -127 to 128 can be processed or stored as 8-bit signals.
도 4 (c) 및 (d)에 따른 클리핑 방법을 정리하면 다음과 같다. 복원 영상의 픽셀값 범위가 0보다 크거나 같고 ( ( 1 << n ) - 1 )보다 작거나 같은 값을 가지며, 이에 대한 차분 영상의 픽셀값 범위가 -( (1 << n ) - 1 ) ~ ( (1 << n ) - 1 ) 일 때, 차분 영상의 픽셀값이 갖는 범위를 - (1 << ( n - 1 ) ) ~ ( (1 << ( n - 1 ) ) - 1 ) 또는 - ( (1 << ( n - 1 ) ) - 1 ) ~ (1 << ( n - 1 ) ) 로 클리핑 한다. The clipping method according to FIGS. 4C and 4D is as follows. The pixel range of the reconstructed image is greater than or equal to 0 and has a value less than or equal to ((1 << n)-1), and the pixel range of the difference image is-((1 << n)-1) When ~ ((1 << n)-1), the range of pixel values of the difference image is-(1 << (n-1)) ~ ((1 << (n-1))-1) or Clip from-((1 << (n-1))-1) to (1 << (n-1)).
즉, 클리핑을 통하여 차분 영상의 픽셀값을 처리하기 위하여 필요한 비트 뎁스를 복원 영상의 픽셀값에 대한 비트 뎁스로 조정한다. That is, the bit depth necessary for processing the pixel value of the differential image through clipping is adjusted to the bit depth of the pixel value of the reconstructed image.
도 5는 발명의 다른 실시예에 따른 차분 영상의 클리핑을 설명하기 위한 도면이다. 본 실시예에서는 차분 영상의 픽셀값의 범위가 원래의 1/4이 되도록 차분 영상의 픽셀값을 클리핑한다. 이를 통하여 차분 영상의 픽셀값의 비트 뎁스는 복원 영상의 픽셀값의 비트 뎁스보다 작게 조절될 수 있다.5 is a diagram for describing clipping of a difference image, according to another exemplary embodiment. In the present embodiment, the pixel values of the difference image are clipped so that the range of the pixel values of the difference image becomes the original 1/4. Through this, the bit depth of the pixel value of the difference image may be adjusted to be smaller than the bit depth of the pixel value of the reconstructed image.
(a)와 같이, 복원 영상들의 차이 값으로 구성된 차분 영상의 픽셀값은 -255 내지 255의 범위에 분포되어 있다. As shown in (a), the pixel value of the difference image composed of the difference values of the reconstructed images is distributed in the range of -255 to 255.
본 발명의 일 실시예는 (b)에 도시된 것처럼, -255 내지 255의 범위의 픽셀값을 -64~63 범위의 픽셀값으로 변경하기 위하여, -64~63 범위에 속하지 않는 -255 ~ -65 범위의 픽셀값을 -64로 클리핑하고, -64~63 범위에 속하지 않는 64~255 범위의 픽셀값을 63로 클리핑 한다. 즉, 차분 영상에서 -255 ~ -65 범위의 픽셀값은 -64로 변경되고, 64~255 범위의 픽셀값은 63로 변경된다. One embodiment of the present invention, as shown in (b), in order to change a pixel value in the range of -255 to 255 to a pixel value in the range of -64 to 63, -255 to-not belonging to the range of -64 to 63 Clip a pixel value in the range of 65 to -64 and a pixel value in the range of 64 to 255 that is not in the range of -64 to 63. That is, in the difference image, the pixel value in the range of -255 to -65 is changed to -64, and the pixel value in the range of 64 to 255 is changed to 63.
차분 영상의 -255 ~ -65 범위의 픽셀값은 -64으로 저장되고, 64~255 범위의 픽셀값은 63으로 저장될 수 있다. The pixel value in the range of -255 to -65 of the difference image may be stored as -64, and the pixel value in the range of 64 to 255 may be stored as 63.
클리핑으로 인하여 차분 영상의 픽셀값의 범위는 -64~63 가 되고, 각 픽셀이 가질 수 있는 픽셀값은 128개 중 어느 하나가 되므로 클리핑된 차분 영상의 픽셀을 처리하기 위하여 7bits 이 필요하다. 차분 영상은 복원 영상 보다 적은 비트 뎁스를 갖는 신호, 즉 픽셀당 7it 신호로 메모리에 저장될 수 있다. Due to clipping, the pixel value range of the difference image is -64 to 63, and each pixel can have any one of 128 pixels, so 7 bits are required to process the pixel of the clipped difference image. The difference image may be stored in the memory as a signal having a bit depth less than the reconstructed image, that is, a 7it signal per pixel.
(c)는 차분 영상의 픽셀값의 범위를 -63~64 로 클리핑한 것을 나타내고 있다. 차분 영상에서 -255 ~ -64 범위의 픽셀값은 -63으로 클리핑되고, 65~255 범위의 픽셀값은 64로 클리핑 된다. 클리핑된 차분 영상의 픽셀값은 (b)와 같이 7bits 신호로 처리되거나 저장될 수 있다. (c) shows that the range of pixel values of the difference image is clipped at -63 to 64. In the difference image, pixel values in the range of -255 to -64 are clipped to -63, and pixel values in the range of 65 to 255 are clipped to 64. The pixel value of the clipped differential image may be processed or stored as a 7-bit signal as shown in (b).
도 5의 (b) 및 (c)에 따른 클리핑 방법을 정리하면 다음과 같다. 복원 영상의 픽셀값이 갖는 범위가 0보다 크거나 같고 ( ( 1 << n ) - 1 )보다 작거나 같은 값을 가지며, 이에 대한 차분 영상의 픽셀값의 갖는 범위가 -( (1 << n ) - 1 ) ~ ( (1 << n ) - 1 ) 일 때, 차분 영상의 픽셀값이 갖는 범위를 - ( (1 << ( n - 2 ) ) ) ~ ( (1 << ( n - 2 ) ) - 1 ) 또는 - ( (1 << ( n - 2 ) ) - 1 ) ~ (1 << ( n - 2 ) )로 클리핑 한다. The clipping method according to FIGS. 5B and 5C is summarized as follows. The range of pixel values of the reconstructed image is greater than or equal to 0 and less than or equal to ((1 << n)-1), and the range of pixel values of the differential image is-((1 << n )-1) ~ ((1 << n)-1), the range of pixel values of the difference image is-((1 << (n-2))) ~ ((1 << (n-2) ))-1) or-((1 << (n-2))-1) to (1 << (n-2)).
상기와 같은 클리핑을 통하여 차분 영상의 픽셀값을 처리하기 위하여 필요한 비트 뎁스를 복원 영상의 픽셀값에 대한 비트 뎁스보다 작은 값으로 조정할 수 있으며, 클리핑 범위를 확대 적용함으로써 차분 영상의 저장에 필요한 메모리의 크기를 추가로 줄일 수도 있다. Through the above clipping, the bit depth required to process the pixel value of the differential image can be adjusted to a value smaller than the bit depth of the pixel value of the reconstructed image. You can also reduce the size further.
도 4 및 도 5에 따른 클리핑 방법을 보다 일반화 하면 다음과 같다. A more generalized clipping method according to FIGS. 4 and 5 is as follows.
차분 영상의 픽셀값이 갖는 범위가 - ((1 << n ) - 1 ) ~ ( (1 << n ) - 1 ) 일 때, 이를 - ( (1<< ( n - 클리핑 비트 ) ) ) ~ ( (1 << ( n - 클리핑 비트 ) ) - 1 ) 또는 - ( (1 << ( n - 클리핑 비트 ) ) - 1 ) ~ (1 << ( n - 클리핑 비트 ) )의 값을 갖도록 클리핑 할 수 있다. 여기서 클리핑 비트(clipping bits)는 클리핑을 통하여, 한 픽셀당 절약하고자 하는 비트 뎁스를 의미한다. 도 4의 실시예에서 클리핑 비트는 1이고, 도 5에 설명된 실시예에서의 클리핑 비트는 2이다.When the pixel value of the difference image has a range from-((1 << n)-1) to ((1 << n)-1), it is-((1 << (n-clipping bit))) ~ You can clip to have values of ((1 << (n-clipping bit))-1) or-((1 << (n-clipping bit))-1) to (1 << (n-clipping bit)) Can be. Herein, clipping bits refer to bit depths to be saved per pixel through clipping. The clipping bit is 1 in the embodiment of FIG. 4 and the clipping bit in the embodiment described in FIG. 5.
상술한 차분 영상의 클리핑은 인터 레이어 차분 모드에 대한 인터 예측을 위하여 참조 픽처의 차분 영상을 구할 때에만 적용하고, 인터 레이어 차분 모드에 대한 인트라 예측을 위하여 현재 픽처의 복원된 영역에 대한 차분 영상을 구할 때에는 적용하지 않을 수 있다. 현재 픽처의 복원된 영역에 대한 차분 영상의 픽셀값은 현재 픽처의 차분 모드를 적용한 예측을 위해서만 임시적으로 계산해서 사용되는 값이기 때문에, 참조 픽처의 차분 영상과는 달리, 클리핑을 통해 메모리를 절약할 필요성이 적기 때문이다.The above-described clipping of the differential image is applied only when a differential image of the reference picture is obtained for inter prediction on the inter-layer difference mode, and the differential image of the reconstructed region of the current picture is selected for intra prediction on the inter-layer difference mode. It may not apply when seeking. Unlike the difference picture of the reference picture, the pixel value of the difference picture for the reconstructed area of the current picture is used only temporarily for the prediction applying the difference mode of the current picture. This is because there is little need.
도 6은 본 발명의 또 다른 실시예에 따른 차분 영상의 클리핑을 설명하기 위한 도면이다. 6 is a diagram for describing clipping of a differential image, according to another exemplary embodiment.
(a)와 같이 복원 영상은 0 내지 255의 픽셀값을 가질 수 있다.As shown in (a), the reconstructed image may have a pixel value of 0 to 255.
복원 영상들의 차이 값으로 구성된 차분 영상의 픽셀값은 (b)와 같이 -255 내지 255의 범위에 분포되어 있다. The pixel values of the difference image composed of the difference values of the reconstructed images are distributed in the range of -255 to 255 as shown in (b).
(b)의 차분 영상에서 (c)에 도시된 것처럼, -255 ~ -129 범위의 픽셀값을 -128로 클리핑하고, 128~255 범위의 픽셀값을 127로 클리핑 할 수 있다. 클리핑된 차분 영상의 픽셀값의 범위는 -128~127이 된다.In the difference image of (b), as shown in (c), a pixel value in the range of -255 to -129 can be clipped to -128, and a pixel value in the range of 128 to 255 can be clipped to 127. The range of pixel values of the clipped difference image is -128 to 127.
본 실시예에 따르면, (c)와 같이, 클리핑된 차분 영상의 픽셀값에 기설정된 오프셋을 적용하여 픽셀값의 범위를 복원 영상의 픽셀값 범위로 시프트 시킨다. 차분 영상의 -128~127 범위의 픽셀값은 0~255 범위로 시프트 되고, 차분 영상의 픽셀값은 시프트된 0~255 범위로 저장된다. According to the present embodiment, as shown in (c), the range of pixel values is shifted to the pixel value range of the reconstructed image by applying a preset offset to the pixel value of the clipped differential image. Pixel values in the range of -128 to 127 of the difference image are shifted to the range of 0 to 255, and pixel values of the difference image are stored to the shifted range of 0 to 255.
-127~ 128의 범위로 클리핑된 차분 영상의 픽셀값 역시 0~255 범위로 시프트 될 수 있다. 또한, 도 5와 같이 -64~63 또는 -63~64의 범위로 클리핑된 차분 영상의 픽셀값은 0~127 범위로 시프트 될 수 있다.Pixel values of the difference image clipped in the range of -127 to 128 may also be shifted to the range of 0 to 255. In addition, as shown in FIG. 5, a pixel value of a difference image clipped in a range of -64 to 63 or -63 to 64 may be shifted to a range of 0 to 127.
도 7은 본 발명에 따른 차분 영상의 클리핑 방법을 설명하기 위한 제어 흐름도이다. 7 is a control flowchart illustrating a clipping method of a differential image according to the present invention.
우선, 인코딩 장치와 디코딩 장치의 예측부는 참조 픽처의 인핸스먼트 레이어에 대한 복원 영상과 참조 픽처의 베이스 레이어에 대한 복원 영상을 업샘플링 한 영상의 차이를 구하여 참조 픽처에 대한 차분 영상을 생성한다(S701). First, the prediction unit of the encoding apparatus and the decoding apparatus obtains a difference between the reconstructed image of the enhancement layer of the reference picture and the image upsampled from the reconstructed image of the base layer of the reference picture, and generates a differential image of the reference picture (S701). ).
예측부는 차분 영상의 픽셀값의 범위가 기설정된 클리핑 범위가 되도록 클리핑 범위를 벗어나는 차분 영상의 픽셀값을 클리핑 범위로 클리핑 한다(S702). The predictor clips the pixel values of the difference image out of the clipping range into the clipping range so that the range of pixel values of the difference image becomes a preset clipping range (S702).
이 때, 차분 영상의 픽셀값의 비트 뎁스는 복원 영상의 픽셀값의 비트 뎁스 이하가 되도록 차분 영상의 픽셀값이 클리핑 될 수 있다.In this case, the pixel value of the difference image may be clipped such that the bit depth of the pixel value of the difference image is equal to or less than the bit depth of the pixel value of the reconstructed image.
복원 영상의 픽셀값의 비트 뎁스가 n 이고, 차분 영상의 픽셀값의 범위가 -( (1<< n ) - 1 ) ~ ( (1<< n) - 1 )이면 차분 영상의 픽셀값은 클리핑 범위-(1<<( n - 클리핑 비트수 ) ) ~ ( (1<<( n - 클리핑 비트수 ) ) - 1 )로 클리핑 될 수 있다. If the bit depth of the pixel value of the reconstructed image is n and the range of the pixel value of the differential image is-((1 << n)-1) to ((1 << n)-1), the pixel value of the differential image is clipped. It can be clipped in the range- (1 << (n-number of clipping bits)) to ((1 << (n-number of clipping bits))-1).
여기서, 클리핑 비트수는 감소시키고자 하는 차분 영상의 픽셀값의 비트 뎁스를 의미하며, 1 또는 2가 될 수 있다.Here, the number of clipping bits means the bit depth of the pixel value of the difference image to be reduced, and may be 1 or 2.
차분 영상의 픽셀값의 범위가 클리핑 범위와 같이 되기 위하여 차분 영상의 -( (1<< n ) - 1 ) ~ - ( ( 1<<( n - 클리핑 비트수 ) ) + 1) 범위의 픽셀값은 -(1<<( n - 클리핑 비트수 ) )으로 클리핑되고, 차분 영상의 (1<<( n - 클리핑 비트수 ) ) ~ ( (1<< n) - 1 )범위의 픽셀값은 ( (1<<( n - 클리핑 비트수 ) ) - 1 )으로 클리핑된다.Pixel values in the range of-((1 << n)-1) to-((1 << (n-number of clipping bits)) + 1) of the difference image so that the pixel range of the difference image is equal to the clipping range. Is clipped to-(1 << (n-number of clipping bits)), and pixel values in the range of (1 << (n-number of clipping bits)) to ((1 << n)-1) of the difference image are ( Clipped to (1 << (n-number of clipping bits))-1).
또는, 차분 영상의 픽셀값은 클리핑 범위 - ((1 << ( n - 클리핑 비트수 ) ) -1 ) ~ (1<<( n - 클리핑 비트수 ) )로 클리핑될 수 있다. 이 경우, 차분 영상의 -( (1<< n ) - 1 ) ~ - ( 1<<( n - 클리핑 비트수 ) ) 범위의 픽셀값은 - ( (1<<( n - 클리핑 비트수 ) ) -1 )으로 클리핑 되고, 차분 영상의 ( (1<<( n - 클리핑 비트수 ) ) + 1) ~ ( (1<< n) - 1 )범위의 픽셀값은 (1<<( n - 클리핑 비트수 ) )으로 클리핑 된다. Alternatively, the pixel value of the difference image may be clipped to the clipping range − ((1 << (n − number of clipping bits)) −1) to (1 << (n − number of clipping bits)). In this case, the pixel values in the range of-((1 << n)-1) to-(1 << (n-number of clipping bits)) of the difference image are-((1 << (n-number of clipping bits)) -1) is clipped to, and pixel values in the range of ((1 << (n-number of clipping bits)) + 1) to ((1 << n)-1) of the difference image are (1 << (n-clipping) Is clipped to)
클리핑 과정을 거친 차분 영상의 픽셀값에 기설정된 오프셋을 더하여 차분 영상의 픽셀값을 시프트 시킬 수도 있다.The pixel value of the difference image may be shifted by adding a predetermined offset to the pixel value of the difference image which has been subjected to the clipping process.
이와 같이 차분 영상의 픽셀값을 클리핑하면 차분 영상에 대한 레지듀얼의 비트 뎁스는 노말 모드에 따라 예측을 수행한 예측 블록에 대한 레지듀얼의 비트 뎁스와 같거나 또는 그 이하가 된다. 이에 의해, 기존 단일 레이어의 영상을 처리할 때 사용하던 메모리, 변환부 등은 별도의 변형 없이 인터 레이어 영상 처리에 사용될 수 있다.When the pixel value of the difference image is clipped as described above, the bit depth of the residual for the difference image is equal to or less than the bit depth of the residual for the prediction block on which the prediction is performed according to the normal mode. As a result, a memory, a converter, and the like, which are used when processing an image of a single layer, may be used for inter-layer image processing without additional modification.
예측부는 클리핑된 차분 영상을 이용하여 현재 픽처에 인터 예측을 수행한다(S703). The prediction unit performs inter prediction on the current picture using the clipped difference image (S703).
인터 레이어 차분 모드에 대한 인터 예측의 경우, 예측부는 참조 픽처의 차분 영상을 기반으로 현재 블록의 차분 영상 도메인에서의 예측 블록을 생성할 수 있다. 예측부는 차분 영상 도메인에서 생성된 예측 블록에, 베이스 레이어의 복원 영상 내 현재 블록과 동일한 위치에 존재하는 참조 블록과, 레지듀얼 블록을 더함으로써 현재 블록을 복원할 수 있다. In the case of inter prediction for the inter-layer difference mode, the prediction unit may generate a prediction block in the differential image domain of the current block based on the differential image of the reference picture. The prediction unit may reconstruct the current block by adding a residual block and a reference block existing at the same position as the current block in the reconstructed image of the base layer to the prediction block generated in the differential image domain.
클리핑된 차분 영상의 픽셀값은 DPB와 같은 메모리에 저장될 수 있다. 상술한 바와 같이, 참조 픽처의 차분 영상은 인터 예측을 수행하기 전에 미리 생성되어 DPB와 같은 메모리에 저장될 수도 있고, 현재 블록의 움직임 정보에 의해 현재 블록의 복원을 위해 필요한 위치로 특정된 블록에 대해서 산출될 수도 있다. 즉, 차분 영상은 픽처 단위로 생성될 수도 있고, 필요에 따라 블록 단위로 생성될 수 있다. The pixel value of the clipped differential image may be stored in a memory such as a DPB. As described above, the difference picture of the reference picture may be generated before the inter prediction and stored in a memory such as a DPB, and may be stored in a block specified as a position necessary for reconstruction of the current block by motion information of the current block. It may also be calculated for. That is, the difference image may be generated in picture units or, if necessary, in block units.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함할 수 있으므로 각 실시예의 조합 역시 본 발명의 일 실시예로서 이해되어야 할 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.In the exemplary system described above, the methods are described based on a flowchart as a series of steps or blocks, but the invention is not limited to the order of steps, and certain steps may occur in a different order or concurrently with other steps than those described above. Can be. In addition, since the above-described embodiments may include examples of various aspects, a combination of each embodiment should also be understood as an embodiment of the present invention. Accordingly, it is intended that the present invention cover all other replacements, modifications and variations that fall within the scope of the following claims.

Claims (9)

  1. 현재 픽처가 참조하는 참조 픽처의 인핸스먼트 레이어에 대한 복원 영상과 상기 참조 픽처의 베이스 레이어에 대한 복원 영상을 업샘플링 한 영상의 차이를 구하여 상기 참조 픽처에 대한 차분 영상을 생성하는 단계와;Generating a difference image of the reference picture by obtaining a difference between a reconstructed picture of an enhancement layer of a reference picture referred to by a current picture and an image of upsampled reconstructed picture of the base layer of the reference picture;
    상기 차분 영상의 픽셀값의 범위가 기설정된 클리핑 범위가 되도록 상기 클리핑 범위를 벗어나는 상기 차분 영상의 픽셀값을 상기 클리핑 범위로 클리핑하는 단계와;Clipping pixel values of the difference image out of the clipping range into the clipping range such that a range of pixel values of the difference image becomes a preset clipping range;
    상기 클리핑된 차분 영상을 이용하여 상기 현재 픽처의 인터 예측을 수행하는 단계를 포함하는 것을 특징으로 하는 인터 레이어 예측 방법.And performing inter prediction of the current picture using the clipped differential image.
  2. 제1항에 있어서,The method of claim 1,
    상기 클리핑된 차분 영상의 픽셀값의 비트 뎁스는 상기 인핸스먼트 레이어에 대한 상기 복원 영상의 픽셀값의 비트 뎁스 이하인 것을 특징으로 하는 인터 레이어 예측 방법.The bit depth of the pixel value of the clipped differential image is less than or equal to the bit depth of the pixel value of the reconstructed image for the enhancement layer.
  3. 제2항에 있어서,The method of claim 2,
    상기 복원 영상의 픽셀값의 비트 뎁스가 n이고, 상기 차분 영상의 픽셀값의 범위가 -( (1<< n ) - 1 ) ~ ( (1<< n) - 1 )이면, If the bit depth of the pixel value of the reconstructed image is n and the range of pixel values of the difference image is-((1 << n)-1) to ((1 << n)-1),
    상기 클리핑하는 단계는 상기 차분 영상의 픽셀값의 범위가 -(1<<( n - 클리핑 비트수 ) ) ~ ( (1<<( n - 클리핑 비트수 ) ) - 1 )가 되도록 픽셀값을 클리핑하고,The clipping may include clipping the pixel values such that the pixel values of the difference image range from-(1 << (n-number of clipping bits)) to ((1 << (n-number of clipping bits))-1). and,
    상기 클리핑 비트수는 감소시키고자 하는 상기 차분 영상의 픽셀값의 비트 뎁스인 것을 특징으로 하는 인터 레이어 예측 방법.Wherein the number of clipping bits is a bit depth of a pixel value of the difference image to be reduced.
  4. 제3항에 있어서,The method of claim 3,
    상기 클리핑하는 단계는, 상기 차분 영상의 -( (1<< n ) - 1 ) ~ - ( ( 1<<( n - 클리핑 비트수 ) ) + 1) 범위의 픽셀값을 -(1<<( n - 클리핑 비트수 ) )으로 클리핑하고, 상기 차분 영상의 (1<<( n - 클리핑 비트수 ) ) ~ ( (1<< n) - 1 )범위의 픽셀값을 ( (1<<( n - 클리핑 비트수 ) ) - 1 )으로 클리핑하는 것을 특징으로 하는 인터 레이어 예측 방법.The clipping may include pixel values ranging from-((1 << n)-1) to-((1 << (n-number of clipping bits)) + 1) of the difference image to-(1 << ( n-the number of clipping bits)) and the pixel values in the range of (1 << (n-number of clipping bits)) to ((1 << n)-1) of the difference image ((1 << (n Number of clipping bits))-1).
  5. 제3항에 있어서,The method of claim 3,
    클리핑된 상기 차분 영상의 픽셀값의 범위가 0 ~ ( (1<< (n - 클리핑 비트수 + 1)) - 1 )로 시프트 되도록 상기 차분 영상의 픽셀값에 기설정된 오프셋을 더하는 단계를 더 포함하는 것을 특징으로 하는 인터 레이어 예측 방법.Adding a preset offset to the pixel value of the difference image such that the range of the pixel value of the clipped difference image is shifted from 0 to ((1 << (n-number of clipping bits + 1))-1). An interlayer prediction method, characterized in that.
  6. 제2항에 있어서,The method of claim 2,
    상기 복원 영상의 픽셀값의 비트 뎁스가 n이고, 상기 차분 영상의 픽셀값의 범위가 -( (1<< n ) - 1 ) ~ ( (1<< n) - 1 )이면,If the bit depth of the pixel value of the reconstructed image is n and the range of pixel values of the difference image is-((1 << n)-1) to ((1 << n)-1),
    상기 클리핑하는 단계는 상기 차분 영상의 픽셀값의 범위가 - ( (1<<( n - 클리핑 비트수 ) ) -1 ) ~ (1<<( n - 클리핑 비트수 ) ) 가 되도록 픽셀값을 클리핑하는 것을 특징으로 하는 인터 레이어 예측 방법.The clipping may include clipping the pixel values such that the pixel values of the difference image range from-((1 << (n-number of clipping bits)) -1) to (1 << (n-number of clipping bits)). An interlayer prediction method, characterized in that.
  7. 제6항에 있어서,The method of claim 6,
    상기 클리핑하는 단계는, 상기 차분 영상의 -( (1<< n ) - 1 ) ~ - ( 1<<( n - 클리핑 비트수 ) ) 범위의 픽셀값을 - ( (1<<( n - 클리핑 비트수 ) ) -1 )으로 클리핑하고, 상기 차분 영상의 ( (1<<( n - 클리핑 비트수 ) ) + 1) ~ ( (1<< n) - 1 )범위의 픽셀값을 (1<<( n - 클리핑 비트수 ) )으로 클리핑하는 것을 특징으로 하는 인터 레이어 예측 방법.The clipping may include pixel values in the range of-((1 << n)-1) to-(1 << (n-number of clipping bits)) of the difference image-((1 << (n-clipping) Number of bits)) -1), and pixel values in the range of ((1 << (n-number of clipping bits)) + 1) to ((1 << n)-1) of the difference image (1 < An interlayer prediction method characterized by clipping with <(n-number of clipping bits).
  8. 제6항에 있어서,The method of claim 6,
    클리핑된 상기 차분 영상의 픽셀값의 범위가 0 ~ ( (1<< (n - 클리핑 비트수 + 1)) - 1 )로 시프트 되도록 상기 차분 영상의 픽셀값에 기설정된 오프셋을 더하는 단계를 더 포함하는 것을 특징으로 하는 인터 레이어 예측 방법.Adding a preset offset to the pixel value of the difference image such that the range of the pixel value of the clipped difference image is shifted from 0 to ((1 << (n-number of clipping bits + 1))-1). An interlayer prediction method, characterized in that.
  9. 제1항에 있어서,The method of claim 1,
    클리핑된 상기 차분 영상을 저장하는 단계를 더 포함하는 것을 특징으로 하는 인터 레이어 예측 방법.And storing the difference image clipped.
PCT/KR2013/002331 2012-03-29 2013-03-21 Inter-layer prediction method and apparatus using same WO2013147455A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261617051P 2012-03-29 2012-03-29
US61/617,051 2012-03-29

Publications (1)

Publication Number Publication Date
WO2013147455A1 true WO2013147455A1 (en) 2013-10-03

Family

ID=49260647

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/002331 WO2013147455A1 (en) 2012-03-29 2013-03-21 Inter-layer prediction method and apparatus using same

Country Status (1)

Country Link
WO (1) WO2013147455A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015105385A1 (en) * 2014-01-09 2015-07-16 삼성전자 주식회사 Scalable video encoding/decoding method and apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070006123A (en) * 2005-07-07 2007-01-11 삼성전자주식회사 Method and apparatus for video encoding and decoding
KR20070090273A (en) * 2005-01-12 2007-09-05 노키아 코포레이션 Method and system for inter-layer prediction mode coding in scalable video coding
KR20090097016A (en) * 2008-03-10 2009-09-15 삼성전자주식회사 Apparatus of encoding image and apparatus of decoding image
US20100135393A1 (en) * 2007-06-27 2010-06-03 Yong Ying Gao Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
KR101014667B1 (en) * 2004-05-27 2011-02-16 삼성전자주식회사 Video encoding, decoding apparatus and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101014667B1 (en) * 2004-05-27 2011-02-16 삼성전자주식회사 Video encoding, decoding apparatus and method
KR20070090273A (en) * 2005-01-12 2007-09-05 노키아 코포레이션 Method and system for inter-layer prediction mode coding in scalable video coding
KR20070006123A (en) * 2005-07-07 2007-01-11 삼성전자주식회사 Method and apparatus for video encoding and decoding
US20100135393A1 (en) * 2007-06-27 2010-06-03 Yong Ying Gao Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
KR20090097016A (en) * 2008-03-10 2009-09-15 삼성전자주식회사 Apparatus of encoding image and apparatus of decoding image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015105385A1 (en) * 2014-01-09 2015-07-16 삼성전자 주식회사 Scalable video encoding/decoding method and apparatus
CN106105208A (en) * 2014-01-09 2016-11-09 三星电子株式会社 Scalable video/coding/decoding method and equipment
US10469853B2 (en) 2014-01-09 2019-11-05 Samsung Electronics Co., Ltd. Scalable video encoding/decoding method and apparatus
CN106105208B (en) * 2014-01-09 2020-04-07 三星电子株式会社 Scalable video encoding/decoding method and apparatus

Similar Documents

Publication Publication Date Title
WO2020071830A1 (en) Image coding method using history-based motion information, and device therefor
WO2017209328A1 (en) Intra-prediction method and apparatus in image coding system
WO2020050684A1 (en) Image encoding/decoding method and device using intra prediction
WO2014171713A1 (en) Method and apparatus for video encoding/decoding using intra prediction
WO2014084656A1 (en) Method and device for encoding/ decoding image supporting plurality of layers
WO2017082443A1 (en) Method and apparatus for adaptively predicting image using threshold value in image coding system
WO2019117639A1 (en) Image coding method on basis of transformation and device therefor
WO2017065509A2 (en) Image decoding method and apparatus in image coding system
WO2014038906A1 (en) Image decoding method and apparatus using same
WO2016159610A1 (en) Method and apparatus for processing video signal
WO2015009036A1 (en) Method and apparatus for predicting inter-layer based on temporal sub-layer information
WO2019125035A1 (en) Method for coding image on basis of selective transform and device therefor
WO2014038905A2 (en) Image decoding method and apparatus using same
WO2020167097A1 (en) Derivation of inter-prediction type for inter prediction in image coding system
WO2016122251A1 (en) Method and apparatus for processing video signals
WO2015009021A1 (en) Method and apparatus for encoding/decoding scalable video signal
WO2020141831A2 (en) Image coding method and apparatus using intra block copy prediction
WO2013147495A1 (en) Scalable video encoding/decoding method and apparatus
WO2015037922A1 (en) Method and apparatus for encoding/decoding scalable video signal
WO2015083987A1 (en) Method and device for encoding/decoding multi-layer video signal
WO2014189300A1 (en) Method and apparatus for coding video supporting plurality of layers
WO2014098374A1 (en) Scalable video decoding method using mpm, and apparatus using such method
WO2020138958A1 (en) Bidirectional prediction method and image decoding device
WO2014007514A1 (en) Method for decoding image and apparatus using same
WO2021118309A1 (en) Method and apparatus for processing video signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13770091

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13770091

Country of ref document: EP

Kind code of ref document: A1