WO2014163437A2 - 계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치 - Google Patents

계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치 Download PDF

Info

Publication number
WO2014163437A2
WO2014163437A2 PCT/KR2014/002940 KR2014002940W WO2014163437A2 WO 2014163437 A2 WO2014163437 A2 WO 2014163437A2 KR 2014002940 W KR2014002940 W KR 2014002940W WO 2014163437 A2 WO2014163437 A2 WO 2014163437A2
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
block
reference sample
layer
lower layer
Prior art date
Application number
PCT/KR2014/002940
Other languages
English (en)
French (fr)
Other versions
WO2014163437A3 (ko
Inventor
이진호
강정원
이하현
최진수
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/782,246 priority Critical patent/US20160021382A1/en
Priority claimed from KR1020140040776A external-priority patent/KR20140122189A/ko
Publication of WO2014163437A2 publication Critical patent/WO2014163437A2/ko
Publication of WO2014163437A3 publication Critical patent/WO2014163437A3/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Definitions

  • the present invention relates to a method for video encoding and decoding and an apparatus using the same. More specifically, the present invention relates to a method of using information of a corresponding reference picture in a reference layer to generate a prediction sample for a block to be encoded or decoded in a current layer. Relates to a device.
  • an inter prediction technique for predicting pixel values included in a current picture from a previous and / or subsequent picture in time, and predicting pixel values included in a current picture using pixel information in the current picture.
  • An intra prediction technique an entropy encoding technique for allocating a short code to a symbol with a high frequency of appearance and a long code for a symbol with a low frequency of appearance, may be used.
  • Video compression technology is a technology that provides a constant network bandwidth under a limited operating environment of hardware without considering a fluid network environment.
  • a new compression technique is required to compress image data applied to a network environment in which bandwidth changes frequently, and a scalable video encoding / decoding method may be used for this purpose.
  • joint prediction may be performed using reconstructed samples around samples of a target block or samples of a lower layer.
  • have by combining the prediction value using the information of the upper layer and the prediction value using the information of the lower layer, or by performing the prediction after combining the information of the upper layer and the lower layer, to minimize the prediction error to improve the coding efficiency There is this.
  • the present invention also provides a method and apparatus for performing prediction using information of another layer by adding a decoded picture of a lower layer (reference layer) to a reference picture list for an encoding / decoding target in the current layer.
  • the purpose is a decoded picture of a lower layer (reference layer) to a reference picture list for an encoding / decoding target in the current layer.
  • the present invention also provides a method and apparatus for generating a prediction signal such that a difference signal between an original signal and a prediction signal is minimized by performing prediction (eg, motion prediction) on a decoded picture of a lower layer (reference layer). It aims to provide.
  • prediction eg, motion prediction
  • An object of the present invention is to provide a method and apparatus for determining a position in a reference picture list of a decoded picture of a reference layer).
  • An image decoding apparatus is an image decoding apparatus using intra-layer combined intra prediction, and includes a sample included in a block reconstructed around a target block of a higher layer and a target block of a higher layer. At least one of a sample included in a corresponding block of a lower layer, a sample included in a corresponding block of a lower layer corresponding to a block reconstructed around a target block of a higher layer, and a sample included in any specific block of a lower layer.
  • a reference sample generator for generating a reference sample by the included sample, a prediction performing unit for generating a prediction value for the target block using the reference sample, and a final prediction value for the prediction target block using the prediction value. It may include a prediction value generator to generate.
  • a filter is applied to the reference sample, and a filter is applied to the reference sample when a reference sample is generated using a block of a lower layer.
  • a reference sample may be generated by combining the samples.
  • the combining of the samples may combine two or more values by performing any one operation of addition, subtraction, multiplication, division, and shift.
  • the weights of the values of each sample may be differently applied.
  • no filter may be applied to the reference sample.
  • the prediction performing unit may include prediction using a reference sample of a higher layer, prediction using a reference sample of a lower layer, prediction using a sample in which a reference sample of a higher layer is combined with a reference sample of a lower layer, and a lower layer corresponding to a target block of an upper layer. It may include performing one or more predictions of the prediction with the corresponding block of the layer.
  • a filter may not be applied to the boundary prediction value of the predicted block when the reference sample of the lower layer or the combined reference sample is used.
  • the prediction value generator may include combining two or more prediction values generated by the prediction execution unit to generate a final prediction value.
  • the weights of the prediction values may be combined differently.
  • an image encoding and / or decoding method using intra-layer combined intra-picture prediction comprising: a sample included in a block reconstructed around a target block of a higher layer and a lower layer corresponding to a target block of a higher layer Samples included in any one or more of the samples included in the block, the samples included in the corresponding block of the lower layer corresponding to the block reconstructed around the target block of the upper layer, and the samples included in any particular block of the lower layer.
  • Generating a reference sample by using the reference sample performing a prediction on generating the prediction value for the target block by using the reference sample, and generating a final prediction value on the prediction target block by using the prediction value.
  • a filter is applied to the reference sample, and a filter is applied to the reference sample when a reference sample is generated using a block of a lower layer.
  • a reference sample may be generated by combining the samples, and the combining of the samples may be performed by any one of addition, subtraction, multiplication, division, and shift to generate two or more values. Can be combined.
  • the combination of the samples may be combined by applying different weights of values of each sample.
  • no filter may be applied to the reference sample.
  • the performing of the prediction may include prediction using a reference sample of a higher layer, prediction using a reference sample of a lower layer, prediction using a sample in which a reference sample of a higher layer and a reference sample of a lower layer are combined, corresponding to a target block of a higher layer. It may include performing one or more predictions of the prediction with the corresponding block of the lower layer.
  • a filter may not be applied to the boundary prediction value of the predicted block when the reference sample of the lower layer or the combined reference sample is used.
  • the generating of the prediction value may include combining two or more prediction values generated in the prediction step to generate a final prediction value.
  • the weights of the prediction values may be combined differently.
  • the prediction and encoding / decoding efficiency can be improved by combining prediction values using a reconstructed reference sample around a target block and a sample of a lower layer. There is an advantage to that.
  • the prediction value using the information of the upper layer and the prediction value using the information of the lower layer are combined, or the prediction is performed after combining the information of the upper layer and the lower layer, thereby minimizing the prediction error to improve the coding efficiency. You can.
  • encoding efficiency is minimized by minimizing a prediction error. Can be improved.
  • encoding efficiency can be improved by performing prediction (eg, motion prediction) on a decoded picture of a lower layer (reference layer) to minimize the difference signal between the original signal and the prediction signal. .
  • prediction eg, motion prediction
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
  • 3 is a diagram for explaining an embodiment of an intra prediction process.
  • FIG. 4 is a diagram for explaining an embodiment of an intra prediction process.
  • FIG. 5 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.
  • 6A is a diagram schematically illustrating a reference sample generator for predicting a target block according to an embodiment of the present invention.
  • 6B is a diagram schematically illustrating a reference sample generator for predicting a target block according to an embodiment of the present invention.
  • FIG. 7 illustrates an embodiment of performing intra prediction using a reference sample.
  • FIG. 8 illustrates another embodiment of performing intra prediction using a reference sample.
  • FIG. 9 illustrates another embodiment of combining prediction values to generate final prediction values.
  • FIG. 10 illustrates another embodiment of combining prediction values to generate final prediction values.
  • FIG. 11 illustrates an embodiment of an image encoding and / or decoding method using intra-layer combined intra prediction.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
  • each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
  • Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • the present invention relates to video encoding and decoding of a structure including a plurality of layers.
  • an upper layer current layer, hereinafter referred to as a 'current layer'
  • the present invention uses a lower layer information to transmit to a higher layer.
  • the present invention relates to a method and an apparatus for performing prediction.
  • a decoded picture of a lower layer (reference layer)
  • the reference picture list may be generated, including.
  • the lower layer (reference layer, hereinafter referred to as 'reference layer') is adaptively used by using encoding information and depth information of a prediction structure. By adding the decoded picture, the coding efficiency can be increased.
  • the present invention relates to the encoding / decoding of an image including a plurality of layers and / or views, wherein the plurality of layers or views are represented by a first, second, third, n-th layer or view.
  • an image in which the first layer and the second layer exist is described as an example, and the same may be applied to more layers or viewpoints.
  • the first layer may be expressed as a base layer
  • the second layer may be expressed as an enhancement layer.
  • the picture / block of the lower layer corresponding to the picture / block of the higher layer may be changed according to the size of the higher layer picture / block. That is, when the size of the picture / block of the lower layer is smaller than the picture / block of the upper layer, scaling may be performed using a method such as up-sampling. In the following description, it may be assumed that the size of a picture / block of a lower layer is converted to match the size of a picture / block of an upper layer.
  • Whether or not the present invention is used may be signaled and transmitted to the decoder. For example, a flag bit called 'combined_intra_pred_flag' may be transmitted. When the value of 'combined_intra_pred_flag' is transmitted as '1', it may indicate that the combined intra prediction method is used, and when the value of 'combined_intra_pred_flag' is transmitted as '0', the combined intra screen prediction method is not used. It may indicate that normal intra prediction is performed.
  • the flag may be transmitted through at least one of a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), a slice header, and the like, or a coding unit (CU) and a prediction unit (PU). ), And may be transmitted in units of transform units (TUs).
  • VPS video parameter set
  • SPS sequence parameter set
  • PPS picture parameter set
  • CU coding unit
  • PU prediction unit
  • TUs transform units
  • the method of the present invention may be used differently according to the block size, the intra prediction mode, or the luminance / color difference signal. That is, it may be applied only to a specific block size or only to a prediction mode within a specific screen. Alternatively, the present invention may be applied to a luminance signal but not to a chrominance signal.
  • information of a corresponding weight may be transmitted using one of the methods of transmitting the flag.
  • In-picture prediction may perform directional prediction or non-directional prediction using one or more reconstructed reference samples.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
  • a scalable video encoding / decoding apparatus for a multi-layered structure may be implemented by extending a video encoding / decoding apparatus for a single layered structure.
  • FIG. 1 illustrates an embodiment of a video encoding apparatus applicable to a multi-layered structure, that is, providing scalability.
  • the video encoding apparatus 100 may include an inter predictor 110, an intra predictor 120, a switch 115, a subtractor 125, a transformer 130, a quantizer 140, and entropy.
  • An encoder 150, an inverse quantizer 160, an inverse transformer 170, an adder 175, a filter 180, and a reference picture buffer 190 are included.
  • the video encoding apparatus 100 may perform encoding on an input image in an intra mode or an inter mode and output a bitstream.
  • Intra prediction means intra prediction and inter prediction means inter prediction.
  • the switch 115 is switched to the intra mode, and in the inter mode, the switch 115 is switched to the inter mode.
  • the video encoding apparatus 100 may generate a prediction block for a block (current block) of the input picture and then encode a difference between the current block and the prediction block.
  • the intra predictor 120 may use a pixel value of an already encoded block around the current block as a reference pixel.
  • the intra predictor 120 may perform spatial prediction using the reference appeal and generate prediction samples for the current block.
  • the inter prediction unit 110 may obtain a motion vector specifying a reference block having the smallest difference from the input block (the current block) in the reference picture stored in the reference picture buffer 190.
  • the inter prediction unit 110 may generate a prediction block for the current block by performing motion compensation using the motion vector and the reference picture stored in the reference picture buffer 190.
  • inter prediction applied in inter mode may include inter layer prediction.
  • the inter prediction unit 110 may construct an inter-layer reference picture by sampling a picture of the reference layer, and may perform inter-layer prediction by including the inter-layer reference picture in the reference picture list.
  • the reference relationship between layers may be signaled through information specifying dependencies between layers.
  • sampling applied to the reference layer picture may mean generation of a reference sample by copying or interpolating from a reference layer picture.
  • sampling applied to the reference layer picture may mean upsampling.
  • an inter-layer reference picture may be configured by up-sampling a reconstructed picture of a reference layer between layers that support scalability with respect to resolution when inter-layer resolutions are different.
  • the encoding apparatus may transmit information specifying the layer to which the picture to be used as the inter-layer reference picture belongs, to the decoding apparatus.
  • a picture used for prediction of a current block in a layer referred to in inter-layer prediction may be a picture having the same access unit as the current picture (picture to be predicted in the current layer).
  • the subtractor 125 may generate a residual block (residual signal) by the difference between the current block and the prediction block.
  • the transformer 130 may perform a transform on the residual block and output a transform coefficient.
  • the transform unit 130 may omit the transform for the residual block.
  • the quantization unit 140 may output the quantized coefficient by quantizing the transform coefficients according to the quantization parameter.
  • the entropy encoder 150 may output a bitstream by entropy encoding the values calculated by the quantizer 140 or the encoding parameter values calculated in the encoding process according to a probability distribution.
  • the entropy encoder 150 may entropy encode information (eg, syntax elements) for video decoding in addition to the pixel information of the video.
  • the encoding parameter is information necessary for encoding and decoding, and may include information that may be inferred in the encoding or decoding process as well as information encoded in the encoding apparatus and delivered to the decoding apparatus, such as a syntax element.
  • Coding parameters include, for example, intra / inter prediction modes, moving / motion vectors, reference picture indexes, coded block patterns, residual signals, transform coefficients, quantized transform coefficients, quantization parameters, block sizes, block division information, and the like. Or statistics.
  • the residual signal may mean a difference between the original signal and the prediction signal, and a signal in which the difference between the original signal and the prediction signal is transformed or a signal in which the difference between the original signal and the prediction signal is converted and quantized It may mean.
  • the residual signal may be referred to as a residual block in block units.
  • entropy encoder 150 may perform entropy encoding by using a variable length coding (VLC) table.
  • VLC variable length coding
  • the entropy encoder 150 derives a binarization method of a target symbol and a probability model of a target symbol / bin, and then performs entropy encoding using the derived binarization method or a probability model. You may.
  • the quantized coefficients may be inversely quantized by the inverse quantizer 160 and inversely transformed by the inverse transformer 170.
  • the inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 175 and a reconstruction block can be generated.
  • the reconstruction block passes through the filter unit 180, and the filter unit 180 applies at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstructed block or reconstructed picture. can do.
  • the reconstructed block that has passed through the filter unit 180 may be stored in the reference image buffer 190.
  • FIG. 2 is a block diagram illustrating a configuration of a video decoding apparatus according to an embodiment.
  • a scalable video encoding / decoding apparatus for a multi-layered structure may be implemented by extending a video encoding / decoding apparatus for a single layered structure.
  • FIG. 2 illustrates an embodiment of a video decoding apparatus that is applicable to a multi-layered structure, that is, provides scalability.
  • the video decoding apparatus 200 includes an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, an inter predictor 250, and a filter. 260 and a reference picture buffer 270.
  • the video decoding apparatus 200 may receive a bitstream output from the encoding apparatus, perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image.
  • the switch In the intra mode, the switch may be switched for intra prediction, and in the inter mode, the switch may be switched for inter prediction.
  • the video decoding apparatus 200 may obtain a residual block reconstructed from the received bitstream, generate a prediction block, and then add the reconstructed residual block and the prediction block to generate a reconstructed block, that is, a reconstruction block. have.
  • the entropy decoder 210 may entropy decode the input bitstream according to a probability distribution, and output information such as quantized coefficients and syntax elements.
  • the quantized coefficients are inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230. Inverse quantization / inverse transformation of the quantized coefficients may produce a reconstructed residual block.
  • the intra predictor 240 may perform spatial prediction by using pixel values of an already encoded block around the current block and generate a prediction block for the current block.
  • the inter prediction unit 250 may generate a prediction block for the current block by performing motion compensation using the reference picture stored in the motion vector and the reference picture buffer 270.
  • inter prediction applied in inter mode may include inter layer prediction.
  • the inter prediction unit 250 may construct an inter-layer reference picture by sampling a picture of the reference layer, and may perform inter-layer prediction by including the inter-layer reference picture in the reference picture list.
  • the reference relationship between layers may be signaled through information specifying dependencies between layers.
  • sampling applied to the reference layer picture may mean generation of a reference sample by copying or interpolating from a reference layer picture.
  • sampling applied to the reference layer picture may mean upsampling.
  • the inter-layer reference picture may be configured by upsampling the reconstructed picture of the reference layer.
  • information specifying a layer to which a picture to be used as an inter-layer reference picture belongs may be transmitted from the encoding apparatus to the decoding apparatus.
  • a picture used for prediction of a current block in a layer referred to in inter-layer prediction may be a picture having the same access unit as the current picture (picture to be predicted in the current layer).
  • the reconstructed residual block and the predictive block are added at the adder 255 to generate a reconstructed block.
  • the residual sample and the predictive sample are added to generate a reconstructed sample or a reconstructed picture.
  • the reconstructed picture is filtered by the filter unit 260.
  • the filter unit 260 may apply at least one or more of the deblocking filter, SAO, and ALF to the reconstructed block or the reconstructed picture.
  • the filter unit 260 outputs a modified or filtered reconstructed picture.
  • the reconstructed picture may be stored in the reference picture buffer 270 and used for inter prediction.
  • the image decoding apparatus 200 may further include a parsing unit (not shown) which parses information related to an encoded image included in a bitstream.
  • the parser may include the entropy decoder 210 or may be included in the entropy decoder 210. Such a parser may also be implemented as one component of the decoder.
  • one encoding device / decoding device processes both encoding / decoding for multiple layers. However, this is for convenience of description, and the encoding device / decoding device may be configured for each layer.
  • the encoding device / decoding device of the higher layer may perform encoding / decoding of the corresponding upper layer by using the information of the upper layer and the information of the lower layer.
  • the prediction unit (inter prediction unit) of the upper layer may perform intra prediction or inter prediction on the current block using pixel information or picture information of the upper layer, and receives picture information reconstructed from the lower layer and Inter prediction (inter layer prediction) may be performed on a current block of a higher layer by using the interlayer prediction.
  • Inter prediction inter layer prediction
  • the encoding device / decoding device performs encoding / decoding on the current layer using information of another layer regardless of whether it is configured for each layer or one device processes multiple layers. can do.
  • the layer may include a view.
  • information of another layer between layers specified as being dependent by information specifying inter-layer dependency is not used to perform prediction of a higher layer by using information of lower layer.
  • Inter layer prediction may be performed using.
  • 3 is a diagram for explaining an embodiment of an intra prediction process.
  • the number of intra prediction modes can be fixed to 35 regardless of the size of the prediction block.
  • the prediction modes are composed of two non-directional modes (DC, Planar) and 33 directional modes as shown in FIG. 3. Can be.
  • the number of prediction modes may vary depending on whether the color component is a luma signal or a chroma signal.
  • the size of the prediction block may be NxN-shaped squares such as 4x4, 8x8, 16x16, 32x32, 64x64.
  • the unit of the prediction block may be at least one of a coding block (CB), a prediction block (PB), and a transform block (TB). In-picture / decoding may be performed using sample values or encoding parameters included in neighboring reconstructed blocks.
  • FIG. 4 is a diagram for explaining an embodiment of an intra prediction process.
  • the reconstructed block around the current block may be the block EA 400, EB 410, EC 420, ED 430, or EG 450 in the order of sub / decoding, and the 'above 415'
  • the sample values corresponding to ',' above_left 405 ',' left 435 ', and' bottom_left 445 ' may be reference samples used for intra prediction of the target block 440.
  • the encoding parameter may be at least one of an encoding mode (in picture or between pictures), an intra picture prediction mode, an inter picture prediction mode, a block size, a quantization parameter (QP), and a coded block flag (CBF).
  • Each block may be divided into smaller blocks, and even in this case, prediction may be performed using sample values or encoding parameters corresponding to each divided block.
  • the filter can be applied to the surrounding reconstructed reference samples used for the intra prediction.
  • whether or not the filter is adaptively applied may vary depending on the size of the target block or the intra prediction mode.
  • a filter may be applied to a sample located at the boundary of the predicted block. For example, after performing prediction on the target block in FIG. 4, a filter may be applied to samples inside the target block located at the boundaries of 'above 410' and 'left 430', and intra prediction Depending on the mode, filters can be applied and samples applied differently.
  • FIG. 5 is a block diagram illustrating an image decoding apparatus, according to an exemplary embodiment.
  • the image decoding apparatus includes a reference sample generator 510, a prediction performer 520, and a prediction value generator 530.
  • the reference sample generator 510 is an apparatus using intra-layer combined intra prediction, and includes a sample included in a block reconstructed around a target block of a higher layer and a corresponding block of a lower layer corresponding to a target block of a higher layer.
  • the prediction performer 520 generates a prediction value for the target block by using the reference sample.
  • the prediction value generator 530 generates a final prediction value for the prediction target block by using the prediction value.
  • FIG. 6 is a diagram schematically illustrating an operation of a reference sample generator that performs prediction of a target block according to an embodiment of the present invention.
  • the reference sample generator 510 may generate a reference sample for predicting the encoding / decoding target block of the higher layer. In this case, the availability of the reference sample may be determined, and the available sample may be padded with the available sample.
  • a filter may be applied to the generated reference sample. Whether to apply the filter may be adaptively determined according to the size of the target block or the intra prediction mode.
  • an 8 ⁇ 8 block is illustrated as an example as shown in FIG. 6.
  • pE [x, y] represents a restored sample value at position (x, y) in the upper layer
  • pB [x, y] indicates a restored sample value at position (x, y) in the lower layer.
  • the shaded samples may be reconstructed samples having a sample value.
  • the reference sample generator 510 may generate a reference sample by using the samples included in the reconstructed blocks around the higher layer target block.
  • a reference sample may be generated by combining the samples.
  • combining may mean combining two or more values by performing operations such as addition, subtraction, multiplication, division, and shift.
  • each value may be combined by applying different weights, and the combined reference sample values may be represented by pF [x, y].
  • a combined reference sample may be generated by the difference between the reference samples generated by using the samples included in the corresponding block.
  • Equation 1 Equation 1
  • Equation 2 Equation 2
  • a combined reference sample may be generated using an average value of the reference samples generated using the samples included in the corresponding block.
  • Equation 3 Equation 3.
  • a reference sample is generated using a sample included in the co-located block 630 of the lower layer corresponding to the target block 610 of the upper layer
  • the target of the upper layer When a reference sample is generated using a sample included in a corresponding block of a lower layer corresponding to a reconstructed block around block 610, (3) a reference sample using a sample included in any specific block of the lower layer.
  • a filter may not be applied to the reference sample.
  • the prediction performer 520 may perform intra prediction using the reference sample generated by the reference sample generator 510.
  • the prediction performing unit 520 may perform prediction by using DC prediction, planar prediction, angular prediction, and the like, which are conventional intra prediction methods as shown in FIG. 3.
  • the prediction performing unit 520 may perform prediction (eg, IntraBL) using the reconstructed sample value of the lower layer as a prediction value.
  • the prediction performing unit 520 may apply a filter to prediction samples located at the boundary between the predicted block and the reference sample. Whether to apply the filter may be adaptively determined according to the size of the target block or the intra prediction mode. For example, the prediction performing unit 520 may apply a filter to the boundary samples of the DC prediction or the horizontal / vertical predicted block.
  • the prediction performing unit 520 may perform prediction by using a reference sample of a higher layer.
  • the prediction performing unit 520 may perform intra prediction on the target block by using a reference sample generated by using a sample included in the reconstructed block around the target block of the upper layer.
  • the predicted value of the position (x, y) may be represented as predSamplesE [x, y].
  • the prediction performing unit 520 may perform prediction by using a reference sample of a lower layer.
  • the intra prediction of the target block performed by the prediction performing unit 520 may be included in (1) the co-located block 630 of the lower layer corresponding to the target block 610 of the upper layer.
  • a reference sample generated using the generated sample (2) a reference sample generated using the sample included in the corresponding block of the lower layer corresponding to the reconstructed block around the target block 610 of the upper layer, or (3) It may be performed using a reference sample generated using a sample included in any particular block of the lower layer.
  • the predicted value of the position (x, y) may be represented as predSamplesB [x, y].
  • the prediction performing unit 520 may perform prediction by using a reference sample in which a reference sample of an upper layer and a reference sample of a lower layer are combined. For example, when the prediction performer 520 generates a reference sample by using a sample included in a reconstructed block around the target block of the upper layer, the prediction performer 520 corresponds to a lower layer corresponding to the reconstructed block around the upper layer target block.
  • reference samples are generated using the samples included in the block, reference samples combined with each difference or average may be generated, and intra prediction may be performed using the combined reference samples.
  • the predicted value of the position (x, y) may be represented as predSamplesC [x, y].
  • the prediction performing unit 520 may generate a corresponding block of a lower layer corresponding to a target block of an upper layer as a prediction block. That is, as in the above methods, the prediction performing unit 520 may use the value of the corresponding block of the lower layer as the prediction value without performing the prediction using the reference sample. For example, the prediction performing unit 520 may set the corresponding block of the lower layer of size 8x8 as a prediction value for the target block of the upper layer in FIG. 6.
  • the applied prediction method may be referred to as IntraBL prediction.
  • the predicted value of the position (x, y) may be represented as predSamplesIntraBL [x, y].
  • FIG. 7 illustrates an embodiment of performing intra prediction using a reference sample generated according to the present invention.
  • the prediction performing unit 520 performs prediction using the reference samples of the lower layer
  • the corresponding block 710 of the lower layer corresponding to the reconstructed blocks 600 and 620 around the target block 610 of the higher layer.
  • Intra-prediction may be performed using a reference sample generated by using a sample included in the.
  • the samples included in the corresponding block 710 of the lower layer corresponding to the reconstructed blocks 600 and 620 around the target block 610 of the upper layer are pB [x, ⁇ corresponding to the corresponding block of the lower layer. 1]
  • FIG. 8 illustrates another embodiment of performing intra prediction using a reference sample generated according to the present invention.
  • the prediction performing unit 520 may perform intra prediction using a reference sample generated by using a sample included in any particular block of the lower layer.
  • the prediction execution unit 520 may be able to predict using a conventional intra prediction method.
  • the prediction value generator 530 may generate a final prediction value by combining one or more prediction values among the prediction values generated by the prediction execution unit 520.
  • weights (W) may be combined with each of the prediction values.
  • the final prediction value at the position (x, y) may be represented by predSamplesF [x, y].
  • the predictive value generator 530 may determine a single predictive value as a final predictive value. In this case, according to the reference sample to be used, the prediction value generator 530 may determine the final prediction value as shown in (1) to (3) below.
  • the prediction value generator 530 may determine the value of the prediction using the reference sample of the higher layer as the final prediction value. Specifically, this is shown in Equation 4.
  • the prediction value generator 530 may determine the predicted value as the final predicted value by using the reference sample combined with the average of the reference sample of the upper layer and the reference sample of the lower layer. Specifically, this is shown in Equation 5.
  • the prediction value generator 530 may determine the value predicted by the corresponding block of the lower layer as the final prediction value. Since the co-located block of the lower layer may have a value closest to the original value of the block to be predicted, the coding error may be increased by reducing the prediction error. Specifically, this is shown in Equation 6.
  • the predictive value generator 530 combines two predictive values to determine a final predicted value.
  • the prediction value generator 530 may determine the final prediction value according to (1) to (3) below according to the reference sample to be used.
  • the prediction value generator 530 may determine the final prediction value by combining the value predicted using the reference sample of the upper layer and the value predicted using the reference sample of the lower layer. Specifically, it is represented by Equation 7.
  • FIG. 9 is a diagram schematically illustrating an embodiment of generating a final prediction value by combining prediction values generated according to the present invention.
  • the reference sample of the lower layer may be used together with the reference sample of the upper layer.
  • a reference sample of a lower layer generated by using a sample included in any specific block of the lower layer may be used.
  • the predictor 530 generates a reference sample on the upper and left sides of a corresponding block of the upper layer selected according to the prediction mode 910 in the upper layer, and the lower layer selected according to the prediction mode 920 in the lower layer.
  • the final predicted value may be generated by combining the predicted values using the reference samples at the bottom and the right side of the corresponding block.
  • the prediction effect can be obtained through the top, bottom, left, and right sides of the prediction target block, and the coding efficiency can be increased.
  • FIG. 9 schematically illustrates a method of generating a final prediction value by combining the predicted values by using the reference samples on the upper and left sides of the corresponding blocks of the upper layer and the reference samples on the lower and right sides of the corresponding blocks of the lower layer.
  • the same mode as the intra prediction mode 910 in the upper layer may be used in the lower layer (920).
  • the direction of the prediction mode 920 used in the lower layer is used in the upper layer. It can be seen that the direction of the prediction mode is symmetrical.
  • the prediction value generator 530 may determine a final prediction value by combining a value predicted by using a reference sample of a higher layer and a value predicted by a corresponding block of a lower layer corresponding to a target block of a higher layer. have. Specifically, this is shown in Equation 10.
  • Equation (11) a weight may be added to the reference sample of the lower layer. Specifically, this is shown in Equation (11).
  • Equation 11 for convenience of explanation, the case where the weight is 3: 1 will be described as an example.
  • the prediction value generator 530 estimates a value predicted using a reference sample combined by a difference between a reference sample of an upper layer and a reference sample of a lower layer, and a lower layer corresponding to a target block of an upper layer.
  • the final predicted value may be determined by combining the predicted values with the corresponding blocks of.
  • the prediction value using the combined reference sample may correspond to an error between the upper layer and the lower layer.
  • the final prediction value may be closer to the original sample of the target block of the upper layer, and the residual may be reduced to increase the coding efficiency.
  • Equation 12 Equation 12.
  • FIG. 10 illustrates another embodiment of combining the prediction values generated according to the present invention to generate the final prediction values.
  • the final prediction value may be determined by combining three prediction values.
  • the prediction value generator 530 obtains an intermediate residual through a difference between a value predicted by a corresponding block of a lower layer corresponding to a target block of a higher layer and a value predicted by using a reference sample of a lower layer.
  • the final prediction value may be determined by adding the intermediate residual to a value predicted using a reference sample of a higher layer. That is, the prediction value generator 530 adds the intermediate residual generated from the lower layer to the value predicted using the reference sample of the upper layer to bring the residual closer to the original sample of the target block of the upper layer. Reduce and increase the coding efficiency.
  • FIG. 10 illustrates an intermediate residual using a difference between a value predicted by a corresponding block of a lower layer corresponding to a target block of a higher layer and a value predicted using a reference sample of a lower layer, and then using a reference sample of a higher layer.
  • the method of determining the final prediction value by adding the intermediate residual to the predicted value is outlined.
  • Equation 13 Equation 13
  • FIG. 11 is a flowchart schematically illustrating an embodiment of a video encoding and / or decoding method using inter-layer combined intra-picture prediction according to the present invention.
  • each step of FIG. 11 may be performed in each unit of the image decoding apparatus, for example, a reference sample generator, a prediction performer, or a prediction value generator.
  • the video decoding apparatus performs an operation.
  • the image decoding apparatus generates a reference sample for prediction of a target block of a higher layer (S10).
  • the decoding apparatus includes (1) a sample included in a block reconstructed around a target block of a higher layer, (2) a sample included in a corresponding block of a lower layer corresponding to a target block of a higher layer, and (3) a target block of a higher layer.
  • a reference sample is generated using at least one of a sample included in a corresponding block of a lower layer corresponding to a block reconstructed around, and (4) a sample included in any specific block of a lower layer.
  • the image decoding apparatus performs prediction to generate a prediction value for the target block by using the reference sample (S12).
  • the image decoding apparatus may perform intra prediction using the reference sample generated in step S10.
  • the image decoding apparatus may perform DC prediction, planar prediction, angular prediction, and the like, and may perform prediction such as IntraBL using the reconstructed sample value of the lower layer as a prediction value.
  • the apparatus for decoding an image may apply a filter to prediction samples located at a boundary between the predicted block and the reference sample.
  • the image decoding apparatus generates a final prediction value for the prediction target block by using the prediction value (S14).
  • the image decoding apparatus may generate a value obtained by combining one or more prediction values among the prediction values generated in operation S12 as a final prediction value.
  • the image decoding apparatus may combine the prediction values by applying weight (W).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 계층 간 결합된 화면 내 예측을 이용한 영상 부호화 및/또는 복호화 장치 및/또는 방법으로서, 상위 계층의 대상 블록 주변에 복원된 블록에 포함된 샘플, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 상위 계층의 대상 블록 주변에 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 하위 계층의 임의의 특정 블록에 포함된 샘플 중 어느 하나 이상의 블록에 포함되는 샘플에 의하여 참조 샘플을 생성하는 참조 샘플 생성부, 상기 참조 샘플을 이용하여 상기 대상 블록에 대한 예측 값을 생성하는 예측 수행부 및 상기 예측 값을 이용하여 예측 대상 블록에 대한 최종 예측 값을 생성하는 예측 값 생성부를 포함한다.

Description

계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치
본 발명은 비디오 부호화 및 복호화에 관한 방법과 이를 이용하는 장치에 관한 것으로서, 구체적으로는 현재 계층의 부호화 혹은 복호화 대상 블록에 대한 예측 샘플을 생성하기 위해 참조 계층 내 대응하는 참조 픽처의 정보를 이용하는 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 해상도를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상에 대한 압축기술이 요구되고 있다.
영상 압축을 위해, 시간적으로 이전 및/또는 이후의 픽처로부터 현재 픽처에 포함된 화소값을 예측하는 화면 간(inter) 예측 기술, 현재 픽처 내의 화소 정보를 이용하여 현재 픽처에 포함된 화소값을 예측하는 화면 내(intra) 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 기술 등이 사용될 수 있다.
영상 압축 기술에는 유동적인 네트워크 환경을 고려하지 않고 하드웨어의 제한적인 동작 환경하에서 일정한 네트워크 대역폭을 제공하는 기술이 있다. 그러나 수시로 대역폭이 변화하는 네트워크 환경에 적용되는 영상 데이터를 압축하기 위해서는 새로운 압축 기술이 요구되고, 이를 위해 스케일러블(scalable) 비디오 부호화/복호화 방법이 사용될 수 있다.
또한, 다양한 공간적 해상도(Spatial Resolution), 다양한 프레임 율(Frame-rate)을 지원할 수 있는 하나의 통합된 데이터를 생성하여 다양한 전송환경과 다양한 단말들에게 데이터를 효율적으로 전송하고자 하는 요구가 증가하고 있다.
본 발명은 전술한 종래기술의 문제점을 해결하기 위하여 상위 계층의 대상 블록에 대한 화면 내 예측을 수행함에 있어, 대상 블록의 주변의 복원된 샘플 또는 하위 계층의 샘플들을 이용하여 결합 예측을 수행할 수 있다. 즉, 상위 계층의 정보를 이용한 예측 값과 하위 계층의 정보를 이용한 예측 값을 결합하거나, 상위 계층과 하위 계층의 정보를 결합한 후 예측을 수행함으로써, 예측 오차를 최소화하여 부호화 효율을 향상시키는데 그 목적이 있다.
본 발명은 또한, 하위 계층(참조 계층)의 복호화된 픽처를 현재 계층 내 부호화/복호화 대상에 대한 참조 픽처 리스트에 추가하여 다른 계층의 정보를 이용한 예측을 수행할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 또한, 하위 계층(참조 계층)의 복호화된 픽처를 대상으로 예측(예컨대, 움직임 예측)을 수행하여 원본 신호와 예측 신호 사이의 차분 신호가 최소가 되도록 예측 신호를 생성하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 또한, 하위 계층(참조 계층)의 복호화된 픽처를 현재 부호화/복호화 대상 블록에 대한 참조 픽처 리스트에 추가할 때, 부호화 정보, 예측 구조의 깊이 정보 등을 이용하여 적응적으로 하위 계층(참조 계층)의 복호화된 픽처의 참조 픽처 리스트 내 위치를 결정하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 영상 복호화 장치는, 계층 간 결합된 화면 내 예측을 이용한 영상 복호화 장치로서, 상위 계층의 대상 블록 주변에 복원된 블록에 포함된 샘플, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 상위 계층의 대상 블록 주변에 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 하위 계층의 임의의 특정 블록에 포함된 샘플 중 어느 하나 이상의 블록에 포함되는 샘플에 의하여 참조 샘플을 생성하는 참조 샘플 생성부와, 상기 참조 샘플을 이용하여 상기 대상 블록에 대한 예측 값을 생성하는 예측 수행부 및 예측 값을 이용하여 예측 대상 블록에 대한 최종 예측 값을 생성하는 예측 값 생성부를 포함 할 수 있다.
다른 실시예로서, 하위 계층의 블록을 이용하지 않고 참조 샘플을 생성하는 경우, 참조 샘플에 대하여 필터 적용을 하고, 하위 계층의 블록을 이용하여 참조 샘플을 생성하는 경우, 상기 참조 샘플에 대하여 필터 적용을 하지 않을 수 있다.
또 다른 실시예로서, 상기 샘플들의 결합에 의하여 참조 샘플을 생성할 수 있다. 상기 샘플들의 결합은 덧셈, 뺄셈, 곱셈, 나눗셈, 쉬프트(shift)중 어느 하나의 연산을 수행하여 2개 이상의 값을 결합 할 수 있다.
또 다른 실시예로서, 상기 참조 샘플 생성부의 블록에 포함되는 샘플들의 결합시 각 샘플의 값의 가중치를 다르게 적용하여 결합 할 수 있다.
또 다른 실시예로서, 상기 참조 샘플에 대하여 필터 적용을 하지 않을 수 있다.
상기 예측 수행부는 상위 계층의 참조 샘플을 이용한 예측, 하위 계층의 참조 샘플을 이용한 예측, 상위 계층의 참조 샘플과 하위 계층의 참조 샘플이 결합된 샘플을 이용한 예측, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록으로 예측 중 하나 이상의 예측을 수행하는 것을 포함 할 수 있다.
또 다른 실시예로서, 하위 계층의 참조 샘플을 이용한 경우 또는 결합된 참조 샘플을 이용한 경우 예측된 블록의 경계 예측 값에 대해 필터를 적용하지 않을 수 있다.
상기 예측 값 생성부는 상기 예측 수행부에서 생성한 예측 값을 두개 이상 결합하여 최종 예측 값으로 생성하는 것을 포함 할 수 있다.
또 다른 실시예로서, 상기 예측 값을 두개 이상 결합시 각 예측 값의 가중치를 다르게 하여 결합할 수 있다.
다른 실시예로서, 계층 간 결합된 화면 내 예측을 이용한 영상 부호화 및/또는 복호화 방법으로서, 상위 계층의 대상 블록 주변에 복원된 블록에 포함된 샘플, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 상위 계층의 대상 블록 주변에 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 하위 계층의 임의의 특정 블록에 포함된 샘플 중 어느 하나 이상의 블록에 포함되는 샘플에 의하여 참조 샘플을 생성하는 단계, 상기 참조 샘플을 이용하여 상기 대상 블록에 대한 예측 값을 생성하는 예측 수행 단계 및 예측 값을 이용하여 예측 대상 블록에 대한 최종 예측 값을 생성하는 단계를 포함 할 수 있다.
또 다른 실시예로서, 하위 계층의 블록을 이용하지 않고 참조 샘플을 생성하는 경우, 참조 샘플에 대하여 필터 적용을 하고, 하위 계층의 블록을 이용하여 참조 샘플을 생성한 경우 상기 참조 샘플에 대하여 필터 적용을 하지 않을 수 있다.
또 다른 실시예로서, 상기 샘플들의 결합에 의하여 참조 샘플을 생성할 수 있으며, 상기 샘플들의 결합은 덧셈, 뺄셈, 곱셈, 나눗셈, 쉬프트(shift)중 어느 하나의 연산을 수행하여 2개 이상의 값을 결합할 수 있다.
또 다른 실시예로서, 상기 샘플들의 결합시 각 샘플의 값의 가중치를 다르게 적용하여 결합할 수 있다.
또 다른 실시예로서, 상기 참조 샘플에 대하여 필터 적용을 하지 않을 수 있다.
상기 예측 수행 단계는 상위 계층의 참조 샘플을 이용한 예측, 하위 계층의 참조 샘플을 이용한 예측, 상위 계층의 참조 샘플과 하위 계층의 참조 샘플이 결합된 샘플을 이용한 예측, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록으로 예측 중 하나 이상의 예측을 수행하는 것을 포함 할 수 있다.
또 다른 실시예로서, 하위 계층의 참조 샘플을 이용한 경우 또는 결합된 참조 샘플을 이용한 경우 예측된 블록의 경계 예측 값에 대해 필터를 적용하지 않을 수 있다.
상기 예측 값을 생성하는 단계는 상기 예측 수행 단계에서 생성한 예측 값을 두개 이상 결합하여 최종 예측 값으로 생성하는 것을 포함 할 수 있다.
또 다른 실시예로서, 상기 예측 값을 두개 이상 결합시 각 예측 값의 가중치를 다르게 하여 결합할 수 있다.
본 발명에 따르면, 상위 계층의 대상 블록에 대한 화면 내 예측을 수행함에 있어, 대상 블록 주변의 복원된 참조 샘플 및 하위 계층의 샘플을 이용한 예측 값을 결합함으로써 예측 및 부/복호화 효율을 향상시킬 수 있는 이점이 있다.
본 발명에 의하면, 상위 계층의 정보를 이용한 예측 값과 하위 계층의 정보를 이용한 예측 값을 결합하거나, 상위 계층과 하위 계층의 정보를 결합한 후 예측을 수행함으로써, 예측 오차를 최소화하여 부호화 효율을 향상시킬 수 있다.
본 발명에 의하면, 하위 계층(참조 계층)의 복호화된 픽처를 현재 계층 내 부호화/복호화 대상에 대한 참조 픽처 리스트에 추가하여 다른 계층의 정보를 이용한 예측을 수행함으로써, 예측 오차를 최소화 하여 부호화 효율을 향상시킬 수 있다.
본 발명에 의하면, 하위 계층(참조 계층)의 복호화된 픽처를 대상으로 예측(예컨대, 움직임 예측)을 수행하여 원본 신호와 예측 신호 사이의 차분 신호가 최소가 되도록 함으로써, 부호화 효율을 향상시킬 수 있다.
도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 화면 내 예측 과정의 실시예를 설명하기 위한 도면이다.
도 4는 화면 내 예측 과정의 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 부호화 장치를 나타내는 블록도이다.
도 6a는 본 발명의 일 실시예에 따른 대상 블록의 예측을 위한 참조 샘플 생성부를 개략적으로 도시한 도면이다.
도 6b는 본 발명의 일 실시예에 따른 대상 블록의 예측을 위한 참조 샘플 생성부를 개략적으로 도시한 도면이다.
도 7은 참조샘플을 이용하여 화면 내 예측을 하는 일 실시예를 나타낸다.
도 8은 참조샘플을 이용하여 화면 내 예측을 하는 다른 실시예를 나타낸다.
도 9는 예측 값을 결합하여 최종 예측 값을 생성하는 또 다른 실시예를 나타낸다.
도 10은 예측 값을 결합하여 최종 예측 값을 생성하는 또 다른 실시예를 나타낸다.
도 11은 계층 간 결합된 화면 내 예측을 이용한 영상 부호화 및/또는 복호화 방법의 일 실시예를 나타낸다.
본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
본 발명은 복수 계층을 포함하는 구조의 영상 부호화 및 복호화에 관한 기술로서, 상위 계층(현재 계층, 이하 ‘현재 계층’라 함)을 부호화/복호화 하는 경우에 하위 계층의 정보를 이용하여 상위 계층에 대한 예측을 수행하는 방법 및 장치에 관한 것이다.
더 구체적으로, 본 발명에 의하면 상위 계층(현재 계층)의 부호화/복호화 대상 픽처에 대한 움직임 예측에 사용되는 참조 픽처 리스트(reference picture list)를 생성함에 있어서, 하위 계층(참조 계층)의 복호화된 픽처를 포함하여 참조 픽처 리스트를 생성할 수 있다.
하위 계층(참조 계층)의 복호화된 픽처를 포함하여 상위 계층의 참조 픽처 리스트를 생성함에 있어서 부호화 정보 및 예측 구조의 깊이 정보 등을 이용하여 적응적으로 하위 계층(참조 계층, 이하 ‘참조 계층’이라 함)의 복호화된 픽처를 추가함으로써, 부호화 효율을 높일 수 있다.
본 발명은 복수의 계층(layer) 및/또는 시점(view)을 포함하는 영상의 부/복호화에 관한 것으로 상기 복수의 계층 또는 시점은 제1, 제2, 제3, 제n 계층 또는 시점으로 표현할 수 있다. 이하 설명에서는 제1 계층과 제2 계층이 존재하는 영상을 예로 기술하며, 그 이상의 계층 또는 시점에도 동일한 방법으로 적용할 수 있다. 또한, 상기 제1 계층은 하위(base) 계층, 제2 계층은 상위(enhancement) 계층으로 표현할 수도 있다.
상위 계층의 픽처/블록에 대응하는 하위 계층의 픽처/블록은 상기 상위 계층 픽처/블록의 크기에 맞게 변경할 수 있다. 즉, 하위 계층의 픽처/블록의 크기가 상위 계층의 픽처/블록보다 작은 경우 업샘플링(up-sampling) 등의 방법을 이용하여 스케일링(scaling)할 수 있다. 이하 설명에서는 하위 계층의 픽처/블록의 크기가 상위 계층의 픽처/블록의 크기에 맞게 변환한 것으로 가정할 수 있다.
본 발명의 사용 여부를 시그널링하여 복호화기로 전송할 수 있다. 예를 들어, 'combined_intra_pred_flag'라는 플래그 비트를 전송할 수 있다. 'combined_intra_pred_flag'의 값이 '1'로 전송된 경우, 결합된 화면 내 예측 방법을 사용함을 나타낼 수 있고, 'combined_intra_pred_flag'의 값이 '0'으로 전송된 경우, 결합된 화면 내 예측 방법을 사용하지 않는 통상적인 화면 내 예측을 수행함을 나타낼 수 있다. 이때, 상기 플래그는 VPS(video parameter set), SPS(sequence parameter set), PPS(picture parameter set), Slice header 등 중 적어도 하나를 통하여 전송될 수 있고, 또는 CU(coding unit), PU(prediction unit), TU(transform unit) 단위로 전송될 수 있다.
추가적으로, 본 발명의 방법을 블록 크기, 화면 내 예측 모드, 또는 휘도/색차 신호에 따라 사용 여부를 다르게 할 수 있다. 즉, 특정 블록 크기에 한하여 적용하거나, 특정 화면 내 예측 모드에 한하여 적용할 수 있다. 또는 휘도 신호에 적용하고 색차 신호에는 적용하지 않을 수 있다.
추가적으로, 본 발명의 방법을 적용함에 있어 가중치를 적용한 경우, 해당하는 가중치의 정보를 상기 플래그를 전송하는 방법들 중 하나의 방법을 이용하여 전송할 수도 있다.
화면 내 예측은 하나 이상의 복원된 참조 샘플을 이용하여 방향성 예측 또는 비방향성 예측을 수행할 수 있다.
이하, 도면을 참조하여 본 발명에 대하여 구체적으로 설명한다.
도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
멀티 계층 구조에 대한 스케일러블(scalable) 비디오 부호화/복호화 장치는 단일 계층 구조에 대한 비디오 부호화/복호화 장치를 확장(extension)하여 구현될 수 있다.
도 1은 멀티 계층 구조에 대해 적용 가능한, 즉 스케일러빌러티를 제공하는 비디오 부호화 장치의 일 실시예를 나타낸다.
도 1을 참조하면, 비디오 부호화 장치(100)는 인터 예측부(110), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조 픽처 버퍼(190)를 포함한다.
비디오 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림(bitstream)을 출력할 수 있다. 인트라 예측은 화면 내 예측, 인터 예측은 화면 간 예측을 의미한다. 인트라 모드인 경우 스위치(115)가 인트라 모드로 전환되고, 인터 모드인 경우 스위치(115)가 인터 모드로 전환된다. 비디오 부호화 장치(100)는 입력 픽처의 블록(현재 블록)에 대한 예측 블록을 생성한 후, 현재 블록과 예측 블록의 차분을 부호화할 수 있다.
인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 참조 화소로 이용할 수 있다. 인트라 예측부(120)는 참조 호소를 이용하여 공간적 예측을 수행하고 현재 블록에 대한 예측 샘플들을 생성할 수 있다.
인터 모드인 경우, 인터 예측부(110)는, 참조 픽처 버퍼(190)에 저장되어 있는 참조 픽처에서 입력 블록(현재 블록)과의 차이가 가장 적은 참조 블록을 특정하는 움직임 벡터를 구할 수 있다. 인터 예측부(110)는 움직임 벡터와 참조 픽처 버퍼(190)에 저장되어 있는 참조 픽처를 이용하여 움직임 보상을 수행함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다.
멀티 계층 구조의 경우, 인터 모드에서 적용되는 인터 예측은 인터 계층 예측을 포함할 수 있다. 인터 예측부(110)는 참조 계층의 픽처를 샘플링하여 인터 계층 참조 픽처를 구성하고, 참조 픽처 리스트에 인터 계층 참조 픽처를 포함하여 인터 계층 예측을 수행할 수 있다. 계층 간의 참조 관계는 계층 간의 의존성을 특정하는 정보를 통해 시그널링될 수 있다.
한편, 현재 계층 픽처와 참조 계층 픽처가 동일 사이즈인 경우에 상기 참조 계층 픽처에 적용되는 샘플링은 참조 계층 픽처로부터의 샘플 복사 또는 보간에 의한 참조 샘플의 생성을 의미할 수 있다. 현재 계층 픽처와 참조 계층 픽처의 해상도가 상이한 경우에 상기 참조 계층 픽처에 적용되는 샘플링은 업샘플링을 의미할 수 있다.
예컨대, 계층 간 해상도가 다른 경우로서 해상도에 관한 스케일러빌러티를 지원하는 계층 간에는 참조 계층의 복원된 픽처를 업샘플링하여 인터 계층 참조 픽처가 구성될 수 있다.
어떤 계층의 픽처를 이용하여 인터 계층 참조 픽처를 구성할 것인지는 부호화 코스트 등을 고려하여 결정될 수 있다. 부호화 장치는 인터 계층 참조 픽처로 사용될 픽처가 속하는 계층을 특정하는 정보를 복호화 장치로 전송할 수 있다.
또한, 인터 계층 예측에 있어서 참조되는 계층, 즉 참조 계층 내에서 현재 블록의 예측에 이용되는 픽처는 현재 픽처(현재 계층 내 예측 대상 픽처)와 동일 AU(Access Unit)의 픽처일 수 있다.
감산기(125)는 현재 블록과 예측 블록의 차분에 의해 레지듀얼 블록(residual block, 레지듀얼 신호)을 생성할 수 있다.
변환부(130)는 레지듀얼 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 변환 생략(transform skip) 모드가 적용되는 경우에, 변환부(130)는 레지듀얼 블록에 대한 변환을 생략할 수도 있다.
양자화부(140)는 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다.
엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등을 확률 분포에 따라 엔트로피 부호화하여 비트스트림(bitstream)을 출력할 수 있다. 엔트로피 부호화부(150)는 비디오의 화소 정보 외에 비디오 디코딩을 위한 정보(예컨대, 신택스 엘리먼트(syntax element) 등)을 엔트로피 부호화 할 수도 있다.
부호화 파라미터는 부호화 및 복호화에 필요한 정보로서, 신택스 엘리먼트와 같이 부호화 장치에서 부호화되어 복호화 장치로 전달되는 정보뿐만 아니라, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수 있다.
부호화 파라미터는 예를 들어 인트라/인터 예측모드, 이동/움직임 벡터, 참조 영상 색인, 부호화 블록 패턴, 레지듀얼 신호 유무, 변환 계수, 양자화된 변환 계수, 양자화 파라미터, 블록 크기, 블록 분할 정보 등의 값 또는 통계를 포함할 수 있다.
레지듀얼 신호는 원신호와 예측 신호의 차이를 의미할 수 있고, 또한 원신호와 예측 신호의 차이가 변환(transform)된 형태의 신호 또는 원신호와 예측 신호의 차이가 변환되고 양자화된 형태의 신호를 의미할 수도 있다. 레지듀얼 신호는 블록 단위에서는 레지듀얼 블록이라 할 수 있다.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 높아질 수 있다.
엔트로피 부호화를 위해 지수 골룸(exponential golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(150)는 가변 길이 부호화(VLC: Variable Lenghth Coding/Code) 테이블을 이용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법 또는 확률 모델을 사용하여 엔트로피 부호화를 수행할 수도 있다.
양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환될 수 있다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성될 수 있다.
복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽처에 적용할 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상 버퍼(190)에 저장될 수 있다.
도 2는 비디오 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
멀티 계층 구조에 대한 스케일러블(scalable) 비디오 부호화/복호화 장치는 단일 계층 구조에 대한 비디오 부호화/복호화 장치를 확장(extension)하여 구현될 수 있다.
도 2는 멀티 계층 구조에 대해 적용 가능한, 즉 스케일러빌러티를 제공하는 비디오 복호화 장치의 일 실시예를 나타낸다.
도 2를 참조하면, 상기 비디오 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 인터 예측부(250), 필터부(260) 및 참조 픽처 버퍼(270)를 포함한다.
비디오 복호화 장치(200)는 부호화 장치에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다.
인트라 모드인 경우 스위치가 인트라 예측을 위해 전환되고, 인터 모드인 경우 스위치가 인터 예측을 위해 전환될 수 있다.
비디오 복호화 장치(200)는 입력 받은 비트스트림으로부터 복원된 레지듀얼 블록(residual block)을 얻고 예측 블록을 생성한 후 복원된 레지듀얼 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.
엔트로피 복호화부(210)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여, 양자화된 계수(quantized coefficient)와 신택스 엘리먼트 등의 정보를 출력할 수 있다.
양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환 된다. 양자화된 계수를 역양자화/역변환하여, 복원된 레지듀얼 블록(residual block)이 생성될 수 있다.
인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하고, 현재 블록에 대한 예측 블록을 생성할 수 있다.
인터 모드인 경우, 인터 예측부(250)는 움직임 벡터 및 참조 픽처 버퍼(270)에 저장되어 있는 참조 픽처를 이용하여 움직임 보상을 수행함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다.
멀티 계층 구조의 경우, 인터 모드에서 적용되는 인터 예측은 인터 계층 예측을 포함할 수 있다. 인터 예측부(250)는 참조 계층의 픽처를 샘플링하여 인터 계층 참조 픽처를 구성하고, 참조 픽처 리스트에 인터 계층 참조 픽처를 포함하여 인터 계층 예측을 수행할 수 있다. 계층 간의 참조 관계는 계층 간의 의존성을 특정하는 정보를 통해 시그널링 될 수 있다.
한편, 현재 계층 픽처와 참조 계층 픽처가 동일 사이즈인 경우에 상기 참조 계층 픽처에 적용되는 샘플링은 참조 계층 픽처로부터의 샘플 복사 또는 보간에 의한 참조 샘플의 생성을 의미할 수 있다. 현재 계층 픽처와 참조 계층 픽처의 해상도가 상이한 경우에 상기 참조 계층 픽처에 적용되는 샘플링은 업샘플링을 의미할 수 있다.
예컨대, 이때, 계층 간 해상도가 다른 경우로서 해상도에 관한 스케일러빌러티를 지원하는 계층 간에 인터 계층 예측이 적용된다면, 참조 계층의 복원된 픽처를 업샘플링하여 인터 계층 참조 픽처가 구성될 수 있다.
이때, 인터 계층 참조 픽처로 사용될 픽처가 속하는 계층을 특정하는 정보는 부호화 장치로부터 복호화 장치로 전송할 수 있다.
또한, 인터 계층 예측에 있어서 참조되는 계층, 즉 참조 계층 내에서 현재 블록의 예측에 이용되는 픽처는 현재 픽처(현재 계층 내 예측 대상 픽처)와 동일 AU(Access Unit)의 픽처일 수 있다.
복원된 레지듀얼 블록과 예측 블록은 가산기(255)에서 더해져서, 복원 블록이 생성된다. 다시 말하면, 레지듀얼 샘플과 예측 샘플이 더해져서 복원된 샘플 또는 복원된 픽처가 생성된다.
복원된 픽처는 필터부(260)에서 필터링 된다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽처에 적용할 수 있다. 필터부(260)는 재구성된(modified) 혹은 필터링된(filtered) 복원 픽처(reconstructed picture)를 출력한다. 복원 영상은 참조 픽처 버퍼(270)에 저장되어 인터 예측에 사용될 수 있다.
또한, 영상 복호화 장치(200)는 비트스트림에 포함되어 있는 인코딩된 영상에 관련된 정보를 파싱하는 도시하지 않은 파싱부를 더 포함할 수 있다. 파싱부는 엔트로피 복호화부(210)를 포함할 수도 있고, 엔트로피 복호화부(210)에 포함될 수도 있다. 이러한 파싱부는 또한 디코딩부의 하나의 구성요소로 구현될 수도 있다.
도 1과 도 2에서는 하나의 부호화 장치/복호화 장치가 멀티 계층에 대한 부호화/복호화를 모두 처리하는 것으로 설명하였으나, 이는 설명의 편의를 위한 것으로서, 부호화 장치/복호화 장치는 계층별로 구성될 수도 있다.
이 경우, 상위 계층의 부호화 장치/복호화 장치는 상위 계층의 정보 및 하위 계층의 정보를 이용하여 해당 상위 계층의 부호화/복호화를 수행할 수 있다. 예컨대, 상위 계층의 예측부(인터 예측부)는 상위 계층의 픽셀 정보 또는 픽처 정보를 이용하여 현재 블록에 대한 인트라 예측 또는 인터 예측을 수행할 수도 있고, 하위 계층으로부터 복원된 픽처 정보를 수신하고 이를 이용하여 상위 계층의 현재 블록에 대한 인터 예측(인터 계층 예측)을 수행할 수도 있다. 여기서는, 계층 간의 예측만을 예로서 설명하였으나, 부호화 장치/복호화 장치는 계층별로 구성되든, 하나의 장치가 멀티 계층을 처리하든 상관없이, 다른 계층의 정보를 이용하여 현재 계층에 대한 부호화/복호화를 수행할 수 있다.
본 발명에서 계층은 뷰(view)를 포함할 수 있다. 이 경우, 인터 계층 예측의 경우는 단순히 하위 계층의 정보를 이용하여 상위 계층의 예측을 수행하는 것이 아니라, 계층 간 의존성을 특정하는 정보에 의해 의존성이 있는 것으로 특정된 계층들 사이에서 다른 계층의 정보를 이용하여 인터 계층 예측이 수행될 수도 있다.
도 3은 화면 내 예측 과정의 실시예를 설명하기 위한 도면이다.
화면 내 예측 모드의 개수는 예측 블록의 크기에 관계없이 35개로 고정하여 수행할 수 있으며, 이때 예측 모드는 도 3에서와 같이 2개의 비방향성 모드(DC, Planar)와 33개의 방향성 모드로 구성될 수 있다. 이때, 예측 모드의 개수는 색 성분(color component)이 휘도(luma) 신호인지 또는 색차(chroma) 신호인지에 따라 다를 수 있다. 예측 블록의 크기는 4x4, 8x8, 16x16, 32x32, 64x64 등 NxN 형태의 정사각형일 수 있다. 예측 블록의 단위는 부호화 블록(CB: Coding Block), 예측 블록(PB: Prediction Block), 변환 블록(TB: Transform Block) 중 적어도 하나의 크기가 될 수 있다. 화면 내 부/복호화는 주변의 복원된 블록에 포함되는 샘플 값 또는 부호화 파라미터를 이용하여 수행할 수 있다.
도 4는 화면 내 예측 과정의 실시예를 설명하기 위한 도면이다.
현재 블록 주변의 복원된 블록은 부/복호화 순서에 따라 블록 EA(400), EB(410), EC(420), ED(430), 또는 EG(450)가 될 수 있으며, 'above(415)', 'above_left(405)', 'left(435)', 'bottom_left(445)'에 해당하는 샘플 값은 대상 블록(440)의 화면 내 예측에 사용되는 참조 샘플일 수 있다. 또한, 여기서 부호화 파라미터는 부호화 모드(화면 내 또는 화면 간), 화면 내 예측 모드, 화면 간 예측 모드, 블록 크기, 양자화 파라미터(QP), CBF(Coded Block Flag) 중에 적어도 하나 일 수 있다.
각 블록은 보다 작은 블록으로 분할될 수 있으며, 이러한 경우에도 각 분할된 블록에 해당하는 샘플 값 또는 부호화 파라미터를 이용하여 예측을 수행할 수 있다.
화면 내 예측에 사용되는 주변의 복원된 참조 샘플에 대해서 필터를 적용할 수 있다. 이때, 대상 블록의 크기 또는 화면 내 예측 모드에 따라 적응적으로 필터를 적용 여부를 다르게 할 수 있다.
화면 내 예측 후 예측된 블록의 경계에 위치한 샘플에 대해서 필터를 적용할 수 있다. 예를 들어, 도 4에서 대상 블록에 대해 예측을 수행한 후, 'above(410)'와 'left(430)' 경계에 위치한 대상 블록 내부의 샘플에 대해 필터를 적용할 수 있으며, 화면 내 예측 모드에 따라 필터 적용 여부 및 적용 샘플을 다르게 할 수 있다.
도 5는 일 실시예에 따른 영상 복호화 장치를 나타내는 블록도이다.
본 발명의 일 실시예에 따른 영상 복호화 장치는 참조 샘플 생성부(510), 예측 수행부(520), 예측값 생성부(530)를 포함한다.
참조 샘플 생성부(510)는 계층 간 결합된 화면 내 예측을 이용하는 장치로서, 상위 계층의 대상 블록 주변에 복원된 블록에 포함된 샘플, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 상위 계층의 대상 블록 주변에 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 하위 계층의 임의의 특정 블록에 포함된 샘플 중 어느 하나 이상의 블록에 포함되는 샘플에 의하여 참조 샘플을 생성한다.
예측 수행부(520)는 상기 참조 샘플을 이용하여 상기 대상 블록에 대한 예측 값을 생성한다.
예측값 생성부(530)는 예측 값을 이용하여 예측 대상 블록에 대한 최종 예측 값을 생성한다.
도 6은 본 발명의 일 실시예에 따라서 대상 블록의 예측을 수행하는 참조 샘플 생성부의 동작을 개략적으로 설명하는 도면이다.
참조 샘플 생성부(510)는 상위 계층의 부/복호화 대상 블록을 예측하기 위한 참조 샘플을 생성할 수 있다. 이때, 참조 샘플의 가용성(availability)을 판단할 수 있으며, 가용하지 않은 샘플을 가용한 샘플로 채울(padding) 수 있다.
또한, 상기 생성한 참조 샘플에 대하여 필터를 적용할 수 있다. 필터 적용 여부는 대상 블록의 크기 또는 화면 내 예측 모드에 따라 적응적으로 결정될 수 있다.
이하 실시예는 설명의 편의를 위해 그리고 발명의 이해를 돕기 위해, 도 6에서와 같이 8x8 크기의 블록을 일 예로 설명한다. 본 명세서에서 pE[x, y]는 상위 계층에서 (x, y) 위치의 복원된 샘플값을 나타내고, pB[x, y]는 하위 계층에서 (x, y) 위치의 복원된 샘플값을 나타낼 수 있다. 또한 음영이 표시된 샘플들은 복원되어 샘플 값이 존재하는 샘플들일 수 있다.
발명의 일 실시예로, 참조 샘플 생성부(510)는 상위 계층 대상 블록 주변의 복원된 블록에 포함된 샘플을 이용하여 참조 샘플을 생성할 수 있다.
예를 들어, 참조 샘플 생성부(510)는 도 6에서 상위 계층 대상 블록(610)의 pE[x, -1] (x= -1 ~ 15)(600)과 pE[-1, y] (y=0 ~ 15)(620)에 위치한 하나 이상의 샘플을 이용하여 참조 샘플을 생성할 수 있다. 즉, 참조 샘플 생성부(510)는 기존의 화면 내 예측에 이용되는 참조 샘플과 같은 형태로 참조 샘플을 생성 할 수 있다.
본 발명의 또 다른 실시예에 의하면 상위 계층의 대상 블록(610)에 대응하는 하위 계층의 대응(co-located) 블록(630)에 포함된 샘플을 이용하여 참조 샘플을 생성할 수 있다. 예를 들어, 도 6에서 하위 계층의 대응 블록(630)의 모든 샘플이 복원되어 존재하는 경우 pB[x, y] (x, y=0 ~ 7)에 위치한 하나 이상의 샘플을 이용하여 참조 샘플을 생성할 수 있다.
본 발명의 또 다른 실시예에 의하면, 상위 계층의 대상 블록(610) 주변의 복원된 블록에 대응하는 하위 계층의 대응 블록(630)에 포함된 샘플을 이용하여 참조 샘플을 생성할 수 있다. 예를 들어, 도 6에서 하위 계층 대응 블록(630) 주변의 블록에 해당하는 pB[x, -1] (x = -1 ~ 15)(640)과 pB[-1, y] (y = 0 ~ 15)(650)에 위치한 하나 이상의 샘플을 이용하여 참조 샘플을 생성할 수 있다.
본 발명의 또 다른 실시예로, 하위 계층의 임의의 특정 블록에 포함된 샘플을 이용하여 참조 샘플을 생성할 수 있다. 예를 들어, 도 6에서 하위 계층의 모든 샘플이 복원되어 존재하는 경우, pB[x, 8] (x = -8 ~ 8)와 pB[8, y] (y = -8 ~ 7)에 위치한 하나 이상의 샘플을 이용하여 참조 샘플을 생성할 수 있다. 즉, 도 8과 같은 형태의 참조 샘플을 생성할 수 있다.
추가적으로, 상기 샘플들의 결합에 의하여 참조 샘플을 생성할 수 있다. 이때, 결합은 덧셈, 뺄셈, 곱셈, 나눗셈, 쉬프트(shift) 등의 연산을 수행하여 2개 이상의 값을 결합하는 것을 의미할 수 있다. 이때, 각 값에 가중치를 다르게 적용하여 결합할 수도 있으며 결합된 참조 샘플 값은 pF[x, y]로 나타낼 수 있다.
예를 들어, 상기 상위 계층의 대상 블록(610) 주변의 복원된 블록에 포함된 샘플을 이용하여 생성한 참조 샘플과, 상위 계층의 대상 블록(610) 주변의 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플을 이용하여 생성한 참조 샘플의 차로 결합 참조 샘플을 생성할 수 있다.
이를 구체적으로 나타내면, 수학식 1 또는 수학식 2와 같다.
<수학식 1>
pF[x, y] = pE[x, y] - pB[x, y], (x = -1 ~ 15, y = -1; x = -1, y = 0 ~ 15)
<수학식 2>
pF[x, y] = pB[x, y] - pE[x, y], (x = -1 ~ 15, y = -1; x = -1, y = 0 ~ 15)
예를 들어, 상기 상위 계층의 대상 블록(610) 주변의 복원된 블록에 포함된 샘플을 이용하여 생성한 참조 샘플과, 상위 계층의 대상 블록(610) 주변의 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플을 이용하여 생성한 참조 샘플의 평균값으로 결합 참조 샘플을 생성할 수 있다.
이를 구체적으로 나타내면, 수학식 3과 같다.
<수학식 3>
pF[x, y] = (pE[x, y] + pB[x, y])>>1, (x = -1 ~ 15, y = -1; x = -1, y = 0 ~ 15)
한편, (1) 상위 계층의 대상 블록(610)에 대응하는 하위 계층의 대응(co-located) 블록(630)에 포함된 샘플을 이용하여 참조 샘플을 생성한 경우, (2) 상위 계층의 대상 블록(610) 주변의 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플을 이용하여 참조 샘플을 생성한 경우, (3) 하위 계층의 임의의 특정 블록에 포함된 샘플을 이용하여 참조 샘플을 생성한 경우와 같이, 하위 계층 블록을 이용하여 참조 샘플을 생성한 경우 또는 결합된 참조 샘플을 생성한 경우에는 상기 참조 샘플에 대하여 필터 적용을 하지 않을 수 있다.
예측 수행부(520)는 참조 샘플 생성부(510)에서 생성된 참조 샘플을 이용하여 화면 내 예측을 수행할 수 있다. 이때, 예측 수행부(520)는 예측 방법으로 도 3에서와 같이 통상의 화면 내 예측 방법인 DC 예측, Planar 예측, Angular 예측 등을 이용하여 예측을 수행할 수 있다. 또한, 예측 수행부(520)는 하위 계층의 복원된 샘플값을 예측 값으로 하는 예측(예컨대, IntraBL 등)을 수행할 수도 있다.
또한, 예측 수행부(520)는 상기 예측된 블록과 참조 샘플의 경계에 위치한 예측 샘플들에 대하여 필터를 적용할 수 있다. 필터 적용 여부는 대상 블록의 크기 또는 화면 내 예측 모드에 따라 적응적으로 결정될 수 있다. 예를 들어, 예측 수행부(520)는 DC 예측 또는 수평/수직 예측된 블록의 경계 샘플에 대하여 필터를 적용할 수 있다.
본 발명의 일 실시예로, 예측 수행부(520)는 상위 계층의 참조 샘플을 이용하여 예측을 수행할 수 있다. 예를 들어, 예측 수행부(520)는 상위 계층의 대상 블록 주변의 복원된 블록에 포함된 샘플을 이용하여 생성된 참조 샘플을 이용하여 대상 블록에 대한 화면 내 예측을 수행할 수 있다. 이때, (x, y) 위치의 예측된 값은 predSamplesE[x, y]로 나타낼 수 있다.
본 발명의 또 다른 실시예로, 예측 수행부(520)는 하위 계층의 참조 샘플을 이용하여 예측을 수행할 수 있다. 예를 들어, 예측 수행부(520)에서 수행되는 대상 블록에 대한 화면 내 예측은 (1) 상위 계층의 대상 블록(610)에 대응하는 하위 계층의 대응(co-located) 블록(630)에 포함된 샘플을 이용하여 생성된 참조 샘플, (2) 상위 계층의 대상 블록(610) 주변의 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플을 이용하여 생성된 참조 샘플, 또는 (3) 하위 계층의 임의의 특정 블록에 포함된 샘플을 이용하여 생성된 참조 샘플을 이용하여 수행될 수 있다. 이때, (x, y) 위치의 예측된 값은 predSamplesB[x, y]로 나타낼 수 있다.
본 발명의 또 다른 실시예로, 예측 수행부(520)는 상위 계층의 참조 샘플과 하위 계층의 참조 샘플이 결합된 참조 샘플을 이용하여 예측을 수행할 수 있다. 예를 들어, 예측 수행부(520)는 상위 계층의 대상 블록 주변의 복원된 블록에 포함된 샘플을 이용하여 참조 샘플을 생성한 경우, 상위 계층 대상 블록 주변의 복원된 블록에 대응하는 하위 계층 대응 블록에 포함된 샘플을 이용하여 참조 샘플을 생성한 경우 각각의 차 또는 평균으로 결합된 참조 샘플을 생성하고, 결합된 참조 샘플을 이용하여 화면 내 예측을 수행할 수 있다. 이때, (x, y) 위치의 예측된 값을 predSamplesC[x, y]로 나타낼 수 있다.
본 발명의 또 다른 실시예로, 예측 수행부(520)는 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록을 예측 블록으로 생성할 수 있다. 즉, 상기 방법들과 같이 예측 수행부(520)는 참조 샘플을 이용한 예측을 수행하지 않고, 하위 계층의 대응 블록의 값을 예측 값으로 이용할 수 있다. 예를 들어, 예측 수행부(520)는 도 6에서 8x8 크기의 하위 계층의 대응 블록을 상위 계층의 대상 블록에 대한 예측 값으로 할 수 있다. 이 경우, 적용되는 예측 방법을 IntraBL 예측이라고 할 수도 있다. 이때, (x, y) 위치의 예측된 값을 predSamplesIntraBL[x, y]로 나타낼 수 있다.
한편, (1) 하위 계층의 참조 샘플을 이용하여 예측을 수행하는 경우, (2) 상위 계층의 참조 샘플과 하위 계층의 참조 샘플과의 결합된 참조 샘플을 이용하여 예측을 수행하는 경우, (3) 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록을 예측 블록으로 생성하는 경우와 같이, 하위 계층의 참조 샘플 또는 결합된 참조 샘플을 이용하여 화면 내 예측을 수행한 경우, 상기 예측된 블록의 경계 샘플에 대하여는 필터를 적용 하지 않을 수 있다.
도 7은 본 발명에 따라서 생성된 참조 샘플을 이용하여 화면 내 예측을 하는 일 실시예를 나타낸다. 예측 수행부(520)에서 하위 계층의 참조 샘플을 이용하여 예측을 수행하는 경우, 상위 계층의 대상 블록(610) 주변의 복원된 블록(600, 620)에 대응하는 하위 계층의 대응 블록(710)에 포함된 샘플을 이용하여 생성된 참조 샘플을 이용하여 화면 내 예측을 수행할 수 있다.
이때, 상위 계층의 대상 블록(610) 주변의 복원된 블록(600, 620)에 대응하는 하위 계층의 대응 블록(710)에 포함된 샘플은 하위 계층의 대응 블록 주변에 해당하는 pB[x, -1] (x = -1 ~ 15)와 pB[-1, y] (y = 0 ~ 15)(710)에 위치한 하나 이상의 샘플을 이용하여 참조 샘플이 생성 될 수 있다.
도 8은 본 발명에 따라서 생성된 참조 샘플을 이용하여 화면 내 예측을 하는 다른 실시예를 나타낸다.
예측 수행부(520)에서 하위 계층의 임의의 특정 블록에 포함된 샘플을 이용하여 생성된 참조 샘플을 이용하여 화면 내 예측을 수행할 수 있다.
이때, 참조 샘플 생성부(510)에서 하위 계층의 모든 샘플이 복원되어 존재하는 경우, pB[x, 8] (x = -8 ~ 8)와 pB[8, y] (y = -8 ~ 7)(810)에 위치한 하나 이상의 샘플을 이용하여 참조 샘플을 생성 할 수 있다.
이때, 도 8의 블록을 180도 회전하면, 도 7과 같은 모양이 된다. 도 7의 하위 계층의 대응블록(700)은 도 8의 하위 계층의 대응블록(800)에 대응된다. 도 8의 하위 계층의 대응 블록 주변의 블록(810)은 180도 회전 하면, 도 7의 하위 계층의 대응 블록 주변의 블록(710)이 된다. 따라서 예측 수행부(520)는 통상의 화면 내 예측 방법으로 예측이 가능할 수 있다.
예측 값 생성부(530)는 상기 예측 수행부(520)를 통하여 생성한 예측 값들 중 하나 이상의 예측 값들을 결합한 값을 최종 예측 값으로 생성할 수 있다. 이때, 각 예측 값들에 가중치(W: weighting)를 다르게 하여 결합할 수 있다. 여기서, (x, y) 위치의 최종 예측 값은 predSamplesF[x, y]로 나타낼 수 있다. 블록의 가로 또는 세로 크기를 N으로 나타낼 수 있으며, 따라서 x = 0, …, N-1, y= 0, …, N-1이 된다.
본 발명에 따라서 예측값을 생성하는 방법의 일 실시예로서, 예측값 생성부(530)에서 1개의 예측 값을 최종 예측 값으로 결정하는 방법이 있다. 이때, 사용하는 참조 샘플에 따라서, 예측값 생성부(530)는 아래 (1) 내지 (3)과 같이 최종 예측 값을 결정할 수 있다.
(1) 예측값 생성부(530)는 상위 계층의 참조 샘플을 이용하여 예측을 수행한 값을 최종 예측 값으로 결정할 수 있다. 이를 구체적으로 나타내면 수학식 4와 같다.
<수학식 4>
predSamplesF[x, y] = predSamplesE[x, y], (x, y = 0 ~ N-1)
(2) 예측값 생성부(530)는 상위 계층의 참조 샘플과 하위 계층의 참조 샘플의 평균으로 결합된 참조 샘플을 이용하여 예측한 값을 최종 예측 값으로 결정할 수 있다. 이를 구체적으로 나타내면 수학식 5와 같다.
<수학식 5>
predSamplesF[x, y] = predSamplesC[x, y] , (x, y = 0 ~ N-1)
(3) 예측값 생성부(530)는 하위 계층의 대응 블록으로 예측한 값을 최종 예측 값으로 결정할 수 있다. 하위 계층의 대응(co-located) 블록이 예측 대상 블록의 원본 값에 가장 근사한 값을 가질 수 있기 때문에, 예측 오차를 줄여 부호화 효율을 높일 수 있다. 이를 구체적으로 나타내면 수학식 6과 같다.
<수학식 6>
predSamplesF[x, y] = predSamplesIntraBL[x, y] , (x, y = 0 ~ N-1)
본 발명에 따라서 예측값을 생성하는 방법의 다른 실시예로, 예측 값 생성부(530)에서 2개의 예측 값들을 결합하여 최종 예측 값을 결정하는 방법이 있다. 이때, 사용하는 참조 샘플에 따라서 예측값 생성부(530)는 아래 (1) 내지 (3)과 같이 최종 예측 값을 결정할 수 있다.
(1) 예측값 생성부(530)는 상위 계층의 참조 샘플을 이용하여 예측한 값과 하위 계층의 참조 샘플을 이용하여 예측한 값을 결합하여 최종 예측 값을 결정할 수 있다. 이를 구체적으로 나타내면, 수학식 7과 같다.
<수학식 7>
predSamplesF[x, y] = (W*predSamplesE[x, y] + (2n-W)*predSamplesB[x, y] + 2n-1) >> n, (x, y = 0 ~ N-1)
이때, W와 n은 가중치 팩터이다. 가중치가 1:1인 경우(W=1, n=1)라면, 최종 예측값은 수학식 8 과 같다.
<수학식 8>
predSamplesF[x, y] = (predSamplesE[x, y] + predSamplesB[x, y] + 1) >> 1, (x, y = 0 ~ N-1) 이때, 가중치가 3:1인 경우(W=3, n=2)라면, 최종 예측 값은 수학식 9와 같다.
<수학식 9>
predSamplesF[x, y] = (3*predSamplesE[x, y] + predSamplesB[x, y] + 2) >> 2, (x, y = 0 ~ N-1)
도 9는 본 발명에 따라서 생성된 예측 값을 결합하여 최종 예측 값을 생성하는 일 실시예를 개략적으로 설명하는 도면이다.
상술한 바와 같이, 2 개의 예측 값을 결합하여 최종 예측 값을 결정하는 경우에, 상위 계층의 참조 샘플과 함께 하위 계층의 참조 샘플을 이용할 수 있다. 이때, 도 8에서와 같이 하위 계층의 임의의 특정 블록에 포함된 샘플을 이용하여 생성된 하위 계층의 참조 샘플을 이용할 수 있다.
도 9를 참조하면, 예측값 생성부(530)는 상위 계층에서 예측 모드(910)에 따라 선택된 상위 계층의 대응 블록 상단과 좌측의 참조 샘플, 하위 계층에서 예측 모드(920)에 따라 선택된 하위 계층의 대응 블록 하단과 우측의 참조 샘플을 이용하여 예측한 값을 결합하여 최종 예측 값을 생성할 수 있다.
이를 통해, 예측 대상 블록의 상하좌우, 사면을 통하여 예측한 효과를 얻고 부호화 효율을 높일 수 있다.
도 9는 상위 계층의 대응 블록 상단과 좌측의 참조 샘플, 하위 계층의 대응 블록 하단과 우측의 참조 샘플을 이용하여 예측한 값을 결합하여 최종 예측 값을 생성하는 방법을 간략히 도식화하여 보여준다.
도 9을 참조하면, 상위 계층에서의 화면 내 예측 모드(910)와 동일한 모드를 하위 계층에서 이용(920)할 수 있다. 도 7 내지 도 8에서 상위 계층과 하위 계층의 이용 관계에 관한 일 예로서, 반전(反轉) 관계가 있었음을 고려하면, 하위 계층에서 이용되는 예측 모드(920)의 방향이 상위 계층에서 이용되는 예측 모드의 방향에 대칭되는 것을 알 수 있다.
예를 들어, 예측값 생성부(530)는 상위 계층의 참조 샘플을 이용하여 예측한 값과, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록으로 예측한 값을 결합하여 최종 예측 값을 결정할 수 있다. 이를 구체적으로 나타내면 수학식 10과 같다.
<수학식 10>
predSamplesF[x, y] = (predSamplesIntraBL[x, y] + predSamplesE[x, y] + 1) >> 1, (x, y = 0 ~ N-1)
수학식 10의 예와 달리, 하위 계층의 참조 샘플에 가중치를 부가할 수도 있다. 이를 구체적으로 나타내면 수학식 11과 같다. 수학식 11에서는 설명의 편의를 위해, 가중치가 3:1 인 경우를 예로서 설명한다.
<수학식 11>
predSamplesF[x, y] = (3*predSamplesIntraBL[x, y] + predSamplesE[x, y] + 2) >> 2, (x, y = 0 ~ N-1)
한편, 도 9의 예에서, 예측값 생성부(530)는 상위 계층의 참조 샘플과 하위 계층의 참조 샘플의 차로 결합된 참조 샘플을 이용하여 예측한 값과, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록으로 예측한 값을 결합하여 최종 예측 값을 결정할 수도 있다.
즉, 이 경우 결합된 참조 샘플을 이용한 예측 값은 상위 계층과 하위 계층 간의 오차에 대응할 수 있다. 하위 계층의 대응 블록에 오차를 더해줌으로써 최종 예측 값을 상위 계층의 대상 블록의 원본 샘플에 보다 가깝게 하고, 레지듀얼(residual)을 줄여 부호화 효율을 높일 수 있다.
이를 구체적으로 표현하면, 수학식 12와 같다.
<수학식 12>
predSamplesF[x, y] = predSamplesIntraBL[x, y] + predSamplesC[x, y], (x, y = 0 ~ N-1)
도 10은 본 발명에 따라서 생성된 예측 값을 결합하여 최종 예측 값을 생성하는 다른 실시예를 나타낸다.
도 10의 예에 의하면, 3개의 예측 값들을 결합하여 최종 예측 값을 결정 할 수 있다.
예를 들어, 예측값 생성부(530)는 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록으로 예측한 값과 하위 계층의 참조 샘플을 이용하여 예측한 값의 차를 통하여 중간 레지듀얼을 구한 후, 상위 계층의 참조 샘플을 이용하여 예측한 값에 상기 중간 레지듀얼을 더함으로써 최종 예측 값을 결정할 수 있다. 즉, 예측값 생성부(530)는 상위 계층의 참조 샘플을 이용하여 예측한 값에 하위 계층으로부터 생성한 중간 레지듀얼을 더함으로써 상위 계층의 대상 블록의 원본 샘플에 보다 가깝게 하여 레지듀얼(residual)을 줄이고 부호화 효율을 높일 수 있다.
도 10은 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록으로 예측한 값과 하위 계층의 참조 샘플을 이용하여 예측한 값의 차를 통하여 중간 레지듀얼을 구한 후, 상위 계층의 참조 샘플을 이용하여 예측한 값에 상기 중간 레지듀얼을 더함으로써 최종 예측 값을 결정하는 방법을 개략적으로 설명하고 있다.
이를 구체적으로 나타내면 수학식 13과 같다.
<수학식 13>
predSamplesF[x, y] = predSamplesE[x, y] + (predSamplesIntraBL[x, y] - predSamplesB[x, y]), (x, y = 0 ~ N-1)
도 11은 본 발명에 따라서 계층 간 결합된 화면 내 예측을 이용하는 영상 부호화 및/또는 복호화 방법의 일 실시예를 개략적으로 설명하는 순서도이다.
도 11의 각 단계에서 수행되는 동작은 본 발명에 따른 영상 복호화 장치의 각 유닛들, 예컨대 참조 샘플 생성부, 예측 수행부 또는 예측값 생성부에서 수행될 수 있다. 도 11의 예에서는 설명의 편의를 위해, 영상 복호화 장치가 동작을 수행하는 것으로 설명한다.
도 11을 참조하면, 영상 복호화 장치는 상위 계층의 대상 블록의 예측을 위한 참조 샘플을 생성한다(S10).
복호화 장치는 (1) 상위 계층의 대상 블록 주변에 복원된 블록에 포함된 샘플, (2) 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, (3) 상위 계층의 대상 블록 주변에 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, (4) 하위 계층의 임의의 특정 블록에 포함된 샘플 중 적어도 하나를 이용하여 참조 샘플을 생성한다.
상위 계층의 참조 샘플과 하위 계층의 참조 샘플을 이용하여 대상 블록의 예측에 이용할 참조 샘플을 생성하는 구체적인 방법은 앞서 도 6a, 6b 등을 이용하여 설명한 바와 같다.
영상 복호화 장치는 상기 참조 샘플을 이용하여 상기 대상 블록에 대한 예측 값을 생성하는 예측 수행한다(S12).
영상 복호화 장치는 상기 S10 단계에서 생성된 참조 샘플을 이용하여 화면 내 예측을 수행할 수 있다. 이때 영상 복호화 장치는 DC 예측, Planar 예측, Angular 예측 등을 수행할 수 있으며 하위 계층의 복원된 샘플값을 예측 값으로 하는 IntraBL 등의 예측을 수행할 수도 있다.
또한, 영상 복호화 장치는 예측된 블록과 참조 샘플의 경계에 위치한 예측 샘플들에 대하여 필터를 적용할 수도 있다.
예측의 수행 방법 및 필터의 적용 방법에 관한 구체적인 내용은 앞서 실시예들을 통해 설명한 바와 같다.
영상 복호화 장치는 예측 값을 이용하여 예측 대상 블록에 대한 최종 예측 값을 생성한다(S14).
영상 복호화 장치는 단계 S12를 통하여 생성한 예측 값들 중 하나 이상의 예측 값들을 결합한 값을 최종 예측 값으로 생성할 수 있다.
이때, 영상 복호화 장치는 예측값들에 가중치(W: weighting)를 적용하여 결합할 수도 있다.
최종 예측 값을 생성하는 방법에 관한 구체적인 내용은 앞서 실시예들을 통해 설명한 바와 같다.

Claims (20)

  1. 계층 간 결합된 화면 내 예측(inter layer combined intra prediction)을 이용한 영상 부호화 및/또는 복호화 장치로서,
    상위 계층의 대상 블록 주변에 복원된 블록에 포함된 샘플, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 상위 계층의 대상 블록 주변에 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 하위 계층의 임의의 특정 블록에 포함된 샘플 중 적어도 하나를 이용하여 참조 샘플을 생성하는 참조 샘플 생성부;
    상기 참조 샘플을 이용하여 상기 대상 블록에 대한 예측 값을 생성하는 예측 수행부; 및
    상기 예측 값을 이용하여 예측 대상 블록에 대한 최종 예측 값을 생성하는 예측 값 생성부
    를 포함하는 영상 복호화 장치.
  2. 제 1항에 있어서,
    하위 계층의 블록을 이용하지 않고 참조 샘플을 생성하는 경우, 참조 샘플에 대하여 필터 적용을 하고,
    하위 계층의 블록을 이용하여 참조 샘플을 생성하는 경우, 상기 참조 샘플에 대하여 필터 적용을 하지 않는 것을 특징으로 하는 영상 복호화 장치.
  3. 제 1항에 있어서,
    상기 참조 샘플 생성부는 상기 샘플들의 결합에 의하여 참조 샘플을 생성하는 것을 특징으로 하는 영상 복호화 장치.
  4. 제 3항에 있어서,
    상기 샘플들의 결합은 덧셈, 뺄셈, 곱셈, 나눗셈, 쉬프트(shift) 중 어느 하나의 연산을 적용하여 2개 이상의 샘플들을 결합하는 것을 특징으로 하는 영상 복호화 장치.
  5. 제 3항에 있어서,
    상기 샘플들을 결합하는 경우, 각 샘플 값의 가중치를 다르게 적용하여 샘플들을 결합하는 것을 특징으로 하는 영상 복호화 장치.
  6. 제 3항에 있어서,
    상기 샘플들의 결합에 의하여 참조 샘플을 생성하는 경우에, 생성된 참조 샘플에는 필터를 적용하지 않는 것을 특징으로 하는 영상 복호화 장치.
  7. 제 1항에 있어서,
    상기 예측 수행부는 상위 계층의 참조 샘플을 이용한 예측, 하위 계층의 참조 샘플을 이용한 예측, 상위 계층의 참조 샘플과 하위 계층의 참조 샘플이 결합된 샘플을 이용한 예측, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록을 이용한 예측 중 하나 이상의 예측을 수행하는 것을 특징으로 하는 영상 복호화 장치.
  8. 제 7항에 있어서,
    2개 이상의 샘플들을 결합하여 참조 샘플을 생성하는 경우에, 하위 계층의 참조 샘플을 이용한 경우 또는 결합된 참조 샘플을 이용한 경우 예측된 블록의 경계 예측 값에 대해 필터를 적용하지 않는 것을 특징으로 하는 영상 복호화 장치.
  9. 제 7항에 있어서,
    상기 예측 값 생성부는 상기 예측 수행부에서 생성한 예측 값을 두 개 이상 결합하여 최종 예측 값을 생성하는 것을 특징으로 하는 영상 복호화 장치.
  10. 제 9항에 있어서,
    상기 예측 값 생성부는 상기 각 예측 값의 가중치를 다르게 하여 결합하는 것을 특징으로 하는 영상 복호화 장치.
  11. 계층 간 결합된 화면 내 예측을 이용한 영상 부호화 및/또는 복호화 방법으로서,
    상위 계층의 대상 블록 주변에 복원된 블록에 포함된 샘플, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 상위 계층의 대상 블록 주변에 복원된 블록에 대응하는 하위 계층의 대응 블록에 포함된 샘플, 하위 계층의 임의의 특정 블록에 포함된 샘플 중 적어도 하나를 이용하여 참조 샘플을 생성하는 단계;
    상기 참조 샘플을 이용하여 상기 대상 블록에 대한 예측 값을 생성하는 예측 수행 단계; 및
    상기 예측 값을 이용하여 예측 대상 블록에 대한 최종 예측 값을 생성하는 단계
    를 포함하는 영상 복호화 방법.
  12. 제 11항에 있어서, 상기 참조 샘플을 생성하는 단계에서는,
    하위 계층의 블록을 이용하지 않고 참조 샘플을 생성하는 경우, 참조 샘플에 대하여 필터 적용을 하고,
    하위 계층의 블록을 이용하여 참조 샘플을 생성하는 경우, 상기 참조 샘플에 대하여 필터 적용을 하지 않는 것을 특징으로 하는 영상 복호화 방법.
  13. 제 11항에 있어서,
    상기 참조 샘플을 생성하는 단계에서는 상기 샘플들의 결합에 의하여 참조 샘플을 생성하는 것을 특징으로 하는 영상 복호화 방법.
  14. 제 13항에 있어서,
    상기 샘플들의 결합은 덧셈, 뺄셈, 곱셈, 나눗셈, 쉬프트(shift) 중 어느 하나의 연산을 적용하여 2개 이상의 샘플들을 결합하는 것을 특징으로 하는 영상 복호화 방법.
  15. 제 13항에 있어서,
    상기 샘플들을 결합하는 경우, 각 샘플 값의 가중치를 다르게 적용하여 결합하는 것을 특징으로 하는 영상 복호화 방법.
  16. 제 13항에 있어서,
    2개 이상의 샘플들을 결합하여 참조 샘플을 생성하는 경우에, 상기 참조 샘플에 대하여 필터 적용을 하지 않는 것을 특징으로 하는 영상 복호화 방법.
  17. 제 10항에 있어서,
    상기 예측 수행 단계는 상위 계층의 참조 샘플을 이용한 예측, 하위 계층의 참조 샘플을 이용한 예측, 상위 계층의 참조 샘플과 하위 계층의 참조 샘플이 결합된 샘플을 이용한 예측, 상위 계층의 대상 블록에 대응하는 하위 계층의 대응 블록을 이용한 예측 중 하나 이상의 예측을 수행하는 것을 특징으로 하는 영상 복호화 방법.
  18. 제 17항에 있어서,
    하위 계층의 참조 샘플을 이용한 경우 또는 결합된 참조 샘플을 이용한 경우 예측된 블록의 경계 예측 값에 대해 필터를 적용하지 않는 것을 특징으로 하는 영상 복호화 방법.
  19. 제 17항에 있어서,
    상기 예측 값을 생성하는 단계에서는 상기 예측 수행 단계에서 생성한 예측 값을 두 개 이상 결합하여 최종 예측 값으로 생성하는 것을 특징으로 하는 영상 복호화 방법.
  20. 제 19항에 있어서,
    상기 예측 값을 두 개 이상 결합하는 경우 각 예측 값의 가중치를 다르게 하여 결합하는 것을 특징으로 하는 영상 복호화 방법.
PCT/KR2014/002940 2013-04-05 2014-04-04 계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치 WO2014163437A2 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/782,246 US20160021382A1 (en) 2013-04-05 2014-04-04 Method for encoding and decoding video using intra-prediction combined between layers

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2013-0037626 2013-04-05
KR20130037626 2013-04-05
KR1020140040776A KR20140122189A (ko) 2013-04-05 2014-04-04 계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치
KR10-2014-0040776 2014-04-04

Publications (2)

Publication Number Publication Date
WO2014163437A2 true WO2014163437A2 (ko) 2014-10-09
WO2014163437A3 WO2014163437A3 (ko) 2014-11-27

Family

ID=51659280

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/002940 WO2014163437A2 (ko) 2013-04-05 2014-04-04 계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치

Country Status (1)

Country Link
WO (1) WO2014163437A2 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028034A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体
KR20080041972A (ko) * 2006-11-08 2008-05-14 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
US20110280304A1 (en) * 2010-05-17 2011-11-17 Lg Electronics Inc. Intra prediction modes
WO2011149291A2 (ko) * 2010-05-26 2011-12-01 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
WO2012121575A2 (ko) * 2011-03-10 2012-09-13 한국전자통신연구원 인트라 예측 방법 및 그 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028034A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体
KR20080041972A (ko) * 2006-11-08 2008-05-14 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
US20110280304A1 (en) * 2010-05-17 2011-11-17 Lg Electronics Inc. Intra prediction modes
WO2011149291A2 (ko) * 2010-05-26 2011-12-01 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
WO2012121575A2 (ko) * 2011-03-10 2012-09-13 한국전자통신연구원 인트라 예측 방법 및 그 장치

Also Published As

Publication number Publication date
WO2014163437A3 (ko) 2014-11-27

Similar Documents

Publication Publication Date Title
WO2020071830A1 (ko) 히스토리 기반 움직임 정보를 이용한 영상 코딩 방법 및 그 장치
WO2016143991A1 (ko) 저 복잡도 변환에 기반한 영상 부호화 및 복호화 방법 및 이를 이용하는 장치
WO2014084656A1 (ko) 복수의 레이어를 지원하는 영상 부호화/복호화 방법 및 장치
WO2017082443A1 (ko) 영상 코딩 시스템에서 임계값을 이용한 적응적 영상 예측 방법 및 장치
WO2013157825A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2015009036A1 (ko) 시간적 서브 레이어 정보에 기반한 인터 레이어 예측 방법 및 장치
WO2013032312A2 (ko) 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
WO2020130600A1 (ko) 예측 모드를 시그널링하는 비디오 신호 처리 방법 및 장치
WO2020167097A1 (ko) 영상 코딩 시스템에서 인터 예측을 위한 인터 예측 타입 도출
WO2014038905A2 (ko) 영상 복호화 방법 및 이를 이용하는 장치
WO2020204419A1 (ko) 적응적 루프 필터 기반 비디오 또는 영상 코딩
WO2015056941A1 (ko) 다계층 기반의 영상 부호화/복호화 방법 및 장치
WO2015009021A1 (ko) 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
WO2019143103A1 (ko) 다양한 변환 기술을 사용하는 비디오 코딩 방법 및 장치
WO2020180122A1 (ko) 조건적으로 파싱되는 alf 모델 및 리셰이핑 모델 기반 비디오 또는 영상 코딩
WO2014051372A1 (ko) 영상 복호화 방법 및 이를 이용하는 장치
WO2013147495A1 (ko) 스케일러블 비디오 인코딩/디코딩 방법 및 장치
WO2021091256A1 (ko) 영상/비디오 코딩 방법 및 장치
WO2015083988A1 (ko) 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
WO2015057032A1 (ko) 멀티 뷰를 포함하는 비디오 부호화/복호화 방법 및 장치
WO2014189300A1 (ko) 복수의 레이어를 지원하는 비디오 코딩 방법 및 장치
WO2020130581A1 (ko) 이차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2014007514A1 (ko) 영상 디코딩 방법 및 이를 이용하는 장치
WO2021091214A1 (ko) 크로마 양자화 파라미터 오프셋 관련 정보를 코딩하는 영상 디코딩 방법 및 그 장치
WO2020076049A1 (ko) 양자화된 변환 계수들의 부호화 및 복호화를 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14778964

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 14782246

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14778964

Country of ref document: EP

Kind code of ref document: A2