WO2013039348A1 - Method for signaling image information and video decoding method using same - Google Patents

Method for signaling image information and video decoding method using same Download PDF

Info

Publication number
WO2013039348A1
WO2013039348A1 PCT/KR2012/007368 KR2012007368W WO2013039348A1 WO 2013039348 A1 WO2013039348 A1 WO 2013039348A1 KR 2012007368 W KR2012007368 W KR 2012007368W WO 2013039348 A1 WO2013039348 A1 WO 2013039348A1
Authority
WO
WIPO (PCT)
Prior art keywords
gdv
poc
picture
information
gdvs
Prior art date
Application number
PCT/KR2012/007368
Other languages
French (fr)
Korean (ko)
Inventor
성재원
예세훈
손은용
정지욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2013039348A1 publication Critical patent/WO2013039348A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to a method of signaling information for decoding a 3D image and a method of performing video decoding through prediction between different views based on signaled information will be.
  • a high-efficiency image compression technique can be used to efficiently transmit, store and reproduce information of high-resolution and high-quality images.
  • 3D video has received attention as one of the next generation broadcasting services as it can process high resolution / large capacity video.
  • 3D video can provide a sense of presence and immersion using a plurality of view channels.
  • 3D video can be used in various areas such as free viewpoint video (FVV), free viewpoint TV (FTV), 3DTV, surveillance and home entertainment.
  • FVV free viewpoint video
  • FTV free viewpoint TV
  • 3DTV surveillance and home entertainment.
  • 3D video using multi-view has a high correlation between views of the same POC (picture order count). Since multi-view images capture the same scene simultaneously using several cameras, ie, multiple viewpoints, the multi-view image has a high degree of correlation between different views because it contains almost the same information except for a time difference and a slight illumination difference.
  • POC picture order count
  • the decoding target block of the current view can be predicted or decoded by referring to the block of another view.
  • the relationship between different views can be calculated and used for prediction.
  • the present invention provides a method and apparatus for efficiently signaling information required to derive a global disparity vector (GDV) that defines a relationship between different views in 3D video coding.
  • GDV global disparity vector
  • An object of the present invention is to provide a method and an apparatus for using GDV already calculated in performing inter-view prediction on a decoding target block of a current view in 3D video coding.
  • One embodiment of the present invention is a signaling method of video information for decoding 3D video, the method comprising: calculating a Global Disparity Vector (GDV) between a current picture to be decoded and a reference picture in a reference view; The method comprising the steps of:
  • GDV Global Disparity Vector
  • the decoding target picture and the reference picture may have the same picture order count (POC).
  • POC picture order count
  • the information for deriving the GDV may be transmitted in a sequence parameter set.
  • the information for deriving the GDV may include information indicating a POC at which calculation of the GDV is performed.
  • the information indicating the POC at which the calculation of the GDV is performed includes a first POC of an intra period, a POC for a picture below a predetermined temporal level, The POC of the picture to be used and the POC of all the pictures.
  • the information for deriving the GDV may include information indicating a method of deriving the GDV for the decoding target picture.
  • the information indicating the method of deriving the GDV for the current picture to be decoded may be any one of the GDVs calculated in the POC of the pictures decoded earlier than the current picture to be decoded, And a method of interpolating GDVs selected from the GDVs calculated in the POC of pictures decoded prior to the decoding target picture and using the GDVs as GDVs and GDVs used in the indicated method, And may include information indicating the direction.
  • the information indicating the method of deriving the GDV for the current picture to be decoded may be the closest to the current picture in the POC order among the GDVs calculated in the POC of the pictures decoded earlier than the current picture
  • the GDVs calculated in the POC are used as the GDVs for the current picture to be decoded and the GDVs calculated at the two POCs closest to the current picture in the POC order among the GDVs calculated in the POCs of the pictures decoded earlier than the decoding target picture are interpolated interpolation to use the GDV as a GDV for the current picture to be decoded.
  • the information for deriving the GDV may include information indicating the reference view.
  • Another embodiment of the present invention is a 3D video decoding method, comprising: receiving a bitstream including information for deriving a Global Disparity Vector (GDV); decoding a GOP of pictures decoded earlier than a current picture to be decoded; Deriving a GDV for a current picture to be decoded based on information for deriving the GDV, and generating inter-view prediction between a current view and a reference view based on the derived GDV, wherein the step of deriving the GDV comprises decoding the current picture and the current view using the GDV calculated in the GOP of the pictures decoded prior to the decoding target picture of the current view, The GDV between the pictures of the reference view having the same POC as the target picture can be calculated.
  • GDV Global Disparity Vector
  • the information for deriving the GDV may be transmitted in a set of sequence parameters in the bitstream.
  • the information for deriving the GDV may include POC information indicating a POC at which calculation of the GDV is performed.
  • the POC indicated by the POC information may include GDV Can be calculated.
  • the POC information indicating the POC at which the calculation of the GDV is performed includes a first POC of an intra period, a POC of a picture at a predetermined temporal level or lower, The POC of the picture to be used as the POC and the POC of all the pictures.
  • the information for deriving the GDV may include GDV derivation information indicating a method for deriving a GDV for the decoding target picture, and in the GDV derivation step, The GDV for the decoding target picture of the current view can be derived according to the instruction method.
  • the GDV derivation information may be one in which one of the GDVs calculated in the POC of the pictures decoded earlier than the decoding target picture is used as the GDV for the decoding target picture, Information indicating one of the methods of interpolating GDVs selected from the GDVs calculated in the POC of the decoded pictures as GDVs, and information indicating the GDVs used in the indicated method.
  • the GDV in the derivation step when the GDV derivation information indicates that any one of the GDVs calculated in the POC of the pictures decoded prior to the decoding target picture is used as the GDV for the decoding subject picture, the GDV In the derivation step, the GDV calculated at the POC closest to the current picture in the POC order among the GDVs calculated at the POC of the pictures decoded earlier than the decoding target picture may be guided to the GDV for the decoding target picture.
  • the reference view may be indicated by information for deriving the GDV.
  • the reference view may be specified by a decoding order between views.
  • inter-view prediction which is a prediction between different views in 3D (3 Dimensional) video coding, can be effectively performed.
  • GDV global disparity vector
  • the encoding apparatus and the decoding apparatus can perform the inter-view prediction using the same GDV in the 3D video coding without transmitting the GDV value from the encoding apparatus, the transmission efficiency can be increased.
  • decoding complexity can be reduced by reusing GDV that has already been calculated in performing inter-view prediction on a decoding target block of a current view.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically showing an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a diagram schematically illustrating a method of performing inter-view prediction using a GDV in a 3D video encoding / decoding process.
  • FIG. 4 is a view for schematically explaining an example of a case of decoding multi-view video.
  • 5 is a diagram for explaining the POC for calculating the GDV.
  • FIG. 6 schematically illustrates an example of a method of calculating a GDV value to be used for inter-view prediction in a current decoding picture.
  • FIG. 7 is a flowchart schematically illustrating a method of signaling information about a GDV in an encoding apparatus according to the present invention.
  • FIG. 8 is a diagram schematically illustrating a method of calculating a GDV for a current picture in a decoding apparatus according to the present invention.
  • the image input to the encoding device may be a texture image and a depth map.
  • the depth map means an image representing the distance from the viewpoint to the surface of the object in the image.
  • the viewpoint may be, for example, a camera for photographing the corresponding image.
  • the depth map (depth image) can be generated through a camera that captures depth.
  • the texture image is an image constituting a three-dimensional image and includes information other than depth information (for example, color, contrast, and the like), and may be composed of multi-view images.
  • a depth map (depth image) and a texture image may be respectively processed in an encoding / decoding process to be described later, and a texture image may be processed for each view.
  • the texture image may be referred to for processing of the depth map
  • the depth map may be referred to for processing of the texture image.
  • it may be processed by referring to an image of another view.
  • 'image' means a texture image
  • the encoding apparatus 100 includes a picture dividing unit 105, a predicting unit 110, a transforming unit 115, a quantizing unit 120, a reordering unit 125, an entropy encoding unit 130, An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150.
  • the picture dividing unit 105 can divide the input picture into at least one processing unit block.
  • the block as a processing unit may be a prediction unit (PU), a transform unit (TU), a coding unit (CU) Quot;). ≪ / RTI >
  • the prediction unit 110 generates a prediction block by performing prediction on a processing unit of a picture in the picture dividing unit 105.
  • the processing unit of the picture in the predicting unit 110 may be a CU, a TU, or a PU.
  • the predicting unit 110 may determine a prediction method to be applied to the processing unit, and may determine concrete contents (for example, prediction mode, etc.) of each prediction method.
  • the prediction unit 110 may apply any one of intra prediction, inter prediction, and inter-view prediction as a prediction method.
  • prediction can be performed by performing prediction based on information of at least one of a previous picture and a following picture of the current picture.
  • the prediction block can be generated by performing prediction based on the pixel information in the current picture.
  • prediction blocks can be generated by referring to pictures of different views.
  • a skip mode, a merge mode, MVP (Motion Vector Prediction), or the like can be used as a method of inter prediction.
  • a reference block having the same size as the PU can be selected for the PU by selecting a reference picture.
  • the reference block may be selected in integer pixel units. Then, a prediction block in which a residual signal with respect to the current PU is minimized and a motion vector size is also minimized is generated.
  • the prediction block may be generated in units of integer samples or in units of pixels or less, such as a half-pixel unit or a quarter-pixel unit.
  • the motion vector can also be expressed in units of integer pixels or less. For example, it can be expressed in units of quarter pixels for luminance samples and in units of eighth pixels for color difference samples.
  • the residual can be used as a reconstruction block so that residuals can be generated, transformed, quantized, and not transmitted.
  • the prediction mode is determined in units of PU, and prediction can be performed in units of PU.
  • the prediction mode may be determined in units of PU, and intra prediction may be performed in units of TU.
  • the prediction mode may have 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planer mode (Planar mode).
  • a prediction block can be generated after applying a filter to a reference sample. At this time, whether to apply the filter to the reference sample can be determined according to the intra prediction mode and / or the size of the current block.
  • the prediction of the current block can be performed using a global disparity vector that specifies the position of the corresponding block that can be referred to in prediction of the current block in the current view in the reference view.
  • the PUs can be blocks of various sizes / types.
  • the PU may be a 2N ⁇ 2N block, a 2N ⁇ N block, an N ⁇ 2N block, or an N ⁇ N block (N is an integer).
  • a PU such as an N ⁇ mN block, an mN ⁇ N block, a 2N ⁇ mN block, or an mN ⁇ 2N block (m ⁇ 1) may be further defined.
  • the residual value (residual block or residual signal) between the generated prediction block and the original block is input to the conversion unit 115.
  • the prediction mode information, motion vector information, and the like used for prediction are encoded in the entropy encoding unit 130 together with the residual value, and then transmitted to the decoding apparatus.
  • the conversion unit 115 performs a conversion on a residual block on a conversion unit basis and generates a conversion coefficient.
  • the conversion unit 115 may perform the downsampling on the texture image and the depth map, and then perform the conversion.
  • the downsampling may be performed on the low frequency region in the texture image and the depth map, or may be performed on the region in which the detail characteristic is not important. Downsampling can reduce complexity and improve coding efficiency.
  • the conversion unit in the conversion unit 115 may be a TU and may have a quad tree structure. At this time, the size of the conversion unit can be set within a range of predetermined maximum and minimum sizes.
  • the transforming unit 115 may transform the residual block using DCT (Discrete Cosine Transform) and / or DST (Discrete Sine Transform).
  • the quantization unit 120 may quantize the residual values converted by the conversion unit 115 to generate a quantization coefficient.
  • the values calculated by the quantization unit 120 are provided to the dequantization unit 135 and the reordering unit 125.
  • the reordering unit 125 rearranges the quantization coefficients provided from the quantization unit 120.
  • the encoding efficiency in the entropy encoding unit 130 can be increased by rearranging the quantization coefficients.
  • the reordering unit 125 may rearrange the quantization coefficients of the two-dimensional block form into a one-dimensional vector form through a coefficient scanning method.
  • the reordering unit 125 may increase the entropy encoding efficiency in the entropy encoding unit 130 by changing the order of the coefficient scanning based on the probabilistic statistics of the coefficients transmitted from the quantization unit.
  • the entropy encoding unit 130 may perform entropy encoding on the rearranged quantization coefficients by the reordering unit 125.
  • an encoding method such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be used.
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the entropy encoding unit 130 receives quantization coefficient information, block type information, prediction mode information, division unit information, PU information, transmission unit information, motion vector information, and motion vector information of the CU received from the reordering unit 125 and the prediction unit 110, Reference picture information, block interpolation information, filtering information, and the like can be encoded.
  • the entropy encoding unit 130 may make certain changes to the parameter set or syntax to be transmitted, if necessary.
  • the entropy encoding unit 130 may multiplex the image information of the multi-view and the image information of the depth map and transmit the multiplexed image as a bit stream.
  • the inverse quantization unit 135 dequantizes the quantized values in the quantization unit 120 and the inverse transformation unit 140 inversely transforms the dequantized values in the inverse quantization unit 135.
  • the inverse transform unit 140 may perform upsampling on the inverse transformed residual block when downsampling is performed in the transform unit 115.
  • the sampling rate of the upsampling may be determined corresponding to the sampling rate of the downsampling performed in the conversion unit 115.
  • a residual value generated by the inverse quantization unit 135 and the inverse transform unit 140 and a predicted block predicted by the predictor 110 may be combined to generate a reconstructed block.
  • FIG. 1 it is explained that a residual block and a prediction block are combined through an adder to generate a restored block.
  • the adder may be regarded as a separate unit (reconstruction block generation unit) for generating a reconstruction block.
  • the filter unit 145 may apply at least one of a deblocking filter, an Adaptive Loop Filter (ALF), and a Sample Adaptive Offset (SAO) to the reconstructed picture as necessary.
  • ALF Adaptive Loop Filter
  • SAO Sample Adaptive Offset
  • the deblocking filter can remove the distortion caused in the boundary between the blocks in the reconstructed picture.
  • the ALF Adaptive Loop Filter
  • SAO restores the offset difference from the original image in units of pixels for a residual block to which a deblocking filter is applied and is applied in the form of a band offset and an edge offset.
  • the memory 150 may store a restored block or a picture calculated through the filter unit 145. [ The reconstruction block or picture stored in the memory 150 may be provided to the prediction unit 110 that performs inter prediction.
  • the image decoding apparatus 200 includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, a filter unit 235, And a memory 240.
  • the input bitstream may be decoded according to a procedure in which image information is processed in the image encoding apparatus.
  • VLC variable length coding
  • CABAC CABAC Adaptive Binary Arithmetic Coding
  • the entropy decoding unit 210 may perform entropy decoding after demultiplexing the received bit stream.
  • Information for generating a predictive block from information decoded by the entropy decoding unit 210 is provided to the predicting unit 230. Residual values for which the entropy decoding is performed in the entropy decoding unit 210 are supplied to a reordering unit 215 Can be input.
  • the reordering unit 215 may rearrange the entropy-decoded bitstream in the entropy decoding unit 210 based on a method of rearranging the entropy-decoded bitstream in the image encoding apparatus.
  • the reordering unit 215 may rearrange the coefficients represented in the one-dimensional vector form by restoring the coefficients of the two-dimensional block form again.
  • the reordering unit 215 may perform reordering by receiving information related to the coefficient scanning performed in the encoding apparatus and performing a reverse scanning based on the scanning order performed in the encoding apparatus.
  • the inverse quantization unit 220 can perform inverse quantization based on the quantization parameters provided by the encoding apparatus and the coefficient values of the re-arranged blocks.
  • the inverse transform unit 225 may perform inverse DCT and / or inverse DST on the DCT and DST performed by the transform unit of the encoding apparatus, on the quantization result performed by the image encoding apparatus.
  • the inverse transformation may be performed based on the transmission unit determined in the encoding apparatus or the division unit of the image.
  • the DCT and / or DST in the transform unit of the encoding apparatus may be selectively performed according to a plurality of information such as prediction method, size and prediction direction of the current block, and the inverse transform unit 225 of the decoding apparatus transforms It is possible to perform an inverse conversion based on the performed conversion information.
  • the inverse transform unit 225 may perform the upsampling on the inverse-transformed residual block corresponding to the downsampling performed in the encoding apparatus.
  • the prediction unit 230 may generate a prediction block based on the prediction block generation related information provided by the entropy decoding unit 210 and the previously decoded block and / or picture information provided in the memory 240.
  • the prediction unit 240 can perform intra prediction that generates a prediction block based on the pixel information in the current picture.
  • the prediction unit 240 predicts the inter prediction of the current block based on the information included in at least one of the previous picture of the current picture and the following picture Can be performed.
  • motion information necessary for inter prediction of a current block provided in the encoding apparatus for example, information on a motion vector, a reference picture index, and the like can be derived in response to checking skip flags, merge flags, and the like received from the encoding apparatus.
  • the prediction unit 240 can perform prediction on the current block using a reference picture in another view.
  • the reconstruction block may be generated using the prediction block generated by the prediction unit 230 and the residual block provided by the inverse transform unit 225.
  • the adder may be regarded as a separate unit (reconstruction block generation unit) for generating a reconstruction block.
  • the residual is not transmitted and the prediction block can be a restoration block.
  • the reconstructed block and / or picture may be provided to the filter unit 235.
  • the filter unit 235 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the restored blocks and / or pictures as needed.
  • SAO sample adaptive offset
  • the memory 240 may store the reconstructed picture or block to be used as a reference picture or a reference block, and may provide the reconstructed picture to the output unit. Although not shown, the output unit can provide a 3DV image using restored multi-view pictures.
  • a multi-view video sequence photographed by a plurality of cameras is used.
  • the global disparity can be regarded as a difference in global variation existing between pictures of the same time in a different view from a picture of a specific time in the current view.
  • GDV Global Disparity Vector
  • FIG. 3 is a diagram schematically illustrating a method of performing inter-view prediction using a GDV in a 3D video encoding / decoding process.
  • an inter-view prediction is performed on a current block 310 in a picture 300 of an n-th view Vn among multi-views.
  • motion information of a reference block 330 in a picture 320 of an m-th view Vm of a multi-view may be referred to for inter-view prediction of the current block 310.
  • the picture 300 of the n-th view and the picture 320 of the m-th view are the same time, that is, pictures of the same POC (Picture Order Count).
  • the POC is information indicating the output order of a picture.
  • the relationship between the current block 310 and the reference block 330 belonging to different views can be defined by the GDVnm 350.
  • (X, y) of the current block 310 in the n-th view and the (x, y) -th view of the m-th view in the nth view considering the relationship between the block 340 and the reference block 330,
  • the relationship of the upper left pixel (x ', y') of the reference block 330 can be expressed by Equation (1).
  • GDVnm (dvx nm , dvy nm )
  • the current block 310 of the n-th view may be predicted 360 using the reference block 330 of the m-th view specified by the GDV derived as Equation 1 as a reference block.
  • the encoding apparatus can select a disparity as a global disparity between the corresponding views in order to minimize an error between two pictures of different views at the same POC. For example, a disparity having an optimum SAD (Sum of Absolute Differences) value between two views can be determined on a block-by-block basis. At this time, MSE (Mean Square Error), MAD (Mean Absolute Difference), or the like may be used instead of SAD.
  • SAD Sum of Absolute Differences
  • GDV Global Disparity Vector
  • the encoding apparatus may transmit the calculated GDV information as a bit stream so that the same GDV is used in the decoding apparatus.
  • motion information is taken from a block (reference block) in a reference picture of a reference view corresponding to the current block of the current view by GDV and used for prediction of the current block .
  • motion information e.g., a motion vector
  • a reference block may be copied and used as a temporal motion vector of a current block, or may be used as a motion vector predictor of a current block.
  • FIG. 4 is a view for schematically explaining an example of a case of decoding multi-view video.
  • the pictures of the three views V0, V1, V2 are decoded, the pictures of each view form a sequence according to the POC, and eight consecutive pictures in the POC order are grouped Picture: GOP) is described as an example.
  • GDV 10 is a GDV used for predicting a current block of a view V1 with a view V0 as a reference view
  • GDV 12 is used for predicting a current block of a view V1 by using a view V2 as a reference view
  • GDV 20 is the GDV used to predict the current block of view V2 with view V0 as the reference view.
  • the GDV indicates the correspondence of two blocks between pictures at the same time (POC) of two different views.
  • Each GDV may be transmitted as a bitstream from the encoding device as described above, and the decoding device may use the GDV from the bitstream to decode it.
  • GDV 20 (dvx 20 , dvy 20 ) is a global disparity vector (GDV) for specifying the position of a reference block in the reference view V 0 when decoding the current view V 2, as described above.
  • the encoding apparatus and the decoding apparatus perform prediction on a current block by referring to motion information of a block in a reference view determined by GDV in the case of inter-view prediction.
  • the encoding apparatus and the decoding apparatus copy the motion information at the reference block 430 of the position (x ', y') specified by the GDV 20 and store the motion information as a temporal motion vector of the current block 420 Or may be used as a motion vector predictor of the current block 420.
  • the GDV calculated by the encoding apparatus is not transmitted as a bit stream, and the decoding apparatus calculates the GDV in the same manner as the encoding apparatus calculates the GDV .
  • a decoding apparatus can determine a global disparity between corresponding views on a block-by-block basis using SAD or the like for two pictures having the same POC in different views in the same manner as the encoding apparatus.
  • the inter-view prediction for the current block in the current picture can be performed using the GDV calculated before the current picture is decoded. This can be referred to as motion information reuse in multi-view video coding.
  • the reused motion information that is, the GDV used for the inter-view prediction of the current block, becomes the GDV derived from the POC of the decoded picture before the current picture among the pictures in the current view.
  • the GDV 20 used for prediction of the current block 410 is the picture decoded before the current picture 400 in the current view V2, Lt; / RTI > may be a GDV calculated from a single picture or a picture belonging to a previous GOP.
  • the encoding device does not transmit the calculated GDV value to the decoding device.
  • the decoding apparatus calculates the GDV in the same manner as the encoding apparatus calculates the GDV and uses it for inter-view prediction.
  • the decoding apparatus can calculate the GDV in the same manner as the encoding apparatus calculates the GDV, that is, the decoding apparatus can calculate the GDV identical to the GDV calculated by the encoding apparatus and use it for inter-view prediction of the current block (1)
  • the encoding apparatus can signal to the decoding apparatus information indicating a point-in-time (POC) at which the GDV is calculated, and (2) the encoding apparatus decodes information indicating the GDV to be used for inter- Lt; / RTI >
  • the encoding apparatus and the decoding apparatus decode the same viewpoints of the current view (that is, at the same time or the same POC ) To calculate the GDV.
  • the current view may be a view to be encoded / decoded.
  • the GDV can be calculated at a predetermined POC.
  • the encoding device may signal information indicating when the POC is producing the GDV. That is, the encoding apparatus signals to the decoding apparatus information indicating when the POC calculated the GDV, and the decoding apparatus can calculate the GDV in the same manner as the encoding apparatus at the POC indicated by the signaled information.
  • Table 1 is a simplified representation of an example syntax that indicates when to update or update the GDV (POC).
  • the encoding apparatus can signal the decoding apparatus to gdv_update_interval indicating the POC for calculating / updating the GDV in the sequence parameter set.
  • the gdv_update_interval specifies a point in time (POC) at which the GDV is calculated / updated.
  • the encoding apparatus transmits the gdv_update_interval indicating the calculated POC to the calculated GDV, and the decoding apparatus calculates the GDV in the same manner as the encoding apparatus at the POC indicated by the gdv_update_interval.
  • FIG. 5 is a diagram for explaining the POC for calculating the GDV.
  • P k and l is an integer
  • the pictures shown in FIG. 5 are arranged according to the temporal level to which they belong.
  • a picture (slice) or a block to be inter-predicted in inter-prediction between pictures may refer to a picture whose temporal level is lower than itself or whose temporal level is the same as itself.
  • TL0, TL1 the lowest temporal level of TL0 P k, P k + 2 , P k + l-2, P k + l, P k + l + 1 belongs, and the next temporal level TL1 P k + 1, P k + 4, P k + l-3 belongs, the a high temporal level of TL2 P k + 3, P k + l-1 is .
  • the decoding apparatus calculates the GDV in the same manner as the encoding apparatus at the POC indicated by gdv_update_interval.
  • the decoding apparatus calculates GDV at the POC which is the starting point of the intra period.
  • the intra period corresponds to a period from an IDR (instantaneous decoding refresh) picture to a next IDR picture, that is, a unit period of random access.
  • the P k the IDR picture in the example of Figure 5 then when the IDR picture is a P k + l assuming, the value of gdv_update_interval received from the encoding unit 0, the decoding apparatus GDV in the POC of the P k And the GDV is again calculated at the POC of Pk + 1 after the POC corresponding to the intra period has elapsed.
  • the decoding apparatus calculates GDV at the POC of the picture whose temporal level is lower than a predetermined value.
  • the temporal level for calculating the POC when the value of gdv_update_interval is 1 may be set in advance between the encoding apparatus and the decoding apparatus, or may be transmitted as separate information. For example, suppose that GDV is computed at a POC with a temporal level of 1 or less when the value of gdv_update_interval is 1.
  • the decoding apparatus in the P k + 1, P k + 3, P k + 4, P k + l-3, P k + POC of l-1 Respectively, to calculate GDV.
  • the decoding apparatus calculates GDV at the POC of the picture used as the reference picture. For example, in Fig. 5, if Pk + 2 makes Pk + 1 a reference picture, the decoding apparatus calculates GDV at the POC of Pk + 1 .
  • the reference picture may be a picture referred to in an inter picture between pictures in the same view, or a picture referred to in an inter picture between pictures in different views.
  • the decoding apparatus can calculate the GDV at a predetermined POC according to the received gdv_update_interval value until the sequence is changed and the new gdv_update_interval is signaled through the next SPS .
  • the encoding apparatus selects the GDV that performs the prediction using the GDV calculated in various POCs and obtains the optimum result, in view of performing the inter-view prediction using the same GDV in the decoding apparatus and the encoding apparatus ,
  • the encoding apparatus may also say that GDV is calculated at the POC indicated by gdv_update_interval, and the inter-view prediction is performed using the calculated GDV.
  • the calculated GDV is used for inter-view prediction in decoding for a subsequent picture. That is, the GDV calculated at the POC of the decoded picture is used for inter-view prediction of the block of the picture to be decoded subsequently.
  • the GDV can be computed using the decoded multi-view pictures. As described above, the GDV can be calculated by calculating a global disparity on a block-by-block basis that optimizes an error (SAD, etc.) between two pictures of different views in the POC.
  • the GDV between the current view and which view is calculated may be determined between the encoding apparatus and the decoding apparatus.
  • the current view is the view to be decoded, and the view from which the GDV is calculated with respect to the current view may be the reference view that is referred to the inter-view prediction of the current view.
  • reference relationships between views can be set according to the encoding / decoding order.
  • the reference view of the current decoding target can be set to the decoded view just before the current view. For example, in FIG. 4, if three views are decoded in the order of view V1? View V0? View V2, the GDVs of view V1 become the GDV calculated between view V1 and view V0 with view V0 as a reference view.
  • the reference relationships between the views may be set apart from the decoding order of the views.
  • the GDV of the view V1 calculated by referring to the view V0 or the view V2 is GDV 10 or GDV 12
  • the GDV of the view V2 calculated with reference to the view V0 becomes GDV 20 .
  • the encoding apparatus When the reference view for calculating the GDV between the current view and the reference view is not predetermined or if the reference view needs to be separately designated, the encoding apparatus generates reference information indicating the reference view (e.g., reference direction ) To the decoding device. Upon receiving the reference information indicating the reference view from the encoding apparatus, the decoding apparatus can calculate the GDV between the reference view indicating the reference information and the current view at the predetermined POC.
  • the reference information may be included in the SPS and transmitted together with information indicating a time point (POC) at which the GDV is calculated / updated.
  • the encoding device can use information indicating how to use the GDV at a certain time point (using already calculated GDVs so that the decoding device can use the same GDV as the GDV calculated by the encoding device) Information indicating how to calculate the GDV for the picture to be decoded) to the decoding device.
  • the GDV to be used in the currently decoding POC can be variously calculated based on the GDV of another POC already calculated.
  • the already calculated GDV of another POC may be used for inter-view prediction of the current picture as it is, or the GDVs of already calculated POCs may be interpolated to use for inter-view prediction of the current picture.
  • the encoding apparatus can signal information indicating how to obtain the GDV value to be applied in the currently decoded POC through a Sequence Parameter Set (SPS).
  • SPS Sequence Parameter Set
  • the decoding apparatus can perform inter-view prediction on the current picture using the GDV (s) calculated at the POC of the decoded picture prior to the current picture, as indicated by the signaled information from the encoding apparatus.
  • Table 3 is a simplified representation of an example of a syntax for signaling information indicating a GDV value to be applied at the POC to be decoded at present.
  • the encoding device may signal gdv_interpolation_method in the SPS to indicate the GDV that the decoding device will use for inter-view prediction of the current picture.
  • the decoding apparatus can use any of the already calculated GDVs in the same view to interpolate the current picture without interpolation.
  • the decoding apparatus can interpolate already calculated GDV values in the same view and use it for inter-view prediction of the current picture.
  • FIG. 6 schematically illustrates an example of a method of calculating a GDV value to be used for inter-view prediction in a current decoding picture.
  • the pictures Pa, Pb, Pc, Pd, Pe and the like shown in the same view are arranged in the POC order.
  • the decoding apparatus can use any of the already calculated GDVs without interpolation. For example, if the value of gdv_interpolation_method is 0, the decoding apparatus can use the GDV value calculated at the POC closest to the POC of the current picture for inter-view prediction of the current picture.
  • the nearest picture to the current picture Pc (600) Pb i.e. of the distance (POC difference) d b, d c, d d, d e between the picture
  • the GDV calculated from the POC of the picture Pb as the GDV for the current picture Pc can be used.
  • the GDV computed at the POC preceding the POC order can be used as the GDV for the current picture.
  • the GDV calculated in the POC of the picture Pb may be used as a GDV of the current picture Pc.
  • the decoding apparatus can interpolate the already calculated GDV values and use it as a GDV for the current picture. For example, if the value of gdv_interpolation_method is 1, the GDV interpolated GDVs calculated at two POCs close to the POC of the current picture among the calculated POCs can be used as a GDV for the current picture.
  • the current when it is called a picture Pc (600) the distance between the GDV is already calculated POC d a, d b, d d, d e
  • the GDV calculated at the two POCs having the smallest distance (POC difference) from the current picture can be used by comparing the magnitudes. For example, d b ⁇ d d ⁇ d a ⁇ d e of assuming the relationship is satisfied, the current picture Pc of the inter-view prediction, the interpolation of the GDV calculated in the GDV and the picture Pd calculated at the picture Pb POC POC .
  • GDV calculated in poc1 is gdv1 and GDV calculated in poc2 is gdv2, gdv, which is the GDV to be used for inter-view prediction of the current picture, can be derived by interpolation as shown in Equation 3.
  • Equation 3 ⁇ and ⁇ can be determined according to the position of the POC calculated by gdv1 and gdv2 in the POC order as shown in Table 4.
  • the GDV for the current picture is derived as the difference of the scaled GDV values from the POC of the current picture to the distance of each GDV to the calculated POC.
  • Information indicating how to derive the GDV value to be used in the decoding target picture using the already calculated GDV values may be transmitted in the SPS as described above. Accordingly, the GDV to be used for inter-view prediction of the pictures to be decoded can be derived in the same manner until a new gdv_interpolation_method value is received through the next SPS in the current sequence.
  • FIG. 7 is a flowchart schematically illustrating a method of signaling information about a GDV in an encoding apparatus according to the present invention.
  • the encoding apparatus calculates a GDV for a current picture (S710).
  • the GDV may be calculated by a predetermined unit in the encoding apparatus, for example, a prediction unit.
  • the encoding apparatus can select a disparity as a global disparity between the corresponding views in order to minimize an error between two pictures of different views at the same POC. For example, a disparity having an optimum SAD (Sum of Absolute Differences) value between two views can be determined on a block-by-block basis.
  • SAD Sum of Absolute Differences
  • MSE Mean Square Error
  • MAD Mean Absolute Difference
  • the encoding apparatus signals the information on the calculated GDV to the decoding apparatus (S720). Instead of signaling the calculated GDV value to the decoding apparatus, the encoding apparatus generates information indicating the time point (POC) at which the GDV is calculated in the corresponding view, and GDVs already calculated in the case of performing inter- To the decoding apparatus, information indicating how to calculate the GDV for the picture to be decoded.
  • the information on the GDV is transmitted in a bit stream, for example, through a Sequence Parameter Set (SPS). If it is necessary to indicate a reference view for the current view, the encoding device may send information indicating the reference view via the SPS.
  • SPS Sequence Parameter Set
  • FIG. 8 is a diagram schematically illustrating a method of calculating a GDV for a current picture in a decoding apparatus according to the present invention.
  • the decoding apparatus receives the GDV information from the encoding apparatus (S810).
  • the GDV information indicates a method of calculating a GDV for a picture to be decoded using information indicating a point of time (POC) of calculating a GDV in the current view and GDVs already calculated in the case of inter-view prediction in each picture Information.
  • the GDV information may also include information indicating a reference view.
  • the GDV information may be transmitted from the encoding apparatus through a bitstream, for example, included in the SPS and transmitted.
  • the decoding apparatus calculates GDV at a predetermined POC based on the received GDV information (S820).
  • the decoding apparatus can calculate the GDV with the reference view at the point of time (POC) indicated by the GDV information.
  • the GDV is calculated using already decoded pictures.
  • the predetermined POC indicated by the GDV may be any one of a start POC of an intra period, a POC of a picture below a predetermined temporal level, a POC of a picture to be a reference picture, and a POC of all pictures.
  • the calculation of the GDV may be performed using SAD or the like as performed in the encoding apparatus, and pictures for each view may be performed in the decoded POC.
  • the GDV is calculated between the pictures of the POC indicated by the GDV information in the current view and the reference view, the reference view for the current view may be predetermined or may be signaled from the encoding device.
  • the decoding apparatus Based on the received GDV information, the decoding apparatus derives the GDV for the current picture using the already calculated GDVs (S830). The decoding apparatus calculates the GDV for the current picture using the GDV calculated at the POC of the already decoded picture according to the method indicated by the GDV information. The decoding apparatus may use the already calculated GDV as it is as the GDV for the current picture, or interpolate the already calculated GDVs and use it as the GDV for the current picture.
  • the calculation of the GDV at each POC and the derivation of the GDV for the current picture may be performed in a predetermined unit in the decoding apparatus, for example, in the prediction unit.
  • the decoding apparatus may decode the current picture using the GDV for the current picture (S840).
  • the decoding apparatus can perform inter-view prediction on the current picture using the derived GDV.
  • the decoding apparatus can decode the current picture using inter-view prediction. For example, as described above, the decoding apparatus specifies the block corresponding to the GDV in the reference picture having the same POC as the current picture in the reference view, and uses the motion information of the corresponding block as the motion information of the current block The motion information of the current block can be predicted.
  • the decoding apparatus can restore the current block by adding the prediction block generated through the inter-view prediction and the residual transmitted from the encoding apparatus.
  • a prediction block of the current block may be used as a reconstruction block.
  • GDV for a current picture means a GDV used for inter-view prediction of blocks to be decoded in a current picture.

Abstract

The present invention relates to a method for signaling image information and a video decoding method and apparatus using the same. The method for signaling image information, according to the present invention, includes: a step of producing a global disparity vector (GDV) between a decoding target picture within a present view and a reference picture within a reference view; and a step of signaling information for inducting the GDV, wherein the decoding target picture and the reference picture can have the same picture order count (POC).

Description

영상 정보 시그널링 방법 및 이를 이용한 비디오 디코딩 방법Video information signaling method and video decoding method using the same
본 발명은 영상 정보를 처리하는 방법에 관한 것으로서, 더 구체적으로는 3D 영상을 디코딩하기 위한 정보를 시그널링하는 방법과 시그널링된 정보를 기반으로 서로 다른 뷰들 간의 예측을 통한 비디오 디코딩을 수행하는 방법에 관한 것이다.More particularly, the present invention relates to a method of signaling information for decoding a 3D image and a method of performing video decoding through prediction between different views based on signaled information will be.
최근 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 하지만, 영상이 고해상도를 가지고 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가한다. Recently, a demand for high resolution and high quality image has been increasing in various application fields. However, as the image has high resolution and high quality, the amount of information about the image also increases.
따라서 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 정보를 전송하거나 기존의 저장 매체를 이용해 영상 정보를 저장하는 경우에는, 정보의 전송 비용과 저장 비용이 증가하게 된다. 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술을 이용할 수 있다.Therefore, when video information is transmitted using a medium such as a wired / wireless broadband line, or when image information is stored using an existing storage medium, information transmission cost and storage cost increase. A high-efficiency image compression technique can be used to efficiently transmit, store and reproduce information of high-resolution and high-quality images.
한편, 고해상/대용량의 영상을 처리할 수 있게 됨에 따라서, 3D 비디오를 이용한 디지털 방송 서비스가 차세대 방송 서비스의 하나로 주목 받고 있다. 3D 비디오는 복수의 시점(view) 채널을 이용하여 현장감과 몰입감을 제공할 수 있다. On the other hand, digital video broadcasting using 3D video has received attention as one of the next generation broadcasting services as it can process high resolution / large capacity video. 3D video can provide a sense of presence and immersion using a plurality of view channels.
3D 비디오는 FVV(free viewpoint video), FTV(free viewpoint TV), 3DTV, surveillance 및 홈 엔터테인먼트와 같은 다양한 영역에 사용될 수 있다. 3D video can be used in various areas such as free viewpoint video (FVV), free viewpoint TV (FTV), 3DTV, surveillance and home entertainment.
싱글 뷰 비디오(single view video)와 달리 멀티 뷰를 이용한 3D 비디오는 동일한 POC(picture order count)의 뷰들 사이에 높은 상관도(correlation)를 가진다. 멀티 뷰 영상은 인접한 여러 카메라 즉, 여러 시점(view)를 이용하여 똑같은 장면을 동시에 촬영하기 때문에, 시차와 약간의 조명 차이를 제외하면 거의 같은 정보를 담고 있으므로 서로 다른 뷰 간의 상관도가 높다.Unlike single view video, 3D video using multi-view has a high correlation between views of the same POC (picture order count). Since multi-view images capture the same scene simultaneously using several cameras, ie, multiple viewpoints, the multi-view image has a high degree of correlation between different views because it contains almost the same information except for a time difference and a slight illumination difference.
따라서, 멀티 뷰 비디오의 인코딩/디코딩에서는 서로 다른 뷰 사이의 상관도를 고려할 수 있다. 예를 들어, 현재 뷰의 디코딩 대상 블록을 다른 뷰의 블록을 참조하여 예측하거나 디코딩할 수 있다. Therefore, in multi-view video encoding / decoding, correlation between different views can be considered. For example, the decoding target block of the current view can be predicted or decoded by referring to the block of another view.
이 경우에, 서로 다른 뷰 간의 관계를 산출하여 예측에 이용할 수 있다. In this case, the relationship between different views can be calculated and used for prediction.
본 발명은 3D(3 Dimensional) 비디오 코딩에 있어서, 서로 다른 뷰 사이의 예측인 인터-뷰 예측을 효과적으로 수행할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.It is an object of the present invention to provide a method and apparatus for effectively performing inter-view prediction, which is a prediction between different views, in 3D (3 Dimensional) video coding.
본 발명은 3D 비디오 코딩에 있어서, 서로 다른 뷰 사이의 관계를 규정하는 글로벌 디스패리티 벡터(Global Disparity Vector: GDV)를 도출하는데 필요한 정보를 효과적으로 시그널링하는 방법 및 장치를 제공하는 것을 목적으로 한다.The present invention provides a method and apparatus for efficiently signaling information required to derive a global disparity vector (GDV) that defines a relationship between different views in 3D video coding.
본 발명은 3D 비디오 코딩에 있어서, 인코딩 장치로부터 GDV 값의 전송 없이도 인코딩 장치와 디코딩 장치가 동일한 GDV를 이용하여 인터-뷰 예측을 수행할 수 있도록 하는 방법 및 장치를 제공하는 것을 목적으로 한다. It is an object of the present invention to provide a method and apparatus for enabling an encoding apparatus and a decoding apparatus to perform inter-view prediction using the same GDV without transmission of a GDV value from an encoding apparatus in 3D video coding.
본 발명은 3D 비디오 코딩에 있어서, 현재 뷰의 디코딩 대상 블록에 대한 인터-뷰 예측을 수행함에 있어서 이미 산출한 GDV를 이용하는 방법 및 장치를 제공하는 것을 목적으로 한다. An object of the present invention is to provide a method and an apparatus for using GDV already calculated in performing inter-view prediction on a decoding target block of a current view in 3D video coding.
(1)본 발명의 일 실시형태는 3D 비디오의 디코딩을 위한 영상 정보의 시그널링 방법으로서, 현재 뷰 내의 디코딩 대상 픽처와 참조 뷰 내의 참조 픽처 사이의 GDV(Global Disparity Vector)를 산출하는 단계 및 상기 GDV를 유도하기 위한 정보를 시그널링하는 단계를 포함하며, (1) One embodiment of the present invention is a signaling method of video information for decoding 3D video, the method comprising: calculating a Global Disparity Vector (GDV) between a current picture to be decoded and a reference picture in a reference view; The method comprising the steps of:
상기 디코딩 대상 픽처와 상기 참조 픽처는 동일한 POC(Picture Order Count)를 가질 수 있다.The decoding target picture and the reference picture may have the same picture order count (POC).
(2)(1)에서, 상기 GDV를 유도하기 위한 정보는 시퀀스 파라미터 셋으로 전송될 수 있다.(2) In (1), the information for deriving the GDV may be transmitted in a sequence parameter set.
(3)(1)에서, 상기 GDV를 유도하기 위한 정보는 GDV의 계산이 수행되는 POC를 지시하는 정보를 포함할 수 있다.(3) In (1), the information for deriving the GDV may include information indicating a POC at which calculation of the GDV is performed.
(4)(3)에서, 상기 GDV의 계산이 수행되는 POC를 지시하는 정보는, 인트라 피리어드(intra period)의 첫 POC, 소정의 시간적 레벨(temporal level) 이하의 픽처에 대한 POC, 참조 픽처로서 이용되는 픽처의 POC 및 모든 픽처의 POC 중 어느 하나를 지시할 수 있다.(4) In (3), the information indicating the POC at which the calculation of the GDV is performed includes a first POC of an intra period, a POC for a picture below a predetermined temporal level, The POC of the picture to be used and the POC of all the pictures.
(5)(1)에서, 상기 GDV를 유도하기 위한 정보는 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 정보를 포함할 수 있다.(5) In (1), the information for deriving the GDV may include information indicating a method of deriving the GDV for the decoding target picture.
(6) (5)에서, 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 정보는, 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 어느 하나를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것과 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 선택된 GDV들을 인터폴레이션하여 GDV로 이용하는 것 중 어느 하나의 방법을 지시하는 정보 및 상기 지시된 방법에서 사용되는 GDV를 지시하는 정보를 포함할 수 있다.(6) In (5), the information indicating the method of deriving the GDV for the current picture to be decoded may be any one of the GDVs calculated in the POC of the pictures decoded earlier than the current picture to be decoded, And a method of interpolating GDVs selected from the GDVs calculated in the POC of pictures decoded prior to the decoding target picture and using the GDVs as GDVs and GDVs used in the indicated method, And may include information indicating the direction.
(7) (5)에서, 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 정보는, 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 POC에서 계산된 GDV를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것과 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 두 POC에서 계산된 GDV들을 인터폴레이션(interpolation)하여 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것 중 어느 하나를 지시하는 정보일 수 있다.(7) In (5), the information indicating the method of deriving the GDV for the current picture to be decoded may be the closest to the current picture in the POC order among the GDVs calculated in the POC of the pictures decoded earlier than the current picture The GDVs calculated in the POC are used as the GDVs for the current picture to be decoded and the GDVs calculated at the two POCs closest to the current picture in the POC order among the GDVs calculated in the POCs of the pictures decoded earlier than the decoding target picture are interpolated interpolation to use the GDV as a GDV for the current picture to be decoded.
(8) (1)에서, 상기 GDV를 유도하기 위한 정보는 상기 참조 뷰를 지시하는 정보를 포함할 수 있다. (8) In (1), the information for deriving the GDV may include information indicating the reference view.
(9) 본 발명의 다른 실시형태는 3D 비디오 디코딩 방법으로서, GDV(Global Disparity Vector)를 유도하기 위한 정보를 포함하는 비트스트림을 수신하는 단계, 현재 뷰의 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 GOP에서 GDV를 산출하는 단계, 상기 GDV를 유도하기 위한 정보에 기반하여 현재 뷰의 디코딩 대상 픽처에 대한 GDV를 유도하는 단계 및 상기 유도된 GDV를 기반으로 현재 뷰 및 참조 뷰 사이의 인터-뷰 예측을 수행하는 단계를 포함하며, 상기 GDV를 유도하는 단계에서는, 상기 현재 뷰의 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 GOP에서 산출된 GDV를 이용하여, 상기 현재 뷰의 디코딩 대상 픽처 및 상기 현재 뷰의 디코딩 대상 픽처와 동일한 POC를 가지는 상기 참조 뷰의 픽처 사이의 GDV를 산출할 수 있다. (9) Another embodiment of the present invention is a 3D video decoding method, comprising: receiving a bitstream including information for deriving a Global Disparity Vector (GDV); decoding a GOP of pictures decoded earlier than a current picture to be decoded; Deriving a GDV for a current picture to be decoded based on information for deriving the GDV, and generating inter-view prediction between a current view and a reference view based on the derived GDV, Wherein the step of deriving the GDV comprises decoding the current picture and the current view using the GDV calculated in the GOP of the pictures decoded prior to the decoding target picture of the current view, The GDV between the pictures of the reference view having the same POC as the target picture can be calculated.
(10) (9)에서, 상기 GDV를 유도하기 위한 정보는 상기 비트스트림 내 시퀀스 파라미터 셋으로 전송될 수 있다.(10) In (9), the information for deriving the GDV may be transmitted in a set of sequence parameters in the bitstream.
(11) (9)에서, 상기 GDV를 유도하기 위한 정보는 GDV의 계산이 수행되는 POC를 지시하는 POC 정보를 포함할 수 있으며, 상기 GDV를 산출하는 단계에서는 상기 POC 정보가 지시하는 POC에서 GDV를 산출할 수 있다.(11) In (9), the information for deriving the GDV may include POC information indicating a POC at which calculation of the GDV is performed. In the calculating of the GDV, the POC indicated by the POC information may include GDV Can be calculated.
(12) (11)에서, 상기 GDV의 계산이 수행되는 POC를 지시하는 POC 정보는, 인트라 피리어드(intra period)의 첫 POC, 소정의 시간적 레벨(temporal level) 이하의 픽처에 대한 POC, 참조 픽처로서 이용되는 픽처의 POC 및 모든 픽처의 POC 중 어느 하나를 지시할 수 있다.(12) In (11), the POC information indicating the POC at which the calculation of the GDV is performed includes a first POC of an intra period, a POC of a picture at a predetermined temporal level or lower, The POC of the picture to be used as the POC and the POC of all the pictures.
(13) (9)에서, 상기 GDV를 유도하기 위한 정보는 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 GDV 유도 정보를 포함할 수 있으며, 상기 GDV 유도 단계에서는, 상기 GDV 유도 정보가 지시하는 방법에 따라서 현재 뷰의 디코딩 대상 픽처에 대한 GDV를 유도할 수 있다.(13) In (9), the information for deriving the GDV may include GDV derivation information indicating a method for deriving a GDV for the decoding target picture, and in the GDV derivation step, The GDV for the decoding target picture of the current view can be derived according to the instruction method.
(14) (13)에서, 상기 GDV 유도 정보는, 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 어느 하나를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것과 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 선택된 GDV들을 인터폴레이션하여 GDV로 이용하는 것 중 어느 하나의 방법을 지시하는 정보 및 상기 지시된 방법에서 사용되는 GDV를 지시하는 정보를 포함할 수 있다.(14) In (13), the GDV derivation information may be one in which one of the GDVs calculated in the POC of the pictures decoded earlier than the decoding target picture is used as the GDV for the decoding target picture, Information indicating one of the methods of interpolating GDVs selected from the GDVs calculated in the POC of the decoded pictures as GDVs, and information indicating the GDVs used in the indicated method.
(15) (14)에서, 상기 GDV 유도 정보가 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 어느 하나를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것을 지시하는 경우에, 상기 GDV 유도 단계에서는 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 POC에서 계산된 GDV를 상기 디코딩 대상 픽처에 대한 GDV로 유도할 수 있다.(15) In (14), when the GDV derivation information indicates that any one of the GDVs calculated in the POC of the pictures decoded prior to the decoding target picture is used as the GDV for the decoding subject picture, the GDV In the derivation step, the GDV calculated at the POC closest to the current picture in the POC order among the GDVs calculated at the POC of the pictures decoded earlier than the decoding target picture may be guided to the GDV for the decoding target picture.
(16) (15)에서, 상기 GDV 유도 정보가 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 선택된 GDV들을 인터폴레이션하여 GDV로 이용하는 것 중 어느 하나의 방법을 지시하는 경우에, 상기 GDV 유도 단계에서는 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 두 POC에서 계산된 GDV들을 인터폴레이션(interpolation)하여 상기 디코딩 대상 픽처에 대한 GDV로 유도할 수 있다.(16) In (15), when the GDV derivation information indicates one of the methods of interpolating GDVs selected from the GDVs calculated in the POC of the pictures decoded prior to the decoding target picture and using the interpolated GDVs as GDVs, In the GDV derivation step, interpolated GDVs calculated at two POCs closest to the current picture in the POC order among the GDVs calculated at the POC of the pictures decoded earlier than the decoding target picture are used as GDVs for the decoding target picture .
(17) (9)에서, 상기 참조 뷰는 상기 GDV를 유도하기 위한 정보에 의해 지시될 수 있다. (17) In (9), the reference view may be indicated by information for deriving the GDV.
(18) (9)에서, 상기 참조 뷰는 뷰들 사이의 디코딩 순서에 의해 지정될 수 있다.(18) In (9), the reference view may be specified by a decoding order between views.
본 발명에 의하면, 3D(3 Dimensional) 비디오 코딩에 있어서 서로 다른 뷰 사이의 예측인 인터-뷰 예측을 효과적으로 수행할 수 있다.According to the present invention, inter-view prediction, which is a prediction between different views in 3D (3 Dimensional) video coding, can be effectively performed.
본 발명에 의하면, 3D 비디오 코딩에 있어서 서로 다른 뷰 사이의 관계를 규정하는 글로벌 디스패리티 벡터(Global Disparity Vector: GDV)에 관한 정보를 적은 비트량과 낮은 오버헤드(overhead)로 시그널링할 수 있다. According to the present invention, information on a global disparity vector (GDV) defining a relation between different views in 3D video coding can be signaled with a small bit amount and a low overhead.
본 발명에 의하면, 3D 비디오 코딩에 있어서 인코딩 장치로부터 GDV 값의 전송 없이도 인코딩 장치와 디코딩 장치가 동일한 GDV를 이용하여 인터-뷰 예측을 수행할 수 있으므로, 전송 효율을 높일 수 있다. According to the present invention, since the encoding apparatus and the decoding apparatus can perform the inter-view prediction using the same GDV in the 3D video coding without transmitting the GDV value from the encoding apparatus, the transmission efficiency can be increased.
본 발명에 의하면, 3D 비디오 코딩에 있어서 현재 뷰의 디코딩 대상 블록에 대한 인터-뷰 예측을 수행함에 있어서 이미 산출한 GDV를 재사용함으로써 디코딩 복잡도를 줄일 수 있다.According to the present invention, in the 3D video coding, decoding complexity can be reduced by reusing GDV that has already been calculated in performing inter-view prediction on a decoding target block of a current view.
도 1은 본 발명의 일 실시예에 따른 영상 인코딩 장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 영상 디코딩 장치를 개략적으로 나타낸 블록도이다.2 is a block diagram schematically showing an image decoding apparatus according to an embodiment of the present invention.
도 3은 3D 비디오 인코딩/디코딩 과정에서 GDV를 이용하여 인터-뷰 예측이 수행되는 방법을 개략적으로 설명하는 도면이다.3 is a diagram schematically illustrating a method of performing inter-view prediction using a GDV in a 3D video encoding / decoding process.
도 4는 멀티 뷰의 비디오를 디코딩 하는 경우의 일 예를 개략적으로 설명하는 도면이다. FIG. 4 is a view for schematically explaining an example of a case of decoding multi-view video.
도 5는 GDV를 계산하는 POC를 설명하기 위한 도면이다. 5 is a diagram for explaining the POC for calculating the GDV.
도 6은 현재 디코딩하는 픽처에서 인터-뷰 예측을 위해 사용할 GDV 값을 계산하는 방법의 일 예를 개략적으로 설명하기 위한 도면이다.6 schematically illustrates an example of a method of calculating a GDV value to be used for inter-view prediction in a current decoding picture.
도 7은 본 발명에 따라 인코딩 장치에서 GDV에 관한 정보를 시그널링하는 방법을 개략적으로 설명하는 순서도이다.7 is a flowchart schematically illustrating a method of signaling information about a GDV in an encoding apparatus according to the present invention.
도 8은 본 발명에 따라 디코딩 장치에서 현재 픽처에 대한 GDV를 계산하는 방법을 개략적으로 설명하는 도면이다.8 is a diagram schematically illustrating a method of calculating a GDV for a current picture in a decoding apparatus according to the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. However, it is not intended to limit the invention to the specific embodiments. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the present invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 영상 인코딩 장치/디코딩 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In the meantime, the respective components in the drawings described in the present invention are shown independently for the convenience of explanation of different characteristic functions in the video encoding / decoding device, and the respective components may be separated from each other by hardware or separate software It does not mean that it is implemented. For example, two or more of the configurations may combine to form one configuration, or one configuration may be divided into a plurality of configurations. Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention unless they depart from the essence of the present invention.
3 차원 입체 영상을 디스플레이 장치에 재현하기 위한 인코딩/디코딩에 있어서, 인코딩 장치에 입력되는 영상은 텍스처 영상(texture image)과 깊이 맵(depth map)일 수 있다. 깊이 맵은 시점(viewpoint)로부터 영상 내 물체의 표면(surface)까지의 거리를 나타내는 영상을 의미한다. 여기서, 시점은, 예컨대 해당 영상을 촬영하는 카메라일 수 있다. 깊이 맵(깊이 영상)은 깊이를 촬영하는 카메라를 통해 생성될 수 있다.In the encoding / decoding for reproducing the three-dimensional stereoscopic image on the display device, the image input to the encoding device may be a texture image and a depth map. The depth map means an image representing the distance from the viewpoint to the surface of the object in the image. Here, the viewpoint may be, for example, a camera for photographing the corresponding image. The depth map (depth image) can be generated through a camera that captures depth.
텍스처 영상은 3차원 영상을 구성하는 영상으로서 깊이 정보 이외의 정보(예컨대, 색상, 명암 등)를 포함하는 영상을 의미하며, 멀티 뷰(multi-view)의 영상들로 구성될 수도 있다. The texture image is an image constituting a three-dimensional image and includes information other than depth information (for example, color, contrast, and the like), and may be composed of multi-view images.
3차원 영상을 처리하기 위해, 후술하는 인코딩/디코딩 과정에서는 깊이 맵(깊이 영상)과 텍스쳐 영상이 각각 처리될 수 있으며, 텍스처 영상의 경우도 각 뷰(view) 별로 처리될 수 있다. 이때, 깊이 맵의 처리를 위해 텍스처 영상이 참조될 수 있고, 텍스처 영상의 처리를 위해 깊이 맵이 참조될 수도 있다. 또한, 텍스처 영상의 경우 다른 뷰의 영상을 참조하여 처리될 수도 있다.In order to process a three-dimensional image, a depth map (depth image) and a texture image may be respectively processed in an encoding / decoding process to be described later, and a texture image may be processed for each view. At this time, the texture image may be referred to for processing of the depth map, and the depth map may be referred to for processing of the texture image. Also, in the case of a texture image, it may be processed by referring to an image of another view.
본 명세서에서는 설명의 편의를 위해, 특별한 설명이 없는 한, ‘영상’은 텍스처 영상을 의미하는 것으로 한다.In this specification, for convenience of explanation, unless otherwise specified, 'image' means a texture image.
이하, 3차원 영상의 처리하는 방법에 관하여 도면을 참조하여 설명한다. Hereinafter, a method of processing a three-dimensional image will be described with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 인코딩 장치를 개략적으로 도시한 블록도이다. 도 1을 참조하면, 인코딩 장치(100)는 픽처 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 인코딩부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 구비한다. 1 is a block diagram schematically illustrating an encoding apparatus according to an embodiment of the present invention. 1, the encoding apparatus 100 includes a picture dividing unit 105, a predicting unit 110, a transforming unit 115, a quantizing unit 120, a reordering unit 125, an entropy encoding unit 130, An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150. [
픽처 분할부(105)는 입력된 픽처를 적어도 하나의 처리 단위 블록으로 분할할 수 있다. 이때, 처리 단위로서의 블록은 예측 유닛(Prediction Unit, 이하 ‘PU’라 함)일 수도 있고, 변환 유닛(Transform Unit, 이하 ‘TU’라 함)일 수도 있으며, 코딩 유닛(Coding Unit, 이하 ‘CU’라 함)일 수도 있다. The picture dividing unit 105 can divide the input picture into at least one processing unit block. At this time, the block as a processing unit may be a prediction unit (PU), a transform unit (TU), a coding unit (CU) Quot;). ≪ / RTI >
예측부(110)는 픽처 분할부(105)에서 픽처의 처리 단위에 대하여 예측을 수행하여 예측 블록을 생성한다. 예측부(110)에서 픽처의 처리 단위는 CU일 수도 있고, TU일 수도 있고, PU일 수도 있다. 또한, 예측부(110)는 해당 처리 단위에 대하여 적용되는 예측 방법을 결정하고, 각 예측 방법의 구체적인 내용(예컨대, 예측 모드 등)을 정할 수 있다. The prediction unit 110 generates a prediction block by performing prediction on a processing unit of a picture in the picture dividing unit 105. [ The processing unit of the picture in the predicting unit 110 may be a CU, a TU, or a PU. In addition, the predicting unit 110 may determine a prediction method to be applied to the processing unit, and may determine concrete contents (for example, prediction mode, etc.) of each prediction method.
예측부(110)은 예측 방법으로서 인트라 예측(intra prediction), 인터 예측(inter prediction), 인터 뷰(inter-view) 예측 중 어느 하나를 적용할 수 있다. The prediction unit 110 may apply any one of intra prediction, inter prediction, and inter-view prediction as a prediction method.
인터 예측을 통해서는 현재 픽처의 이전 픽처 및/또는 이후 픽처 중 적어도 하나의 픽처의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 인트라 예측을 통해서는 현재 픽처 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 인터-뷰 예측을 통해서는 서로 다른 뷰의 픽처를 참조하여 예측 블록을 생성할 수 있다.Through the inter prediction, prediction can be performed by performing prediction based on information of at least one of a previous picture and a following picture of the current picture. Through the intra prediction, the prediction block can be generated by performing prediction based on the pixel information in the current picture. Through the inter-view prediction, prediction blocks can be generated by referring to pictures of different views.
인터 예측의 방법으로서, 스킵(skip) 모드, 머지(merge) 모드, MVP(Motion Vector Predtiction) 등을 이용할 수 있다. 인터 예측에서는 PU에 대하여, 참조 픽처를 선택하고 PU와 동일한 크기의 참조 블록을 선택할 수 있다. 참조 블록은 정수 픽셀 단위로 선택될 수 있다. 이어서, 현재 PU와의 레지듀얼(residual) 신호가 최소화되며 움직임 벡터 크기 역시 최소가 되는 예측 블록이 생성된다.As a method of inter prediction, a skip mode, a merge mode, MVP (Motion Vector Prediction), or the like can be used. In the inter prediction, a reference block having the same size as the PU can be selected for the PU by selecting a reference picture. The reference block may be selected in integer pixel units. Then, a prediction block in which a residual signal with respect to the current PU is minimized and a motion vector size is also minimized is generated.
예측 블록은 정수 샘플 단위로 생성될 수도 있고, 1/2 픽셀 단위 또는 1/4 픽셀 단위와 같이 정수 이하 픽셀 단위로 생성될 수도 있다. 이때, 움직임 벡터 역시 정수 픽셀 이하의 단위로 표현될 수 있다. 예컨대 휘도 샘플에 대해서는 1/4 픽셀 단위로, 색차 샘플에 대해서는 1/8 픽셀 단위로 표현될 수 있다. The prediction block may be generated in units of integer samples or in units of pixels or less, such as a half-pixel unit or a quarter-pixel unit. At this time, the motion vector can also be expressed in units of integer pixels or less. For example, it can be expressed in units of quarter pixels for luminance samples and in units of eighth pixels for color difference samples.
인터 예측을 통해 선택된 참조 픽처의 인덱스, 움직임 벡터(ex. Motion Vector Predictor), 레지듀얼 신호 등의 정보는 엔트로피 인코딩되어 디코딩 장치에 전달된다. 스킵 모드가 적용되는 경우에는 레지듀얼을 예측 블록을 복원 블록으로 할 수 있으므로, 레지듀얼을 생성, 변환, 양자화, 전송하지 않을 수 있다. Information such as an index of a reference picture selected through inter prediction, a motion vector (Predictor), a residual signal, and the like is entropy-encoded and transmitted to the decoding apparatus. In the case where the skip mode is applied, the residual can be used as a reconstruction block so that residuals can be generated, transformed, quantized, and not transmitted.
인트라 예측을 수행하는 경우에는, PU 단위로 예측 모드가 정해져서 PU 단위로 예측이 수행될 수 있다. 또한, PU 단위로 예측 모드가 정해지고 TU 단위로 인트라 예측이 수행될 수도 있다. When intra prediction is performed, the prediction mode is determined in units of PU, and prediction can be performed in units of PU. In addition, the prediction mode may be determined in units of PU, and intra prediction may be performed in units of TU.
인트라 예측에서 예측 모드는 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비향성성 모드는 DC 예측 모드 및 플래이너 모드(Planar 모드)을 포함할 수 있다. In the intra prediction, the prediction mode may have 33 directional prediction modes and at least two non-directional modes. The non-directional mode may include a DC prediction mode and a planer mode (Planar mode).
인트라 예측에서는 참조 샘플에 필터를 적용한 후 예측 블록을 생성할 수 있다. 이때, 참조 샘플에 필터를 적용할 것인지는 현재 블록의 인트라 예측 모드 및/또는 사이즈에 따라 결정될 수 있다.In intra prediction, a prediction block can be generated after applying a filter to a reference sample. At this time, whether to apply the filter to the reference sample can be determined according to the intra prediction mode and / or the size of the current block.
인터-뷰 예측에서는 참조 뷰 내에서 현재 뷰 내 현재 블록의 예측에 참조 가능한 대응 블록의 위치를 특정하는 글로벌 디스패러티 벡터(Global Disparity Vector)를 이용하여 현재 블록에 대한 예측을 수행할 수 있다. In the inter-view prediction, the prediction of the current block can be performed using a global disparity vector that specifies the position of the corresponding block that can be referred to in prediction of the current block in the current view in the reference view.
PU는 다양한 사이즈/형태의 블록일 수 있다. 예컨대 PU는 2N×2N 블록, 2N×N 블록, N×2N 블록, 또는 N×N 블록 (N은 정수) 등일 수 있다. 또한, 상술한 크기의 PU 외에, N×mN 블록, mN×N 블록, 2N×mN 블록 또는 mN×2N 블록 (m<1) 등의 PU를 더 정의하여 사용할 수도 있다.PUs can be blocks of various sizes / types. For example, the PU may be a 2N × 2N block, a 2N × N block, an N × 2N block, or an N × N block (N is an integer). Further, in addition to the PU of the above-mentioned size, a PU such as an N × mN block, an mN × N block, a 2N × mN block, or an mN × 2N block (m <1) may be further defined.
생성된 예측 블록과 원본 블록 사이의 레지듀얼 값(레지듀얼 블록 또는 레지듀얼 신호)은 변환부(115)로 입력된다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 레지듀얼 값과 함께 엔트로피 인코딩부(130)에서 인코딩되어 디코딩 장치에 전달된다. The residual value (residual block or residual signal) between the generated prediction block and the original block is input to the conversion unit 115. In addition, the prediction mode information, motion vector information, and the like used for prediction are encoded in the entropy encoding unit 130 together with the residual value, and then transmitted to the decoding apparatus.
변환부(115)는 변환 단위로 레지듀얼 블록에 대한 변환을 수행하고 변환 계수를 생성한다. 변환부(115)는 텍스처 영상과 깊이 맵에 대한 다운 샘플링을 수행한 후에 변환을 수행할 수도 있다. 다운 샘플링은 텍스처 영상과 깊이 맵에서, 저주파 영역에 대해 수행될 수도 있고, 디테일(detail)한 특성이 중요시되지 않는 영역에 대해서 수행될 수도 있다. 다운 샘플링을 통해 복잡도를 낮추고 코딩 효율을 높일 수 있다. The conversion unit 115 performs a conversion on a residual block on a conversion unit basis and generates a conversion coefficient. The conversion unit 115 may perform the downsampling on the texture image and the depth map, and then perform the conversion. The downsampling may be performed on the low frequency region in the texture image and the depth map, or may be performed on the region in which the detail characteristic is not important. Downsampling can reduce complexity and improve coding efficiency.
변환부(115)에서의 변환 단위는 TU일 수 있으며, 쿼드 트리(quad tree) 구조를 가질 수 있다. 이때, 변환 단위의 크기는 소정의 최대 및 최소 크기의 범위 내에서 정해질 수 있다. 변환부(115)는 레지듀얼 블록을 DCT(Discrete Cosine Transform) 및/또는 DST(Discrete Sine Transform)를 이용하여 변환할 수 있다. The conversion unit in the conversion unit 115 may be a TU and may have a quad tree structure. At this time, the size of the conversion unit can be set within a range of predetermined maximum and minimum sizes. The transforming unit 115 may transform the residual block using DCT (Discrete Cosine Transform) and / or DST (Discrete Sine Transform).
양자화부(120)는 변환부(115)에서 변환된 레지듀얼 값들을 양자화하여 양자화 계수를 생성할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공된다. The quantization unit 120 may quantize the residual values converted by the conversion unit 115 to generate a quantization coefficient. The values calculated by the quantization unit 120 are provided to the dequantization unit 135 and the reordering unit 125. [
재정렬부(125)는 양자화부(120)로부터 제공된 양자화 계수를 재정렬한다. 양자화 계수를 재정렬함으로써 엔트로피 인코딩부(130)에서의 인코딩 효율을 높일 수 있다. 재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원 블록 형태의 양자화 계수들을 1차원의 벡터 형태로 재정렬할 수 있다. 재정렬부(125)에서는 양자화부에서 전송된 계수들의 확률적인 통계를 기반으로 계수 스캔닝의 순서를 변경함으로써 엔트로피 인코딩부(130)에서의 엔트로피 인코딩 효율을 높일 수도 있다.The reordering unit 125 rearranges the quantization coefficients provided from the quantization unit 120. The encoding efficiency in the entropy encoding unit 130 can be increased by rearranging the quantization coefficients. The reordering unit 125 may rearrange the quantization coefficients of the two-dimensional block form into a one-dimensional vector form through a coefficient scanning method. The reordering unit 125 may increase the entropy encoding efficiency in the entropy encoding unit 130 by changing the order of the coefficient scanning based on the probabilistic statistics of the coefficients transmitted from the quantization unit.
엔트로피 인코딩부(130)는 재정렬부(125)에 의해 재정렬된 양자화 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩에는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 인코딩 방법을 사용할 수 있다. 엔트로피 인코딩부(130)는 재정렬부(125) 및 예측부(110)로부터 전달받은 CU의 양자화 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, PU 정보 및 전송 단위 정보, 움직임 벡터 정보, 참조 픽처 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 인코딩할 수 있다. The entropy encoding unit 130 may perform entropy encoding on the rearranged quantization coefficients by the reordering unit 125. [ For entropy encoding, for example, an encoding method such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be used. The entropy encoding unit 130 receives quantization coefficient information, block type information, prediction mode information, division unit information, PU information, transmission unit information, motion vector information, and motion vector information of the CU received from the reordering unit 125 and the prediction unit 110, Reference picture information, block interpolation information, filtering information, and the like can be encoded.
또한, 엔트로피 인코딩부(130)는 필요한 경우에, 전송하는 파라미터 셋(parameter set) 또는 신택스에 일정한 변경을 가할 수도 있다. In addition, the entropy encoding unit 130 may make certain changes to the parameter set or syntax to be transmitted, if necessary.
엔트로피 인코딩부(130)는 멀티 뷰에 대한 영상 정보와 깊이 맵에 대한 영상 정보를 다중화하여 비트스트림으로 전송할 수도 있다.The entropy encoding unit 130 may multiplex the image information of the multi-view and the image information of the depth map and transmit the multiplexed image as a bit stream.
역양자화부(135)는 양자화부(120)에서 양자화된 값들을 역양자화하고, 역변환부(140)는 역양자화부(135)에서 역양자화된 값들을 역변환한다. 역변환부(140)는 변환부(115)에서 다운 샘플링이 수행된 경우에, 역변환된 레지듀얼 블록에 업 샘플링을 수행할 수 있다. 업 샘플링의 샘플링 비율은 변환부(115)에서 수행된 다운 샘플링의 샘플링 비율에 대응하여 결정될 수 있다. The inverse quantization unit 135 dequantizes the quantized values in the quantization unit 120 and the inverse transformation unit 140 inversely transforms the dequantized values in the inverse quantization unit 135. [ The inverse transform unit 140 may perform upsampling on the inverse transformed residual block when downsampling is performed in the transform unit 115. [ The sampling rate of the upsampling may be determined corresponding to the sampling rate of the downsampling performed in the conversion unit 115. [
역양자화부(135) 및 역변환부(140)에서 생성된 레지듀얼 값과 예측부(110)에서 예측된 예측 블록이 합쳐져 복원 블록(Reconstructed Block)이 생성될 수 있다. A residual value generated by the inverse quantization unit 135 and the inverse transform unit 140 and a predicted block predicted by the predictor 110 may be combined to generate a reconstructed block.
도 1에서는 가산기를 통해서, 레지듀얼 블록과 예측 블록이 합쳐져 복원 블록이 생성되는 것으로 설명하고 있다. 이때, 가산기를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수도 있다. In FIG. 1, it is explained that a residual block and a prediction block are combined through an adder to generate a restored block. At this time, the adder may be regarded as a separate unit (reconstruction block generation unit) for generating a reconstruction block.
필터부(145)는 필요에 따라 디블록킹 필터, ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset) 중 적어도 하나를 복원된 픽처에 적용할 수 있다. The filter unit 145 may apply at least one of a deblocking filter, an Adaptive Loop Filter (ALF), and a Sample Adaptive Offset (SAO) to the reconstructed picture as necessary.
디블록킹 필터는 복원된 픽처에서 블록 간의 경계에 생긴 왜곡을 제거할 수 있다. ALF(Adaptive Loop Filter)는 디블록킹 필터를 통해 블록이 필터링된 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. ALF는 고효율을 적용하는 경우에만 수행될 수도 있다. SAO는 디블록킹 필터가 적용된 레지듀얼 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋 차이를 복원하며, 밴드 오프셋(Band Offset), 에지 오프셋(Edge Offset) 등의 형태로 적용된다. The deblocking filter can remove the distortion caused in the boundary between the blocks in the reconstructed picture. The ALF (Adaptive Loop Filter) can perform filtering based on the comparison between the reconstructed image and the original image after the block is filtered through the deblocking filter. ALF may be performed only when high efficiency is applied. SAO restores the offset difference from the original image in units of pixels for a residual block to which a deblocking filter is applied and is applied in the form of a band offset and an edge offset.
메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽처를 저장할 수 있다. 메모리(150)에 저장된 복원 블록 또는 픽처는 인터 예측을 수행하는 예측부(110)에 제공될 수 있다. The memory 150 may store a restored block or a picture calculated through the filter unit 145. [ The reconstruction block or picture stored in the memory 150 may be provided to the prediction unit 110 that performs inter prediction.
도 2는 본 발명의 일 실시예에 따른 영상 디코딩 장치를 개략적으로 나타낸 블록도이다. 도 2를 참조하면, 영상 디코딩 장치(200)는 엔트로피 디코딩부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 메모리(240)를 포함할 수 있다. 2 is a block diagram schematically showing an image decoding apparatus according to an embodiment of the present invention. 2, the image decoding apparatus 200 includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, a filter unit 235, And a memory 240.
영상 인코딩 장치에서 영상 비트스트림이 입력된 경우, 입력된 비트스트림은 영상 인코딩 장치에서 영상 정보가 처리된 절차에 따라서 디코딩될 수 있다.When an image bitstream is input in the image encoding apparatus, the input bitstream may be decoded according to a procedure in which image information is processed in the image encoding apparatus.
예컨대, 영상 인코딩 장치에서 엔트로피 인코딩을 수행하기 위해 CAVLC 등의 가변 길이 부호화(Variable Length Coding: VLC, 이하 ‘VLC’ 라 함)가 사용된 경우에, 엔트로피 디코딩부(210)도 인코딩 장치에서 사용한 VLC 테이블과 동일한 VLC 테이블로 구현하여 엔트로피 디코딩을 수행할 수 있다. 또한, 영상 인코딩 장치에서 엔트로피 인코딩을 수행하기 위해 CABAC을 이용한 경우에, 엔트로피 디코딩부(210)는 이에 대응하여 CABAC을 이용한 엔트로피 디코딩을 수행할 수 있다. For example, when a variable length coding (VLC), such as CAVLC, is used to perform entropy encoding in a video encoding apparatus, the entropy decoding unit 210 also uses a VLC The entropy decoding can be performed by implementing the same VLC table as the table. Also, when CABAC is used to perform entropy encoding in the video encoding apparatus, the entropy decoding unit 210 can perform entropy decoding using CABAC in correspondence thereto.
인코딩 장치로부터 수신한 비트스트림이 멀티 뷰에 대한 영상 정보와 깊이 맵에 대한 영상 정보가 다중화된 것이라면, 엔트로피 디코딩부(210)는 수신한 비트스트림를 역다중화한 후 엔트로피 디코딩을 수행할 수도 있다.If the bit stream received from the encoding apparatus is a multiplexed image information of the multi view and a depth map, the entropy decoding unit 210 may perform entropy decoding after demultiplexing the received bit stream.
엔트로피 디코딩부(210)에서 디코딩된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(230)로 제공되고, 엔트로피 디코딩부(210)에서 엔트로피 디코딩이 수행된 레지듀얼 값은 재정렬부(215)로 입력될 수 있다. Information for generating a predictive block from information decoded by the entropy decoding unit 210 is provided to the predicting unit 230. Residual values for which the entropy decoding is performed in the entropy decoding unit 210 are supplied to a reordering unit 215 Can be input.
재정렬부(215)는 엔트로피 디코딩부(210)에서 엔트로피 디코딩된 비트스트림을 영상 인코딩 장치에서 재정렬한 방법을 기초로 재정렬할 수 있다. 재정렬부(215)는 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부(215)는 인코딩 장치에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 인코딩 장치에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다. The reordering unit 215 may rearrange the entropy-decoded bitstream in the entropy decoding unit 210 based on a method of rearranging the entropy-decoded bitstream in the image encoding apparatus. The reordering unit 215 may rearrange the coefficients represented in the one-dimensional vector form by restoring the coefficients of the two-dimensional block form again. The reordering unit 215 may perform reordering by receiving information related to the coefficient scanning performed in the encoding apparatus and performing a reverse scanning based on the scanning order performed in the encoding apparatus.
역양자화부(220)는 인코딩 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다. The inverse quantization unit 220 can perform inverse quantization based on the quantization parameters provided by the encoding apparatus and the coefficient values of the re-arranged blocks.
역변환부(225)는 영상 인코딩 장치에서 수행된 양자화 결과에 대해, 인코딩 장치의 변환부가 수행한 DCT 및 DST에 대해 역DCT 및/또는 역DST를 수행할 수 있다. 역변환은 인코딩 장치에서 결정된 전송 단위 또는 영상의 분할 단위를 기초로 수행될 수 있다. 인코딩 장치의 변환부에서 DCT 및/또는 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 디코딩 장치의 역변환부(225)는 인코딩 장치의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다. The inverse transform unit 225 may perform inverse DCT and / or inverse DST on the DCT and DST performed by the transform unit of the encoding apparatus, on the quantization result performed by the image encoding apparatus. The inverse transformation may be performed based on the transmission unit determined in the encoding apparatus or the division unit of the image. The DCT and / or DST in the transform unit of the encoding apparatus may be selectively performed according to a plurality of information such as prediction method, size and prediction direction of the current block, and the inverse transform unit 225 of the decoding apparatus transforms It is possible to perform an inverse conversion based on the performed conversion information.
인코딩 장치에서 레지듀얼 블록에 다운 샘플링이 수행된 후에 변환이 이루어졌다면, 역변환부(225)는 인코딩 장치에서 수행된 다운 샘플링에 대응하여 역변환된 레지듀얼 블록에 대한 업 샘플링을 수행할 수 있다. If the conversion is performed after the downsampling is performed on the residual block in the encoding apparatus, the inverse transform unit 225 may perform the upsampling on the inverse-transformed residual block corresponding to the downsampling performed in the encoding apparatus.
예측부(230)는 엔트로피 디코딩부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(240)에서 제공된 이전에 디코딩된 블록 및/또는 픽처 정보를 기초로 예측 블록을 생성할 수 있다. The prediction unit 230 may generate a prediction block based on the prediction block generation related information provided by the entropy decoding unit 210 and the previously decoded block and / or picture information provided in the memory 240.
현재 블록에 대한 예측 모드가 인트라 예측(intra prediction) 모드인 경우에, 예측부(240)는 현재 픽처 내의 픽셀 정보를 기초로 예측 블록을 생성하는 인트라 예측을 수행할 수 있다.When the prediction mode for the current block is the intra prediction mode, the prediction unit 240 can perform intra prediction that generates a prediction block based on the pixel information in the current picture.
현재 블록에 대한 예측 모드가 인터 예측(inter prediction) 모드인 경우에, 예측부(240)는 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처에 포함된 정보를 기초로 현재 블록에 대한 인터 예측을 수행할 수 있다. 이때, 인코딩 장치에서 제공된 현재 블록의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽처 인덱스 등에 관한 정보는 인코딩 장치로부터 수신한 스킵 플래그, 머지 플래그 등을 확인하고 이에 대응하여 유도될 수 있다. In the case where the prediction mode for the current block is an inter prediction mode, the prediction unit 240 predicts the inter prediction of the current block based on the information included in at least one of the previous picture of the current picture and the following picture Can be performed. At this time, motion information necessary for inter prediction of a current block provided in the encoding apparatus, for example, information on a motion vector, a reference picture index, and the like can be derived in response to checking skip flags, merge flags, and the like received from the encoding apparatus.
현재 블록에 대해 인터-뷰 예측이 적용된 경우에, 예측부(240)는 다른 뷰 내의 참조 픽처를 이용하여 현재 블록에 대한 예측을 수행할 수 있다. In a case where inter-view prediction is applied to the current block, the prediction unit 240 can perform prediction on the current block using a reference picture in another view.
복원 블록은 예측부(230)에서 생성된 예측 블록과 역변환부(225)에서 제공된 레지듀얼 블록을 이용해 생성될 수 있다. 도 2에서는 가산기에서 예측 블록과 레지듀얼 블록이 합쳐져 복원 블록이 생성되는 것으로 설명하고 있다. 이때, 가산기를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수 있다. The reconstruction block may be generated using the prediction block generated by the prediction unit 230 and the residual block provided by the inverse transform unit 225. [ In FIG. 2, it is explained that a prediction block and a residual block are combined in an adder to generate a restored block. At this time, the adder may be regarded as a separate unit (reconstruction block generation unit) for generating a reconstruction block.
스킵 모드가 적용되는 경우에는 레지듀얼이 전송되지 않으며 예측 블록을 복원 블록으로 할 수 있다.When the skip mode is applied, the residual is not transmitted and the prediction block can be a restoration block.
복원된 블록 및/또는 픽처는 필터부(235)로 제공될 수 있다. 필터부(235)는 필요에 따라서 복원된 블록 및/또는 픽처에 디블록킹 필터링, SAO(Sample Adaptive Offset) 및/또는 ALF 등을 적용할 수 있다. The reconstructed block and / or picture may be provided to the filter unit 235. The filter unit 235 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the restored blocks and / or pictures as needed.
메모리(240)는 복원된 픽처 또는 블록을 저장하여 참조 픽처 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽처를 출력부로 제공할 수 있다. 도시되지는 않았으나, 출력부는 복원된 멀티 뷰의 픽처들을 이용하여 3DV 영상을 제공할 수 있다.The memory 240 may store the reconstructed picture or block to be used as a reference picture or a reference block, and may provide the reconstructed picture to the output unit. Although not shown, the output unit can provide a 3DV image using restored multi-view pictures.
3D 비디오 인코딩/디코딩에서는 복수의 카메라에서 촬영된 멀티 뷰 비디오 시퀀스가 이용된다. 서로 다른 뷰(view, 視點)에서 촬영된 영상들 사이에서는 글로벌 디스패러티(global disparity)라고 하는 차이(disparity)가 존재한다. 글로벌 디스패러티는 현재 뷰(View)에서 특정 시간의 픽처와 다른 뷰에서 동일한 시간의 픽처 사이에 존재하는 전체적인(global) 변이의 차이라고 할 수 있다. 이때, 두 뷰 사이의 전체적인 변이의 차이는 글로벌 디스패터리 벡터(Global Disparity Vector: GDV, 이하 ‘GDV’ 라 함)를 통해 나타낼 수 있다.In 3D video encoding / decoding, a multi-view video sequence photographed by a plurality of cameras is used. There is a disparity in global disparity between images taken at different view points. The global disparity can be regarded as a difference in global variation existing between pictures of the same time in a different view from a picture of a specific time in the current view. At this time, a difference in global variation between the two views can be expressed through a Global Disparity Vector (GDV).
도 3은 3D 비디오 인코딩/디코딩 과정에서 GDV를 이용하여 인터-뷰 예측이 수행되는 방법을 개략적으로 설명하는 도면이다.3 is a diagram schematically illustrating a method of performing inter-view prediction using a GDV in a 3D video encoding / decoding process.
도 3에서는 멀티 뷰들 중에서 n번째 뷰(Vn)의 픽처(300) 내 현재 블록(310)에 대하여 인터-뷰 예측을 수행하는 경우를 예로서 설명한다.3, an inter-view prediction is performed on a current block 310 in a picture 300 of an n-th view Vn among multi-views.
도 3을 참조하면, 현재 블록(310)의 인터-뷰 예측을 위해, 멀티-뷰 중 m번째 뷰(Vm)의 픽처(320) 내 참조 블록(330)의 움직임 정보를 참조할 수 있다. n번째 뷰의 픽처(300)와 m 번째 뷰의 픽처(320)은 동일한 시간, 즉 동일한 POC(Picture Order Count)의 픽처이다. POC는 픽처의 출력 순서를 나타내는 정보이다. Referring to FIG. 3, motion information of a reference block 330 in a picture 320 of an m-th view Vm of a multi-view may be referred to for inter-view prediction of the current block 310. The picture 300 of the n-th view and the picture 320 of the m-th view are the same time, that is, pictures of the same POC (Picture Order Count). The POC is information indicating the output order of a picture.
서로 다른 뷰에 속하는 현재 블록(310)과 참조 블록(330)의 관계는 GDVnm(350)에 의해 정의될 수 있다. 현재 블록(310)을 m 번째 뷰에 투영한 블록(340)과 참조 블록(330)의 관계를 생각하면, n 번째 뷰에서 현재 블록(310)의 좌상단 픽셀 (x, y)와 m 번째 뷰에서 참조 블록(330)의 좌상단 픽셀 (x’, y’)의 관계는 수식 1과 같이 나타낼 수 있다.The relationship between the current block 310 and the reference block 330 belonging to different views can be defined by the GDVnm 350. (X, y) of the current block 310 in the n-th view and the (x, y) -th view of the m-th view in the nth view, considering the relationship between the block 340 and the reference block 330, The relationship of the upper left pixel (x ', y') of the reference block 330 can be expressed by Equation (1).
<수식 1>&Lt; Formula 1 >
(x’, y’) = GDVnm + (x, y)(x ', y') = GDVnm + (x, y)
GDVnm = (dvxnm, dvynm)GDVnm = (dvx nm , dvy nm )
n 번째 뷰의 현재 블록(310)은 수식 1과 같이 유도된 GDV에 의해 특정되는 m 번째 뷰의 참조 블록(330)를 참조 블록으로 해서 예측(360)될 수 있다. the current block 310 of the n-th view may be predicted 360 using the reference block 330 of the m-th view specified by the GDV derived as Equation 1 as a reference block.
인코딩 장치는 동일한 POC에서 서로 다른 뷰의 두 픽처에 대한 오차를 최소화하는 디스패리티를 해당 뷰 간의 글로벌 디스패리티로 선택할 수 있다. 예컨대, 두 뷰 사이에서 최적의 SAD(Sum of Absolute Differences) 값을 가지는 디스페리티를 블록 단위로 결정할 수 있다. 이때, SAD 대신 MSE(Mean Square Error), MAD(Mean Absolute Difference) 등이 이용될 수도 있다. The encoding apparatus can select a disparity as a global disparity between the corresponding views in order to minimize an error between two pictures of different views at the same POC. For example, a disparity having an optimum SAD (Sum of Absolute Differences) value between two views can be determined on a block-by-block basis. At this time, MSE (Mean Square Error), MAD (Mean Absolute Difference), or the like may be used instead of SAD.
GDV(Global Disparity Vector, 전역 변이 벡터)는 선택된 글로벌 디스패리티를 나타내는 벡터 표현이 된다.A Global Disparity Vector (GDV) is a vector representation representing the selected global disparity.
인코딩 장치는 산출한 GDV 정보를 비트스트림으로 전송하여 디코딩 장치에서도 동일한 GDV가 사용되도록 할 수 있다. The encoding apparatus may transmit the calculated GDV information as a bit stream so that the same GDV is used in the decoding apparatus.
GDV를 이용하여 인터-뷰 예측을 하는 경우에는, GDV에 의해 현재 뷰의 현재 블록에 대응하는 참조 뷰(reference view)의 참조 픽처 내 블록(참조 블록)에서 움직임 정보를 가져와 현재 블록의 예측에 이용할 수 있다. 예컨대, 참조 블록의 움직임 정보(예컨대, 움직임 벡터)를 복사하여 현재 블록의 시간적 움직임 벡터(temporal motion vector)로 이용하거나, 현재 블록의 움직임 벡터 예측자(motion vector predictor)로 이용할 수 있다.In the case of performing inter-view prediction using GDV, motion information is taken from a block (reference block) in a reference picture of a reference view corresponding to the current block of the current view by GDV and used for prediction of the current block . For example, motion information (e.g., a motion vector) of a reference block may be copied and used as a temporal motion vector of a current block, or may be used as a motion vector predictor of a current block.
도 4는 멀티 뷰의 비디오를 디코딩 하는 경우의 일 예를 개략적으로 설명하는 도면이다. 도 4의 예에서는 세 뷰(V0, V1, V2)의 비디오를 디코딩하는 경우로서, 각 뷰의 픽처들이 POC에 따라서 시퀀스를 이루고 있으며, POC 순서상 연속된 8개의 픽처가 하나의 그룹(Group Of Picture: GOP)를 이루는 경우를 일 예로서 설명하고 있다. FIG. 4 is a view for schematically explaining an example of a case of decoding multi-view video. In the example of FIG. 4, the pictures of the three views (V0, V1, V2) are decoded, the pictures of each view form a sequence according to the POC, and eight consecutive pictures in the POC order are grouped Picture: GOP) is described as an example.
도 4에 있어서, GDV10은 뷰 V0를 참조 뷰(reference view)로 해서 뷰 V1의 현재 블록을 예측하는데 이용되는 GDV이며, GDV12는 뷰 V2를 참조 뷰로 해서 뷰 V1의 현재 블록을 예측하는데 이용되는 GDV이고, GDV20은 뷰 V0을 참조 뷰로 해서 뷰 V2의 현재 블록을 예측하는데 이용되는 GDV이다. GDV는 서로 다른 두 뷰(view)의 동일한 시점(time, 즉 POC)에 있는 픽처들 사이에서, 두 블록의 대응 관계를 지시한다.In FIG. 4, GDV 10 is a GDV used for predicting a current block of a view V1 with a view V0 as a reference view, and GDV 12 is used for predicting a current block of a view V1 by using a view V2 as a reference view GDV 20 is the GDV used to predict the current block of view V2 with view V0 as the reference view. The GDV indicates the correspondence of two blocks between pictures at the same time (POC) of two different views.
각 GDV는 상술한 바와 같이 인코딩 장치로부터 비트스트림으로 전송되거나 되며, 디코딩 장치는 비트스트림으로부터 GDV를 디코딩하여 이용할 수 있다. Each GDV may be transmitted as a bitstream from the encoding device as described above, and the decoding device may use the GDV from the bitstream to decode it.
도 4를 참조하면, 뷰 V2에서 현재 픽처(400)의 현재 블록(420)에 대한 예측을 뷰 V0의 참조 픽처(410) 내 블록(430, 참조 블록)을 참조하여 수행한다. 현재 픽처(400)와 참조 픽처(410)는 동일한 POC (POC=2)를 가진다. GDV20 = (dvx20, dvy20)는 상술한 바와 같이, 현재 뷰(V2)를 디코딩할 때, 참조 뷰(V0)에서 참조 블록의 위치를 특정하기 위한 GDV(Global Disparity Vector)이다. Referring to FIG. 4, in the view V2, prediction of the current block 420 of the current picture 400 is performed with reference to a block 430 (reference block) in the reference picture 410 of the view V0. The current picture 400 and the reference picture 410 have the same POC (POC = 2). GDV 20 = (dvx 20 , dvy 20 ) is a global disparity vector (GDV) for specifying the position of a reference block in the reference view V 0 when decoding the current view V 2, as described above.
수식 1을 참조하면, V0에서 현재 픽처(400) 내 현재 블록의 좌상단 위치가 (x, y)인 경우에, V2(참조 뷰)에서 참조 픽처(410) 내 대응 블록(430, 참조 블록)의 좌상단 위치 (x’, y’)는 수식 2와 같이 특정될 수 있다. (Reference view) to the corresponding block 430 (reference block) in the reference picture 410 when the upper left position of the current block in the current picture 400 is (x, y) at V0, The upper left position (x ', y') can be specified as shown in Equation (2).
<수식 2>&Quot; (2) &quot;
(x’, y’) = (x, y) + GDV20 (x ', y') = (x, y) + GDV 20
인코딩 장치 및 디코딩 장치는 인터-뷰 예측의 경우에 GDV에 의해 결정되는 참조 뷰 내 블록의 움직임 정보를 참조하여 현재 블록에 대한 예측을 수행한다. 예컨대, 도 4의 예에서, 인코딩 장치 및 디코딩 장치는 GDV20에 의해 특정되는 위치 (x’, y’)의 참조 블록(430)에서 움직임 정보를 복사하여 현재 블록(420)의 시간적 움직임 벡터로 이용하거나 현재 블록(420)의 움직임 벡터 예측자로 이용할 수 있다.The encoding apparatus and the decoding apparatus perform prediction on a current block by referring to motion information of a block in a reference view determined by GDV in the case of inter-view prediction. For example, in the example of FIG. 4, the encoding apparatus and the decoding apparatus copy the motion information at the reference block 430 of the position (x ', y') specified by the GDV 20 and store the motion information as a temporal motion vector of the current block 420 Or may be used as a motion vector predictor of the current block 420.
한편, 현재 블록의 인터-뷰 예측에 있어서, 앞서 설명한 바와 같이 인코딩 장치가 산출한 GDV를 비트스트림으로 전송하지 않고, 인코딩 장치가 GDV를 산출한 방법과 동일한 방법으로 디코딩 장치가 GDV를 산출하도록 할 수 있다. 예컨대, 디코딩 장치도, 인코딩 장치와 같은 방법으로, 서로 다른 뷰에서 동일한 POC를 가지는 두 픽처에 대하여 SAD 등을 이용하여 블록 단위로 해당 뷰 간의 글로벌 디스패리티를 결정할 수 있다. On the other hand, in the inter-view prediction of the current block, as described above, the GDV calculated by the encoding apparatus is not transmitted as a bit stream, and the decoding apparatus calculates the GDV in the same manner as the encoding apparatus calculates the GDV . For example, a decoding apparatus can determine a global disparity between corresponding views on a block-by-block basis using SAD or the like for two pictures having the same POC in different views in the same manner as the encoding apparatus.
이때, 현재 픽처가 디코딩되기 전에 산출된 GDV를 이용하여 현재 픽처 내 현재 블록에 대한 인터-뷰 예측을 수행할 수 있다. 이를 멀티 뷰 비디오 코딩(multi-view video Coding)에 있어서 움직임 정보의 재사용(Motion information reuse)이라고도 할 수 있다. In this case, the inter-view prediction for the current block in the current picture can be performed using the GDV calculated before the current picture is decoded. This can be referred to as motion information reuse in multi-view video coding.
재사용되는 움직임 정보, 즉 현재 블록의 인터-뷰 예측에 이용되는 GDV는 현재 뷰 내의 픽처들 중 현재 픽처보다 먼저 디코딩된 픽처의 POC에서 유도한 GDV가 된다. The reused motion information, that is, the GDV used for the inter-view prediction of the current block, becomes the GDV derived from the POC of the decoded picture before the current picture among the pictures in the current view.
예컨대, 도 4의 예에서 디코딩이 POC 순서대로 진행되었다면, 현재 블록(410)의 예측에 이용되는 GDV20는 현재 뷰(V2)에서 현재 픽처(400) 이전에 디코딩된 픽처, 즉 POC가 0이거나 1인 픽처 또는 이전 GOP에 속하는 픽처에서 계산된 GDV일 수 있다. For example, in the example of FIG. 4, if the decoding is performed in the POC order, the GDV 20 used for prediction of the current block 410 is the picture decoded before the current picture 400 in the current view V2, Lt; / RTI &gt; may be a GDV calculated from a single picture or a picture belonging to a previous GOP.
이하, 인터-뷰 예측에 있어서 움직임 정보의 재사용에 관해 도면을 참조하여 설명한다.Hereinafter, the reuse of motion information in inter-view prediction will be described with reference to the drawings.
인터-뷰 예측의 움직임 정보 재사용에 있어서, 인코딩 장치는 산출한 GDV 값을 디코딩 장치에 전송하지 않는다. 디코딩 장치는 인코딩 장치가 GDV를 산출한 방법과 동일한 방법으로 GDV를 산출하여 인터-뷰 예측에 이용한다. In the reuse of the motion information of the inter-view prediction, the encoding device does not transmit the calculated GDV value to the decoding device. The decoding apparatus calculates the GDV in the same manner as the encoding apparatus calculates the GDV and uses it for inter-view prediction.
인코딩 장치가 GDV를 산출한 방법과 동일한 방법으로 디코딩 장치가 GDV를 산출할 수 있도록, 즉, 인코딩 장치가 산출한 GDV와 동일한 GDV를 디코딩 장치가 산출하여 현재 블록의 인터-뷰 예측에 이용할 수 있도록 (1) 인코딩 장치는 GDV를 산출하는 시점(POC)을 지시하는 정보를 디코딩 장치에 시그널링할 수 있고, (2) 인코딩 장치는 현재 블록의 인터-뷰 예측에 이용할 GDV를 지시하는 정보를 디코딩 장치에 시그널링할 수 있다. So that the decoding apparatus can calculate the GDV in the same manner as the encoding apparatus calculates the GDV, that is, the decoding apparatus can calculate the GDV identical to the GDV calculated by the encoding apparatus and use it for inter-view prediction of the current block (1) The encoding apparatus can signal to the decoding apparatus information indicating a point-in-time (POC) at which the GDV is calculated, and (2) the encoding apparatus decodes information indicating the GDV to be used for inter- Lt; / RTI &gt;

우선, GDV를 산출하는 시점에 관해서, 인코딩 장치가 산출한 GDV와 동일한 GDV를 디코딩 장치가 산출할 수 있도록, 인코딩 장치와 디코딩 장치는 현재 뷰의 픽처들 중 동일한 시점(즉, 동일한 시간 또는 동일한 POC)에서 GDV를 산출한다. 이때, 현재 뷰는 인코딩/디코딩 대상이 되는 뷰일 수 있다. First, with respect to the point of time when the GDV is calculated, the encoding apparatus and the decoding apparatus decode the same viewpoints of the current view (that is, at the same time or the same POC ) To calculate the GDV. At this time, the current view may be a view to be encoded / decoded.
인코딩 장치와 디코딩 장치 사이에 GDV를 산출하는 POC이 미리 정해져 있다면, 정해진 POC에서 GDV를 산출할 수 있다. If the POC for calculating the GDV between the encoding apparatus and the decoding apparatus is predetermined, the GDV can be calculated at a predetermined POC.
인코딩 장치는 GDV를 산출하는 POC가 언제인지를 지시하는 정보를 시그널링할 수 있다. 즉, 인코딩 장치는 GDV를 산출한 POC가 언제인지를 지시하는 정보를 디코딩 장치에 시그널링하고, 디코딩 장치는 시그널링된 정보가 지시하는 POC에서 인코딩 장치와 동일한 방법으로 GDV를 계산할 수 있다. The encoding device may signal information indicating when the POC is producing the GDV. That is, the encoding apparatus signals to the decoding apparatus information indicating when the POC calculated the GDV, and the decoding apparatus can calculate the GDV in the same manner as the encoding apparatus at the POC indicated by the signaled information.
표 1은 GDV를 산출 또는 업데이트하는 시기(POC)를 지시하는 신택스의 일 예를 간단히 나타낸 것이다. Table 1 is a simplified representation of an example syntax that indicates when to update or update the GDV (POC).
< 표 1><Table 1>
Figure PCTKR2012007368-appb-I000001
Figure PCTKR2012007368-appb-I000001
표 1과 같이, 인코딩 장치는 시퀀스 파라미터 세트(sequent parameter set)에서 GDV를 산출/업데이트하는 POC를 지시하는 gdv_update_interval을 디코딩 장치로 시그널링 할 수 있다. As shown in Table 1, the encoding apparatus can signal the decoding apparatus to gdv_update_interval indicating the POC for calculating / updating the GDV in the sequence parameter set.
gdv_update_interval는 GDV를 산출/업데이트하는 시점(POC)를 특정한다. 인코딩 장치는 계산된 GDV가 산출된 POC를 지시하는 gdv_update_interval를 디코딩 장치에 전송하며, 디코딩 장치는 gdv_update_interval가 지시하는 POC에서 인코딩 장치와 동일한 방법으로 GDV를 계산한다. The gdv_update_interval specifies a point in time (POC) at which the GDV is calculated / updated. The encoding apparatus transmits the gdv_update_interval indicating the calculated POC to the calculated GDV, and the decoding apparatus calculates the GDV in the same manner as the encoding apparatus at the POC indicated by the gdv_update_interval.
예컨대, gdv_update_interval의 값에 따라서 표 2와 같이 GDV를 계산하는 POC가 지시되도록 설정할 수 있다.For example, according to the value of gdv_update_interval, it is possible to set the POC to calculate the GDV as shown in Table 2. [
<표 2><Table 2>
Figure PCTKR2012007368-appb-I000002
Figure PCTKR2012007368-appb-I000002
도 5는 GDV를 계산하는 POC를 설명하기 위한 도면이다. 도 5에 도시된 픽처들(…, Pk, Pk+1, Pk+2, Pk+3, Pk+4, …, Pk+l-3, Pk+l-2, Pk+l-1, Pk+l, Pk+l+1, …, 여기서 k와 l은 정수)은 동일한 뷰(view)에 속하는 픽처들이며, POC 순서에 따라 도시되어 있다. 5 is a diagram for explaining the POC for calculating the GDV. In the picture shown in Figure 5 (..., P k, P k + 1, P k + 2, P k + 3, P k + 4, ..., P k + l-3, P k + l-2, P k + l-1, P k + l, P k + l + 1, ..., wherein k and l is an integer) is deulyimyeo picture belonging to the same view (view), it is illustrated in accordance with the POC order.
또한, 도 5에 도시된 픽처들은 자신이 속하는 시간적 레벨(Temporal level)에 따라서 배치되어 있다. 시간적 레벨을 고려할 때, 픽처 간의 인터 예측에 있어서 인터 예측 대상이 되는 픽처(슬라이스) 또는 블록은 자신보다 시간적 레벨이 낮거나 자신과 시간적 레벨이 동일한 픽처를 참조할 수 있다. 도 5의 예에서는, TL0, TL1, TL2의 세 시간적 레벨을 가정하고 있으며, 가장 낮은 시간적 레벨인 TL0에 Pk, Pk+2, Pk+l-2, Pk+l, Pk+l+1가 속하고, 다음 시간적 레벨 TL1에 Pk+1, Pk+4, Pk+l-3가 속하며, 가장 높은 시간적 레벨인 TL2에 Pk+3, Pk+l-1가 속하는 것으로 가정한다. In addition, the pictures shown in FIG. 5 are arranged according to the temporal level to which they belong. Considering the temporal level, a picture (slice) or a block to be inter-predicted in inter-prediction between pictures may refer to a picture whose temporal level is lower than itself or whose temporal level is the same as itself. In the example of Figure 5, TL0, TL1, and assuming the three temporal levels of TL2, the lowest temporal level of TL0 P k, P k + 2 , P k + l-2, P k + l, P k + l + 1 belongs, and the next temporal level TL1 P k + 1, P k + 4, P k + l-3 belongs, the a high temporal level of TL2 P k + 3, P k + l-1 is .
다시 표 2의 예를 고려하면, 디코딩 장치는 gdv_update_interval가 지시하는 POC에서 인코딩 장치와 동일한 방법으로 GDV를 계산한다.Considering again the example of Table 2, the decoding apparatus calculates the GDV in the same manner as the encoding apparatus at the POC indicated by gdv_update_interval.
예컨대, gdv_update_interval의 값이 0이면, 디코딩 장치는 인트라 피리어드(intra period)의 시작점이 되는 POC에서 GDV를 계산한다. 인트라 피리어드는 IDR(instantaneous decoding refresh) 픽처부터 다음 IDR 픽처까지의 기간, 다시 말하면 랜덤 액세스의 단위 기간에 해당한다. 예컨대, 도 5의 예에서 Pk가 IDR 픽처이고, 그 다음 IDR 픽처가 Pk+l이라고 가정하면, 인코딩 장치로부터 수신한 gdv_update_interval의 값이 0인 경우에, 디코딩 장치는 Pk의 POC에서 GDV를 계산하고, 인트라 피리어드에 해당하는 l 만큼의 POC가 경과한 후 Pk+l의 POC에서 다시 GDV를 계산한다.For example, if the value of gdv_update_interval is 0, the decoding apparatus calculates GDV at the POC which is the starting point of the intra period. The intra period corresponds to a period from an IDR (instantaneous decoding refresh) picture to a next IDR picture, that is, a unit period of random access. For example, the P k the IDR picture in the example of Figure 5, then when the IDR picture is a P k + l assuming, the value of gdv_update_interval received from the encoding unit 0, the decoding apparatus GDV in the POC of the P k And the GDV is again calculated at the POC of Pk + 1 after the POC corresponding to the intra period has elapsed.
또한, 표 2의 예에서, gdv_update_interval의 값이 1이면, 디코딩 장치는 시간적 레벨이 소정의 값 이하인 픽처의 POC에서 GDV를 계산한다. gdv_update_interval의 값이 1일 때 POC를 계산하는 시간적 레벨은 인코딩 장치와 디코딩 장치 사이에서 미리 설정되어 있을 수도 있고, 별도의 정보로 전송될 수도 있다. 예를 들어, gdv_update_interval의 값이 1일 때, 시간적 레벨이 1 이하인 POC에서 GDV를 계산한다고 가정하자. 시간적 레벨은 일반적으로 가장 아래의 시간적 레벨을 0으로 설정하므로, 도 5의 예에서 TL0에 해당하는 시간적 레벨의 값이 0이고, TL1에 해당하는 시간적 레벨의 값이 1이라고 할 수 있다. 따라서, gdv_update_interval의 값이 1일 때, 도 5의 예에서 디코딩 장치는 Pk+1, Pk+3, Pk+4, Pk+l-3, Pk+l-1의 POC들에서 각각 GDV를 산출하게 된다. Also, in the example of Table 2, if the value of gdv_update_interval is 1, the decoding apparatus calculates GDV at the POC of the picture whose temporal level is lower than a predetermined value. The temporal level for calculating the POC when the value of gdv_update_interval is 1 may be set in advance between the encoding apparatus and the decoding apparatus, or may be transmitted as separate information. For example, suppose that GDV is computed at a POC with a temporal level of 1 or less when the value of gdv_update_interval is 1. Since the temporal level generally sets the lowest temporal level to 0, the value of the temporal level corresponding to TL0 is 0 and the temporal level corresponding to TL1 is 1 in the example of FIG. Therefore, when the value of gdv_update_interval 1 day, in the example of Figure 5 the decoding apparatus in the P k + 1, P k + 3, P k + 4, P k + l-3, P k + POC of l-1 Respectively, to calculate GDV.
표 2의 예에서, gdv_update_interval의 값이 2이면, 디코딩 장치는 참조 픽처로 사용되는 픽처의 POC에서 GDV를 계산한다. 예컨대, 도 5에서 Pk+2가 Pk+1을 참조 픽처로 한다면, 디코딩 장치는 Pk+1의 POC에서 GDV를 계산한다. 이때, 참조 픽처는 동일 뷰 내 픽처들 간의 인터 픽처에 있어서 참조되는 픽처일 수도 있고, 다른 뷰에 있는 픽처들 간의 인터 픽처에 있어서 참조되는 픽처일 수도 있다.In the example of Table 2, if the value of gdv_update_interval is 2, the decoding apparatus calculates GDV at the POC of the picture used as the reference picture. For example, in Fig. 5, if Pk + 2 makes Pk + 1 a reference picture, the decoding apparatus calculates GDV at the POC of Pk + 1 . Here, the reference picture may be a picture referred to in an inter picture between pictures in the same view, or a picture referred to in an inter picture between pictures in different views.
표 2의 예에서, gdv_update_interval의 값이 3이면, 모든 픽처의 POC에서 GDV를 계산한다. 따라서, 도 5의 예를 고려하면, 디코딩 장치는 매 픽처(…, Pk, Pk+1, Pk+2, Pk+3, Pk+4, …, Pk+l-3, Pk+l-2, Pk+l-1, Pk+l, Pk+l+1, …)의 POC마다 GDV를 계산한다. In the example of Table 2, if the value of gdv_update_interval is 3, GDV is calculated at POC of all pictures. Therefore, even in consideration of the five patients, the decoding apparatus every picture (..., P k, P k + 1, P k + 2, P k + 3, P k + 4, ..., P k + l-3, POC of each P k + l-2, P k + l-1, P k + l, P k + l + 1, ...) to calculate the GDV.
상술한 바와 같이, gdv_update_interval은 SPS(Sequence Parameter Set)에서 전송되므로, 시퀀스가 변경되어 다음 SPS를 통해 새로운 gdv_update_interval이 시그널링되기 전까지 디코딩 장치는 기존의 수신한 gdv_update_interval 값에 따라 정해진 POC에서 GDV를 계산할 수 있다. As described above, since the gdv_update_interval is transmitted in the Sequence Parameter Set (SPS), the decoding apparatus can calculate the GDV at a predetermined POC according to the received gdv_update_interval value until the sequence is changed and the new gdv_update_interval is signaled through the next SPS .
또한, 인코딩 장치는 다양한 POC에서 계산된 GDV를 이용하여 예측을 수행한 후 최적의 결과를 가져오는 GDV를 선택하겠지만, 디코딩 장치와 인코딩 장치에서 동일한 GDV를 이용하여 인터-뷰 예측을 수행한다는 관점에서, 인코딩 장치도 gdv_update_interval가 지시하는 POC에서 GDV를 산출하고, 산출된 GDV를 이용하여 인터-뷰 예측을 수행한다고 말할 수도 있다.In addition, although the encoding apparatus selects the GDV that performs the prediction using the GDV calculated in various POCs and obtains the optimum result, in view of performing the inter-view prediction using the same GDV in the decoding apparatus and the encoding apparatus , The encoding apparatus may also say that GDV is calculated at the POC indicated by gdv_update_interval, and the inter-view prediction is performed using the calculated GDV.
산출된 GDV는 이후의 픽처에 대한 디코딩에 있어서, 인터-뷰 예측에 이용된다. 즉, 먼저 디코딩된 픽처의 POC에서 산출된 GDV는, 이후에 디코딩되는 픽처의 블록에 대한 인터-뷰 예측에 이용된다. 따라서, 특정 POC에서 GDV를 계산하려면, 해당 POC에서의 멀티 뷰 픽처들에 대한 디코딩이 완료된 후, 디코딩된 멀티 뷰 픽처들을 이용하여 GDV를 계산할 수 있다. GDV의 계산은 상술한 바와 같이, 해당 POC에서 서로 다른 뷰의 두 픽처 사이의 오차(SAD 등)를 최적화하는 글로벌 디스패리티를 블록 단위로 산출하는 방법을 이용할 수 있다. The calculated GDV is used for inter-view prediction in decoding for a subsequent picture. That is, the GDV calculated at the POC of the decoded picture is used for inter-view prediction of the block of the picture to be decoded subsequently. Thus, to compute a GDV at a particular POC, after the decoding of the multi-view pictures at the POC is complete, the GDV can be computed using the decoded multi-view pictures. As described above, the GDV can be calculated by calculating a global disparity on a block-by-block basis that optimizes an error (SAD, etc.) between two pictures of different views in the POC.
한편, 현재 뷰와 어떤 뷰 사이의 GDV가 산출되는 것인지도 인코딩 장치와 디코딩 장치 사이에 정해져 있을 수 있다. 현재 뷰는 디코딩 대상이 되는 뷰이며, 현재 뷰와의 사이에서 GDV가 산출되는 뷰는 현재 뷰의 인터-뷰 예측에 참조되는 참조 뷰일 수 있다. On the other hand, whether the GDV between the current view and which view is calculated may be determined between the encoding apparatus and the decoding apparatus. The current view is the view to be decoded, and the view from which the GDV is calculated with respect to the current view may be the reference view that is referred to the inter-view prediction of the current view.
예컨대, 도 4의 예와 같이, 3개의 뷰로 구성된 멀티 뷰를 인코딩/디코딩 하는 경우에, 인코딩/디코딩 순서가 정해져 있다면 뷰 간의 참조 관계를 인코딩/디코딩 순서에 따라 설정할 수 있다. 따라서, 현재 디코딩 대상이 되는 뷰의 참조 뷰는 현재 뷰 바로 전에 디코딩된 뷰로 설정될 수 있다. 가령, 도 4에서, 3개의 뷰들이 뷰 V1 → 뷰 V0 → 뷰 V2의 순서로 디코딩된다면, 뷰 V1의 GDV들은 뷰 V0를 참조 뷰로 하여 뷰 V1과 뷰 V0 사이에서 산출되는 GDV가 된다. For example, in the case of encoding / decoding a multi-view composed of three views as in the example of FIG. 4, if the encoding / decoding order is determined, reference relationships between views can be set according to the encoding / decoding order. Thus, the reference view of the current decoding target can be set to the decoded view just before the current view. For example, in FIG. 4, if three views are decoded in the order of view V1? View V0? View V2, the GDVs of view V1 become the GDV calculated between view V1 and view V0 with view V0 as a reference view.
혹은 뷰들의 디코딩 순서와는 별도로 뷰 간의 참조 관계만 설정되어 있을 수도 있다. 도시된 바와 같이, 뷰 V1은 뷰 V0과 뷰 V2을 참조하여 디코딩되고, 뷰 V2는 뷰 V0을 참조하여 디코딩되는 것으로 설정되어 있다면, 뷰 V0 또는 뷰 V2를 참조하여 산출되는 뷰 V1의 GDV는 GDV10 또는 GDV12가 되고, 뷰 V0을 참조하여 산출되는 뷰 V2의 GDV는 GDV20이 된다. Alternatively, only the reference relationships between the views may be set apart from the decoding order of the views. As shown, if the view V1 is decoded referring to the view V0 and the view V2 and the view V2 is set to be decoded with reference to the view V0, the GDV of the view V1 calculated by referring to the view V0 or the view V2 is GDV 10 or GDV 12 , and the GDV of the view V2 calculated with reference to the view V0 becomes GDV 20 .
현재 뷰와의 사이에서 GDV를 산출하는 참조 뷰가 미리 정해져 있지 않은 경우 또는 참조 뷰를 별도로 지정해야 하는 경우에는, 인코딩 장치가 참조 뷰를 지시하는 참조 정보(예컨대, 현재 뷰를 기준으로 하는 참조 방향을 지시하는 정보)를 디코딩 장치에 시그널링할 수도 있다. 인코딩 장치로부터 참조 뷰를 지시하는 참조 정보를 수신하면, 디코딩 장치는 참조 정보를 지시하는 참조 뷰와 현재 뷰 사이의 GDV를 정해진 POC에서 산출할 수 있다. 참조 정보는 GDV를 산출/업데이트 하는 시점(POC)을 지시하는 정보와 함께 SPS에 포함되어 전송될 수 있다.When the reference view for calculating the GDV between the current view and the reference view is not predetermined or if the reference view needs to be separately designated, the encoding apparatus generates reference information indicating the reference view (e.g., reference direction ) To the decoding device. Upon receiving the reference information indicating the reference view from the encoding apparatus, the decoding apparatus can calculate the GDV between the reference view indicating the reference information and the current view at the predetermined POC. The reference information may be included in the SPS and transmitted together with information indicating a time point (POC) at which the GDV is calculated / updated.

인터-뷰 예측에 이용할 GDV에 관해서, 인코딩 장치가 산출한 GDV와 동일한 GDV를 디코딩 장치가 이용할 수 있도록, 인코딩 장치는 어떤 시점의 GDV를 어떻게 이용할 것인지를 지시하는 정보(이미 계산된 GDV들을 이용하여 디코딩 대상 픽처에 대한 GDV를 계산하는 방법을 지시하는 정보)를 디코딩 장치에 시그널링할 수 있다. With respect to the GDV to be used for the inter-view prediction, the encoding device can use information indicating how to use the GDV at a certain time point (using already calculated GDVs so that the decoding device can use the same GDV as the GDV calculated by the encoding device) Information indicating how to calculate the GDV for the picture to be decoded) to the decoding device.
현재 디코딩하는 POC에서 사용할 GDV는 이미 산출된 다른 POC의 GDV를 기반으로 다양하게 계산될 수 있다. 예컨대, 이미 산출된 다른 POC의 GDV를 그대로 현재 픽처의 인터-뷰 예측에 사용할 수도 있으며, 이미 산출된 다른 POC들의 GDV들을 인터폴레이션(interpolation)하여 현재 픽처의 인터-뷰 예측에 사용할 수도 있다. The GDV to be used in the currently decoding POC can be variously calculated based on the GDV of another POC already calculated. For example, the already calculated GDV of another POC may be used for inter-view prediction of the current picture as it is, or the GDVs of already calculated POCs may be interpolated to use for inter-view prediction of the current picture.
인코딩 장치는 SPS(Sequence Parameter Set)를 통해, 현재 디코딩하는 POC에서 적용할 GDV 값을 어떻게 얻을 것인지를 지시하는 정보를 시그널링할 수 있다. 디코딩 장치는 인코딩 장치로부터 시그널링된 정보가 지시하는 바에 따라서, 현재 픽처보다 먼저 디코딩된 픽처의 POC에서 계산된 GDV(들)을 이용하여 현재 픽처에 대한 인터-뷰 예측을 수행할 수 있다. The encoding apparatus can signal information indicating how to obtain the GDV value to be applied in the currently decoded POC through a Sequence Parameter Set (SPS). The decoding apparatus can perform inter-view prediction on the current picture using the GDV (s) calculated at the POC of the decoded picture prior to the current picture, as indicated by the signaled information from the encoding apparatus.
표 3은 현재 디코딩하는 POC에서 적용할 GDV 값을 지시하는 정보를 시그널링하는 신택스의 일 예를 간단히 나타낸 것이다. Table 3 is a simplified representation of an example of a syntax for signaling information indicating a GDV value to be applied at the POC to be decoded at present.
<표 3><Table 3>
Figure PCTKR2012007368-appb-I000003
Figure PCTKR2012007368-appb-I000003
표 3의 예에서, 인코딩 장치는 SPS에서 gdv_interpolation_method를 시그널링하여 디코딩 장치가 현재 픽처의 인터-뷰 예측에 이용할 GDV를 지시할 수 있다.In the example of Table 3, the encoding device may signal gdv_interpolation_method in the SPS to indicate the GDV that the decoding device will use for inter-view prediction of the current picture.
표 3의 예에서, gdv_interpolation_method의 값이 0이면, 디코딩 장치는 동일한 뷰 내에서 이미 계산된 GDV 중 어느 하나를 인터폴레이션하지 않고 현재 픽처의 인터-뷰 예측에 이용할 수 있다. In the example of Table 3, if the value of gdv_interpolation_method is 0, the decoding apparatus can use any of the already calculated GDVs in the same view to interpolate the current picture without interpolation.
표 3의 예에서, gdv_interpolation_method의 값이 1이면, 디코딩 장치는 동일한 뷰 내에서 이미 계산된 GDV 값들을 인터폴레이션하여 현재 픽처의 인터-뷰 예측에 이용할 수 있다.In the example of Table 3, if the value of gdv_interpolation_method is 1, the decoding apparatus can interpolate already calculated GDV values in the same view and use it for inter-view prediction of the current picture.
도 6은 현재 디코딩하는 픽처에서 인터-뷰 예측을 위해 사용할 GDV 값을 계산하는 방법의 일 예를 개략적으로 설명하기 위한 도면이다. 도 6의 예에서, 도시된 픽처 Pa, Pb, Pc, Pd, Pe 등은 동일한 뷰 내의 픽처들로서, POC 순서에 따라 정렬되어 있다. 6 schematically illustrates an example of a method of calculating a GDV value to be used for inter-view prediction in a current decoding picture. In the example of FIG. 6, the pictures Pa, Pb, Pc, Pd, Pe and the like shown in the same view are arranged in the POC order.
도 6에 도시된 동일한 뷰 내의 픽처들의 예를 이용하여 표 3의 시그널링을 구체적으로 설명한다.The signaling in Table 3 will be described in detail using an example of the pictures in the same view shown in Fig.
표 3을 참조하면, gdv_interpolation_method의 값이 0인 경우에, 디코딩 장치는 이미 계산된 GDV 중 어느 하나를 인터폴레이션하지 않고 이용할 수 있다. 예컨대, gdv_interpolation_method의 값이 0이면, 디코딩 장치는 현재 픽처의 POC와 가장 가까운 위치의 POC에서 계산된 GDV 값을 현재 픽처의 인터-뷰 예측에 이용할 수 있다. Referring to Table 3, when the value of gdv_interpolation_method is 0, the decoding apparatus can use any of the already calculated GDVs without interpolation. For example, if the value of gdv_interpolation_method is 0, the decoding apparatus can use the GDV value calculated at the POC closest to the POC of the current picture for inter-view prediction of the current picture.
동일한 뷰 내의 픽처들이 POC 순서로 정렬된 도 6의 예에서, 현재 픽처 Pc(600)에 가장 가까운 픽처가 Pb라면, 즉 픽처 간의 거리(POC 차) db, dc, dd, de 중 가장 작은 값이 db라면, 현재 픽처 Pc에 대한 GDV로서 픽처 Pb의 POC에서 계산된 GDV를 이용할 수 있다.If in Fig picture in the same view are aligned POC order 6, the nearest picture to the current picture Pc (600) Pb, i.e. of the distance (POC difference) d b, d c, d d, d e between the picture If the smallest value is d b , the GDV calculated from the POC of the picture Pb as the GDV for the current picture Pc can be used.
gdv_interpolation_method의 값이 0이고, 현재 픽처로부터 동일한 거리에 있는 두 픽처의 POC에서 GDV가 계산되었다면, POC 순서에서 앞서는 POC에서 계산된 GDV를 현재 픽처에 대한 GDV로서 이용할 수 있다. 예컨대, 도 6의 예에서, db=dd라면, 픽처 Pb의 POC에서 계산된 GDV를 현재 픽처 Pc에 대한 GDV로 이용할 수 있다.If the value of gdv_interpolation_method is 0 and GDV is calculated at the POC of two pictures that are the same distance from the current picture, then the GDV computed at the POC preceding the POC order can be used as the GDV for the current picture. For example, in the example of Figure 6, if b = d d d, the GDV calculated in the POC of the picture Pb may be used as a GDV of the current picture Pc.
gdv_interpolation_method의 값이 1인 경우에, 디코딩 장치는 이미 계산된 GDV 값들을 인터폴레이션하여 현재 픽처에 대한 GDV로 이용할 수 있다. 예컨대, gdv_interpolation_method의 값이 1이면, GDV가 계산된 POC들 중에서 현재 픽처의 POC와 가까운 두 POC에서 계산된 GDV들을 인터폴레이션하여 현재 픽처에 대한 GDV로 이용할 수 있다. If the value of gdv_interpolation_method is 1, the decoding apparatus can interpolate the already calculated GDV values and use it as a GDV for the current picture. For example, if the value of gdv_interpolation_method is 1, the GDV interpolated GDVs calculated at two POCs close to the POC of the current picture among the calculated POCs can be used as a GDV for the current picture.
동일한 뷰 내의 픽처들이 POC 순서대로 정렬된 도 6의 예를 고려하면, 현재 픽처를 Pc(600)라고 했을 때, GDV가 이미 계산된 POC 사이의 거리 da, db, dd, de의 대소를 비교하여 현재 픽처로부터의 거리(POC 차)가 가장 작은 두 POC에서 계산된 GDV를 이용할 수 있다. 예컨대, db<dd<da<de의 관계가 성립한다고 가정할 때, 현재 픽처 Pc의 인터-뷰 예측에는 픽처 Pb의 POC에서 계산된 GDV와 픽처 Pd의 POC에서 계산된 GDV를 인터폴레이션하여 이용할 수 있다. If that picture in the same view, consider the example of Figure 6 the sorted as POC order, the current when it is called a picture Pc (600), the distance between the GDV is already calculated POC d a, d b, d d, d e The GDV calculated at the two POCs having the smallest distance (POC difference) from the current picture can be used by comparing the magnitudes. For example, d b <d d <d a <d e of assuming the relationship is satisfied, the current picture Pc of the inter-view prediction, the interpolation of the GDV calculated in the GDV and the picture Pd calculated at the picture Pb POC POC .
현재 픽처와 동일한 뷰 내에서 이미 GDV가 계산된 POC들 중 현재 픽처의 POC와 가장 가까운 POC를 poc1이라고 하고, 현재 픽처의 POC와 두 번째로 가까운 POC를 poc2라고 가정하자. poc1에서 계산된 GDV를 gdv1이라고 하고, poc2에서 계산된 GDV를 gdv2라고 하면, 현재 픽처의 인터-뷰 예측에 사용할 GDV인 gdv는 수식 3과 같이 인터폴레이션에 의해 유도될 수 있다. Assume that the POC closest to the POC of the current picture among the POCs for which the GDV has already been calculated in the same view as the current picture is poc1 and the POC closest to the POC of the current picture is poc2. If GDV calculated in poc1 is gdv1 and GDV calculated in poc2 is gdv2, gdv, which is the GDV to be used for inter-view prediction of the current picture, can be derived by interpolation as shown in Equation 3.
<수식 3>&Quot; (3) &quot;
gdv = α x gdv1 + β x gdv2 gdv =? x gdv1 +? x gdv2
수식 3에서 α 와 β는 표 4와 같이 POC 순서상에서 gdv1과 gdv2가 계산된 POC의 위치에 따라 결정될 수 있다. In Equation 3, α and β can be determined according to the position of the POC calculated by gdv1 and gdv2 in the POC order as shown in Table 4.
<표 4><Table 4>
Figure PCTKR2012007368-appb-I000004
Figure PCTKR2012007368-appb-I000004
현재 픽처의 POC를 poc0이라고 할 때, 표 4에서 d1은 gdv가 계산된 POC와 현재 픽처의 POC 사이 거리( d1 = | poc1 - poc0 | )이며, d2는 gdv2가 계산된 POC와 현재 픽처의 POC 사이 거리( d2 = | poc2 - poc0 | )이다.(D1 = | poc1 - poc0 |) between the calculated POC of the gdv and the POC of the current picture, and d2 is the distance between the calculated POC and the POC of the current picture (D2 = | poc2 - poc0 |).
표 4를 참조하면, 현재 픽처의 POC를 기준으로 서로 다른 쪽의 POC들에서 계산된 GDV들을 이용하는 경우(POC 순서상 현재 픽처 전후의 POC에서 계산된 GDV들을 이용하는 경우)에, 현재 픽처에 대한 GDV는 현재 픽처의 POC로부터 각 GDV가 계산된 POC까지의 거리로 스케일링된 GDV 값들의 합으로 유도된다. Referring to Table 4, when GDVs calculated in the different POCs are used based on the POC of the current picture (when GDVs calculated in the POC before and after the current picture are used in the POC order), the GDV Is derived from the POC of the current picture to the sum of the GDV values scaled by the distance from each GDV to the calculated POC.
현재 픽처의 POC를 기준으로 같은 쪽의 POC들에서 계산된 GDV들을 이용하는 경우(POC 순서상 현재 픽처 이전의 POC들에서 계산된 GDV들을 이용하는 경우 또는 POC 순서상 현재 픽처 이후의 POC들에서 계산된 GDV들을 이용하는 경우)에, 현재 픽처에 대한 GDV는 현재 픽처의 POC로부터 각 GDV가 계산된 POC까지의 거리로 스케일링된 GDV 값들의 차로 유도된다.If the GDVs calculated in the POCs of the current picture are used based on the POC of the current picture (in the case of using the GDVs calculated in the POCs before the current picture in the POC order or in the POCs after the current picture, , The GDV for the current picture is derived as the difference of the scaled GDV values from the POC of the current picture to the distance of each GDV to the calculated POC.
디코딩 대상 픽처에서 사용할 GDV 값을 이미 계산된 GDV 값들을 이용하여 유도하는 방법을 지시하는 정보는 상술한 바와 같이, SPS에서 전송될 수 있다. 따라서, 현재 시퀀스 내에서는 다음 SPS를 통해서 새로운 gdv_interpolation_method 값을 수신하기 전까지, 동일한 방법으로 디코딩 대상 픽처들의 인터-뷰 예측에 사용할 GDV를 유도할 수 있다. Information indicating how to derive the GDV value to be used in the decoding target picture using the already calculated GDV values may be transmitted in the SPS as described above. Accordingly, the GDV to be used for inter-view prediction of the pictures to be decoded can be derived in the same manner until a new gdv_interpolation_method value is received through the next SPS in the current sequence.
도 7은 본 발명에 따라 인코딩 장치에서 GDV에 관한 정보를 시그널링하는 방법을 개략적으로 설명하는 순서도이다.7 is a flowchart schematically illustrating a method of signaling information about a GDV in an encoding apparatus according to the present invention.
도 7을 참조하면, 인코딩 장치는 현재 픽처에 대한 GDV를 계산한다(S710). GDV는 인코딩 장치 내 소정의 유닛, 예컨대 예측부에서 산출할 수 있다. 인코딩 장치는 동일한 POC에서 서로 다른 뷰의 두 픽처에 대한 오차를 최소화하는 디스패리티를 해당 뷰 간의 글로벌 디스패리티로 선택할 수 있다. 예컨대, 두 뷰 사이에서 최적의 SAD(Sum of Absolute Differences) 값을 가지는 디스페리티를 블록 단위로 결정할 수 있다. 이때, SAD 대신 MSE(Mean Square Error), MAD(Mean Absolute Difference) 등이 이용될 수도 있다.Referring to FIG. 7, the encoding apparatus calculates a GDV for a current picture (S710). The GDV may be calculated by a predetermined unit in the encoding apparatus, for example, a prediction unit. The encoding apparatus can select a disparity as a global disparity between the corresponding views in order to minimize an error between two pictures of different views at the same POC. For example, a disparity having an optimum SAD (Sum of Absolute Differences) value between two views can be determined on a block-by-block basis. At this time, MSE (Mean Square Error), MAD (Mean Absolute Difference), or the like may be used instead of SAD.
인코딩 장치는 산출한 GDV에 대한 정보를 디코딩 장치에 시그널링한다(S720). 인코딩 장치는 산출한 GDV값을 디코딩 장치에 시그널링하는 대신, 해당 뷰(view)에서 GDV를 계산하는 시점(POC)을 지시하는 정보와 각 픽처에서 인터-뷰 예측을 하는 경우에 이미 계산된 GDV들을 이용하여 디코딩 대상 픽처에 대한 GDV를 계산하는 방법을 지시하는 정보를 디코딩 장치에 시그널링한다. GDV에 관한 정보는 비트스트림으로 전송되며, 예컨대, SPS(Sequence Parameter Set)을 통해 전송될 수 있다. 현재 뷰에 대한 참조 뷰를 지시해야 하는 경우에, 인코딩 장치는 참조 뷰를 지시하는 정보를 SPS를 통해 전송할 수도 있다.The encoding apparatus signals the information on the calculated GDV to the decoding apparatus (S720). Instead of signaling the calculated GDV value to the decoding apparatus, the encoding apparatus generates information indicating the time point (POC) at which the GDV is calculated in the corresponding view, and GDVs already calculated in the case of performing inter- To the decoding apparatus, information indicating how to calculate the GDV for the picture to be decoded. The information on the GDV is transmitted in a bit stream, for example, through a Sequence Parameter Set (SPS). If it is necessary to indicate a reference view for the current view, the encoding device may send information indicating the reference view via the SPS.

도 8은 본 발명에 따라 디코딩 장치에서 현재 픽처에 대한 GDV를 계산하는 방법을 개략적으로 설명하는 도면이다.8 is a diagram schematically illustrating a method of calculating a GDV for a current picture in a decoding apparatus according to the present invention.
도 8을 참조하면, 디코딩 장치는 인코딩 장치로부터 GDV 정보를 수신한다(S810). GDV 정보는 현재 뷰에서 GDV를 계산하는 시점(POC)을 지시하는 정보와 각 픽처에서 인터-뷰 예측을 하는 경우에 이미 계산된 GDV들을 이용하여 디코딩 대상 픽처에 대한 GDV를 계산하는 방법을 지시하는 정보를 포함한다. 또한, GDV 정보는 참조 뷰를 지시하는 정보를 포함할 수도 있다. GDV 정보는 인코딩 장치로부터 비트스트림을 통해 전송될 수 있으며, 예컨대, SPS에 포함되어 전송될 수 있다. Referring to FIG. 8, the decoding apparatus receives the GDV information from the encoding apparatus (S810). The GDV information indicates a method of calculating a GDV for a picture to be decoded using information indicating a point of time (POC) of calculating a GDV in the current view and GDVs already calculated in the case of inter-view prediction in each picture Information. The GDV information may also include information indicating a reference view. The GDV information may be transmitted from the encoding apparatus through a bitstream, for example, included in the SPS and transmitted.
디코딩 장치는 수신한 GDV 정보를 기반으로 소정의 POC에서 GDV를 산출한다(S820). The decoding apparatus calculates GDV at a predetermined POC based on the received GDV information (S820).
디코딩 장치는 GDV 정보가 지시하는 시점(POC)에서 참조 뷰와의 GDV를 계산할 수 있다. GDV는 이미 디코딩된 픽처들을 이용하여 산출된다. GDV가 지시하는 소정의 POC는 인트라 피리어드의 시작 POC, 소정 시간적 레벨 이하 픽처의 POC, 참조 픽처가 되는 픽처들의 POC, 모든 픽처의 POC 중 어느 하나일 수 있다. GDV의 계산은 인코딩 장치에서 수행된 바와 같이 SAD 등을 이용하여 수행될 수 있으며, 각 뷰에 대한 픽처들이 모두 디코딩된 POC에서 수행될 수 있다. GDV는 현재 뷰와 참조 뷰에서 GDV 정보가 지시하는 POC의 픽처들 간에 산출되며, 현재 뷰에 대한 참조 뷰가 어떤 뷰인지는 미리 정해져 있을 수도 있고, 인코딩 장치로부터 시그널링될 수도 있다. The decoding apparatus can calculate the GDV with the reference view at the point of time (POC) indicated by the GDV information. The GDV is calculated using already decoded pictures. The predetermined POC indicated by the GDV may be any one of a start POC of an intra period, a POC of a picture below a predetermined temporal level, a POC of a picture to be a reference picture, and a POC of all pictures. The calculation of the GDV may be performed using SAD or the like as performed in the encoding apparatus, and pictures for each view may be performed in the decoded POC. The GDV is calculated between the pictures of the POC indicated by the GDV information in the current view and the reference view, the reference view for the current view may be predetermined or may be signaled from the encoding device.
디코딩 장치는 수신한 GDV 정보를 기반으로, 이미 산출된 GDV들을 이용하여 현재 픽처에 대한 GDV를 유도한다(S830). 디코딩 장치는 GDV 정보가 지시하는 방법에 따라서, 이미 디코딩된 픽처의 POC에서 계산된 GDV를 이용하여 현재 픽처에 대한 GDV를 계산한다. 디코딩 장치는 이미 산출된 GDV를 그대로 현재 픽처에 대한 GDV로 이용할 수도 있고, 이미 산출된 GDV들을 인터폴레이션하여 현재 픽처에 대한 GDV로 이용할 수도 있다. Based on the received GDV information, the decoding apparatus derives the GDV for the current picture using the already calculated GDVs (S830). The decoding apparatus calculates the GDV for the current picture using the GDV calculated at the POC of the already decoded picture according to the method indicated by the GDV information. The decoding apparatus may use the already calculated GDV as it is as the GDV for the current picture, or interpolate the already calculated GDVs and use it as the GDV for the current picture.
각 POC에서의 GDV의 산출과 현재 픽처에 대한 GDV의 유도는 디코딩 장치 내 소정의 유닛, 예컨대 예측부에서 수행될 수 있다.The calculation of the GDV at each POC and the derivation of the GDV for the current picture may be performed in a predetermined unit in the decoding apparatus, for example, in the prediction unit.
디코딩 장치는 현재 픽처에 대한 GDV를 이용하여 현재 픽처를 디코딩할 수 있다(S840). 디코딩 장치는 유도한 GDV를 이용하여 현재 픽처에 인터-뷰 예측을 수행할 수 있다. 디코딩 장치는 인터-뷰 예측을 이용하여 현재 픽처를 디코딩할 수 있다. 예컨대, 상술한 바와 같이, 디코딩 장치는 참조 뷰에서 현재 픽처와 동일한 POC의 참조 픽처 내 GDV에 의해 대응되는 블록을 특정하고, 상기 대응하는 블록의 움직임 정보를 복사하여 현재 블록의 움직임 정보로 이용하거나 현재 블록의 움직임 정보를 예측할 수 있다. The decoding apparatus may decode the current picture using the GDV for the current picture (S840). The decoding apparatus can perform inter-view prediction on the current picture using the derived GDV. The decoding apparatus can decode the current picture using inter-view prediction. For example, as described above, the decoding apparatus specifies the block corresponding to the GDV in the reference picture having the same POC as the current picture in the reference view, and uses the motion information of the corresponding block as the motion information of the current block The motion information of the current block can be predicted.
디코딩 장치는 인터-뷰 예측을 통해 생성한 예측 블록과 인코딩 장치로부터 전송된 레지듀얼을 더하여 현재 블록을 복원할 수 있다. 인터-뷰 예측의 방법으로서 스킵 모드가 적용되는 경우에는, 현재 블록의 예측 블록을 복원 블록으로 이용할 수도 있다. The decoding apparatus can restore the current block by adding the prediction block generated through the inter-view prediction and the residual transmitted from the encoding apparatus. When the skip mode is applied as a method of inter-view prediction, a prediction block of the current block may be used as a reconstruction block.
본 명세서에서 현재 픽처에 대한 GDV란, 현재 픽처 내의 디코딩 대상 블록들에 대한 인터-뷰 예측에 이용되는 GDV를 의미한다.In this specification, GDV for a current picture means a GDV used for inter-view prediction of blocks to be decoded in a current picture.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함한다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.In the above-described exemplary system, the methods are described on the basis of a flowchart as a series of steps or blocks, but the present invention is not limited to the order of the steps, and some steps may occur in different orders . In addition, the above-described embodiments include examples of various aspects. Accordingly, it is intended that the invention include all alternatives, modifications and variations that fall within the scope of the following claims.
지금까지 본 발명에 관한 설명에서 일 구성 요소가 타 구성 요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 상기 일 다른 구성 요소가 상기 타 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 두 구성 요소 사이에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 일 구성 요소가 타 구성 요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 두 구성 요소 사이에 다른 구성요소가 존재하지 않는 것으로 이해되어야 한다.In the description of the present invention so far, when one component is referred to as being "connected" or "connected" to another component, the other component is directly connected It should be understood that there may be other components between the two components. On the other hand, when one component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that no other component exists between the two components.

Claims (18)

  1. 현재 뷰 내의 디코딩 대상 픽처와 참조 뷰 내의 참조 픽처 사이의 GDV(Global Disparity Vector)를 산출하는 단계; 및
    상기 GDV를 유도하기 위한 정보를 시그널링하는 단계를 포함하며,
    상기 디코딩 대상 픽처와 상기 참조 픽처는 동일한 POC(Picture Order Count)를 가지는 것을 특징으로 하는 영상 정보 시그널링 방법.
    Calculating a GDV (Global Disparity Vector) between a decoding target picture in the current view and a reference picture in the reference view; And
    And signaling information for deriving the GDV,
    Wherein the decoding target picture and the reference picture have the same picture order count (POC).
  2. 제1항에 있어서, 상기 GDV를 유도하기 위한 정보는 시퀀스 파라미터 셋으로 전송되는 것을 특징으로 하는 영상 정보 시그널링 방법.The method of claim 1, wherein the information for deriving the GDV is transmitted in a sequence parameter set.
  3. 제1항에 있어서, 상기 GDV를 유도하기 위한 정보는 GDV의 계산이 수행되는 POC를 지시하는 정보를 포함하는 것을 특징으로 하는 영상 정보 시그널링 방법.The method of claim 1, wherein the information for deriving the GDV includes information indicating a POC at which calculation of the GDV is performed.
  4. 제3항에 있어서, 상기 GDV의 계산이 수행되는 POC를 지시하는 정보는,
    인트라 피리어드(intra period)의 첫 POC, 소정의 시간적 레벨(temporal level) 이하의 픽처에 대한 POC, 참조 픽처로서 이용되는 픽처의 POC 및 모든 픽처의 POC 중 어느 하나를 지시하는 것을 특징으로 하는 영상 정보 시그널링 방법.
    4. The method of claim 3, wherein the information indicating the POC at which the calculation of the GDV is performed,
    A POC of a picture to be used as a reference picture, and a POC of all pictures, wherein the first POC of an intra period, the POC of a picture below a predetermined temporal level, the POC of a picture used as a reference picture, Signaling method.
  5. 제1항에 있어서, 상기 GDV를 유도하기 위한 정보는 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 정보를 포함하는 것을 특징으로 하는 영상 정보 시그널링 방법.The method of claim 1, wherein the information for deriving the GDV includes information indicating a method of deriving a GDV for the decoding target picture.
  6. 제5항에 있어서, 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 정보는,
    상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 어느 하나를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것과 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 선택된 GDV들을 인터폴레이션하여 GDV로 이용하는 것 중 어느 하나의 방법을 지시하는 정보; 및
    상기 지시된 방법에서 사용되는 GDV를 지시하는 정보를 포함하는 것을 특징으로 하는 영상 정보 시그널링 방법.
    6. The method of claim 5, wherein the information indicating the method of deriving the GDV for the picture to be decoded,
    The GDVs selected from the GDVs calculated in the POC of the pictures decoded earlier than the decoding target picture are used as the GDVs for the decoding target picture and the GDVs selected from the POCs of the pictures decoded earlier than the decoding target picture Information indicating one of the methods of interpolating and using as a GDV; And
    And information indicating a GDV used in the indicated method.
  7. 제5항에 있어서, 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 정보는,
    상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 POC에서 계산된 GDV를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것과
    상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 두 POC에서 계산된 GDV들을 인터폴레이션(interpolation)하여 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것 중 어느 하나를 지시하는 정보인 것을 특징으로 하는 영상 정보 시그널링 방법.
    6. The method of claim 5, wherein the information indicating the method of deriving the GDV for the picture to be decoded,
    Using the GDV calculated for the POC closest to the current picture in the POC order among the GDVs calculated in the POC of the pictures decoded earlier than the decoding target picture as the GDV for the decoding target picture
    And interpolating GDVs calculated at two POCs closest to the current picture in the POC order among the GDVs calculated at the POC of the pictures decoded earlier than the decoding target picture to use the GDVs as GDVs for the current picture to be decoded Wherein the video information signaling information is information indicating the video information signal.
  8. 제1항에 있어서, 상기 GDV를 유도하기 위한 정보는 상기 참조 뷰를 지시하는 정보를 포함하는 것을 특징으로 하는 영상 정보 시그널링 방법.The method of claim 1, wherein the information for deriving the GDV includes information indicating the reference view.
  9. GDV(Global Disparity Vector)를 유도하기 위한 정보를 포함하는 비트스트림을 수신하는 단계;
    현재 뷰의 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 GOP에서 GDV를 산출하는 단계;
    상기 GDV를 유도하기 위한 정보에 기반하여 현재 뷰의 디코딩 대상 픽처에 대한 GDV를 유도하는 단계; 및
    상기 유도된 GDV를 기반으로 현재 뷰 및 참조 뷰 사이의 인터-뷰 예측을 수행하는 단계를 포함하며,
    상기 GDV를 유도하는 단계에서는,
    상기 현재 뷰의 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 GOP에서 산출된 GDV를 이용하여, 상기 현재 뷰의 디코딩 대상 픽처 및 상기 현재 뷰의 디코딩 대상 픽처와 동일한 POC를 가지는 상기 참조 뷰의 픽처 사이의 GDV를 산출하는 것을 특징으로 하는 비디오 디코딩 방법.
    Receiving a bitstream including information for deriving a Global Disparity Vector (GDV);
    Calculating a GDV in a GOP of pictures decoded prior to a current picture to be decoded;
    Deriving a GDV for a current picture to be decoded based on information for deriving the GDV; And
    Performing an inter-view prediction between a current view and a reference view based on the derived GDV,
    In the step of deriving the GDV,
    A GDV between the picture of the current view and a picture of the reference view having the same POC as the current picture to be decoded using the GDV calculated in the GOP of pictures decoded earlier than the current picture to be decoded of the current view, Of the video data.
  10. 제9항에 있어서, 상기 GDV를 유도하기 위한 정보는 상기 비트스트림 내 시퀀스 파라미터 셋으로 전송되는 것을 특징으로 하는 비디오 디코딩 방법.10. The method of claim 9, wherein the information for deriving the GDV is transmitted in a sequence parameter set in the bitstream.
  11. 제9항에 있어서, 상기 GDV를 유도하기 위한 정보는 GDV의 계산이 수행되는 POC를 지시하는 POC 정보를 포함하며,
    상기 GDV를 산출하는 단계에서는 상기 POC 정보가 지시하는 POC에서 GDV를 산출하는 것을 특징으로 하는 비디오 디코딩 방법.
    10. The method of claim 9, wherein the information for deriving the GDV includes POC information indicating a POC at which calculation of the GDV is performed,
    Wherein the step of calculating the GDV calculates the GDV at the POC indicated by the POC information.
  12. 제11항에 있어서, 상기 GDV의 계산이 수행되는 POC를 지시하는 POC 정보는,
    인트라 피리어드(intra period)의 첫 POC, 소정의 시간적 레벨(temporal level) 이하의 픽처에 대한 POC, 참조 픽처로서 이용되는 픽처의 POC 및 모든 픽처의 POC 중 어느 하나를 지시하는 것을 특징으로 하는 비디오 디코딩 방법.
    12. The method of claim 11, wherein the POC information indicating the POC at which the calculation of the GDV is performed,
    A POC of a picture to be used as a reference picture, and a POC of all pictures, the first POC of an intra period, a POC of a picture below a predetermined temporal level, a POC of a picture used as a reference picture, Way.
  13. 제9항에 있어서, 상기 GDV를 유도하기 위한 정보는 상기 디코딩 대상 픽처에 대한 GDV를 유도하는 방법을 지시하는 GDV 유도 정보를 포함하며,
    상기 GDV 유도 단계에서는,
    상기 GDV 유도 정보가 지시하는 방법에 따라서 현재 뷰의 디코딩 대상 픽처에 대한 GDV를 유도하는 것을 특징으로 하는 비디오 디코딩 방법.
    10. The method of claim 9, wherein the information for deriving the GDV includes GDV derivation information indicating a method of deriving a GDV for the picture to be decoded,
    In the GDV derivation step,
    And derives a GDV for a current picture to be decoded according to a method indicated by the GDV derivation information.
  14. 제13항에 있어서, 상기 GDV 유도 정보는,
    상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 어느 하나를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것과 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 선택된 GDV들을 인터폴레이션하여 GDV로 이용하는 것 중 어느 하나의 방법을 지시하는 정보; 및
    상기 지시된 방법에서 사용되는 GDV를 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
    14. The method according to claim 13,
    The GDVs selected from the GDVs calculated in the POC of the pictures decoded earlier than the decoding target picture are used as the GDVs for the decoding target picture and the GDVs selected from the POCs of the pictures decoded earlier than the decoding target picture Information indicating one of the methods of interpolating and using as a GDV; And
    And information indicating a GDV used in the indicated method.
  15. 제14항에 있어서, 상기 GDV 유도 정보가 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 어느 하나를 상기 디코딩 대상 픽처에 대한 GDV로 이용하는 것을 지시하는 경우에,
    상기 GDV 유도 단계에서는,
    상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 POC에서 계산된 GDV를 상기 디코딩 대상 픽처에 대한 GDV로 유도하는 것을 특징으로 하는 비디오 디코딩 방법.
    15. The method as claimed in claim 14, wherein when the GDV derivation information indicates to use one of GDVs calculated in the POC of pictures decoded earlier than the current picture as a GDV for the current picture to be decoded,
    In the GDV derivation step,
    Wherein the GDV calculated for the POC closest to the current picture in the POC order among the GDVs calculated in the POC of the pictures decoded earlier than the decoding target picture is guided to the GDV for the decoding target picture.
  16. 제15항에 있어서, 상기 GDV 유도 정보가 상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 선택된 GDV들을 인터폴레이션하여 GDV로 이용하는 것 중 어느 하나의 방법을 지시하는 경우에,
    상기 GDV 유도 단계에서는,
    상기 디코딩 대상 픽처보다 먼저 디코딩된 픽처들의 POC에서 계산된 GDV들 중에서 POC 순서상 현재 픽처에 가장 가까운 두 POC에서 계산된 GDV들을 인터폴레이션(interpolation)하여 상기 디코딩 대상 픽처에 대한 GDV로 유도하는 것을 특징으로 하는 비디오 디코딩 방법.
    16. The method of claim 15, wherein if the GDV derivation information indicates any one of interpolating GDVs selected from among GDVs computed at the POC of pictures decoded prior to the decoding subject and using the interpolated GDVs as GDVs,
    In the GDV derivation step,
    Interpolating the GDVs calculated at two POCs closest to the current picture in order of POC among the GDVs calculated at the POC of the pictures decoded earlier than the decoding target picture, and deriving the interpolated GDVs for the decoding target picture / RTI &gt;
  17. 제9항에 있어서, 상기 참조 뷰는 상기 GDV를 유도하기 위한 정보에 의해 지시되는 것을 특징으로 하는 비디오 디코딩 방법.10. The method of claim 9, wherein the reference view is indicated by information for deriving the GDV.
  18. 제9항에 있어서, 상기 참조 뷰는 뷰들 사이의 디코딩 순서에 의해 지정되는 것을 특징으로 하는 비디오 디코딩 방법.10. The method of claim 9, wherein the reference view is specified by a decoding order between views.
PCT/KR2012/007368 2011-09-16 2012-09-14 Method for signaling image information and video decoding method using same WO2013039348A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161535374P 2011-09-16 2011-09-16
US61/535,374 2011-09-16

Publications (1)

Publication Number Publication Date
WO2013039348A1 true WO2013039348A1 (en) 2013-03-21

Family

ID=47883505

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/007368 WO2013039348A1 (en) 2011-09-16 2012-09-14 Method for signaling image information and video decoding method using same

Country Status (1)

Country Link
WO (1) WO2013039348A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005749A1 (en) * 2013-07-12 2015-01-15 삼성전자 주식회사 Method for predicting disparity vector based on blocks for apparatus and method for inter-layer encoding and decoding video
WO2015057036A1 (en) * 2013-10-18 2015-04-23 엘지전자 주식회사 Video decoding method and apparatus for decoding multi-view video
WO2015057032A1 (en) * 2013-10-18 2015-04-23 엘지전자 주식회사 Method and apparatus for coding/decoding video comprising multi-view
WO2017160078A1 (en) * 2016-03-15 2017-09-21 Samsung Electronics Co., Ltd. Encoding method, decoding method and device for video global disparity vector

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080066522A (en) * 2007-01-11 2008-07-16 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image
KR20080066591A (en) * 2007-01-11 2008-07-16 전자부품연구원 Method for image prediction of multi-view video codec and computer readable recording medium therefor
KR20090079952A (en) * 2006-10-16 2009-07-22 노키아 코포레이션 System and method for using parallelly decodable slices for multi-view video coding
KR20100014553A (en) * 2007-04-25 2010-02-10 엘지전자 주식회사 A method and an apparatus for decoding/encoding a video signal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090079952A (en) * 2006-10-16 2009-07-22 노키아 코포레이션 System and method for using parallelly decodable slices for multi-view video coding
KR20080066522A (en) * 2007-01-11 2008-07-16 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image
KR20080066591A (en) * 2007-01-11 2008-07-16 전자부품연구원 Method for image prediction of multi-view video codec and computer readable recording medium therefor
KR20100014553A (en) * 2007-04-25 2010-02-10 엘지전자 주식회사 A method and an apparatus for decoding/encoding a video signal

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005749A1 (en) * 2013-07-12 2015-01-15 삼성전자 주식회사 Method for predicting disparity vector based on blocks for apparatus and method for inter-layer encoding and decoding video
US9924182B2 (en) 2013-07-12 2018-03-20 Samsung Electronics Co., Ltd. Method for predicting disparity vector based on blocks for apparatus and method for inter-layer encoding and decoding video
WO2015057036A1 (en) * 2013-10-18 2015-04-23 엘지전자 주식회사 Video decoding method and apparatus for decoding multi-view video
WO2015057032A1 (en) * 2013-10-18 2015-04-23 엘지전자 주식회사 Method and apparatus for coding/decoding video comprising multi-view
KR20160072100A (en) * 2013-10-18 2016-06-22 엘지전자 주식회사 Video decoding method and apparatus for decoding multi-view video
US10321157B2 (en) 2013-10-18 2019-06-11 Lg Electronics Inc. Video decoding method and apparatus for decoding multi-view video
KR102269506B1 (en) * 2013-10-18 2021-06-25 엘지전자 주식회사 Video decoding method and apparatus for decoding multi-view video
WO2017160078A1 (en) * 2016-03-15 2017-09-21 Samsung Electronics Co., Ltd. Encoding method, decoding method and device for video global disparity vector
US10750201B2 (en) 2016-03-15 2020-08-18 Samsung Electronics Co., Ltd. Encoding method, decoding method and device for video global disparity vector

Similar Documents

Publication Publication Date Title
US10659758B2 (en) Image encoding method and image decoding method
US11743494B2 (en) Method and apparatus for signaling image information, and decoding method and apparatus using same
US20170310993A1 (en) Movement information compression method and device for 3d video coding
KR20220024817A (en) Encoders, decoders and their methods
CN114600466A (en) Image encoding apparatus and method based on cross component filtering
KR20150004289A (en) Video including multi layers encoding and decoding method
CA2952793C (en) Depth picture coding method and device in video coding
CN114208193B (en) Image decoding method and device
CA3131311A1 (en) An encoder, a decoder and corresponding methods for inter prediction
CN116828176A (en) Decoding device, encoding device, and transmitting device
CN113615173A (en) Method and device for carrying out optical flow prediction correction on affine decoding block
KR20160072101A (en) Method and apparatus for decoding multi-view video
AU2024201576A1 (en) A video encoder, a video decoder and corresponding methods
WO2013039348A1 (en) Method for signaling image information and video decoding method using same
US11889109B2 (en) Optical flow based video inter prediction
KR20210103572A (en) Encoders, decoders and corresponding methods for tile configuration signaling
US20160255368A1 (en) Method and apparatus for coding/decoding video comprising multi-view
CN114586351A (en) Image compiling apparatus and method based on adaptive loop filtering
WO2015141977A1 (en) 3d video encoding/decoding method and device
RU2809192C2 (en) Encoder, decoder and related methods of interframe prediction
WO2013039333A1 (en) 3d video encoding/decoding method and apparatus therefor
CN114731405A (en) Image encoding/decoding method and apparatus using quantization matrix and method of transmitting bitstream
CN115699762A (en) Method and apparatus for encoding/decoding picture by signaling GCI and computer-readable recording medium storing bitstream

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12831112

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12831112

Country of ref document: EP

Kind code of ref document: A1