WO2012177015A2 - Image decoding/decoding method and device - Google Patents

Image decoding/decoding method and device Download PDF

Info

Publication number
WO2012177015A2
WO2012177015A2 PCT/KR2012/004694 KR2012004694W WO2012177015A2 WO 2012177015 A2 WO2012177015 A2 WO 2012177015A2 KR 2012004694 W KR2012004694 W KR 2012004694W WO 2012177015 A2 WO2012177015 A2 WO 2012177015A2
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
filter
depth
picture
filtering
Prior art date
Application number
PCT/KR2012/004694
Other languages
French (fr)
Korean (ko)
Other versions
WO2012177015A3 (en
Inventor
예세훈
손은용
성재원
정지욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2012177015A2 publication Critical patent/WO2012177015A2/en
Publication of WO2012177015A3 publication Critical patent/WO2012177015A3/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Definitions

  • the present invention relates to image processing, and more particularly, to a resolution reduction update method and apparatus thereof.
  • the 3D video may provide a realism and immersion by using a plurality of view channels, and the 3D video providing the stereoscopic effect may include a binocular 3D video, a multiview 3D video, a hologram, and the like.
  • a texture video unlike a conventional 2D video, not only a texture video but also a depth video may be encoded and / or decoded together.
  • a depth image may include depth information of objects in a screen.
  • the three-dimensional effect can be represented by the above-described depth information.
  • An object of the present invention is to provide an image encoding method and apparatus capable of improving image encoding efficiency and reducing complexity.
  • Another object of the present invention is to provide an image decoding method and apparatus capable of improving image encoding efficiency and reducing complexity.
  • Another technical problem of the present invention is to provide a resolution reduction update method and apparatus capable of improving image encoding efficiency and reducing complexity.
  • Another technical problem of the present invention is to provide a filtering method and apparatus for improving image encoding efficiency.
  • An embodiment of the present invention is a video decoding method.
  • the method includes receiving a bitstream, generating a prediction block and a residual block for a current picture based on the bitstream, and reduced-resolution update (RRU) type information derived from the bitstream.
  • RRU reduced-resolution update
  • Performing up-sampling on the residual block generating a reconstruction block based on the prediction block and the residual block on which the upsampling is performed, and based on the RRU type information
  • the RRU type information includes sampling ratio information and filter type information. Upsampling is performed based on a sampling rate indicated, and the filter indicated by the filter type information is performed in the filtering step. Based filtering to perform.
  • the sampling rate information may indicate a higher sampling rate as the frequency of the region corresponding to the residual block is lower in the current block.
  • the method of claim 1, wherein the performing of the filtering comprises: determining a window of a predetermined size and shape for a pixel to be filtered in the residual block and for the pixel to be filtered based on the pixels in the window.
  • the method may further include performing filtering.
  • the filter indicated by the filter type information is a bi-laterally weighted filter that performs weighted averaging based on pixels in the window. filter).
  • the bidirectional weight filter performs weak smoothing when the pixel to be filtered is a pixel in an edge region including an edge, and the pixel to be filtered is configured to perform edge smoothing. Strong smoothing may be performed in the case of a pixel in a non-edge region that does not include.
  • the filtering may be performed based on texture pixels in an area corresponding to the window in the texture picture.
  • the filter indicated by the filter type information may be a bi-laterally weighted Winner_Take_All filter
  • the bidirectional weighted WTA filter is a depth pixel in the window based on the texture pixel.
  • a weighting score may be derived for each, and a pixel value of a depth pixel having the highest weight score among the depth pixels may be determined as an output value for the pixel to be filtered, wherein the depth pixel is within the depth picture. It may be a pixel.
  • the filter indicated by the filter type information may be a bi-laterally weighted median filter
  • the bidirectional weighted median filter may include a depth in the window based on the texture pixel.
  • a weighting score is derived for each pixel
  • a median value is derived among the depth pixels based on the weight score
  • a pixel value of a depth pixel corresponding to the derived median value is obtained for the filtering target pixel.
  • the depth pixel may be a pixel in the depth picture.
  • the filter indicated by the filter type information is And a bidirectional weighted median filter, wherein the bidirectional weighted median filter derives a weighting score for each of the depth pixels based on depth pixels in the window, and based on the weight score
  • the intermediate value may be derived from the pixels, and the pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the filtering target pixel, and the depth pixel may be a pixel in the depth picture.
  • the bidirectional weighted median filter performs weak smoothing when the pixel to be filtered is a pixel in an edge region including an edge, and the pixel to be filtered does not include an edge. In the case of non-edge pixels, strong smoothing may be performed.
  • the apparatus includes: a receiver for receiving a bitstream, a prediction block and a residual block generator for generating a prediction block and a residual block for a current picture based on the bitstream, and an RRU derived from the bitstream
  • a reconstruction block for generating a reconstruction block based on the up-sampler for performing up-sampling on the residual block, the prediction block, and the residual block on which the up-sampling is performed, based on -Resolution Update) type information
  • a filter unit configured to perform filtering on the reconstruction block based on a generation unit and the RRU type information, wherein the RRU type information includes sampling ratio information and filter type information;
  • the upsampler performs upsampling based on the sampling rate indicated by the sampling rate information, and the filter unit performs the filter type information. Performs filtering based on the filter indicated by.
  • the sampling rate information may indicate a higher sampling rate as the frequency of the region corresponding to the residual block is lower in the current block.
  • the filter unit is configured to determine a window having a predetermined size and shape with respect to the filtering target pixel in the residual block and perform filtering on the filtering target pixel based on the pixel in the window. Can be.
  • the filter indicated by the filter type information is a bi-laterally weighted filter that performs weighted averaging based on pixels in the window. filter).
  • the bidirectional weighting filter performs weak smoothing when the pixel to be filtered is a pixel in an edge region including an edge, and the pixel to be filtered is configured to perform edge smoothing. Strong smoothing may be performed in the case of a pixel in a non-edge region that does not include.
  • the filter unit may perform filtering based on texture pixels in an area corresponding to the window in the texture picture.
  • the filter indicated by the filter type information may be a bi-laterally weighted Winner_Take_All filter, wherein the bidirectional weighted WTA filter is a depth pixel in the window based on the texture pixel.
  • a weighting score may be derived for each, and a pixel value of a depth pixel having the highest weight score among the depth pixels may be determined as an output value for the pixel to be filtered, wherein the depth pixel is within the depth picture. It may be a pixel.
  • the filter indicated by the filter type information may be a bi-laterally weighted median filter, and the bidirectional weighted median filter is configured to determine a depth in the window based on the texture pixel.
  • a weighting score is derived for each pixel, a median value is derived among the depth pixels based on the weight score, and a pixel value of a depth pixel corresponding to the derived median value is obtained for the filtering target pixel.
  • the depth pixel may be a pixel in the depth picture.
  • the filter indicated by the filter type information is And a bidirectional weighted median filter, wherein the bidirectional weighted median filter derives a weighting score for each of the depth pixels based on depth pixels in the window, and based on the weight score
  • the intermediate value may be derived from the pixels, and the pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the filtering target pixel, and the depth pixel may be a pixel in the depth picture.
  • image encoding efficiency may be improved and complexity may be reduced.
  • image decoding efficiency may be improved and complexity may be reduced.
  • image encoding efficiency may be improved and complexity may be reduced.
  • image encoding efficiency may be improved.
  • FIG. 1 is a block diagram schematically illustrating an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a block diagram schematically illustrating an image encoding apparatus according to another embodiment of the present invention.
  • FIG. 4 is a block diagram schematically illustrating an image decoding apparatus according to another embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an upsampling process and a filtering process according to the present invention.
  • FIG. 6 is a flowchart schematically showing an embodiment of a decoding method according to the present invention.
  • FIG. 7 is a flowchart schematically showing another embodiment of a decoding method according to the present invention.
  • each of the components in the drawings described in the present invention are shown independently for the convenience of the description of the different characteristic functions in the image encoding / decoding apparatus, each component is implemented by separate hardware or separate software It does not mean to be.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included within the scope of the present invention.
  • FIG. 1 is a block diagram schematically illustrating an image encoding apparatus according to an embodiment of the present invention.
  • the image encoding apparatus may be applied to both a texture video and a depth video.
  • the apparatus for encoding an image may include a motion estimator (ME) 110, a motion compensator (MC) 120, a down-sampler 130, and a converter ( Transformer (T) 135, Quantizer (Q) 140, Entropy coder 150, Inverse Quantizer or Dequantizer (IQ) 155, Inverse Transformer : IT) 160, an up-sampler 170, a filter unit 180, and a reference picture buffer 190.
  • ME motion estimator
  • MC motion compensator
  • T Transformer
  • Q Quantizer
  • IQ Inverse Quantizer or Dequantizer
  • IT Inverse Transformer : IT
  • the picture may be divided into at least one processing unit.
  • the processing unit may be a macro block, a prediction unit (PU), a transform unit (TU), or a coding unit (CU).
  • PU prediction unit
  • TU transform unit
  • CU coding unit
  • embodiments to be described below are described based on a processing unit generated by dividing a picture to be encoded / decoded (or a current picture), and a unit may be referred to as a block in some cases.
  • the texture image and the depth image may include a low frequency region which is high in flatness and a monotonous region, and a high frequency region in which detail characteristics are important.
  • the encoding process is performed on all pixel values of the low frequency region where detail is not important, complexity may be excessively high compared to coding efficiency. Since the coding efficiency may not be significantly reduced even when the low frequency region is processed at a low resolution, the low frequency region may be subjected to an encoding process by reducing the resolution through a down sampler, and upsampling through an up sampler during reconstruction and / or decoding. A method of carrying out this can be used.
  • the sampling ratio of the down sampler and the up sampler may be determined differently depending on the degree of monotony of the image, the degree of importance of the detail of the image, and / or the frequency of the image.
  • the down sampling rate and the up sampling rate may be the same. A specific embodiment of the down / up sampling rate determination method will be described later.
  • a method of reducing the resolution in the encoding process and performing upsampling in the reconstruction and / or decoding process according to the frequency of the image may include a reduced resolution update (RRU, hereinafter, a reduced resolution update). And RRU both have the same meaning. Also, resolution reduction updates may sometimes be referred to as reduced resolution updates. In the embodiment of FIG. 1, the above-described resolution reduction update method may be used.
  • the motion predictor 110 may obtain a motion vector based on a reference picture stored in the reference picture buffer 190.
  • the motion compensator 120 may generate a prediction block by performing motion compensation using the motion vector.
  • the motion information used for prediction eg, a motion vector and a reference picture index
  • the down sampler 130 may perform down sampling on a residual value (residual block) between the generated prediction block and the original block.
  • the down-sampled residual block may be input to the converter 135.
  • the residual block may be directly input to the converter 135 without passing through the down sampler 130. For example, when the region corresponding to the current block is a high frequency region, since the detailed characteristic of the image is important, the residual block may be directly input to the converter 135 without downsampling.
  • the transformer 135 may transform the residual block (or downsampled residual block) in a transform unit and generate transform coefficients, and the quantization unit 140 may convert the residual values transformed by the transformer. Quantization may be performed to generate quantization coefficients.
  • the entropy encoder 150 may output a bitstream by performing entropy encoding on the quantization coefficients.
  • the inverse quantization unit 155 may inverse quantize values quantized by the quantization unit 140.
  • the inverse transformer 160 may inversely transform the inverse quantized values by the inverse quantizer 155.
  • the up sampler 170 may perform upsampling on the residual value and / or the residual block generated by the inverse quantizer 155 and the inverse transformer 160.
  • the upsampled residual block may be combined with the prediction block generated by the motion compensator 120 to generate a reconstructed block.
  • the filter unit 180 may perform filtering according to the present invention on the reconstruction block. Specific embodiments of the filter unit will be described later.
  • the residual block generated by the inverse transformer 160 may be combined with the prediction block generated by the motion compensator 120 without passing through the up sampler 170. In this case, for example, the filter unit 180 may not perform filtering on the generated reconstruction block.
  • the reference picture buffer 190 may store the generated reconstruction block and / or the reconstruction block on which the filtering is performed.
  • the reconstructed blocks and / or pictures stored in the reference picture buffer 190 may be provided to the motion predictor 110 and the motion compensator 120.
  • the image decoding apparatus includes an entropy decoder 210, an inverse quantizer IQ 220, an inverse transformer IT 230, an up sampler 240, a motion compensator MC, 250, a filter unit 260, and a reference picture buffer 270.
  • the image decoding apparatus according to the embodiment of FIG. 2 may be applied to both texture video and depth video, similarly to the image encoding apparatus.
  • the above-described resolution reduction update method may be used.
  • the entropy decoder 210 may perform entropy decoding on the input bitstream.
  • the motion information for generating the prediction block among the information decoded by the entropy decoder 210 may be provided to the motion compensator 250, and the residual value on which entropy decoding is performed may be input to the inverse quantizer 220.
  • the inverse quantization unit 220 may perform inverse quantization based on the residual value on which entropy decoding is performed, and the inverse transform unit 230 performs the inverse transformation on the inverse quantization result performed by the inverse quantization unit 220.
  • the block can be derived.
  • the up sampler 240 may increase the resolution reduced by the down sampler 130 of the image encoding apparatus by performing up sampling on the residual block derived from the inverse transformer 230. If down sampling is not performed on the residual block in the image encoding apparatus, upsampling may not be performed on the residual block derived by the inverse transformer 230.
  • the motion compensator 250 may generate a prediction block based on the motion information provided by the entropy decoder 210 and previously decoded blocks and / or picture information provided by the reference picture buffer 270.
  • the reconstruction block may be generated by adding the residual block derived from the inverse transform unit 230 and / or the residual block provided by the up sampler 240 to the prediction block.
  • the filter unit 260 may perform filtering according to the present invention on the reconstructed block. Specific embodiments of the filtering will be described later.
  • the reference picture buffer 270 may store the generated reconstructed picture (or reconstructed block) and / or reconstructed reconstructed picture (or reconstructed block) on which the filtering has been performed, so that the reconstructed picture and / or the reconstructed picture may be used as a reference picture or a reference block.
  • the restoration block may be provided as an output unit.
  • the apparatus for encoding an image includes a predictor 310, a down sampler 320, a transformer T and 330, a quantizer Q and 340, an entropy encoder 350, and an inverse quantizer IQ. 360, an inverse transform unit IT 370, an up sampler 380, a filter unit 385, and a reference picture buffer 390.
  • the image encoding apparatus may be applied to both a texture image and a depth image.
  • the above-described resolution reduction update (RRU) method may be used in the embodiment of FIG. 3.
  • FIG. 1 an encoding method when inter prediction is performed is described, but the present invention is not limited thereto.
  • the present invention can be applied in the same or similar manner when not only inter prediction but also intra prediction is performed.
  • the predictor 310 may include an inter predictor that performs inter prediction and an intra predictor that performs intra prediction.
  • the inter prediction unit may generate a prediction block by performing prediction based on information of at least one picture of a previous picture or a subsequent picture of the current picture.
  • the detailed operation of the inter prediction unit is the same as in the embodiment of FIG. 1 and will be omitted.
  • the intra predictor may generate a prediction block by performing prediction based on pixel information in the current picture. Prediction mode information and motion information used for prediction may be encoded by the entropy encoder 350 together with the residual value and transmitted to the decoder.
  • the image decoding apparatus includes an entropy decoder 410, an inverse quantizer IQ 420, an inverse transformer IT 430, an up sampler 440, a predictor 450, and a filter 455. ) And a reference picture buffer 460.
  • the image decoding apparatus according to the embodiment of FIG. 4 may be applied to both the texture image and the depth image similarly to the image encoding apparatus of FIG. 3.
  • the above-described resolution reduction update (RRU) method may be used in the embodiment of FIG. 4.
  • the present invention is not limited thereto.
  • the present invention can be applied in the same or similar manner when not only inter prediction but also intra prediction is performed.
  • the predictor 450 may include an inter predictor that performs inter prediction and an intra predictor that performs intra prediction.
  • the inter prediction unit may generate the prediction block based on the motion information provided by the entropy decoder 410 and previously decoded blocks and / or picture information provided by the reference picture buffer 460.
  • the intra predictor may generate the predictive block by performing prediction based on the prediction block generation related information provided by the entropy decoder 410 and the pixel information in the current picture.
  • FIG. 5 is a diagram illustrating an upsampling process and a filtering process according to the present invention.
  • 5 is a diagram for describing an operation of a filter applied to an operation and a reconstruction block of the up-sampler illustrated in the embodiments of FIGS. 1 to 4. 5 shows the location of the sample to be generated or interpolated by the up sampling process and the down sampled low-resolution sample.
  • the sample may have the same meaning as the pixel in some cases, and this distinction may be easily made by those skilled in the art.
  • the sample generated by the upsampling process is referred to as interpolation sample.
  • An interpolation sample and / or a reconstruction sample corresponding to the interpolation sample at any position within the current picture includes the location of the interpolation sample.
  • the upsampler may perform upsampling on the input residual block. That is, interpolation samples at any location in the residual block (eg, (m, n), where m and n are integers greater than or equal to 0) can be generated by upsampling.
  • the up sampler may perform a zero-padding process on the position of the sample to be interpolated.
  • the zero padding process may mean a process of filling a value of 0 at the position of the sample to be interpolated.
  • the up sampler may generate interpolated samples by performing copy or simple linear filtering based on the low resolution samples in the window.
  • the reconstruction block may be generated by adding a prediction block and a residual block on which upsampling is performed.
  • the filter unit may derive the final reconstructed sample of the (m, n) position by performing filtering on the reconstructed sample of the (m, n) position in the generated reconstruction block based on the low resolution sample in the window.
  • the filtering may correspond to, for example, low-pass filtering.
  • the upsampler may determine or set a window N (m, n) of a predetermined size including the position of (m, n) for generating an interpolation sample of the position (m, n).
  • 520 of FIG. 5 shows the window N (m, n).
  • the window N (m, n) may be a 2 ⁇ 2 square window, and the window may include 2 ⁇ 2 low resolution samples.
  • the size, shape and / or position of the window is not limited to the embodiment of FIG. 5 and may be determined or set differently according to implementation and / or needs.
  • the upsampler may generate an interpolated sample at the position (m, n) by performing upsampling on the residual block.
  • the up-sampler may perform a zero padding procedure on the location of the sample to be interpolated.
  • the image encoding / decoding apparatus may generate a reconstruction block by adding a prediction block and a residual block on which upsampling is performed.
  • the filter unit performs filtering (eg, low pass filtering) on the reconstructed sample 510 at the (m, n) position in the generated reconstructed block based on the low resolution sample in the window 520. , the final reconstructed sample of position (m, n) can be derived.
  • the above upsampling process and the filtering process may be performed based on upsampling ratio information and filter type information, respectively.
  • the down sampling rate and the up sampling rate may be the same.
  • Embodiments described later are described based on upsampling, but an upsampling rate value applied to upsampling may also be used as a downsampling rate value.
  • the up / down sampling ratio may be determined differently depending on the degree of monotony of the image, the degree of importance of the detail of the image, and / or the degree of frequency of the image.
  • the video signal being encoded / decoded is a signal corresponding to a low frequency region characterized by a continuous series of monotonous values, rather than a high frequency region where detail is of importance
  • rate-distortion optimization rate -distortion optimization (RDO)
  • RDO rate -distortion optimization
  • the image signal to be encoded / decoded is a signal corresponding to a high frequency region where detail is important, it may be advantageous to use a low sampling rate in view of rate-distortion optimization.
  • the filter type may be determined differently according to the characteristics of the image.
  • the filter unit may apply a filter that performs a weak smoothing on an edge region including an edge, and applies a strong smoothing on a non-edge region that does not include an edge. You can apply filters to perform. Application of this adaptive filter type can allow salient features such as edges in the video signal to be better maintained.
  • the image encoding apparatus may derive an optimal combination of upsampling (and / or downsampling) ratio and filter type in terms of rate-distortion optimization.
  • the combination of upsampling (and / or downsampling) ratio and filter type may be represented by a reduced-resolution update type (RRU type) and / or a reduced-resolution update mode. That is, one RRU type may indicate and / or include one upsampling (and / or downsampling) rate and one filter type.
  • the upsampling process and the filtering process for one block may be performed based on one RRU type information and / or one RRU mode information.
  • the above-described RRU type may be independently applied to each of the texture image and the depth image. Therefore, the filter type applied to the texture image and the filter type applied to the depth image may be different from each other, and the sampling rate applied to the texture image and the sampling rate applied to the depth image may also be different.
  • Table 1 below shows an embodiment of an RRU type according to the present invention.
  • the embodiment of the RRU type is not limited to Table 1 described below, and a value, an upsampling rate value, and a filter type assigned to the RRU type may be determined differently from those of the embodiment of Table 1 as necessary.
  • one RRU type may indicate one upsampling rate and one filter type. For example, when the RRU type is 0, since the upsampling ratio is 1, upsampling may not be performed and filtering may not be performed. As another example, when the RRU type is 1, since the upsampling ratio is 2, twice the upsampling may be performed and the filter A may be applied. Specific examples of filter A and filter B shown in Table 1 will be described later.
  • the image encoding apparatus may determine an optimal RRU type and / or an RRU mode in view of rate-distortion optimization. In this case, the image encoding apparatus performs resolution reduction update based on the determined RRU type and / or RRU mode, thereby causing local characteristics of the image such as salient features (eg, edge regions), high frequency texture, etc. of the image. Can keep them better. That is, when the RRU type information is used, since the combination of the sampling rate and the filter type may be adaptively determined according to the characteristics of the image, the adaptive resolution reduction update may be enabled.
  • the cost function for determining the RRU type is applied based on macro block units.
  • the present invention is not limited thereto, and the cost function for determining the RRU type may be applied based on a CU, a PU, and / or a TU.
  • a rate-distortion optimization based RRU type determination method may be represented by Equation 1 according to an embodiment.
  • J represents a cost function and ⁇ represents a Lagrange multiplier.
  • rru_type may indicate an RRU type
  • mb_type may indicate a general macroblock type such as inter_16x16, skip, and the like.
  • the cost function is calculated in units of CUs, PUs, or TUs instead of macroblocks
  • the mb_type may be replaced with cu_type, pu_type, or tu_type, respectively.
  • cu_type, pu_type, and tu_type may indicate the type of CU, the type of PU, and the type of TU, respectively.
  • R MV Denotes a bit rate for encoding a motion vector (MV) and / or a reference picture index (eg, ref_idx), where R mb_type May represent a bit rate for encoding mb_type.
  • R mb_type Is based on the unit in which the cost function is calculated cu_type
  • R pu_type Or R tu_type Can be replaced with R in this case cu_type
  • R pu_type And R tu_type May denote a bit rate for encoding a CU, a PU, and a TU, respectively.
  • R rru_type Denotes a bit rate for encoding the up sampling rate and the filter type.
  • Equation 1 D may be calculated as Equation 2 below.
  • MB denotes a macroblock
  • X denotes a position of a sample existing in the input image
  • X p denotes a sample position in the reference image corresponding to a sample of the X position.
  • the cost function is calculated in units of CUs, PUs, or TUs instead of macroblocks
  • the MBs may be replaced with CUs, PUs, or TUs.
  • MV represents a motion vector
  • X p may refer to a position of a prediction sample in a reference picture indicated by MV.
  • I may represent a pixel value in the input image
  • I p may represent a predicted pixel value in the reference image.
  • the image encoding apparatus may find an upsampling ratio and a filter type that minimize the aforementioned cost function.
  • the apparatus for encoding an image may determine an RRU type that minimizes a cost function as an optimal RRU type for the current block.
  • FIG. 6 is a flowchart schematically showing an embodiment of a decoding method according to the present invention.
  • the decoding process according to the embodiment of FIG. 6 may be applied to both the texture image and the depth image.
  • the encoder may encode and transmit information about the RRU type to the decoder.
  • the decoder may receive and decode information about the RRU type from the encoder. In this case, the decoder may perform upsampling and filtering based on the information about the decoded RRU type.
  • the decoder may not perform a resolution reduction update process (S610).
  • the upsampling ratio is 1, so upsampling may not be performed and filtering may not be applied according to the filter type information.
  • the decoder may perform upsampling on the residual block (S620).
  • the decoder may perform upsampling at a rate of twice the width and height directions of the residual block, respectively.
  • the decoder may generate a reconstructed block by adding the residual block on which upsampling has been performed with the prediction block (S630).
  • the decoder may perform filtering on each reconstruction sample in the generated reconstruction block.
  • the decoder may apply filter A to the reconstructed samples in the reconstruction block (S640).
  • the decoder may apply filter B to the reconstructed samples in the reconstruction block (S650).
  • specific examples of the filter A and the filter B will be described later.
  • the decoder may perform upsampling on the residual block (S660).
  • the decoder can perform upsampling at a ratio of four times in each of the width and height directions of the residual block.
  • the decoder may generate a reconstructed block by adding the residual block on which upsampling has been performed with the prediction block (S670).
  • the decoder may perform filtering on each reconstruction sample in the generated reconstruction block.
  • the decoder may apply filter A to the reconstructed samples in the reconstruction block (S680).
  • the decoder may apply filter B to the reconstructed samples in the reconstruction block (S690).
  • specific examples of the filter A and the filter B will be described later.
  • the encoder may perform the upsampling process and the filtering process as in the decoder, and thus the above-described upsampling method and the filtering method may be applied to the encoder in the same manner.
  • filter A and filter B are used, and embodiments described below are described with reference to filter A and filter B.
  • the filter type according to the present invention is not limited thereto, and the order in which the filter types are allocated according to the RRU type and / or the number and type of filter types used may be determined differently according to implementation and / or needs. .
  • the above-described embodiments may be applied not only to the texture video but also to the depth video, and that the filter applied to the texture image and the filter applied to the depth image may be different from each other. Therefore, in the embodiments described below, embodiments of the filter applied to the texture image and the filter applied to the depth image are described independently.
  • the filter unit may apply a bi-laterally weighted filter to the reconstructed image (or reconstructed block) corresponding to the texture image.
  • the bidirectional weight filter may perform a weighted average based on pixel values in a window corresponding to the pixel to be filtered.
  • the bidirectional weight filter applied to the reconstructed image (or reconstructed block) corresponding to the texture image may be represented by Equation 3 below.
  • (m, n) may indicate the position of the pixel to be filtered and N (m, n) may indicate a window corresponding to the pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here.
  • I (i, j) may represent the input pixel values of the filter
  • (i, j) may represent the position of the input pixel present in the window N (m, n).
  • I '(m, n) may indicate an output value of the filter for the pixel to be filtered at the position (m, n).
  • Equation 3 w (i, j) represents a weighting kernel, and the geometric distance between (m, n) and (i, j) and the photometric between the two points It may correspond to a monotonically decreasing function based on distance.
  • the geometric distance may mean a physical distance between two points, and the luminance distance may indicate a difference in intensity and / or a pixel value between pixels existing at two points. That is, the weight kernel of the filter applied to the texture image is based on the difference in intensity (and / or luma pixel value difference) between the two pixels as well as the geometric distance between the pixel to be filtered and the surrounding pixels existing in the window. Can be determined. In this case, the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered. Equation 4 below shows an embodiment of the above-described weight kernel.
  • I (i, j) may represent a pixel input value at position (i, j)
  • I (m, n) may represent a pixel input value at position (m, n).
  • sigma s is a spreading parameter indicating a smoothing degree in a spatial domain
  • sigma I is a spreading parameter indicating a smoothing degree in a pixel-intensity region.
  • the bidirectional weight filter described above may have a non-linear characteristic and may perform smoothing on the image while preserving the edge of the image.
  • filter A and filter B may correspond to the bidirectional weight filter described above.
  • filter A may be a filter applied to a textureless region (or block) and / or a region (or block) in which no edge exists
  • filter B may be a high-textured region ( Or block) and / or a filter applied to the edge region (or block) in which the edge is present.
  • a bidirectional weighting filter that performs strong smoothing may be applied to the textureless region (or block) and / or the region (or block) where no edge exists.
  • the spreading parameters sigma s and sigma I applied to filter A may be diffusion parameters with relatively large values.
  • a bidirectional weighting filter that performs weak-smoothing may be applied for a highly-textured region (or block) and / or an edge region (or block) in which an edge exists.
  • the spreading parameters sigma s and sigma I applied to filter B may be diffusion parameters with relatively small values.
  • the filter unit may perform filtering on the reconstructed image corresponding to the depth image.
  • the texture image and the depth image may be different from each other, but may have a similar tendency. Therefore, when the texture image (or picture or block) corresponding to the depth image (or picture or block) to be filtered is valid, the filter unit performs filtering on the reconstructed image corresponding to the depth image based on the pixel value of the decoded texture image. Can be done. At this time, for example, the filter unit may perform filtering on the filtering target pixel based on the pixel in the region corresponding to the window of the filtering target pixel among the pixels in the texture picture.
  • the filter applied to the reconstructed image corresponding to the depth image may perform filtering using information related to the texture image.
  • pixels in the depth image are referred to as depth pixels
  • pixels in the texture image are referred to as texture pixels.
  • the depth image has a feature in which details are not important as compared to the texture image in the remaining regions except the edge region, sharpness of the edge portion is important in the depth image, and the remaining portion may not be important. . Therefore, a filter considering the characteristics of the depth image needs to be provided.
  • the filter A and the filter B applied to the reconstructed image (or block) corresponding to the depth image may be a bidirectional weighting filter.
  • the filter A may be a bidirectional weighted Winner-Take-All (WTA) filter
  • the filter B may be a bidirectional weighted median filter.
  • the pixel value of the depth pixel having the highest weight score (and / or weight frequency) in the window corresponding to the pixel to be filtered is the filter output value (filtered pixel value). Can be determined.
  • the bidirectional weighted WTA filter applied to the reconstructed image corresponding to the depth image may be represented by Equation 5 below.
  • (m, n) may represent the position of the depth pixel to be filtered
  • N (m, n) may represent a window corresponding to the depth pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here.
  • D (i, j) may represent input depth pixel values of the filter, and (i, j) may represent a position of an input pixel existing in the window N (m, n).
  • D ′ (m, n) may indicate an output value of the filter for the depth pixel to be filtered at the position (m, n).
  • Equation (5) Denotes a weighting kernel and may correspond to a monotonic reduction function based on the geometric distance between (m, n) and (i, j) and the luminance distance between the two points.
  • the geometric distance may mean a physical distance between two points
  • the luminance distance may correspond to an intensity difference and / or texture between the texture pixels I (m, n) and I (i, j) existing at the same position as the two points.
  • This may indicate a pixel value difference. That is, the weighted kernel of the filter applied to the depth image is not only the geometric distance between the depth pixel to be filtered and the neighboring pixels present in the window, but also the intensity difference (and / or) between the texture pixels present at the same positions as the two pixels, respectively. Luma pixel value difference). In this case, the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered.
  • sigma s is a spreading parameter indicating a smoothing degree in a spatial domain
  • sigma I is a spreading parameter indicating a smoothing degree in a pixel-intensity region.
  • the bidirectional weighted WTA filter may derive a weight score for each depth pixel in the window based on the texture pixel.
  • Equation 5 described above May correspond to a weighting score.
  • the filter unit may determine a depth pixel value having the highest weight score among the depth pixels in the window as an output value for the depth pixel to be filtered. That is, according to the bidirectional weighted WTA filter described above, the filter unit selects a value having the highest weight score (and / or weight frequency) among the pixels in the window corresponding to the depth pixel to be filtered, and the filtered pixel for the depth pixel to be filtered. Can be derived by value.
  • the filter part does not introduce or derive new depth values that do not exist prior to filtering, so that the object boundary in the depth image and / or the characteristics of the boundary can be better maintained.
  • the depth pixel value corresponding to the median value based on the weight score (and / or weight frequency) within the window corresponding to the pixel to be filtered is the filter output value (filtering). Pixel value).
  • the bidirectional weighted median filter applied to the reconstructed image corresponding to the depth image may be represented by Equation 6 below.
  • (m, n) may represent the position of the depth pixel to be filtered
  • N (m, n) may represent a window corresponding to the depth pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here.
  • D (i, j) may represent input depth pixel values of the filter, and (i, j) may represent a position of an input pixel existing in the window N (m, n).
  • D ′ (m, n) may indicate an output value of the filter for the depth pixel to be filtered at the position (m, n).
  • Equation 6 Denotes a weighting kernel and may correspond to a monotonic reduction function based on the geometric distance between (m, n) and (i, j) and the luminance distance between the two points.
  • the geometric distance may mean a physical distance between two points
  • the luminance distance may be an intensity difference between the 'texture pixels' (I (m, n) and I (i, j) ) existing at the same position as the two points and / or
  • texture pixel values may be different from each other.
  • the weighted kernel of the filter applied to the depth image is not only the geometric distance between the depth pixel to be filtered and the surrounding pixels present in the window, but also the intensity difference (and / or) between the texture pixels present at the same positions as the two pixels, respectively. Luma pixel value difference).
  • the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered.
  • sigma s is a spreading parameter indicating a smoothing degree in a spatial domain
  • sigma I is a spreading parameter indicating a smoothing degree in a pixel-intensity region.
  • 'Scale' is a constant, and represents a value that is multiplied to allow C k to have a value within a predetermined appropriate range (for example, 1 to 100).
  • Equation 6 Can represent the largest integer value less than or equal to x.
  • D i C i is one, that means that D i is listed as C i dog.
  • D i may have a larger value as i is larger, and D tot may represent the largest depth pixel value in the window.
  • the bidirectional weighted median filter may derive a weight score for each depth pixel in the window based on the texture pixel.
  • the weight score may correspond to C k .
  • the filter unit may find a depth pixel corresponding to an intermediate value among depth pixels in the window based on the derived weight score.
  • the pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the pixel to be filtered.
  • the filter unit may derive a median value based on a weight score (and / or weighted frequency) among pixels in a window corresponding to the depth pixel to be filtered, and the derived intermediate The value may be determined as a filter output value (filtered pixel value) for the depth pixel to be filtered.
  • the filter part does not introduce or derive a new depth value that does not exist prior to filtering, so that the object boundary in the depth image and / or the characteristics of the boundary can be better maintained.
  • the filter unit may perform filtering on the reconstructed image corresponding to the depth image.
  • the filter unit may perform filtering based on pixel values of the decoded texture image.
  • the texture image (or the picture or the block) corresponding to the filtering depth image (or the picture or the block) may not be valid.
  • the filter unit may not use the texture image related information when filtering the filtering depth image.
  • the decoding process of the filtering target depth image and the texture image corresponding thereto is performed in parallel, the decoding process of the texture image may not be completed when the filtering of the filtering target image is performed. Even in this case, the filter unit may not use the texture image related information when performing filtering of the filtering depth image.
  • the filter unit may perform filtering based on pixels in the filtering depth image, not the texture image.
  • the depth image has a feature in which details are not important as compared to the texture image in the remaining regions except the edge region, sharpness of the edge portion is important in the depth image, and the remaining portion may not be important. . Therefore, a filter considering the characteristics of the depth image needs to be provided.
  • the filter unit may apply a bidirectional weighted median filter to the reconstructed image (or block) corresponding to the depth image.
  • the filter unit may derive a median value based on a weight score (and / or weight frequency) among pixels in a window corresponding to the depth pixel to be filtered, and the derived median value Can be determined as the filter output value (filtered pixel value).
  • the bidirectional weighted median filter applied to the reconstructed image corresponding to the depth image may be represented by Equation 7 below.
  • (m, n) may represent the position of the depth pixel to be filtered
  • N (m, n) may represent a window corresponding to the depth pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here.
  • D (i, j) may represent input depth pixel values of the filter, and (i, j) may represent a position of an input pixel existing in the window N (m, n).
  • D ′ (m, n) may indicate an output value of the filter for the depth pixel to be filtered at the position (m, n).
  • Equation 7 Denotes a weighting kernel and may correspond to a monotonic reduction function based on the geometric distance between (m, n) and (i, j) and the luminance distance between the two points.
  • the geometric distance may mean a physical distance between the two points
  • the luminosity distance may be an intensity difference between the 'depth pixels' D (m, n) and D (i, j) present at the two points and / or Depth pixel values may represent differences. That is, the weight kernel of the filter applied to the depth image may be determined based on the difference in intensity (and / or luma pixel value difference) between the two pixels as well as the geometric distance between the depth pixel to be filtered and the surrounding pixels existing in the window. have. In this case, the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered.
  • sigma s is a spreading parameter indicating a smoothing degree in a spatial domain
  • sigma D is a spreading parameter indicating a smoothing degree in a pixel-intensity region.
  • 'Scale' is a constant, and represents a value that is multiplied to allow C k to have a value within a predetermined appropriate range (for example, 1 to 100).
  • a predetermined appropriate range for example, 1 to 100.
  • D i C i is one, that means that D i is listed as C i dog.
  • D i may have a larger value as i is larger, and D tot may represent the largest depth pixel value in the window.
  • the bi-directional weighted median filter may derive a weight score for each depth pixel in the window based on the depth pixel in the window.
  • the weight score may correspond to C k .
  • the filter unit may find a depth pixel corresponding to an intermediate value among depth pixels in the window based on the derived weight score.
  • the pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the pixel to be filtered.
  • the filter unit may derive a median value based on a weight score (and / or weighted frequency) among pixels in a window corresponding to the depth pixel to be filtered, and the derived intermediate The value may be determined as a filter output value (filtered pixel value) for the depth pixel to be filtered.
  • the filter part does not introduce or derive a new depth value that does not exist prior to filtering, so that the object boundary in the depth image and / or the characteristics of the boundary can be better maintained.
  • filter A and filter B may correspond to the bidirectional weighted median filter described above.
  • filter A may be a filter applied to a non-edge region (or block) in which no edge exists
  • filter B may be a filter applied to an edge region (or block) in which the edge exists. Can be.
  • a bidirectional weighted median filter that performs strong smoothing may be applied for a non-edge region (or block) where no edge exists. Therefore, the spreading parameters sigma s and sigma D applied to filter A may be spreading parameters having a relatively large value. Also, for an edge region (or block) in which an edge exists, a bidirectional weighted median filter that performs weak smoothing may be applied. Therefore, the spreading parameters sigma s and sigma D applied to the filter B may be spreading parameters having a relatively small value.
  • FIG. 7 is a flowchart schematically showing another embodiment of a decoding method according to the present invention.
  • the decoding process according to the embodiment of FIG. 7 may be applied to both the texture image and the depth image.
  • the above-described resolution reduction update (RRU) method may be applied to the embodiment of FIG. 7.
  • the decoder may generate a prediction block (S710).
  • the decoder may generate a predictive block based on previously decoded blocks and / or picture information provided in the reference picture buffer.
  • intra prediction the decoder may generate a prediction block by performing prediction based on pixel information in the current picture.
  • the decoder may generate a residual block (S720). Since a specific embodiment of the residual block generation process has been described above with reference to FIG. 2, it will be omitted here.
  • the decoder may receive and decode RRU type information from the encoder (S730).
  • the encoder may determine the RRU type based on the rate-distortion optimization and then encode and transmit the RRU type information to the decoder.
  • the RRU type information may include sampling rate information and / or filter type information.
  • the filter since the filter is a filter applied to a reconstruction block generated based on the residual block on which upsampling is performed, it may also be called an RRU filter or an upsampling filter.
  • the encoder may encode and transmit sampling rate information and / or RRU filter information for each residual block to the decoder.
  • the sampling rate information may be represented by the syntax element sampling_ratio
  • the RRU filter type information may be represented by the syntax element rru_filter_type.
  • the sampling rate information and / or the RRU filter information may be included in a residual block level and / or a residual block header (eg, residual ()) and transmitted from the encoder to the decoder through a bitstream.
  • the decoder may receive and decode the sampling rate information and / or the RRU filter information.
  • the sampling rate information and the RRU filter information transmitted to the decoder may be defined by syntax elements as included in Table 2 according to an embodiment.
  • sampling_ratio may represent up-sampling ratio information.
  • sampling_ratio may represent an upsampling rate value itself, or may represent a value used to derive an actual upsampling ratio.
  • the decoder may derive the actual upsampling ratio by the following Equation (8).
  • Up-sampling ratio sampling_ratio ⁇ 1
  • the up-sampling ratio may indicate an actual upsampling ratio applied to the upsampling process.
  • the actual upsampling rate value applied to the upsampling process may be 4.
  • rru_filter_type may indicate an upsampling filter type. That is, rru_filter_type may indicate the type of upsampling filter used for filtering the reconstructed block generated based on the residual block on which upsampling is performed.
  • the encoder may transmit the RRU type information to the decoder through one syntax element indicating the RRU type, unlike in the above-described embodiment.
  • the RRU type information may be represented by a syntax element rru_type .
  • the encoder and the decoder may store the same look-up table indicating the relationship between the RRU type, the upsampling rate, and the RRU filter type.
  • the encoder can determine the optimal upsampling rate and the optimal RRU filter type based on the rate-distortion optimization.
  • the encoder may determine the RRU type corresponding to the determined up-sampling rate and the RRU filter type based on the lookup table, and may transmit information about the determined RRU type to the decoder through one syntax element rru_type.
  • the decoder may receive and decode the RRU type information transmitted from the encoder.
  • the decoder may determine the RRU type for the current block based on the decoded RRU type information, and may derive an upsampling rate and an RRU filter type based on the determined RRU type and the stored lookup table.
  • the decoder may perform upsampling on the generated residual block based on the decoded RRU type information (S740). Since the RRU type information includes upsampling rate information, the decoder may perform upsampling on the residual block according to the upsampling rate indicated by the upsampling rate information. However, when the upsampling ratio for the residual block is 1, upsampling may not be performed for the residual block.
  • the decoder may generate a reconstruction block based on the prediction block and the residual block on which upsampling is performed (S750). In this case, if upsampling is not performed on the residual block, the residual block used to generate the reconstructed block may be a residual block on which upsampling is not performed.
  • the decoder may perform filtering on each reconstruction sample in the generated reconstruction block (S760). Since the above-described RRU type information includes filter type information, the decoder may perform filtering based on the filter type information. Since specific embodiments of the filter applied to the texture image and the filter applied to the depth image have been described above, a description thereof will be omitted.
  • the present invention may perform resolution reduction update based on the RRU type and / or RRU mode, so that characteristics of an image such as an edge may be better maintained. That is, when the RRU type information is used, the sampling rate or the combination of the filter types may be changed according to the characteristics of the image, so that adaptive resolution reduction updating may be possible.
  • the depth image has a feature that the detail is less important than the texture image in most regions except the edge region.
  • the upscaling method and / or resolution reduction update method described above will be particularly efficient when applied to depth images in terms of rate-distortion optimization.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

According to the present invention, an image decoding method comprises the steps of: receiving a bit stream; generating a prediction block and a residual block for a current picture on the basis of the bit stream; performing up-sampling on the residual block on the basis of reduced resolution update (RRU)-type information derived from the bit stream; generating a restoration block on the basis of the prediction block and the up-sampled residual block; and performing filtering on the restoration block on the basis of the RRU-type information. According to the present invention, image encoding efficiency is improved and complexity is reduced.

Description

영상 부호화/복호화 방법 및 그 장치Image coding / decoding method and apparatus
본 발명은 영상 처리에 관한 것으로서, 보다 상세하게는 해상도 감소 갱신 방법 및 그 장치에 관한 것이다.The present invention relates to image processing, and more particularly, to a resolution reduction update method and apparatus thereof.
3D 비디오를 이용한 디지털 방송 서비스는 차세대 방송 서비스로 주목 받고 있다. 3D 비디오는 복수 개의 시점(view) 채널을 이용하여 현장감과 몰입감을 제공할 수 있으며, 입체감을 제공하는 3D 비디오에는, 양안식 3D 비디오, 다시점 3D 비디오 및 홀로그램 등이 있을 수 있다. Digital broadcasting services using 3D video are attracting attention as next generation broadcasting services. The 3D video may provide a realism and immersion by using a plurality of view channels, and the 3D video providing the stereoscopic effect may include a binocular 3D video, a multiview 3D video, a hologram, and the like.
3D 비디오의 경우 종래의 2D 비디오와 달리, 텍스쳐 영상(texture video) 뿐만 아니라, 깊이 영상(depth video)이 함께 부호화 및/또는 복호화될 수 있다. 종래의 비디오 압축 표준 대상인 텍스쳐 영상과 달리, 깊이 영상은 화면 내의 객체들에 대한 깊이 정보를 포함할 수 있다. 3D 비디오의 경우, 입체감은 상술한 깊이 정보에 의해 나타내어질 수 있다.In the case of 3D video, unlike a conventional 2D video, not only a texture video but also a depth video may be encoded and / or decoded together. Unlike a texture image, which is a target of a conventional video compression standard, a depth image may include depth information of objects in a screen. In the case of 3D video, the three-dimensional effect can be represented by the above-described depth information.
본 발명의 기술적 과제는 영상 부호화 효율을 향상시키고 복잡도를 감소시킬 수 있는 영상 부호화 방법 및 장치를 제공함에 있다.An object of the present invention is to provide an image encoding method and apparatus capable of improving image encoding efficiency and reducing complexity.
본 발명의 다른 기술적 과제는 영상 부호화 효율을 향상시키고 복잡도를 감소시킬 수 있는 영상 복호화 방법 및 장치를 제공함에 있다.Another object of the present invention is to provide an image decoding method and apparatus capable of improving image encoding efficiency and reducing complexity.
본 발명의 또 다른 기술적 과제는 영상 부호화 효율을 향상시키고 복잡도를 감소시킬 수 있는 해상도 감소 갱신 방법 및 장치를 제공함에 있다.Another technical problem of the present invention is to provide a resolution reduction update method and apparatus capable of improving image encoding efficiency and reducing complexity.
본 발명의 또 다른 기술적 과제는 영상 부호화 효율을 향상시킬 수 있는 필터링 방법 및 장치를 제공함에 있다.Another technical problem of the present invention is to provide a filtering method and apparatus for improving image encoding efficiency.
1. 본 발명의 일 실시 형태는 영상 복호화 방법이다. 상기 방법은, 비트스트림을 수신하는 단계, 상기 비트스트림을 기반으로, 현재 픽쳐에 대한 예측 블록 및 잔차(residual) 블록을 생성하는 단계, 상기 비트스트림으로부터 도출된 RRU(Reduced-Resolution Update) 타입 정보를 기반으로, 상기 잔차 블록에 대한 업 샘플링(up-sampling)을 수행하는 단계, 상기 예측 블록 및 상기 업 샘플링이 수행된 잔차 블록을 기반으로 복원 블록을 생성하는 단계 및 상기 RRU 타입 정보를 기반으로, 상기 복원 블록에 대한 필터링을 수행하는 단계를 포함하되, 상기 RRU 타입 정보는 샘플링 비율(sampling ratio) 정보 및 필터 타입(filter type) 정보를 포함하고, 상기 업 샘플링 수행 단계에서는 상기 샘플링 비율 정보가 지시하는 샘플링 비율을 기반으로 업 샘플링을 수행하고, 상기 필터링 수행 단계에서는 상기 필터 타입 정보가 지시하는 필터를 기반으로 필터링을 수행한다.1. An embodiment of the present invention is a video decoding method. The method includes receiving a bitstream, generating a prediction block and a residual block for a current picture based on the bitstream, and reduced-resolution update (RRU) type information derived from the bitstream. Performing up-sampling on the residual block, generating a reconstruction block based on the prediction block and the residual block on which the upsampling is performed, and based on the RRU type information And performing filtering on the reconstruction block, wherein the RRU type information includes sampling ratio information and filter type information. Upsampling is performed based on a sampling rate indicated, and the filter indicated by the filter type information is performed in the filtering step. Based filtering to perform.
2. 1에 있어서, 상기 샘플링 비율 정보는, 상기 현재 블록 내에서 상기 잔차 블록에 해당되는 영역의 주파수가 낮을수록 더 높은 값의 샘플링 비율을 지시할 수 있다.2. In 1, the sampling rate information may indicate a higher sampling rate as the frequency of the region corresponding to the residual block is lower in the current block.
3. 1에 있어서, 상기 필터링 수행 단계는, 상기 잔차 블록 내의 필터링 대상 픽셀에 대해, 소정의 크기 및 모양의 윈도우(window)를 결정하는 단계 및 상기 윈도우 내의 픽셀을 기반으로 상기 필터링 대상 픽셀에 대한 필터링을 수행하는 단계를 더 포함할 수 있다.3. The method of claim 1, wherein the performing of the filtering comprises: determining a window of a predetermined size and shape for a pixel to be filtered in the residual block and for the pixel to be filtered based on the pixels in the window. The method may further include performing filtering.
4. 3에 있어서, 상기 현재 픽쳐가 텍스쳐 영상(texture video) 내의 픽쳐인 경우, 상기 필터 타입 정보가 지시하는 필터는 상기 윈도우 내의 픽셀을 기반으로 가중치 평균을 수행하는 양방향 가중치 필터(bi-laterally weighted filter)일 수 있다.4. The method of 3, wherein when the current picture is a picture in a texture video, the filter indicated by the filter type information is a bi-laterally weighted filter that performs weighted averaging based on pixels in the window. filter).
5. 4에 있어서, 상기 양방향 가중치 필터는, 상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩(weak smoothing)을 수행하고, 상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩(strong smoothing)을 수행할 수 있다.5. The method of 4, wherein the bidirectional weight filter performs weak smoothing when the pixel to be filtered is a pixel in an edge region including an edge, and the pixel to be filtered is configured to perform edge smoothing. Strong smoothing may be performed in the case of a pixel in a non-edge region that does not include.
6. 3에 있어서, 상기 현재 픽쳐가 깊이 영상(depth video) 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상(texture video) 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효(available)한 경우, 상기 필터링 수행 단계에서는, 상기 텍스쳐 픽쳐에서 상기 윈도우에 대응되는 영역 내의 텍스쳐 픽셀을 기반으로 필터링을 수행할 수 있다.6. The method of 3, wherein the current picture is a depth picture in a depth video, and a texture picture corresponding to the current picture is available in a texture video corresponding to the depth video. In the performing of the filtering, the filtering may be performed based on texture pixels in an area corresponding to the window in the texture picture.
7. 6에 있어서, 상기 필터 타입 정보가 지시하는 필터는, 양방향 가중치 WTA 필터(bi-laterally weighted Winner_Take_All filter)일 수 있고, 상기 양방향 가중치 WTA 필터는, 상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 깊이 픽셀 중에서 가장 높은 가중치 스코어를 갖는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정할 수 있고, 상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀일 수 있다. 7. The method of claim 6, wherein the filter indicated by the filter type information may be a bi-laterally weighted Winner_Take_All filter, and the bidirectional weighted WTA filter is a depth pixel in the window based on the texture pixel. A weighting score may be derived for each, and a pixel value of a depth pixel having the highest weight score among the depth pixels may be determined as an output value for the pixel to be filtered, wherein the depth pixel is within the depth picture. It may be a pixel.
8. 6에 있어서, 상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터(bi-laterally weighted median filter)일 수 있고, 상기 양방향 가중치 미디언 필터는, 상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정할 수 있고, 상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀일 수 있다.8. The method of claim 6, wherein the filter indicated by the filter type information may be a bi-laterally weighted median filter, and the bidirectional weighted median filter may include a depth in the window based on the texture pixel. A weighting score is derived for each pixel, a median value is derived among the depth pixels based on the weight score, and a pixel value of a depth pixel corresponding to the derived median value is obtained for the filtering target pixel. The depth pixel may be a pixel in the depth picture.
9. 3에 있어서, 상기 현재 픽쳐가 깊이 영상 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효하지 않은 경우, 상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터일 수 있고, 상기 양방향 가중치 미디언 필터는, 상기 윈도우 내의 깊이 픽셀을 기반으로, 상기 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정할 수 있고, 상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀일 수 있다.9. When the current picture is a depth picture in a depth image, and the texture picture corresponding to the current picture is not valid in the texture image corresponding to the depth image, the filter indicated by the filter type information is And a bidirectional weighted median filter, wherein the bidirectional weighted median filter derives a weighting score for each of the depth pixels based on depth pixels in the window, and based on the weight score The intermediate value may be derived from the pixels, and the pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the filtering target pixel, and the depth pixel may be a pixel in the depth picture.
10. 9에 있어서, 상기 양방향 가중치 미디언 필터는, 상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩을 수행하고, 상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩을 수행할 수 있다.10. The method of claim 9, wherein the bidirectional weighted median filter performs weak smoothing when the pixel to be filtered is a pixel in an edge region including an edge, and the pixel to be filtered does not include an edge. In the case of non-edge pixels, strong smoothing may be performed.
11. 본 발명의 다른 실시 형태는 영상 복호화 장치이다. 상기 장치는, 비트스트림을 수신하는 수신부, 상기 비트스트림을 기반으로, 현재 픽쳐에 대한 예측 블록 및 잔차(residual) 블록을 생성하는 예측 블록 및 잔차 블록 생성부, 상기 비트스트림으로부터 도출된 RRU(Rrduced-Resolution Update) 타입 정보를 기반으로, 상기 잔차 블록에 대한 업 샘플링(up-sampling)을 수행하는 업 샘플러, 상기 예측 블록 및 상기 업 샘플링이 수행된 잔차 블록을 기반으로 복원 블록을 생성하는 복원 블록 생성부 및 상기 RRU 타입 정보를 기반으로, 상기 복원 블록에 대한 필터링을 수행하는 필터부를 포함하되, 상기 RRU 타입 정보는 샘플링 비율(sampling ratio) 정보 및 필터 타입(filter type) 정보를 포함하고, 상기 업 샘플러는 상기 샘플링 비율 정보가 지시하는 샘플링 비율을 기반으로 업 샘플링을 수행하고, 상기 필터부는 상기 필터 타입 정보가 지시하는 필터를 기반으로 필터링을 수행한다.11. Another embodiment of the present invention is a video decoding apparatus. The apparatus includes: a receiver for receiving a bitstream, a prediction block and a residual block generator for generating a prediction block and a residual block for a current picture based on the bitstream, and an RRU derived from the bitstream A reconstruction block for generating a reconstruction block based on the up-sampler for performing up-sampling on the residual block, the prediction block, and the residual block on which the up-sampling is performed, based on -Resolution Update) type information A filter unit configured to perform filtering on the reconstruction block based on a generation unit and the RRU type information, wherein the RRU type information includes sampling ratio information and filter type information; The upsampler performs upsampling based on the sampling rate indicated by the sampling rate information, and the filter unit performs the filter type information. Performs filtering based on the filter indicated by.
12. 11에 있어서, 상기 샘플링 비율 정보는, 상기 현재 블록 내에서 상기 잔차 블록에 해당되는 영역의 주파수가 낮을수록 더 높은 값의 샘플링 비율을 지시할 수 있다.In 12. 11, the sampling rate information may indicate a higher sampling rate as the frequency of the region corresponding to the residual block is lower in the current block.
13. 11에 있어서, 상기 필터부는, 상기 잔차 블록 내의 필터링 대상 픽셀에 대해 소정의 크기 및 모양의 윈도우(window)를 결정하고, 상기 윈도우 내의 픽셀을 기반으로 상기 필터링 대상 픽셀에 대한 필터링을 수행할 수 있다.13. The method of claim 11, wherein the filter unit is configured to determine a window having a predetermined size and shape with respect to the filtering target pixel in the residual block and perform filtering on the filtering target pixel based on the pixel in the window. Can be.
14. 13에 있어서, 상기 현재 픽쳐가 텍스쳐 영상(texture video) 내의 픽쳐인 경우, 상기 필터 타입 정보가 지시하는 필터는 상기 윈도우 내의 픽셀을 기반으로 가중치 평균을 수행하는 양방향 가중치 필터(bi-laterally weighted filter)일 수 있다.14. The method of claim 13, wherein when the current picture is a picture in a texture video, the filter indicated by the filter type information is a bi-laterally weighted filter that performs weighted averaging based on pixels in the window. filter).
15. 14에 있어서, 상기 양방향 가중치 필터는, 상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩(weak smoothing)을 수행하고, 상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩(strong smoothing)을 수행할 수 있다.15. The method of 15. 14, wherein the bidirectional weighting filter performs weak smoothing when the pixel to be filtered is a pixel in an edge region including an edge, and the pixel to be filtered is configured to perform edge smoothing. Strong smoothing may be performed in the case of a pixel in a non-edge region that does not include.
16. 13에 있어서, 상기 현재 픽쳐가 깊이 영상(depth video) 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상(texture video) 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효(available)한 경우, 상기 필터부는, 상기 텍스쳐 픽쳐에서 상기 윈도우에 대응되는 영역 내의 텍스쳐 픽셀을 기반으로 필터링을 수행할 수 있다.16. The method of 16. 13, wherein the current picture is a depth picture in a depth video, and a texture picture corresponding to the current picture is available in a texture video corresponding to the depth video. The filter unit may perform filtering based on texture pixels in an area corresponding to the window in the texture picture.
17. 16에 있어서, 상기 필터 타입 정보가 지시하는 필터는, 양방향 가중치 WTA 필터(bi-laterally weighted Winner_Take_All filter)일 수 있고, 상기 양방향 가중치 WTA 필터는, 상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 깊이 픽셀 중에서 가장 높은 가중치 스코어를 갖는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정할 수 있고, 상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀일 수 있다.17. The method of claim 16, wherein the filter indicated by the filter type information may be a bi-laterally weighted Winner_Take_All filter, wherein the bidirectional weighted WTA filter is a depth pixel in the window based on the texture pixel. A weighting score may be derived for each, and a pixel value of a depth pixel having the highest weight score among the depth pixels may be determined as an output value for the pixel to be filtered, wherein the depth pixel is within the depth picture. It may be a pixel.
18. 16에 있어서, 상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터(bi-laterally weighted median filter)일 수 있고, 상기 양방향 가중치 미디언 필터는, 상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정할 수 있고, 상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀일 수 있다.18. The method of claim 16, wherein the filter indicated by the filter type information may be a bi-laterally weighted median filter, and the bidirectional weighted median filter is configured to determine a depth in the window based on the texture pixel. A weighting score is derived for each pixel, a median value is derived among the depth pixels based on the weight score, and a pixel value of a depth pixel corresponding to the derived median value is obtained for the filtering target pixel. The depth pixel may be a pixel in the depth picture.
19. 13에 있어서, 상기 현재 픽쳐가 깊이 영상 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효하지 않은 경우, 상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터일 수 있고, 상기 양방향 가중치 미디언 필터는, 상기 윈도우 내의 깊이 픽셀을 기반으로, 상기 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정할 수 있고, 상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀일 수 있다.19. The method of claim 13, wherein when the current picture is a depth picture in a depth image and a texture picture corresponding to the current picture is not valid in a texture image corresponding to the depth image, the filter indicated by the filter type information is And a bidirectional weighted median filter, wherein the bidirectional weighted median filter derives a weighting score for each of the depth pixels based on depth pixels in the window, and based on the weight score The intermediate value may be derived from the pixels, and the pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the filtering target pixel, and the depth pixel may be a pixel in the depth picture.
20. 19에 있어서, 상기 양방향 가중치 미디언 필터는, 상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩을 수행하고, 상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩을 수행할 수 있다.20. The method of 19, wherein the bidirectional weighted median filter performs weak smoothing when the pixel to be filtered is a pixel in an edge region including an edge, and the pixel to be filtered does not include an edge. In the case of non-edge pixels, strong smoothing may be performed.
본 발명에 따른 영상 부호화 방법에 의하면, 영상 부호화 효율이 향상되고 복잡도가 감소될 수 있다.According to the image encoding method according to the present invention, image encoding efficiency may be improved and complexity may be reduced.
본 발명에 따른 영상 복호화 방법에 의하면, 영상 부호화 효율이 향상되고 복잡도가 감소될 수 있다.According to the image decoding method according to the present invention, image encoding efficiency may be improved and complexity may be reduced.
본 발명에 따른 해상도 감소 갱신 방법에 의하면, 영상 부호화 효율이 향상되고 복잡도가 감소될 수 있다.According to the resolution reduction update method according to the present invention, image encoding efficiency may be improved and complexity may be reduced.
본 발명에 따른 필터링 방법에 의하면, 영상 부호화 효율이 향상될 수 있다.According to the filtering method according to the present invention, image encoding efficiency may be improved.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 개략적으로 나타내는 블록도이다. 1 is a block diagram schematically illustrating an image encoding apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 개략적으로 나타내는 블록도이다.2 is a block diagram schematically illustrating an image decoding apparatus according to an embodiment of the present invention.
도 3은 본 발명의 다른 실시예에 따른 영상 부호화 장치를 개략적으로 나타내는 블록도이다.3 is a block diagram schematically illustrating an image encoding apparatus according to another embodiment of the present invention.
도 4는 본 발명의 다른 실시예에 따른 영상 복호화 장치를 개략적으로 나타내는 블록도이다.4 is a block diagram schematically illustrating an image decoding apparatus according to another embodiment of the present invention.
도 5는 본 발명에 따른 업 샘플링 과정 및 필터링 과정을 설명하기 위한 도면이다. 5 is a diagram illustrating an upsampling process and a filtering process according to the present invention.
도 6은 본 발명에 따른 복호화 방법의 일 실시예를 개략적으로 나타내는 흐름도이다.6 is a flowchart schematically showing an embodiment of a decoding method according to the present invention.
도 7은 본 발명에 따른 복호화 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다. 7 is a flowchart schematically showing another embodiment of a decoding method according to the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the invention to the specific embodiments. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the spirit of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 영상 부호화/복호화 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.On the other hand, each of the components in the drawings described in the present invention are shown independently for the convenience of the description of the different characteristic functions in the image encoding / decoding apparatus, each component is implemented by separate hardware or separate software It does not mean to be. For example, two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations. Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리 범위에 포함된다.In addition, some of the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance. The present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included within the scope of the present invention.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and redundant description of the same components is omitted.

도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 개략적으로 나타내는 블록도이다. 1 is a block diagram schematically illustrating an image encoding apparatus according to an embodiment of the present invention.
도 1의 실시예에 따른 영상 부호화 장치는 텍스쳐 영상(texture video) 및 깊이 영상(depth video)에 모두 적용될 수 있다. 도 1을 참조하면, 영상 부호화 장치는 움직임 예측부(Motion Estimator: ME)(110), 움직임 보상부(Motion Compensator: MC)(120), 다운 샘플러(down-sampler)(130), 변환부(Transformer: T)(135), 양자화부(Quantizer: Q)(140), 엔트로피 부호화부(entropy coder)(150), 역양자화부(Inverse Quantizer or Dequantizer: IQ)(155), 역변환부(Inverse Transformer: IT)(160), 업 샘플러(up-sampler)(170), 필터부(180) 및 참조 픽쳐 버퍼(reference picture buffer)(190)를 포함할 수 있다. The image encoding apparatus according to the embodiment of FIG. 1 may be applied to both a texture video and a depth video. Referring to FIG. 1, the apparatus for encoding an image may include a motion estimator (ME) 110, a motion compensator (MC) 120, a down-sampler 130, and a converter ( Transformer (T) 135, Quantizer (Q) 140, Entropy coder 150, Inverse Quantizer or Dequantizer (IQ) 155, Inverse Transformer : IT) 160, an up-sampler 170, a filter unit 180, and a reference picture buffer 190.
영상 부호화 장치로 입력되는 입력 영상에서, 픽쳐는 적어도 하나의 처리 단위로 분할될 수 있다. 이 때, 처리 단위는 매크로 블록(macro block)일 수도 있고, 예측 유닛(Prediction Unit: PU)일 수도 있고, 변환 유닛(Transform Unit: TU)일 수도 있으며, 부호화 유닛(Coding Unit: CU)일 수도 있다. 이하, 후술되는 실시예들은 부호화/복호화 대상 픽쳐(또는 현재 픽쳐)가 분할됨으로써 생성된 처리 단위를 기준으로 서술되며, 유닛은 경우에 따라 블록으로 불릴 수도 있다.In the input image input to the image encoding apparatus, the picture may be divided into at least one processing unit. In this case, the processing unit may be a macro block, a prediction unit (PU), a transform unit (TU), or a coding unit (CU). have. Hereinafter, embodiments to be described below are described based on a processing unit generated by dividing a picture to be encoded / decoded (or a current picture), and a unit may be referred to as a block in some cases.
한편, 텍스쳐 영상 및 깊이 영상에는 평탄도가 높고 단조로운(monotonous) 영역인 저주파수 영역 및 디테일한 특성이 중요시되는 고주파수 영역이 있을 수 있다. 이 때, 디테일이 중요하지 않은 저주파수 영역의 모든 픽셀 값에 대해 부호화 과정을 수행하는 경우, 코딩 효율에 비해 복잡도(complexity)가 지나치게 높을 수 있다. 저주파수 영역은 저해상도로 처리되는 경우에도 코딩 효율이 크게 감소되지 않을 수 있으므로, 이러한 저주파수 영역에 대해서는 다운 샘플러를 통해 해상도를 감소시켜 부호화 과정을 수행하고 복원 및/또는 복호화 과정에서 업 샘플러를 통해 업 샘플링을 수행하는 방법이 사용될 수 있다. 또한, 이 경우에 다운 샘플러 및 업 샘플러의 샘플링 비율(sampling ratio)은 영상의 단조로운 정도, 영상의 디테일이 중요시되는 정도 및/또는 영상의 주파수 정도에 따라 다르게 정해질 수 있다. 여기서, 다운 샘플링 비율 및 업 샘플링 비율은 서로 동일할 수 있다. 다운/업 샘플링 비율 결정 방법의 구체적인 실시예는 후술하기로 한다.Meanwhile, the texture image and the depth image may include a low frequency region which is high in flatness and a monotonous region, and a high frequency region in which detail characteristics are important. In this case, when the encoding process is performed on all pixel values of the low frequency region where detail is not important, complexity may be excessively high compared to coding efficiency. Since the coding efficiency may not be significantly reduced even when the low frequency region is processed at a low resolution, the low frequency region may be subjected to an encoding process by reducing the resolution through a down sampler, and upsampling through an up sampler during reconstruction and / or decoding. A method of carrying out this can be used. In this case, the sampling ratio of the down sampler and the up sampler may be determined differently depending on the degree of monotony of the image, the degree of importance of the detail of the image, and / or the frequency of the image. Here, the down sampling rate and the up sampling rate may be the same. A specific embodiment of the down / up sampling rate determination method will be described later.
상술한 바와 같이, 영상의 주파수에 따라 부호화 과정에서 해상도를 감소시키고 복원 및/또는 복호화 과정에서 업 샘플링을 수행하는 방법은 해상도 감소 갱신(Reduced Resolution Update: RRU, 이하, 해상도 감소 갱신, Reduced Resolution Update 및 RRU는 모두 동일한 의미를 가짐.)으로 불릴 수 있다. 또한, 해상도 감소 갱신은 경우에 따라 감소된 해상도 갱신으로도 불릴 수 있다. 도 1의 실시예에서는 상술한 해상도 감소 갱신 방법이 사용될 수 있다.As described above, a method of reducing the resolution in the encoding process and performing upsampling in the reconstruction and / or decoding process according to the frequency of the image may include a reduced resolution update (RRU, hereinafter, a reduced resolution update). And RRU both have the same meaning. Also, resolution reduction updates may sometimes be referred to as reduced resolution updates. In the embodiment of FIG. 1, the above-described resolution reduction update method may be used.
도 1을 참조하면, 움직임 예측부(110)는 참조 픽쳐 버퍼(190)에 저장된 참조 픽쳐를 기반으로 움직임 벡터를 구할 수 있다. 움직임 보상부(120)는 움직임 벡터를 이용하여 움직임 보상을 수행하여 예측 블록을 생성할 수 있다. 예측을 위해 사용된 움직임 정보(예를 들어, 움직임 벡터 및 참조 픽쳐 인덱스 등)은 잔차값(residual)과 함께 엔트로피 부호화부(150)에서 부호화되어 복호화기에 전송될 수 있다.Referring to FIG. 1, the motion predictor 110 may obtain a motion vector based on a reference picture stored in the reference picture buffer 190. The motion compensator 120 may generate a prediction block by performing motion compensation using the motion vector. The motion information used for prediction (eg, a motion vector and a reference picture index) may be encoded by the entropy encoder 150 together with the residual value and transmitted to the decoder.
다운 샘플러(130)는 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록: residual block)에 대해, 다운 샘플링을 수행할 수 있다. 이 때, 다운 샘플링된 잔차 블록은 변환부(135)로 입력될 수 있다. 영상의 주파수 특성에 따라 잔차 블록은 다운 샘플러(130)를 거치지 않고 바로 변환부(135)로 입력될 수도 있다. 예를 들어, 현재 블록에 해당되는 영역이 고주파수 영역인 경우 영상의 디테일한 특성이 중요시되므로, 잔차 블록은 다운 샘플링 없이 바로 변환부(135)로 입력될 수 있다. The down sampler 130 may perform down sampling on a residual value (residual block) between the generated prediction block and the original block. In this case, the down-sampled residual block may be input to the converter 135. Depending on the frequency characteristic of the image, the residual block may be directly input to the converter 135 without passing through the down sampler 130. For example, when the region corresponding to the current block is a high frequency region, since the detailed characteristic of the image is important, the residual block may be directly input to the converter 135 without downsampling.
변환부(135)는 변환 단위로 잔차 블록(또는 다운 샘플링된 잔차 블록)에 대해 변환(transform)을 수행하고 변환 계수를 생성할 수 있으며, 양자화부(140)는 변환부에서 변환된 잔차값들을 양자화하여 양자화 계수를 생성할 수 있다. 또한, 엔트로피 부호화부(150)는 양자화 계수들에 대한 엔트로피 부호화를 수행하여 비트스트림(bitstream)을 출력할 수 있다.The transformer 135 may transform the residual block (or downsampled residual block) in a transform unit and generate transform coefficients, and the quantization unit 140 may convert the residual values transformed by the transformer. Quantization may be performed to generate quantization coefficients. In addition, the entropy encoder 150 may output a bitstream by performing entropy encoding on the quantization coefficients.
역양자화부(155)는 양자화부(140)에서 양자화된 값들을 역양자화할 수 있다. 또한, 역변환부(160)는 역양자화부(155)에서 역양자화된 값들을 역변환할 수 있다. The inverse quantization unit 155 may inverse quantize values quantized by the quantization unit 140. In addition, the inverse transformer 160 may inversely transform the inverse quantized values by the inverse quantizer 155.
업 샘플러(170)는 역양자화부(155) 및 역변환부(160)에서 생성된 잔차값 및/또는 잔차 블록에 대해 업 샘플링을 수행할 수 있다. 업 샘플링된 잔차 블록은 움직임 보상부(120)에서 생성된 예측 블록과 합쳐져 복원 블록(reconstructed block)이 생성될 수 있다. 이 때, 필터부(180)는 복원 블록에 대해, 본 발명에 따른 필터링을 수행할 수 있다. 상기 필터부 동작에 대한 구체적인 실시예는 후술하기로 한다. 한편, 잔차 블록에 대해 다운 샘플링이 수행되지 않은 경우, 역변환부(160)에서 생성된 잔차 블록은 업 샘플러(170)를 거치지 않고 바로 움직임 보상부(120)에서 생성된 예측 블록과 합쳐질 수도 있다. 이 경우, 일례로 필터부(180)는 생성된 복원 블록에 대해 필터링을 수행하지 않을 수 있다. The up sampler 170 may perform upsampling on the residual value and / or the residual block generated by the inverse quantizer 155 and the inverse transformer 160. The upsampled residual block may be combined with the prediction block generated by the motion compensator 120 to generate a reconstructed block. In this case, the filter unit 180 may perform filtering according to the present invention on the reconstruction block. Specific embodiments of the filter unit will be described later. Meanwhile, when downsampling is not performed on the residual block, the residual block generated by the inverse transformer 160 may be combined with the prediction block generated by the motion compensator 120 without passing through the up sampler 170. In this case, for example, the filter unit 180 may not perform filtering on the generated reconstruction block.
참조 픽쳐 버퍼(190)는 생성된 복원 블록 및/또는 필터링이 수행된 복원 블록을 저장할 수 있다. 참조 픽쳐 버퍼(190)에 저장된 복원 블록 및/또는 픽쳐는 움직임 예측부(110) 및 움직임 보상부(120)에 제공될 수 있다.The reference picture buffer 190 may store the generated reconstruction block and / or the reconstruction block on which the filtering is performed. The reconstructed blocks and / or pictures stored in the reference picture buffer 190 may be provided to the motion predictor 110 and the motion compensator 120.

도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 개략적으로 나타내는 블록도이다. 도 2를 참조하면, 영상 복호화 장치는 엔트로피 복호화부(entropy decoder)(210), 역양자화부(IQ, 220), 역변환부(IT, 230), 업 샘플러(240), 움직임 보상부(MC, 250), 필터부(260) 및 참조 픽쳐 버퍼(270)를 포함할 수 있다.2 is a block diagram schematically illustrating an image decoding apparatus according to an embodiment of the present invention. Referring to FIG. 2, the image decoding apparatus includes an entropy decoder 210, an inverse quantizer IQ 220, an inverse transformer IT 230, an up sampler 240, a motion compensator MC, 250, a filter unit 260, and a reference picture buffer 270.
도 2의 실시예에 따른 영상 복호화 장치는 영상 부호화 장치와 마찬가지로 텍스쳐 영상(texture video) 및 깊이 영상(depth video)에 모두 적용될 수 있다. 또한, 도 2의 실시예에서는 상술한 해상도 감소 갱신 방법이 사용될 수 있다.The image decoding apparatus according to the embodiment of FIG. 2 may be applied to both texture video and depth video, similarly to the image encoding apparatus. In addition, in the embodiment of FIG. 2, the above-described resolution reduction update method may be used.
도 2를 참조하면, 엔트로피 복호화부(210)는 입력된 비트스트림에 대하여 엔트로피 복호화를 수행할 수 있다. 엔트로피 복호화부(210)에서 복호화된 정보 중 예측 블록을 생성하기 위한 움직임 정보는 움직임 보상부(250)로 제공되고, 엔트로피 복호화가 수행된 잔차값은 역양자화부(220)로 입력될 수 있다. 역양자화부(220)는 엔트로피 복호화가 수행된 잔차값을 기반으로 역양자화를 수행할 수 있고, 역변환부(230)는 역양자화부(220)에서 수행된 역양자화 결과에 대해 역변환을 수행함으로써 잔차 블록을 도출할 수 있다. Referring to FIG. 2, the entropy decoder 210 may perform entropy decoding on the input bitstream. The motion information for generating the prediction block among the information decoded by the entropy decoder 210 may be provided to the motion compensator 250, and the residual value on which entropy decoding is performed may be input to the inverse quantizer 220. The inverse quantization unit 220 may perform inverse quantization based on the residual value on which entropy decoding is performed, and the inverse transform unit 230 performs the inverse transformation on the inverse quantization result performed by the inverse quantization unit 220. The block can be derived.
업 샘플러(240)는 역변환부(230)에서 도출된 잔차 블록에 대해 업 샘플링을 수행함으로써, 영상 부호화 장치의 다운 샘플러(130)에 의해 감소된 해상도를 높일 수 있다. 한편, 영상 부호화 장치에서 잔차 블록에 대해 다운 샘플링이 수행되지 않은 경우에는, 역변환부(230)에서 도출된 잔차 블록에 대해 업 샘플링이 수행되지 않을 수 있다.The up sampler 240 may increase the resolution reduced by the down sampler 130 of the image encoding apparatus by performing up sampling on the residual block derived from the inverse transformer 230. If down sampling is not performed on the residual block in the image encoding apparatus, upsampling may not be performed on the residual block derived by the inverse transformer 230.
움직임 보상부(250)는 엔트로피 복호화부(210)에서 제공된 움직임 정보와 참조 픽쳐 버퍼(270)에서 제공된 이전에 복호화된 블록 및/또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. 복원 블록은, 역변환부(230)에서 도출된 잔차 블록 및/또는 업 샘플러(240)에서 제공되는 잔차 블록이 예측 블록과 더해짐으로써 생성될 수 있다. 업 샘플링된 잔차 블록을 기반으로 복원 블록이 생성된 경우, 필터부(260)는 그 복원 블록에 대해, 본 발명에 따른 필터링을 수행할 수 있다. 상기 필터링에 대한 구체적인 실시예는 후술하기로 한다.The motion compensator 250 may generate a prediction block based on the motion information provided by the entropy decoder 210 and previously decoded blocks and / or picture information provided by the reference picture buffer 270. The reconstruction block may be generated by adding the residual block derived from the inverse transform unit 230 and / or the residual block provided by the up sampler 240 to the prediction block. When a reconstruction block is generated based on the up-sampled residual block, the filter unit 260 may perform filtering according to the present invention on the reconstructed block. Specific embodiments of the filtering will be described later.
참조 픽쳐 버퍼(270)는 생성된 복원 픽쳐(또는 복원 블록) 및/또는 필터링이 수행된 복원 픽쳐(또는 복원 블록)을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원 픽쳐 및/또는 복원 블록을 출력부로 제공할 수 있다.The reference picture buffer 270 may store the generated reconstructed picture (or reconstructed block) and / or reconstructed reconstructed picture (or reconstructed block) on which the filtering has been performed, so that the reconstructed picture and / or the reconstructed picture may be used as a reference picture or a reference block. Alternatively, the restoration block may be provided as an output unit.

도 3은 본 발명의 다른 실시예에 따른 영상 부호화 장치를 개략적으로 나타내는 블록도이다. 도 3을 참조하면, 영상 부호화 장치는 예측부(310), 다운 샘플러(320), 변환부(T, 330), 양자화부(Q, 340), 엔트로피 부호화부(350), 역양자화부(IQ, 360), 역변환부(IT, 370), 업 샘플러(380), 필터부(385) 및 참조 픽쳐 버퍼(390)를 포함할 수 있다.3 is a block diagram schematically illustrating an image encoding apparatus according to another embodiment of the present invention. Referring to FIG. 3, the apparatus for encoding an image includes a predictor 310, a down sampler 320, a transformer T and 330, a quantizer Q and 340, an entropy encoder 350, and an inverse quantizer IQ. 360, an inverse transform unit IT 370, an up sampler 380, a filter unit 385, and a reference picture buffer 390.
도 3의 실시예에 따른 영상 부호화 장치는 텍스쳐 영상 및 깊이 영상에 모두 적용될 수 있다. 또한, 도 1의 실시예에서와 마찬가지로 도 3의 실시예에서는 상술한 해상도 감소 갱신(RRU) 방법이 사용될 수 있다.The image encoding apparatus according to the embodiment of FIG. 3 may be applied to both a texture image and a depth image. In addition, as in the embodiment of FIG. 1, the above-described resolution reduction update (RRU) method may be used in the embodiment of FIG. 3.
한편, 도 1에서는 인터 예측이 수행되는 경우의 부호화 방법이 서술되고 있으나, 본 발명은 이에 한정되는 것은 아니다. 본 발명은 인터 예측뿐만 아니라 인트라 예측이 수행되는 경우에도 동일하거나 유사한 방법으로 적용될 수 있다.Meanwhile, in FIG. 1, an encoding method when inter prediction is performed is described, but the present invention is not limited thereto. The present invention can be applied in the same or similar manner when not only inter prediction but also intra prediction is performed.
도 3을 참조하면, 예측부(310)는 인터 예측을 수행하는 인터 예측부와 인트라 예측을 수행하는 인트라 예측부를 포함할 수 있다. 인터 예측부는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 예측부의 구체적인 동작은 도 1의 실시예에서와 동일하므로 생략하기로 한다. 또한, 인트라 예측부는 현재 픽쳐 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 예측을 위해 사용한 예측 모드 정보, 움직임 정보 등을 잔차값과 함께 엔트로피 부호화부(350)에서 부호화되어 복호화기에 전송될 수 있다.Referring to FIG. 3, the predictor 310 may include an inter predictor that performs inter prediction and an intra predictor that performs intra prediction. The inter prediction unit may generate a prediction block by performing prediction based on information of at least one picture of a previous picture or a subsequent picture of the current picture. The detailed operation of the inter prediction unit is the same as in the embodiment of FIG. 1 and will be omitted. In addition, the intra predictor may generate a prediction block by performing prediction based on pixel information in the current picture. Prediction mode information and motion information used for prediction may be encoded by the entropy encoder 350 together with the residual value and transmitted to the decoder.
상술한 구성을 제외한 나머지 구성의 동작은 도 1에서와 동일하므로, 여기서는 생략하기로 한다.Operation of the remaining components except for the above-described configuration is the same as in FIG. 1, and thus descriptions thereof will be omitted.

도 4는 본 발명의 다른 실시예에 따른 영상 복호화 장치를 개략적으로 나타내는 블록도이다. 도 4를 참조하면, 영상 복호화 장치는 엔트로피 복호화부(410), 역양자화부(IQ, 420), 역변환부(IT, 430), 업 샘플러(440), 예측부(450), 필터부(455) 및 참조 픽쳐 버퍼(460)를 포함할 수 있다.4 is a block diagram schematically illustrating an image decoding apparatus according to another embodiment of the present invention. Referring to FIG. 4, the image decoding apparatus includes an entropy decoder 410, an inverse quantizer IQ 420, an inverse transformer IT 430, an up sampler 440, a predictor 450, and a filter 455. ) And a reference picture buffer 460.
도 4의 실시예에 따른 영상 복호화 장치는 도 3의 영상 부호화 장치와 마찬가지로 텍스쳐 영상 및 깊이 영상에 모두 적용될 수 있다. 또한, 도 2의 실시예에서와 마찬가지로 도 4의 실시예에서는 상술한 해상도 감소 갱신(RRU) 방법이 사용될 수 있다.The image decoding apparatus according to the embodiment of FIG. 4 may be applied to both the texture image and the depth image similarly to the image encoding apparatus of FIG. 3. In addition, as in the embodiment of FIG. 2, the above-described resolution reduction update (RRU) method may be used in the embodiment of FIG. 4.
한편, 도 2에서는 인터 예측이 수행되는 경우의 복호화 방법이 서술되고 있으나, 본 발명은 이에 한정되는 것은 아니다. 본 발명은 인터 예측뿐만 아니라 인트라 예측이 수행되는 경우에도 동일하거나 유사한 방법으로 적용될 수 있다.Meanwhile, although the decoding method in the case where inter prediction is performed in FIG. 2 is described, the present invention is not limited thereto. The present invention can be applied in the same or similar manner when not only inter prediction but also intra prediction is performed.
도 4를 참조하면, 예측부(450)는 인터 예측을 수행하는 인터 예측부와 인트라 예측을 수행하는 인트라 예측부를 포함할 수 있다. 인터 예측부는 엔트로피 복호화부(410)에서 제공된 움직임 정보와 참조 픽쳐 버퍼(460)에서 제공된 이전에 복호화된 블록 및/또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. 또한, 인트라 예측부는 엔트로피 복호화부(410)에서 제공된 예측 블록 생성 관련 정보 및 현재 픽쳐 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다.Referring to FIG. 4, the predictor 450 may include an inter predictor that performs inter prediction and an intra predictor that performs intra prediction. The inter prediction unit may generate the prediction block based on the motion information provided by the entropy decoder 410 and previously decoded blocks and / or picture information provided by the reference picture buffer 460. In addition, the intra predictor may generate the predictive block by performing prediction based on the prediction block generation related information provided by the entropy decoder 410 and the pixel information in the current picture.
상술한 구성을 제외한 나머지 구성의 동작은 도 2에서와 동일하므로, 여기서는 생략하기로 한다.Operation of the remaining components except for the above-described configuration is the same as in FIG.

도 5는 본 발명에 따른 업 샘플링 과정 및 필터링 과정을 설명하기 위한 도면이다. 5 is a diagram illustrating an upsampling process and a filtering process according to the present invention.
도 5는 도 1 내지 도 4의 실시예에 도시된 업 샘플러의 동작 및 복원 블록에 대해 적용되는 필터의 동작을 설명하기 위한 실시예이다. 도 5는 업 샘플링 과정에 의해 생성되거나 보간(interpolated)될 샘플의 위치 및 다운 샘플링된 저해상도(low-resolution) 샘플을 도시한다. 여기서, 샘플은 경우에 따라 픽셀과 동일한 의미를 가질 수 있으며, 이와 같은 구별은 당해 기술 분야에서 통상의 지식을 가진 자라면 용이하게 할 수 있을 것이다. 이하, 업 샘플링 과정에 의해 생성된 샘플은 보간 샘플이라 한다.5 is a diagram for describing an operation of a filter applied to an operation and a reconstruction block of the up-sampler illustrated in the embodiments of FIGS. 1 to 4. 5 shows the location of the sample to be generated or interpolated by the up sampling process and the down sampled low-resolution sample. In this case, the sample may have the same meaning as the pixel in some cases, and this distinction may be easily made by those skilled in the art. Hereinafter, the sample generated by the upsampling process is referred to as interpolation sample.
현재 픽쳐 내의 임의의 위치(예를 들어, (m,n), 여기서 m 및 n은 0 이상의 정수임.)의 보간 샘플 및/또는 상기 보간 샘플에 대응하는 복원 샘플은, 상기 보간 샘플의 위치를 포함하는 소정의 크기 및/또는 소정의 모양의 윈도우(window) 내에 있는 저해상도 샘플을 기반으로 생성될 수 있다.An interpolation sample and / or a reconstruction sample corresponding to the interpolation sample at any position within the current picture (eg, (m, n), where m and n are integers greater than or equal to 0) includes the location of the interpolation sample. Can be generated based on a low resolution sample within a window of a predetermined size and / or of a predetermined shape.
도 1 및 도 2에서 상술한 바와 같이, 업 샘플러는 입력된 잔차 블록에 대해 업 샘플링을 수행할 수 있다. 즉, 잔차 블록 내의 임의의 위치(예를 들어, (m,n), 여기서 m 및 n은 0 이상의 정수임.)의 보간 샘플은 업 샘플링에 의해 생성될 수 있다. 일례로, 업 샘플러는 보간될 샘플의 위치에 대해 제로 패딩(zero-padding) 과정을 수행할 수 있다. 여기서, 제로 패딩 과정은 보간될 샘플의 위치에 0의 값을 채워 넣는 과정을 의미할 수 있다. 또한 예를 들어, 업 샘플러는 상기 윈도우 내의 저해상도 샘플을 기반으로 복사 또는 간단한 선형 필터링을 수행함으로써 보간 샘플을 생성할 수도 있다.As described above with reference to FIGS. 1 and 2, the upsampler may perform upsampling on the input residual block. That is, interpolation samples at any location in the residual block (eg, (m, n), where m and n are integers greater than or equal to 0) can be generated by upsampling. In one example, the up sampler may perform a zero-padding process on the position of the sample to be interpolated. Here, the zero padding process may mean a process of filling a value of 0 at the position of the sample to be interpolated. Also, for example, the up sampler may generate interpolated samples by performing copy or simple linear filtering based on the low resolution samples in the window.
또한, 도 1 및 도 2에서 상술한 바와 같이, 복원 블록은 예측 블록 및 업 샘플링이 수행된 잔차 블록이 더해짐으로써 생성될 수 있다. 이 때, 필터부는 상기 윈도우 내의 저해상도 샘플을 기반으로, 상기 생성된 복원 블록 내의 (m,n) 위치의 복원 샘플에 대해 필터링을 수행함으로써, (m,n) 위치의 최종 복원 샘플을 도출할 수 있다. 여기서, 상기 필터링은 일례로 로우 패스(low-pass) 필터링에 해당될 수 있다.In addition, as described above with reference to FIGS. 1 and 2, the reconstruction block may be generated by adding a prediction block and a residual block on which upsampling is performed. At this time, the filter unit may derive the final reconstructed sample of the (m, n) position by performing filtering on the reconstructed sample of the (m, n) position in the generated reconstruction block based on the low resolution sample in the window. have. In this case, the filtering may correspond to, for example, low-pass filtering.
도 5를 참조하면, 현재 보간될 샘플의 위치는 (m,n)이고, 도 5의 510은 상기 (m,n) 위치의 샘플이라 가정한다. 이 때, 업 샘플러는 (m,n) 위치의 보간 샘플 생성을 위해, (m,n)의 위치를 포함하는 소정의 크기의 윈도우 N(m,n)을 결정하거나 설정할 수 있다. 도 5의 520은 상기 윈도우 N(m,n)을 나타낸다. 여기서, 윈도우 N(m,n)은 2x2 크기의 정사각형 모양 윈도우일 수 있으며, 상기 윈도우는 2x2개의 저해상도 샘플을 포함할 수 있다. 그러나, 윈도우의 크기, 모양 및/또는 위치는 도 5의 실시예에 한정되는 것은 아니며, 구현 및/또는 필요에 따라 다르게 결정되거나 설정될 수도 있다.Referring to FIG. 5, it is assumed that a position of a sample to be currently interpolated is (m, n), and 510 of FIG. 5 is a sample of the (m, n) position. In this case, the upsampler may determine or set a window N (m, n) of a predetermined size including the position of (m, n) for generating an interpolation sample of the position (m, n). 520 of FIG. 5 shows the window N (m, n). Here, the window N (m, n) may be a 2 × 2 square window, and the window may include 2 × 2 low resolution samples. However, the size, shape and / or position of the window is not limited to the embodiment of FIG. 5 and may be determined or set differently according to implementation and / or needs.
이 때, 업 샘플러는 잔차 블록에 대한 업 샘플링을 수행함으로써 (m,n) 위치의 보간 샘플을 생성할 수 있다. 일례로, 업 샘플러는 보간될 샘플의 위치에 대해 제로 패딩 과정을 수행할 수 있다. 또한, 영상 부호화/복호화 장치는 예측 블록 및 업 샘플링이 수행된 잔차 블록을 더하여 복원 블록을 생성할 수 있다. 이 때, 필터부는 상기 윈도우(520) 내의 저해상도 샘플을 기반으로, 상기 생성된 복원 블록 내의 (m,n) 위치의 복원 샘플(510)에 대해 필터링(예를 들어, 로우 패스 필터링)을 수행함으로써, (m,n) 위치의 최종 복원 샘플을 도출할 수 있다. In this case, the upsampler may generate an interpolated sample at the position (m, n) by performing upsampling on the residual block. In one example, the up-sampler may perform a zero padding procedure on the location of the sample to be interpolated. In addition, the image encoding / decoding apparatus may generate a reconstruction block by adding a prediction block and a residual block on which upsampling is performed. In this case, the filter unit performs filtering (eg, low pass filtering) on the reconstructed sample 510 at the (m, n) position in the generated reconstructed block based on the low resolution sample in the window 520. , the final reconstructed sample of position (m, n) can be derived.

한편, 상술한 업 샘플링 과정 및 필터링 과정은 각각 업 샘플링 비율 정보 및 필터 타입 정보에 기반하여 수행될 수 있다. 이 때, 다운 샘플링 비율과 업 샘플링 비율은 서로 동일할 수 있다. 후술되는 실시예들은 업 샘플링을 중심으로 서술되지만, 업 샘플링에 적용되는 업 샘플링 비율 값은 다운 샘플링 비율 값으로도 사용될 수 있다.Meanwhile, the above upsampling process and the filtering process may be performed based on upsampling ratio information and filter type information, respectively. In this case, the down sampling rate and the up sampling rate may be the same. Embodiments described later are described based on upsampling, but an upsampling rate value applied to upsampling may also be used as a downsampling rate value.
상술한 바와 같이, 업/다운 샘플링 비율은 영상의 단조로운 정도, 영상의 디테일이 중요시되는 정도 및/또는 영상의 주파수 정도에 따라 다르게 정해질 수 있다. 예를 들어, 부호화/복호화되는 영상 신호가, 디테일이 중요시되는 고주파수 영역이 아닌 단조로운 값의 연속으로 특징 지어지는 저주파수 영역에 대응되는 신호인 경우, 높은 샘플링 비율을 사용하는 것이 율-왜곡 최적화(rate-distortion optimization: RDO) 관점에서 유리할 수 있다. 반대로, 부호화/복호화되는 영상 신호가 디테일이 중요시되는 고주파수 영역에 대응되는 신호인 경우, 낮은 샘플링 비율을 사용하는 것이 율-왜곡 최적화 관점에서 유리할 수 있다.As described above, the up / down sampling ratio may be determined differently depending on the degree of monotony of the image, the degree of importance of the detail of the image, and / or the degree of frequency of the image. For example, if the video signal being encoded / decoded is a signal corresponding to a low frequency region characterized by a continuous series of monotonous values, rather than a high frequency region where detail is of importance, then using a high sampling rate is a rate-distortion optimization (rate -distortion optimization (RDO) may be advantageous in terms of. On the contrary, when the image signal to be encoded / decoded is a signal corresponding to a high frequency region where detail is important, it may be advantageous to use a low sampling rate in view of rate-distortion optimization.
또한, 샘플링 비율의 경우와 마찬가지로, 필터 타입도 영상의 특성에 따라 다르게 정해질 수 있다. 일례로, 필터부는 에지(edge)를 포함하는 에지 영역에 대해서는 약한 스무딩(smoothing)을 수행하는 필터를 적용할 수 있고, 에지를 포함하지 않는 넌-에지(non-edge) 영역에 대해서는 강한 스무딩을 수행하는 필터를 적용할 수 있다. 이러한 적응적인 필터 타입의 적용은, 영상 신호에서 에지(edge)와 같은 두드러진(salient) 특징들이 더 잘 유지되도록 할 수 있다.In addition, like the sampling rate, the filter type may be determined differently according to the characteristics of the image. For example, the filter unit may apply a filter that performs a weak smoothing on an edge region including an edge, and applies a strong smoothing on a non-edge region that does not include an edge. You can apply filters to perform. Application of this adaptive filter type can allow salient features such as edges in the video signal to be better maintained.
영상 부호화 장치는 율-왜곡 최적화 관점에서, 업 샘플링(및/또는 다운 샘플링) 비율 및 필터 타입의 최적의 조합을 도출할 수 있다. 여기서, 업 샘플링(및/또는 다운 샘플링) 비율 및 필터 타입의 조합은 RRU 타입(Reduced-Resolution Update type) 및/또는 RRU 모드(Reduced-Resolution Update mode)에 의해 나타내어질 수 있다. 즉, 하나의 RRU 타입은 하나의 업 샘플링(및/또는 다운 샘플링) 비율 및 하나의 필터 타입을 지시하거나 및/또는 포함할 수 있다. 이 때, 하나의 블록에 대한 업 샘플링 과정 및 필터링 과정은 하나의 RRU 타입 정보 및/또는 하나의 RRU 모드 정보에 기반하여 수행될 수 있다. 상술한 RRU 타입은 텍스쳐 영상 및 깊이 영상 각각에 대해 독립적으로 적용될 수 있다. 따라서 텍스쳐 영상에 적용되는 필터 타입과 깊이 영상에 적용되는 필터 타입은 서로 다를 수 있으며, 텍스쳐 영상에 적용되는 샘플링 비율과 깊이 영상에 적용되는 샘플링 비율도 서로 다를 수 있다.The image encoding apparatus may derive an optimal combination of upsampling (and / or downsampling) ratio and filter type in terms of rate-distortion optimization. Here, the combination of upsampling (and / or downsampling) ratio and filter type may be represented by a reduced-resolution update type (RRU type) and / or a reduced-resolution update mode. That is, one RRU type may indicate and / or include one upsampling (and / or downsampling) rate and one filter type. In this case, the upsampling process and the filtering process for one block may be performed based on one RRU type information and / or one RRU mode information. The above-described RRU type may be independently applied to each of the texture image and the depth image. Therefore, the filter type applied to the texture image and the filter type applied to the depth image may be different from each other, and the sampling rate applied to the texture image and the sampling rate applied to the depth image may also be different.

다음 표 1은 본 발명에 따른 RRU 타입의 일 실시예를 나타낸다. 다만, RRU 타입의 실시예는 후술되는 표 1에 한정되지 않으며, RRU 타입에 할당되는 값, 업 샘플링 비율 값 및 필터 타입은 필요에 따라 표 1의 실시예에서와 다르게 정해질 수도 있다.Table 1 below shows an embodiment of an RRU type according to the present invention. However, the embodiment of the RRU type is not limited to Table 1 described below, and a value, an upsampling rate value, and a filter type assigned to the RRU type may be determined differently from those of the embodiment of Table 1 as necessary.
[표 1]TABLE 1
Figure PCTKR2012004694-appb-I000001
Figure PCTKR2012004694-appb-I000001

표 1을 참조하면, 하나의 RRU 타입은 하나의 업 샘플링 비율과 하나의 필터 타입을 지시할 수 있다. 예를 들어, RRU 타입이 0인 경우, 업 샘플링 비율이 1이므로 업 샘플링이 수행되지 않을 수 있고, 필터링도 수행되지 않을 수 있다. 다른 예로, RRU 타입이 1인 경우, 업 샘플링 비율은 2이므로 2배의 업 샘플링이 수행될 수 있으며, 필터 A가 적용될 수 있다. 표 1에 나타내어진 필터 A 및 필터 B의 구체적인 실시예는 후술하기로 한다. Referring to Table 1, one RRU type may indicate one upsampling rate and one filter type. For example, when the RRU type is 0, since the upsampling ratio is 1, upsampling may not be performed and filtering may not be performed. As another example, when the RRU type is 1, since the upsampling ratio is 2, twice the upsampling may be performed and the filter A may be applied. Specific examples of filter A and filter B shown in Table 1 will be described later.
RRU 타입 정보가 사용되는 경우, 영상 부호화 장치는 율-왜곡 최적화 관점에서 최적의 RRU 타입 및/또는 RRU 모드를 결정할 수 있다. 이 때, 영상 부호화 장치는 상기 결정된 RRU 타입 및/또는 RRU 모드를 기반으로 해상도 감소 갱신을 수행함으로써, 영상의 두드러진(salient) 특징(예를 들어, 에지 영역), 고주파수 텍스쳐 등과 같은 영상의 지역적 특성들이 더 잘 유지되도록 할 수 있다. 즉, RRU 타입 정보가 사용되는 경우 영상의 특성에 따라 샘플링 비율 및 필터 타입의 조합이 적응적으로 결정될 수 있으므로, 적응적인 해상도 감소 갱신이 가능해질 수 있다.When the RRU type information is used, the image encoding apparatus may determine an optimal RRU type and / or an RRU mode in view of rate-distortion optimization. In this case, the image encoding apparatus performs resolution reduction update based on the determined RRU type and / or RRU mode, thereby causing local characteristics of the image such as salient features (eg, edge regions), high frequency texture, etc. of the image. Can keep them better. That is, when the RRU type information is used, since the combination of the sampling rate and the filter type may be adaptively determined according to the characteristics of the image, the adaptive resolution reduction update may be enabled.
이하, 율-왜곡 최적화 기반의 RRU 타입 결정 방법의 실시예가 서술된다. 후술되는 실시예에서, RRU 타입 결정을 위한 비용 함수는 매크로 블록 단위를 기반으로 적용된다고 가정한다. 그러나, 본 발명은 이에 한정되는 것은 아니며, RRU 타입 결정을 위한 비용 함수는 CU, PU 및/또는 TU를 기반으로 적용될 수도 있다.Hereinafter, an embodiment of a rate-distortion optimization based RRU type determination method is described. In the following embodiment, it is assumed that the cost function for determining the RRU type is applied based on macro block units. However, the present invention is not limited thereto, and the cost function for determining the RRU type may be applied based on a CU, a PU, and / or a TU.
인터 예측이 적용되는 경우, 율-왜곡 최적화 기반의 RRU 타입 결정 방법은 일 실시예로 다음 수학식 1과 같이 나타내어질 수 있다. When inter prediction is applied, a rate-distortion optimization based RRU type determination method may be represented by Equation 1 according to an embodiment.
[수학식 1][Equation 1]
Figure PCTKR2012004694-appb-I000002
Figure PCTKR2012004694-appb-I000002

여기서, J는 비용 함수를 나타내며, λ는 라그랑지 승수(Lagrange multiplier)를 나타낸다. 또한, rru_type은 RRU 타입을 나타내며, mb_type은 inter_16x16, skip 등과 같은 일반적인 매크로 블록 타입을 나타낼 수 있다. 한편, 매크로 블록 단위가 아닌 CU, PU 또는 TU 단위로 비용 함수가 계산되는 경우, 상기 mb_type은 각각 cu_type, pu_type 또는 tu_type 으로 대체될 수 있다. 여기서, cu_type, pu_type 및 tu_type 은 각각 CU의 타입, PU의 타입 및 TU의 타입을 나타낼 수 있다. Where J represents a cost function and λ represents a Lagrange multiplier. In addition, rru_type may indicate an RRU type, and mb_type may indicate a general macroblock type such as inter_16x16, skip, and the like. On the other hand, when the cost function is calculated in units of CUs, PUs, or TUs instead of macroblocks, the mb_type may be replaced with cu_type, pu_type, or tu_type, respectively. Here, cu_type, pu_type, and tu_type may indicate the type of CU, the type of PU, and the type of TU, respectively.
그리고, RMV는 움직임 벡터(Motion Vector: MV) 및/또는 참조 픽쳐 인덱스(예를 들어, ref_idx)를 부호화하기 위한 비트율(bitrate)을 나타내고, Rmb_type은 mb_type을 부호화하기 위한 비트율을 나타낼 수 있다. 여기서, Rmb_type은 비용 함수가 계산되는 단위에 따라 Rcu_type, Rpu_type 또는 Rtu_type 로 대체될 수 있으며, 이 경우 Rcu_type, Rpu_type 및 Rtu_type 는 각각 CU, PU 및 TU를 부호화하기 위한 비트율을 나타낼 수 있다. 또한, Rrru_type은 업 샘플링 비율 및 필터 타입을 부호화하기 위한 비트율을 나타낼 수 있다.And RMVDenotes a bit rate for encoding a motion vector (MV) and / or a reference picture index (eg, ref_idx), where Rmb_typeMay represent a bit rate for encoding mb_type. Where Rmb_typeIs based on the unit in which the cost function is calculatedcu_type, Rpu_typeOr Rtu_typeCan be replaced with R in this casecu_type, Rpu_typeAnd Rtu_typeMay denote a bit rate for encoding a CU, a PU, and a TU, respectively. Rrru_typeDenotes a bit rate for encoding the up sampling rate and the filter type.
상기 수학식 1에서 D는 일례로 다음 수학식 2와 같이 계산될 수 있다.In Equation 1, D may be calculated as Equation 2 below.
[수학식 2][Equation 2]
Figure PCTKR2012004694-appb-I000003
Figure PCTKR2012004694-appb-I000003

여기서, MB는 매크로 블록을 나타내고, X는 입력 영상 내에 존재하는 샘플의 위치를 나타내며, Xp는 X 위치의 샘플에 대응하는 참조 영상 내의 샘플 위치를 나타낼 수 있다. 한편, 매크로 블록 단위가 아닌 CU, PU 또는 TU 단위로 비용 함수가 계산되는 경우, 상기 MB는 CU, PU 또는 TU로 대체될 수 있다. MV는 움직임 벡터를 나타내며, 이 때 Xp는 MV에 의해 지시되는 참조 영상 내의 예측 샘플의 위치를 의미할 수 있다. 또한, I는 입력 영상 내의 픽셀 값을 나타내고, Ip는 참조 영상 내의 예측 픽셀 값을 나타낼 수 있다.Here, MB denotes a macroblock, X denotes a position of a sample existing in the input image, and X p denotes a sample position in the reference image corresponding to a sample of the X position. On the other hand, when the cost function is calculated in units of CUs, PUs, or TUs instead of macroblocks, the MBs may be replaced with CUs, PUs, or TUs. MV represents a motion vector, where X p may refer to a position of a prediction sample in a reference picture indicated by MV. In addition, I may represent a pixel value in the input image, and I p may represent a predicted pixel value in the reference image.
영상 부호화 장치는 상술한 비용 함수를 최소화하는 업 샘플링 비율 및 필터 타입을 찾을 수 있다. 이 때, 영상 부호화 장치는 비용 함수를 최소화하는 RRU 타입을 현재 블록에 대한 최적의 RRU 타입으로 결정할 수 있다. The image encoding apparatus may find an upsampling ratio and a filter type that minimize the aforementioned cost function. In this case, the apparatus for encoding an image may determine an RRU type that minimizes a cost function as an optimal RRU type for the current block.

도 6은 본 발명에 따른 복호화 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 도 6의 실시예에 따른 복호화 과정은 텍스쳐 영상 및 깊이 영상에 모두 적용될 수 있다.6 is a flowchart schematically showing an embodiment of a decoding method according to the present invention. The decoding process according to the embodiment of FIG. 6 may be applied to both the texture image and the depth image.
부호화기는 율-왜곡 최적화에 기반하여 RRU 타입을 결정한 후 RRU 타입에 관한 정보를 부호화하여 복호화기로 전송할 수 있으며, 복호화기는 부호화기로부터 RRU 타입에 관한 정보를 수신하여 복호화할 수 있다. 이 때, 복호화기는 상기 복호화된 RRU 타입에 관한 정보를 기반으로, 업 샘플링 및 필터링을 수행할 수 있다. After the encoder determines the RRU type based on rate-distortion optimization, the encoder may encode and transmit information about the RRU type to the decoder. The decoder may receive and decode information about the RRU type from the encoder. In this case, the decoder may perform upsampling and filtering based on the information about the decoded RRU type.
도 6의 실시예에서 RRU 타입은 상술한 표 1에서와 같이 정의된다고 가정한다. 또한, 복호화기에서의 잔차 블록 및 예측 블록 생성 과정은 도 2에서 상술한 바 있으므로, 여기서는 생략하기로 한다.In the embodiment of FIG. 6, it is assumed that the RRU type is defined as in Table 1 above. In addition, since the residual block and prediction block generation processes in the decoder have been described above with reference to FIG. 2, a description thereof will be omitted.
도 6을 참조하면, RRU 타입이 0인 경우, 복호화기는 해상도 감소 갱신 과정을 수행하지 않을 수 있다(S610). RRU 타입이 0일 때 업 샘플링 비율은 1이 되므로 업 샘플링이 수행되지 않을 수 있으며, 필터 타입 정보에 따라 필터링도 적용되지 않을 수 있다.Referring to FIG. 6, when the RRU type is 0, the decoder may not perform a resolution reduction update process (S610). When the RRU type is 0, the upsampling ratio is 1, so upsampling may not be performed and filtering may not be applied according to the filter type information.
RRU 타입이 1 또는 2인 경우, 복호화기는 잔차 블록에 대해 업 샘플링을 수행할 수 있다(S620). RRU 타입이 1 또는 2인 경우에는 업 샘플링 비율이 2이므로, 복호화기는 잔차 블록의 폭, 높이 방향 각각에 대해 2배의 비율로 업 샘플링을 수행할 수 있다. 그리고, 복호화기는 업 샘플링이 수행된 잔차 블록을 예측 블록과 더함으로써 복원 블록을 생성할 수 있다(S630).If the RRU type is 1 or 2, the decoder may perform upsampling on the residual block (S620). When the RRU type is 1 or 2, since the upsampling ratio is 2, the decoder may perform upsampling at a rate of twice the width and height directions of the residual block, respectively. The decoder may generate a reconstructed block by adding the residual block on which upsampling has been performed with the prediction block (S630).
복원 블록이 생성되면, 복호화기는 생성된 복원 블록 내의 복원 샘플 각각에 대해 필터링을 수행할 수 있다. 이 때, RRU 타입이 1인 경우 필터 타입은 A에 해당되므로, 복호화기는 복원 블록 내의 복원 샘플에 대해 필터 A를 적용할 수 있다(S640). 또한, RRU 타입이 2인 경우 필터 타입은 B에 해당되므로, 복호화기는 복원 블록 내의 복원 샘플에 대해 필터 B를 적용할 수 있다(S650). 여기서, 필터 A 및 필터 B의 구체적인 실시예는 후술하기로 한다. When the reconstruction block is generated, the decoder may perform filtering on each reconstruction sample in the generated reconstruction block. In this case, when the RRU type is 1, since the filter type corresponds to A, the decoder may apply filter A to the reconstructed samples in the reconstruction block (S640). In addition, when the RRU type is 2, since the filter type corresponds to B, the decoder may apply filter B to the reconstructed samples in the reconstruction block (S650). Here, specific examples of the filter A and the filter B will be described later.
RRU 타입이 3 또는 4인 경우에도, 복호화기는 잔차 블록에 대해 업 샘플링을 수행할 수 있다(S660). RRU 타입이 3 또는 4인 경우에는 업 샘플링 비율이 4이므로, 복호화기는 잔차 블록의 폭, 높이 방향 각각에 대해 4배의 비율로 업 샘플링을 수행할 수 있다. 그리고, 복호화기는 업 샘플링이 수행된 잔차 블록을 예측 블록과 더함으로써 복원 블록을 생성할 수 있다(S670).Even when the RRU type is 3 or 4, the decoder may perform upsampling on the residual block (S660). When the RRU type is 3 or 4, since the upsampling ratio is 4, the decoder can perform upsampling at a ratio of four times in each of the width and height directions of the residual block. The decoder may generate a reconstructed block by adding the residual block on which upsampling has been performed with the prediction block (S670).
복원 블록이 생성되면, 복호화기는 생성된 복원 블록 내의 복원 샘플 각각에 대해 필터링을 수행할 수 있다. 이 때, RRU 타입이 3인 경우 필터 타입은 A에 해당되므로, 복호화기는 복원 블록 내의 복원 샘플에 대해 필터 A를 적용할 수 있다(S680). 또한, RRU 타입이 4인 경우 필터 타입은 B에 해당되므로, 복호화기는 복원 블록 내의 복원 샘플에 대해 필터 B를 적용할 수 있다(S690). 여기서, 필터 A 및 필터 B의 구체적인 실시예는 후술하기로 한다. When the reconstruction block is generated, the decoder may perform filtering on each reconstruction sample in the generated reconstruction block. In this case, when the RRU type is 3, since the filter type corresponds to A, the decoder may apply filter A to the reconstructed samples in the reconstruction block (S680). In addition, when the RRU type is 4, since the filter type corresponds to B, the decoder may apply filter B to the reconstructed samples in the reconstruction block (S690). Here, specific examples of the filter A and the filter B will be described later.
한편, 상술한 실시예는 복호화기를 중심으로 서술되고 있으나, 부호화기에도 유사한 방법으로 적용될 수 있다. 도 1에서 상술한 바와 같이 부호화기는 복호화기에서와 마찬가지로 업 샘플링 과정 및 필터링 과정을 수행할 수 있으므로, 상술한 업 샘플링 방식 및 필터링 방식은 부호화기에도 동일한 방법으로 적용될 수 있다.Meanwhile, although the above-described embodiment is described with reference to the decoder, it may be applied to the encoder in a similar manner. As described above with reference to FIG. 1, the encoder may perform the upsampling process and the filtering process as in the decoder, and thus the above-described upsampling method and the filtering method may be applied to the encoder in the same manner.

이하, 본 발명에 따른 필터 타입의 실시예들이 서술된다. 상술한 표 1 및 도 6의 실시예에서는 필터 A 및 필터 B가 사용되는 바, 후술되는 실시예들은 필터 A 및 필터 B를 중심으로 서술된다. 그러나, 본 발명에 따른 필터 타입은 이에 한정되는 것은 아니며, RRU 타입에 따라 필터 타입이 할당되는 순서 및/또는 사용되는 필터 타입의 개수, 종류 등은 구현 및/또는 필요에 따라 다르게 정해질 수도 있다.Hereinafter, embodiments of the filter type according to the present invention are described. In the embodiments of Table 1 and FIG. 6 described above, filter A and filter B are used, and embodiments described below are described with reference to filter A and filter B. FIG. However, the filter type according to the present invention is not limited thereto, and the order in which the filter types are allocated according to the RRU type and / or the number and type of filter types used may be determined differently according to implementation and / or needs. .
또한, 상술한 실시예들은 텍스쳐 영상(texture video)뿐만 아니라 깊이 영상(depth video)에도 적용될 수 있으며, 텍스쳐 영상에 적용되는 필터 및 깊이 영상에 적용되는 필터는 서로 다를 수 있다. 따라서, 후술되는 실시예에서는 텍스쳐 영상에 대해 적용되는 필터 및 깊이 영상에 대해 적용되는 필터의 실시예들이 각각 독립적으로 서술된다. In addition, the above-described embodiments may be applied not only to the texture video but also to the depth video, and that the filter applied to the texture image and the filter applied to the depth image may be different from each other. Therefore, in the embodiments described below, embodiments of the filter applied to the texture image and the filter applied to the depth image are described independently.

실시예 1: 텍스쳐 영상에 대한 필터Example 1: Filter for Textured Image

상술한 도 1 내지 도 6의 실시예에서, 필터부는 텍스쳐 영상에 대응하는 복원 영상(또는 복원 블록)에 대해, 양방향 가중치 필터(bi-laterally weighted filter)를 적용할 수 있다. 상기 양방향 가중치 필터는 필터링 대상 픽셀에 대응하는 윈도우 내의 픽셀 값들을 기반으로 가중치 평균을 수행할 수 있다. 텍스쳐 영상에 대응하는 복원 영상(또는 복원 블록)에 대해 적용되는 양방향 가중치 필터는, 다음 수학식 3에 의해 나타내어질 수 있다.1 to 6, the filter unit may apply a bi-laterally weighted filter to the reconstructed image (or reconstructed block) corresponding to the texture image. The bidirectional weight filter may perform a weighted average based on pixel values in a window corresponding to the pixel to be filtered. The bidirectional weight filter applied to the reconstructed image (or reconstructed block) corresponding to the texture image may be represented by Equation 3 below.
[수학식 3][Equation 3]
Figure PCTKR2012004694-appb-I000004
Figure PCTKR2012004694-appb-I000004

여기서, (m,n)은 필터링 대상 픽셀의 위치를 나타내고, N(m,n)은 필터링 대상 픽셀에 대응하는 윈도우를 나타낼 수 있다. 상기 윈도우에 대한 실시예는 상술한 바 있으므로, 여기서는 생략하기로 한다. 또한, I(i,j)는 상기 필터의 입력 픽셀 값들을 나타내고, (i,j)는 윈도우 N(m,n) 내에 존재하는 입력 픽셀의 위치를 나타낼 수 있다. I’(m,n)은 (m,n) 위치의 필터링 대상 픽셀에 대한, 필터의 출력 값을 나타낼 수 있다.Here, (m, n) may indicate the position of the pixel to be filtered and N (m, n) may indicate a window corresponding to the pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here. In addition, I (i, j) may represent the input pixel values of the filter, (i, j) may represent the position of the input pixel present in the window N (m, n). I '(m, n) may indicate an output value of the filter for the pixel to be filtered at the position (m, n).
수학식 3에서 w(i,j)는 가중치 커널(weighting kernel)을 나타내며, (m,n)과 (i,j) 사이의 기하하적(geometric) 거리 및 상기 두 점 사이의 광도(photometric) 거리에 기반한 단조 감소 함수(monotonically decreasing function)에 해당될 수 있다. 여기서, 기하학적 거리는 두 점 간의 물리적인 거리를 의미할 수 있고, 광도 거리는 두 점에 존재하는 픽셀 간의 강도(intensity) 차이 및/또는 픽셀 값 차이를 나타낼 수 있다. 즉, 텍스쳐 영상에 대해 적용되는 필터의 가중치 커널은 필터링 대상 픽셀 및 윈도우 내에 존재하는 주변 픽셀 간의 기하학적 거리뿐만 아니라, 상기 두 픽셀 간의 강도(intensity) 차이(및/또는 루마 픽셀 값 차이)를 기반으로 결정될 수 있다. 이 때, 필터부는 필터링 대상 픽셀과 유사한 픽셀에 대해 더 큰 가중치를 적용할 수 있다. 다음 수학식 4는 상술한 가중치 커널의 일 실시예를 나타낸다.In Equation 3, w (i, j) represents a weighting kernel, and the geometric distance between (m, n) and (i, j) and the photometric between the two points It may correspond to a monotonically decreasing function based on distance. Here, the geometric distance may mean a physical distance between two points, and the luminance distance may indicate a difference in intensity and / or a pixel value between pixels existing at two points. That is, the weight kernel of the filter applied to the texture image is based on the difference in intensity (and / or luma pixel value difference) between the two pixels as well as the geometric distance between the pixel to be filtered and the surrounding pixels existing in the window. Can be determined. In this case, the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered. Equation 4 below shows an embodiment of the above-described weight kernel.
[수학식 4][Equation 4]
Figure PCTKR2012004694-appb-I000005
Figure PCTKR2012004694-appb-I000005

여기서, I(i,j)는 (i,j) 위치의 픽셀 입력 값을 나타낼 수 있고, I(m,n)은 (m,n) 위치의 픽셀 입력 값을 나타낼 수 있다. 또한, σs는 공간 영역(spatial domain)에서의 스무딩(smoothing) 정도를 나타내는 확산 파라미터(spread parameter)이고, σI는 픽셀 강도(pixel-intensity) 영역에서의 스무딩 정도를 나타내는 확산 파라미터에 해당될 수 있다.Here, I (i, j) may represent a pixel input value at position (i, j), and I (m, n) may represent a pixel input value at position (m, n). In addition, sigma s is a spreading parameter indicating a smoothing degree in a spatial domain, and sigma I is a spreading parameter indicating a smoothing degree in a pixel-intensity region. Can be.
상술한 양방향 가중치 필터는 비선형(non-linear) 특성을 가질 수 있으며, 영상의 에지(edge)를 보존하면서 영상에 대한 스무딩을 수행할 수 있다. The bidirectional weight filter described above may have a non-linear characteristic and may perform smoothing on the image while preserving the edge of the image.
상술한 표 1 및 도 6의 실시예에서, 필터 A 및 필터 B는 상술한 양방향 가중치 필터에 해당될 수 있다. 이 때, 필터 A는 텍스쳐리스(textureless) 영역(또는 블록) 및/또는 에지가 존재하지 않는 영역(또는 블록)에 대해 적용되는 필터일 수 있고, 필터 B는 하이 텍스쳐(highly-textured) 영역(또는 블록) 및/또는 에지가 존재하는 에지 영역(또는 블록)에 대해 적용되는 필터일 수 있다.In the above-described embodiment of Table 1 and FIG. 6, filter A and filter B may correspond to the bidirectional weight filter described above. In this case, filter A may be a filter applied to a textureless region (or block) and / or a region (or block) in which no edge exists, and filter B may be a high-textured region ( Or block) and / or a filter applied to the edge region (or block) in which the edge is present.
이 때, 텍스쳐리스(textureless) 영역(또는 블록) 및/또는 에지가 존재하지 않는 영역(또는 블록)에 대해서는, 강한 스무딩(strong-smoothing)을 수행하는 양방향 가중치 필터가 적용될 수 있다. 따라서, 필터 A에 적용되는 확산 파라미터 σs및 σI는 상대적으로 큰 값을 갖는 확산 파라미터일 수 있다. 또한, 하이 텍스쳐(highly-textured) 영역(또는 블록) 및/또는 에지가 존재하는 에지 영역(또는 블록)에 대해서는, 약한 스무딩(weak-smoothing)을 수행하는 양방향 가중치 필터가 적용될 수 있다. 따라서, 필터 B에 적용되는 확산 파라미터 σs및 σI는 상대적으로 작은 값을 갖는 확산 파라미터일 수 있다.In this case, a bidirectional weighting filter that performs strong smoothing may be applied to the textureless region (or block) and / or the region (or block) where no edge exists. Thus, the spreading parameters sigma s and sigma I applied to filter A may be diffusion parameters with relatively large values. In addition, for a highly-textured region (or block) and / or an edge region (or block) in which an edge exists, a bidirectional weighting filter that performs weak-smoothing may be applied. Thus, the spreading parameters sigma s and sigma I applied to filter B may be diffusion parameters with relatively small values.

실시예 2: 깊이 영상에 대한 필터 1Example 2: Filter 1 for Depth Image

상술한 바와 같이 필터부는 깊이 영상에 대응하는 복원 영상에 대해 필터링을 수행할 수 있다. 이 때, 텍스쳐 영상과 깊이 영상은 서로 다르지만 유사한 경향을 가질 수 있다. 따라서, 필터링 대상 깊이 영상(또는 픽쳐 또는 블록)에 대응하는 텍스쳐 영상(또는 픽쳐 또는 블록)이 유효한 경우, 필터부는 복호화된 텍스쳐 영상의 픽셀 값을 기반으로 깊이 영상에 대응하는 복원 영상에 대한 필터링을 수행할 수 있다. 이 때 예를 들어, 필터부는 텍스쳐 픽쳐 내의 픽셀 중에서, 필터링 대상 픽셀의 윈도우에 대응되는 영역 내의 픽셀을 기반으로 필터링 대상 픽셀에 대한 필터링을 수행할 수 있다. 즉, 깊이 영상에 대응하는 복원 영상에 적용되는 필터는, 텍스쳐 영상에 관련된 정보를 이용하여 필터링을 수행할 수 있다. 이하, 후술되는 실시예에서 깊이 영상 내의 픽셀은 깊이 픽셀이라 하고, 텍스쳐 영상 내의 픽셀은 텍스쳐 픽셀이라 한다.As described above, the filter unit may perform filtering on the reconstructed image corresponding to the depth image. At this time, the texture image and the depth image may be different from each other, but may have a similar tendency. Therefore, when the texture image (or picture or block) corresponding to the depth image (or picture or block) to be filtered is valid, the filter unit performs filtering on the reconstructed image corresponding to the depth image based on the pixel value of the decoded texture image. Can be done. At this time, for example, the filter unit may perform filtering on the filtering target pixel based on the pixel in the region corresponding to the window of the filtering target pixel among the pixels in the texture picture. That is, the filter applied to the reconstructed image corresponding to the depth image may perform filtering using information related to the texture image. Hereinafter, in the embodiments described below, pixels in the depth image are referred to as depth pixels, and pixels in the texture image are referred to as texture pixels.
한편, 깊이 영상은 에지 영역을 제외한 나머지 영역에서는, 텍스쳐 영상에 비해 디테일이 중요시되지 않는 특징을 가지므로, 깊이 영상에서는 에지 부분의 선명도(sharpness)가 중요하고, 나머지 부분은 크게 중요하지 않을 수 있다. 따라서, 이러한 깊이 영상의 특징을 고려한 필터가 제공될 필요가 있다.On the other hand, since the depth image has a feature in which details are not important as compared to the texture image in the remaining regions except the edge region, sharpness of the edge portion is important in the depth image, and the remaining portion may not be important. . Therefore, a filter considering the characteristics of the depth image needs to be provided.
상술한 표 1 및 도 6의 실시예에서, 깊이 영상에 대응하는 복원 영상(또는 블록)에 적용되는 필터 A 및 필터 B는, 양방향 가중치 필터일 수 있다. 이 때, 필터 A는 양방향 가중치 WTA(Winner-Take-All) 필터일 수 있고, 필터 B는 양방향 가중치 미디언(median) 필터일 수 있다. In the above-described embodiment of Table 1 and FIG. 6, the filter A and the filter B applied to the reconstructed image (or block) corresponding to the depth image may be a bidirectional weighting filter. In this case, the filter A may be a bidirectional weighted Winner-Take-All (WTA) filter, and the filter B may be a bidirectional weighted median filter.
우선, 필터 A에 해당되는 양방향 가중치 WTA 필터에서는, 필터링 대상 픽셀에 대응하는 윈도우 내에서 가중치 스코어(및/또는 가중치 빈도수)가 가장 높은 깊이 픽셀의 픽셀 값이, 필터 출력 값(필터링된 픽셀 값)으로 결정될 수 있다. 이 때, 깊이 영상에 대응하는 복원 영상에 대해 적용되는 양방향 가중치 WTA 필터는, 다음 수학식 5에 의해 나타내어질 수 있다.First, in the bidirectional weighted WTA filter corresponding to filter A, the pixel value of the depth pixel having the highest weight score (and / or weight frequency) in the window corresponding to the pixel to be filtered is the filter output value (filtered pixel value). Can be determined. In this case, the bidirectional weighted WTA filter applied to the reconstructed image corresponding to the depth image may be represented by Equation 5 below.
[수학식 5][Equation 5]
Figure PCTKR2012004694-appb-I000006
Figure PCTKR2012004694-appb-I000006

여기서, (m,n)은 필터링 대상 깊이 픽셀의 위치를 나타내고, N(m,n)은 필터링 대상 깊이 픽셀에 대응하는 윈도우를 나타낼 수 있다. 상기 윈도우에 대한 실시예는 상술한 바 있으므로, 여기서는 생략하기로 한다. 또한, D(i,j)는 상기 필터의 입력 깊이 픽셀 값들을 나타내고, (i,j)는 윈도우 N(m,n) 내에 존재하는 입력 픽셀의 위치를 나타낼 수 있다. D’(m,n)은 (m,n) 위치의 필터링 대상 깊이 픽셀에 대한, 필터의 출력 값을 나타낼 수 있다.Here, (m, n) may represent the position of the depth pixel to be filtered, and N (m, n) may represent a window corresponding to the depth pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here. In addition, D (i, j) may represent input depth pixel values of the filter, and (i, j) may represent a position of an input pixel existing in the window N (m, n). D ′ (m, n) may indicate an output value of the filter for the depth pixel to be filtered at the position (m, n).
수학식 5에서
Figure PCTKR2012004694-appb-I000007
은 가중치 커널(weighting kernel)을 나타내며, (m,n)과 (i,j) 사이의 기하학적 거리 및 상기 두 점 사이의 광도 거리에 기반한 단조 감소 함수에 해당될 수 있다. 여기서, 기하학적 거리는 두 점 간의 물리적인 거리를 의미할 수 있고, 광도 거리는 두 점과 동일한 위치에 존재하는 텍스쳐 픽셀(I(m,n) 및 I(i,j)) 간의 강도 차이 및/또는 텍스쳐 픽셀 값 차이를 나타낼 수 있다. 즉, 깊이 영상에 대해 적용되는 필터의 가중치 커널은 필터링 대상 깊이 픽셀 및 윈도우 내에 존재하는 주변 픽셀 간의 기하학적 거리뿐만 아니라, 상기 두 픽셀과 각각 동일한 위치에 존재하는 텍스쳐 픽셀들 간의 강도 차이(및/또는 루마 픽셀 값 차이)를 기반으로 결정될 수 있다. 이 때, 필터부는 필터링 대상 픽셀과 유사한 픽셀에 대해 더 큰 가중치를 적용할 수 있다.
In equation (5)
Figure PCTKR2012004694-appb-I000007
Denotes a weighting kernel and may correspond to a monotonic reduction function based on the geometric distance between (m, n) and (i, j) and the luminance distance between the two points. Here, the geometric distance may mean a physical distance between two points, and the luminance distance may correspond to an intensity difference and / or texture between the texture pixels I (m, n) and I (i, j) existing at the same position as the two points. This may indicate a pixel value difference. That is, the weighted kernel of the filter applied to the depth image is not only the geometric distance between the depth pixel to be filtered and the neighboring pixels present in the window, but also the intensity difference (and / or) between the texture pixels present at the same positions as the two pixels, respectively. Luma pixel value difference). In this case, the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered.
또한, σs는 공간 영역(spatial domain)에서의 스무딩(smoothing) 정도를 나타내는 확산 파라미터(spread parameter)이고, σI는 픽셀 강도(pixel-intensity) 영역에서의 스무딩 정도를 나타내는 확산 파라미터에 해당될 수 있다.In addition, sigma s is a spreading parameter indicating a smoothing degree in a spatial domain, and sigma I is a spreading parameter indicating a smoothing degree in a pixel-intensity region. Can be.
수학식 5를 참조하면, 양방향 가중치 WTA 필터는 텍스쳐 픽셀을 기반으로, 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어를 도출할 수 있다. 상술한 수학식 5에서
Figure PCTKR2012004694-appb-I000008
는 가중치 스코어(weighting score)에 해당될 수 있다. 이 때, 필터부는 상기 윈도우 내의 깊이 픽셀 중에서 가장 높은 가중치 스코어를 갖는 깊이 픽셀 값을 필터링 대상 깊이 픽셀에 대한 출력 값으로 결정할 수 있다. 즉, 상술한 양방향 가중치 WTA 필터에 의하면, 필터부는 필터링 대상 깊이 픽셀에 대응하는 윈도우 내의 픽셀들 중에서 가중치 스코어(및/또는 가중치 빈도수)가 가장 높은 값을, 상기 필터링 대상 깊이 픽셀에 대한 필터링된 픽셀 값으로 도출할 수 있다. 따라서, 이 경우에 필터부는 필터링 이전에 존재하지 않는 새로운 깊이 값을 도입(introduce)하거나 도출하지 않으므로, 깊이 영상 내의 객체 경계 및/또는 그 경계의 특성이 더 잘 유지될 수 있다.
Referring to Equation 5, the bidirectional weighted WTA filter may derive a weight score for each depth pixel in the window based on the texture pixel. In Equation 5 described above
Figure PCTKR2012004694-appb-I000008
May correspond to a weighting score. In this case, the filter unit may determine a depth pixel value having the highest weight score among the depth pixels in the window as an output value for the depth pixel to be filtered. That is, according to the bidirectional weighted WTA filter described above, the filter unit selects a value having the highest weight score (and / or weight frequency) among the pixels in the window corresponding to the depth pixel to be filtered, and the filtered pixel for the depth pixel to be filtered. Can be derived by value. Thus, in this case the filter part does not introduce or derive new depth values that do not exist prior to filtering, so that the object boundary in the depth image and / or the characteristics of the boundary can be better maintained.
다음으로, 필터 B에 해당되는 양방향 가중치 미디언 필터에서는, 필터링 대상 픽셀에 대응하는 윈도우 내에서, 가중치 스코어(및/또는 가중치 빈도수)에 기반한 중간 값에 해당하는 깊이 픽셀 값이 필터 출력 값(필터링된 픽셀 값)으로 결정될 수 있다. 이 때, 깊이 영상에 대응하는 복원 영상에 대해 적용되는 양방향 가중치 미디언 필터는, 다음 수학식 6에 의해 나타내어질 수 있다.Next, in the bidirectional weighted median filter corresponding to filter B, the depth pixel value corresponding to the median value based on the weight score (and / or weight frequency) within the window corresponding to the pixel to be filtered is the filter output value (filtering). Pixel value). In this case, the bidirectional weighted median filter applied to the reconstructed image corresponding to the depth image may be represented by Equation 6 below.
[수학식 6][Equation 6]
Figure PCTKR2012004694-appb-I000009
Figure PCTKR2012004694-appb-I000009

여기서, (m,n)은 필터링 대상 깊이 픽셀의 위치를 나타내고, N(m,n)은 필터링 대상 깊이 픽셀에 대응하는 윈도우를 나타낼 수 있다. 상기 윈도우에 대한 실시예는 상술한 바 있으므로, 여기서는 생략하기로 한다. 또한, D(i,j)는 상기 필터의 입력 깊이 픽셀 값들을 나타내고, (i,j)는 윈도우 N(m,n) 내에 존재하는 입력 픽셀의 위치를 나타낼 수 있다. D’(m,n)은 (m,n) 위치의 필터링 대상 깊이 픽셀에 대한, 필터의 출력 값을 나타낼 수 있다.Here, (m, n) may represent the position of the depth pixel to be filtered, and N (m, n) may represent a window corresponding to the depth pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here. In addition, D (i, j) may represent input depth pixel values of the filter, and (i, j) may represent a position of an input pixel existing in the window N (m, n). D ′ (m, n) may indicate an output value of the filter for the depth pixel to be filtered at the position (m, n).
수학식 6에서,
Figure PCTKR2012004694-appb-I000010
은 가중치 커널(weighting kernel)을 나타내며, (m,n)과 (i,j) 사이의 기하학적 거리 및 상기 두 점 사이의 광도 거리에 기반한 단조 감소 함수에 해당될 수 있다. 여기서, 기하학적 거리는 두 점 간의 물리적인 거리를 의미할 수 있고, 광도 거리는 두 점과 동일한 위치에 존재하는 ‘텍스쳐 픽셀’(I(m,n) 및 I(i,j)) 간의 강도 차이 및/또는 텍스쳐 픽셀 값 차이를 나타낼 수 있다. 즉, 깊이 영상에 대해 적용되는 필터의 가중치 커널은 필터링 대상 깊이 픽셀 및 윈도우 내에 존재하는 주변 픽셀 간의 기하학적 거리뿐만 아니라, 상기 두 픽셀과 각각 동일한 위치에 존재하는 텍스쳐 픽셀들 간의 강도 차이(및/또는 루마 픽셀 값 차이)를 기반으로 결정될 수 있다. 이 때, 필터부는 필터링 대상 픽셀과 유사한 픽셀에 대해 더 큰 가중치를 적용할 수 있다.
In Equation 6,
Figure PCTKR2012004694-appb-I000010
Denotes a weighting kernel and may correspond to a monotonic reduction function based on the geometric distance between (m, n) and (i, j) and the luminance distance between the two points. Here, the geometric distance may mean a physical distance between two points, and the luminance distance may be an intensity difference between the 'texture pixels' (I (m, n) and I (i, j) ) existing at the same position as the two points and / or Alternatively, texture pixel values may be different from each other. That is, the weighted kernel of the filter applied to the depth image is not only the geometric distance between the depth pixel to be filtered and the surrounding pixels present in the window, but also the intensity difference (and / or) between the texture pixels present at the same positions as the two pixels, respectively. Luma pixel value difference). In this case, the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered.
또한, σs는 공간 영역(spatial domain)에서의 스무딩(smoothing) 정도를 나타내는 확산 파라미터(spread parameter)이고, σI는 픽셀 강도(pixel-intensity) 영역에서의 스무딩 정도를 나타내는 확산 파라미터에 해당될 수 있다.In addition, sigma s is a spreading parameter indicating a smoothing degree in a spatial domain, and sigma I is a spreading parameter indicating a smoothing degree in a pixel-intensity region. Can be.
또한, ‘Scale’은 상수(constant)로서, Ck가 소정의 적정 범위 내의 값(예를 들어, 1 내지 100)을 가질 수 있도록 하기 위해 곱해지는 값을 나타낸다. 한편, 수학식 6에서
Figure PCTKR2012004694-appb-I000011
은 x보다 작거나 같은 최대의 정수 값을 나타낼 수 있다.
In addition, 'Scale' is a constant, and represents a value that is multiplied to allow C k to have a value within a predetermined appropriate range (for example, 1 to 100). Meanwhile, in Equation 6
Figure PCTKR2012004694-appb-I000011
Can represent the largest integer value less than or equal to x.
‘median’은 중간값 연산을 의미하며,
Figure PCTKR2012004694-appb-I000012
는 Di가 Ci번 반복되는 것, 즉 Di가 Ci개만큼 나열되어 있음을 의미할 수 있다. 수학식 6에서 Di는 i 값이 클수록 큰 값을 가질 수 있으며, Dtot은 윈도우 내에서 가장 큰 깊이 픽셀 값을 나타낼 수 있다.
'median' means median,
Figure PCTKR2012004694-appb-I000012
It may be repeated D i C i is one, that means that D i is listed as C i dog. In Equation 6, D i may have a larger value as i is larger, and D tot may represent the largest depth pixel value in the window.
수학식 6을 참조하면, 양방향 가중치 미디언 필터는, 텍스쳐 픽셀을 기반으로 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어를 도출할 수 있다. 상술한 수학식 6에서 가중치 스코어는 Ck에 해당될 수 있다. 이 때, 필터부는 상기 도출된 가중치 스코어에 기반하여, 상기 윈도우 내의 깊이 픽셀 중에서 중간 값에 해당되는 깊이 픽셀을 찾을 수 있다. 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값은 필터링 대상 픽셀에 대한 출력 값으로 결정될 수 있다. 즉, 상술한 양방향 가중치 미디언 필터에 의하면, 필터부는 필터링 대상 깊이 픽셀에 대응하는 윈도우 내의 픽셀들 중에서 가중치 스코어(및/또는 가중치 빈도수)에 기반하여 중간 값을 도출할 수 있고, 상기 도출된 중간 값을 상기 필터링 대상 깊이 픽셀에 대한 필터 출력 값(필터링된 픽셀 값)으로 결정할 수 있다. 따라서, 이 경우에 필터부는 필터링 이전에 존재하지 않는 새로운 깊이 값을 도입하거나 도출하지 않으므로, 깊이 영상 내의 객체 경계 및/또는 그 경계의 특성이 더 잘 유지될 수 있다.Referring to Equation 6, the bidirectional weighted median filter may derive a weight score for each depth pixel in the window based on the texture pixel. In Equation 6, the weight score may correspond to C k . In this case, the filter unit may find a depth pixel corresponding to an intermediate value among depth pixels in the window based on the derived weight score. The pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the pixel to be filtered. That is, according to the bi-directional weighted median filter described above, the filter unit may derive a median value based on a weight score (and / or weighted frequency) among pixels in a window corresponding to the depth pixel to be filtered, and the derived intermediate The value may be determined as a filter output value (filtered pixel value) for the depth pixel to be filtered. Thus, in this case the filter part does not introduce or derive a new depth value that does not exist prior to filtering, so that the object boundary in the depth image and / or the characteristics of the boundary can be better maintained.

실시예 3: 깊이 영상에 대한 필터 2Example 3: Filter 2 for Depth Image

상술한 바와 같이 필터부는 깊이 영상에 대응하는 복원 영상에 대해 필터링을 수행할 수 있다. 이 때, 상술한 ‘실시예 2’의 경우, 필터부는 복호화된 텍스쳐 영상의 픽셀 값을 기반으로 필터링을 수행할 수 있다. 그러나, 필터링 대상 깊이 영상(또는 픽쳐 또는 블록)에 대한 필터링이 수행될 때 필터링 대상 깊이 영상(또는 픽쳐 또는 블록)에 대응하는 텍스쳐 영상(또는 픽쳐 또는 블록)이 유효하지 않을 수도 있다. As described above, the filter unit may perform filtering on the reconstructed image corresponding to the depth image. In this case, in the case of 'Example 2', the filter unit may perform filtering based on pixel values of the decoded texture image. However, when filtering is performed on the filtering target depth image (or the picture or the block), the texture image (or the picture or the block) corresponding to the filtering depth image (or the picture or the block) may not be valid.
예를 들어, 상기 필터링 대상 깊이 영상에 대한 복호화 과정이 이에 대응하는 텍스쳐 영상보다 먼저 수행되는 경우, 필터부는 필터링 대상 깊이 영상의 필터링 수행시에 텍스쳐 영상 관련 정보를 이용할 수 없다. 또한 다른 예로서, 필터링 대상 깊이 영상 및 이에 대응하는 텍스쳐 영상의 복호화 과정이 병렬적으로 수행되는 경우에는, 필터링 대상 영상에 대한 필터링 수행시에 텍스쳐 영상의 복호화 과정이 완료되지 않은 상태일 수 있다. 이 경우에도, 필터부는 필터링 대상 깊이 영상의 필터링 수행시에 텍스쳐 영상 관련 정보를 이용할 수 없다. For example, when the decoding process of the filtering depth image is performed before the corresponding texture image, the filter unit may not use the texture image related information when filtering the filtering depth image. As another example, when the decoding process of the filtering target depth image and the texture image corresponding thereto is performed in parallel, the decoding process of the texture image may not be completed when the filtering of the filtering target image is performed. Even in this case, the filter unit may not use the texture image related information when performing filtering of the filtering depth image.
따라서, 상술한 바와 같이 필터링 대상 깊이 영상에 대응하는 텍스쳐 영상이 유효하지 않은 경우, 필터부는 텍스쳐 영상이 아닌 필터링 대상 깊이 영상 내의 픽셀을 기반으로 필터링을 수행하는 것이 바람직하다.Accordingly, as described above, when the texture image corresponding to the filtering depth image is not valid, the filter unit may perform filtering based on pixels in the filtering depth image, not the texture image.
한편, 깊이 영상은 에지 영역을 제외한 나머지 영역에서는, 텍스쳐 영상에 비해 디테일이 중요시되지 않는 특징을 가지므로, 깊이 영상에서는 에지 부분의 선명도(sharpness)가 중요하고, 나머지 부분은 크게 중요하지 않을 수 있다. 따라서, 이러한 깊이 영상의 특징을 고려한 필터가 제공될 필요가 있다.On the other hand, since the depth image has a feature in which details are not important as compared to the texture image in the remaining regions except the edge region, sharpness of the edge portion is important in the depth image, and the remaining portion may not be important. . Therefore, a filter considering the characteristics of the depth image needs to be provided.
상술한 도 1 내지 도 6의 실시예에서, 필터부는 깊이 영상에 대응하는 복원 영상(또는 블록)에 대해, 양방향 가중치 미디언 필터를 적용할 수 있다. 상기 양방향 가중치 미디언 필터가 사용되는 경우, 필터부는 필터링 대상 깊이 픽셀에 대응하는 윈도우 내의 픽셀들 중에서 가중치 스코어(및/또는 가중치 빈도수)에 기반하여 중간 값을 도출할 수 있고, 상기 도출된 중간 값을 필터 출력 값(필터링된 픽셀 값)으로 결정할 수 있다. 이 때, 깊이 영상에 대응하는 복원 영상에 대해 적용되는 양방향 가중치 미디언 필터는, 다음 수학식 7에 의해 나타내어질 수 있다.1 to 6, the filter unit may apply a bidirectional weighted median filter to the reconstructed image (or block) corresponding to the depth image. When the bidirectional weighted median filter is used, the filter unit may derive a median value based on a weight score (and / or weight frequency) among pixels in a window corresponding to the depth pixel to be filtered, and the derived median value Can be determined as the filter output value (filtered pixel value). In this case, the bidirectional weighted median filter applied to the reconstructed image corresponding to the depth image may be represented by Equation 7 below.
[수학식 7][Equation 7]
Figure PCTKR2012004694-appb-I000013
Figure PCTKR2012004694-appb-I000013

여기서, (m,n)은 필터링 대상 깊이 픽셀의 위치를 나타내고, N(m,n)은 필터링 대상 깊이 픽셀에 대응하는 윈도우를 나타낼 수 있다. 상기 윈도우에 대한 실시예는 상술한 바 있으므로, 여기서는 생략하기로 한다. 또한, D(i,j)는 상기 필터의 입력 깊이 픽셀 값들을 나타내고, (i,j)는 윈도우 N(m,n) 내에 존재하는 입력 픽셀의 위치를 나타낼 수 있다. D’(m,n)은 (m,n) 위치의 필터링 대상 깊이 픽셀에 대한, 필터의 출력 값을 나타낼 수 있다.Here, (m, n) may represent the position of the depth pixel to be filtered, and N (m, n) may represent a window corresponding to the depth pixel to be filtered. Since the embodiment of the window has been described above, it will be omitted here. In addition, D (i, j) may represent input depth pixel values of the filter, and (i, j) may represent a position of an input pixel existing in the window N (m, n). D ′ (m, n) may indicate an output value of the filter for the depth pixel to be filtered at the position (m, n).
수학식 7에서,
Figure PCTKR2012004694-appb-I000014
은 가중치 커널(weighting kernel)을 나타내며, (m,n)과 (i,j) 사이의 기하학적 거리 및 상기 두 점 사이의 광도 거리에 기반한 단조 감소 함수에 해당될 수 있다. 여기서, 기하학적 거리는 상기 두 점 간의 물리적인 거리를 의미할 수 있고, 광도 거리는 상기 두 점에 존재하는 ‘깊이 픽셀’(D(m,n) 및 D(i,j)) 간의 강도 차이 및/또는 깊이 픽셀 값 차이를 나타낼 수 있다. 즉, 깊이 영상에 대해 적용되는 필터의 가중치 커널은 필터링 대상 깊이 픽셀 및 윈도우 내에 존재하는 주변 픽셀 간의 기하학적 거리뿐만 아니라, 상기 두 픽셀 간의 강도 차이(및/또는 루마 픽셀 값 차이)를 기반으로 결정될 수 있다. 이 때, 필터부는 필터링 대상 픽셀과 유사한 픽셀에 대해 더 큰 가중치를 적용할 수 있다.
In Equation 7,
Figure PCTKR2012004694-appb-I000014
Denotes a weighting kernel and may correspond to a monotonic reduction function based on the geometric distance between (m, n) and (i, j) and the luminance distance between the two points. Here, the geometric distance may mean a physical distance between the two points, and the luminosity distance may be an intensity difference between the 'depth pixels' D (m, n) and D (i, j) present at the two points and / or Depth pixel values may represent differences. That is, the weight kernel of the filter applied to the depth image may be determined based on the difference in intensity (and / or luma pixel value difference) between the two pixels as well as the geometric distance between the depth pixel to be filtered and the surrounding pixels existing in the window. have. In this case, the filter unit may apply a greater weight to a pixel similar to the pixel to be filtered.
또한, σs는 공간 영역(spatial domain)에서의 스무딩(smoothing) 정도를 나타내는 확산 파라미터(spread parameter)이고, σD는 픽셀 강도(pixel-intensity) 영역에서의 스무딩 정도를 나타내는 확산 파라미터에 해당될 수 있다.In addition, sigma s is a spreading parameter indicating a smoothing degree in a spatial domain, and sigma D is a spreading parameter indicating a smoothing degree in a pixel-intensity region. Can be.
또한, ‘Scale’은 상수(constant)로서, Ck가 소정의 적정 범위 내의 값(예를 들어, 1 내지 100)을 가질 수 있도록 하기 위해 곱해지는 값을 나타낸다. 한편, 수학식 7에서
Figure PCTKR2012004694-appb-I000015
은 x보다 작거나 같은 최대의 정수 값을 나타낼 수 있다.
In addition, 'Scale' is a constant, and represents a value that is multiplied to allow C k to have a value within a predetermined appropriate range (for example, 1 to 100). On the other hand, in equation (7)
Figure PCTKR2012004694-appb-I000015
Can represent the largest integer value less than or equal to x.
‘median’은 중간값 연산을 의미하며,
Figure PCTKR2012004694-appb-I000016
는 Di가 Ci번 반복되는 것, 즉 Di가 Ci개만큼 나열되어 있음을 의미할 수 있다. 수학식 7에서 Di는 i 값이 클수록 큰 값을 가질 수 있으며, Dtot은 윈도우 내에서 가장 큰 깊이 픽셀 값을 나타낼 수 있다.
'median' means median,
Figure PCTKR2012004694-appb-I000016
It may be repeated D i C i is one, that means that D i is listed as C i dog. In Equation 7, D i may have a larger value as i is larger, and D tot may represent the largest depth pixel value in the window.
수학식 7을 참조하면, 양방향 가중치 미디언 필터는, 윈도우 내의 깊이 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어를 도출할 수 있다. 상술한 수학식 7에서 가중치 스코어는 Ck에 해당될 수 있다. 이 때, 필터부는 상기 도출된 가중치 스코어에 기반하여, 상기 윈도우 내의 깊이 픽셀 중에서 중간 값에 해당되는 깊이 픽셀을 찾을 수 있다. 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값은 필터링 대상 픽셀에 대한 출력 값으로 결정될 수 있다. 즉, 상술한 양방향 가중치 미디언 필터에 의하면, 필터부는 필터링 대상 깊이 픽셀에 대응하는 윈도우 내의 픽셀들 중에서 가중치 스코어(및/또는 가중치 빈도수)에 기반하여 중간 값을 도출할 수 있고, 상기 도출된 중간 값을 상기 필터링 대상 깊이 픽셀에 대한 필터 출력 값(필터링된 픽셀 값)으로 결정할 수 있다. 따라서, 이 경우에 필터부는 필터링 이전에 존재하지 않는 새로운 깊이 값을 도입하거나 도출하지 않으므로, 깊이 영상 내의 객체 경계 및/또는 그 경계의 특성이 더 잘 유지될 수 있다.Referring to Equation 7, the bi-directional weighted median filter may derive a weight score for each depth pixel in the window based on the depth pixel in the window. In Equation 7, the weight score may correspond to C k . In this case, the filter unit may find a depth pixel corresponding to an intermediate value among depth pixels in the window based on the derived weight score. The pixel value of the depth pixel corresponding to the derived intermediate value may be determined as an output value for the pixel to be filtered. That is, according to the bi-directional weighted median filter described above, the filter unit may derive a median value based on a weight score (and / or weighted frequency) among pixels in a window corresponding to the depth pixel to be filtered, and the derived intermediate The value may be determined as a filter output value (filtered pixel value) for the depth pixel to be filtered. Thus, in this case the filter part does not introduce or derive a new depth value that does not exist prior to filtering, so that the object boundary in the depth image and / or the characteristics of the boundary can be better maintained.
한편, 상술한 표 1 및 도 6의 실시예에서, 필터 A 및 필터 B는 상술한 양방향 가중치 미디언 필터에 해당될 수 있다. 이 때, 필터 A는 에지가 존재하지 않는 넌 에지(non-edge) 영역(또는 블록)에 대해 적용되는 필터일 수 있고, 필터 B는 에지가 존재하는 에지 영역(또는 블록)에 대해 적용되는 필터일 수 있다.Meanwhile, in the embodiments of Table 1 and FIG. 6 described above, filter A and filter B may correspond to the bidirectional weighted median filter described above. In this case, filter A may be a filter applied to a non-edge region (or block) in which no edge exists, and filter B may be a filter applied to an edge region (or block) in which the edge exists. Can be.
이 때, 에지가 존재하지 않는 넌 에지 영역(또는 블록)에 대해서는, 강한 스무딩을 수행하는 양방향 가중치 미디언 필터가 적용될 수 있다. 따라서, 필터 A에 적용되는 확산 파라미터 σs및 σD는 상대적으로 큰 값을 갖는 확산 파라미터일 수 있다. 또한, 에지가 존재하는 에지 영역(또는 블록)에 대해서는, 약한 스무딩을 수행하는 양방향 가중치 미디언 필터가 적용될 수 있다. 따라서, 필터 B에 적용되는 확산 파라미터 σs및 σD는 상대적으로 작은 값을 갖는 확산 파라미터일 수 있다.In this case, for a non-edge region (or block) where no edge exists, a bidirectional weighted median filter that performs strong smoothing may be applied. Therefore, the spreading parameters sigma s and sigma D applied to filter A may be spreading parameters having a relatively large value. Also, for an edge region (or block) in which an edge exists, a bidirectional weighted median filter that performs weak smoothing may be applied. Therefore, the spreading parameters sigma s and sigma D applied to the filter B may be spreading parameters having a relatively small value.

도 7은 본 발명에 따른 복호화 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다. 7 is a flowchart schematically showing another embodiment of a decoding method according to the present invention.
도 7의 실시예에 따른 복호화 과정은 텍스쳐 영상 및 깊이 영상에 모두 적용될 수 있다. 또한, 도 7의 실시예에서는 상술한 해상도 감소 갱신(RRU) 방법이 적용될 수 있다.The decoding process according to the embodiment of FIG. 7 may be applied to both the texture image and the depth image. In addition, the above-described resolution reduction update (RRU) method may be applied to the embodiment of FIG. 7.
도 7을 참조하면, 복호화기는 예측 블록을 생성할 수 있다(S710). 인터 예측이 적용되는 경우, 복호화기는 참조 픽쳐 버퍼에서 제공된 이전에 복호화된 블록 및/또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. 인트라 예측이 적용되는 경우, 복호화기는 현재 픽쳐 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 또한, 복호화기는 잔차 블록을 생성할 수 있다(S720). 잔차 블록 생성 과정에 대한 구체적인 실시예는 도 2에서 상술한 바 있으므로, 여기서는 생략하기로 한다.Referring to FIG. 7, the decoder may generate a prediction block (S710). When inter prediction is applied, the decoder may generate a predictive block based on previously decoded blocks and / or picture information provided in the reference picture buffer. When intra prediction is applied, the decoder may generate a prediction block by performing prediction based on pixel information in the current picture. In addition, the decoder may generate a residual block (S720). Since a specific embodiment of the residual block generation process has been described above with reference to FIG. 2, it will be omitted here.
다시 도 7을 참조하면, 복호화기는 부호화기로부터 RRU 타입 정보를 수신하여 복호화할 수 있다(S730).Referring to FIG. 7 again, the decoder may receive and decode RRU type information from the encoder (S730).
상술한 바와 같이, 부호화기는 율-왜곡 최적화에 기반하여 RRU 타입을 결정한 후 RRU 타입 정보를 부호화하여 복호화기로 전송할 수 있다. 상기 RRU 타입 정보는 샘플링 비율 정보 및/또는 필터 타입 정보를 포함할 수 있다. 여기서, 상기 필터는 업 샘플링이 수행된 잔차 블록을 기반으로 생성된 복원 블록에 적용되는 필터이므로, RRU 필터 또는 업 샘플링 필터로도 불릴 수 있다.As described above, the encoder may determine the RRU type based on the rate-distortion optimization and then encode and transmit the RRU type information to the decoder. The RRU type information may include sampling rate information and / or filter type information. Here, since the filter is a filter applied to a reconstruction block generated based on the residual block on which upsampling is performed, it may also be called an RRU filter or an upsampling filter.
일 실시예로, 부호화기는 각 잔차 블록에 대한 샘플링 비율 정보 및/또는 RRU 필터 정보를 부호화하여 복호화기로 전송할 수 있다. 여기서, 일례로 샘플링 비율 정보는 구문 요소 sampling_ratio 에 의해 나타내어질 수 있고, RRU 필터 타입 정보는 구문 요소 rru_filter_type 에 의해 나타내어질 수 있다. 이 경우, 상기 샘플링 비율 정보 및/또는 상기 RRU 필터 정보는 잔차 블록 레벨 및/또는 잔차 블록 헤더(예를 들어, residual())에 포함되어 비트스트림을 통해 부호화기에서 복호화기로 전송될 수 있다. 이 때, 복호화기는 상기 샘플링 비율 정보 및/또는 RRU 필터 정보를 수신하여 복호화할 수 있다. 복호화기로 전송되는 샘플링 비율 정보 및 RRU 필터 정보는, 일 실시예로 다음 표 2에 포함된 것과 같은 구문 요소들에 의해 정의될 수 있다.In one embodiment, the encoder may encode and transmit sampling rate information and / or RRU filter information for each residual block to the decoder. Here, for example, the sampling rate information may be represented by the syntax element sampling_ratio, and the RRU filter type information may be represented by the syntax element rru_filter_type. In this case, the sampling rate information and / or the RRU filter information may be included in a residual block level and / or a residual block header (eg, residual ()) and transmitted from the encoder to the decoder through a bitstream. In this case, the decoder may receive and decode the sampling rate information and / or the RRU filter information. The sampling rate information and the RRU filter information transmitted to the decoder may be defined by syntax elements as included in Table 2 according to an embodiment.
[표 2]TABLE 2
Figure PCTKR2012004694-appb-I000017
Figure PCTKR2012004694-appb-I000017

여기서, sampling_ratio 는 업 샘플링 비율 정보를 나타낼 수 있다. 이 때, sampling_ratio는 업 샘플링 비율 값 자체를 나타낼 수도 있으나, 실제 업 샘플링 비율을 도출하기 위해 사용되는 값을 나타낼 수도 있다. 일례로, 복호화기는 다음 수학식 8에 의해 실제 업 샘플링 비율을 도출할 수 있다.Here, sampling_ratio may represent up-sampling ratio information. In this case, sampling_ratio may represent an upsampling rate value itself, or may represent a value used to derive an actual upsampling ratio. In one example, the decoder may derive the actual upsampling ratio by the following Equation (8).
[수학식 8][Equation 8]
Up-sampling ratio = sampling_ratio << 1Up-sampling ratio = sampling_ratio << 1

여기서, Up-sampling ratio는 업 샘플링 과정에 적용되는 실제 업 샘플링 비율을 나타낼 수 있다. 예를 들어, sampling_ratio 에 할당된 값이 2인 경우, 업 샘플링 과정에 적용되는 실제 업 샘플링 비율 값은 4일 수 있다.Here, the up-sampling ratio may indicate an actual upsampling ratio applied to the upsampling process. For example, when the value assigned to sampling_ratio is 2, the actual upsampling rate value applied to the upsampling process may be 4.
또한, rru_filter_type 은 업 샘플링 필터 타입을 나타낼 수 있다. 즉, rru_filter_type 은 업 샘플링이 수행된 잔차 블록을 기반으로 생성된 복원 블록의 필터링을 위해 사용되는 업 샘플링 필터의 타입을 지시할 수 있다.In addition, rru_filter_type may indicate an upsampling filter type. That is, rru_filter_type may indicate the type of upsampling filter used for filtering the reconstructed block generated based on the residual block on which upsampling is performed.
다른 실시예로, 부호화기는 상술한 실시예에서와 달리 RRU 타입을 나타내는 하나의 구문 요소를 통해 RRU 타입 정보를 복호화기로 전송할 수도 있다. 일례로, 상기 RRU 타입 정보는 구문 요소 rru_type 에 의해 나타내어질 수 있다. In another embodiment, the encoder may transmit the RRU type information to the decoder through one syntax element indicating the RRU type, unlike in the above-described embodiment. In one example, the RRU type information may be represented by a syntax element rru_type .
이 경우, 부호화기 및 복호화기에는 RRU 타입과 업 샘플링 비율 및 RRU 필터 타입 간의 관계를 나타내는 룩업 테이블(look-up table)이 동일하게 저장되어 있을 수 있다. 상술한 바와 같이, 부호화기는 율-왜곡 최적화에 기반하여 최적의 업 샘플링 비율 및 최적의 RRU 필터 타입을 결정할 수 있다. 이 때, 부호화기는 상기 룩업 테이블을 기반으로 상기 결정된 업 샘플링 비율 및 RRU 필터 타입에 대응하는 RRU 타입을 결정할 수 있으며, 결정된 RRU 타입에 관한 정보를 하나의 구문 요소 rru_type 을 통해 복호화기로 전송할 수 있다. 복호화기는 부호화기로부터 전송된 RRU 타입 정보를 수신하여 복호화할 수 있다. 이 때, 복호화기는 상기 복호화된 RRU 타입 정보를 기반으로 현재 블록에 대한 RRU 타입을 결정할 수 있으며, 상기 결정된 RRU 타입 및 상기 저장된 룩업 테이블을 기반으로 업 샘플링 비율 및 RRU 필터 타입을 도출할 수 있다.In this case, the encoder and the decoder may store the same look-up table indicating the relationship between the RRU type, the upsampling rate, and the RRU filter type. As described above, the encoder can determine the optimal upsampling rate and the optimal RRU filter type based on the rate-distortion optimization. In this case, the encoder may determine the RRU type corresponding to the determined up-sampling rate and the RRU filter type based on the lookup table, and may transmit information about the determined RRU type to the decoder through one syntax element rru_type. The decoder may receive and decode the RRU type information transmitted from the encoder. In this case, the decoder may determine the RRU type for the current block based on the decoded RRU type information, and may derive an upsampling rate and an RRU filter type based on the determined RRU type and the stored lookup table.
다시 도 7을 참조하면, 복호화기는 복호화된 RRU 타입 정보를 기반으로 상기 생성된 잔차 블록에 대해 업 샘플링을 수행할 수 있다(S740). 상기 RRU 타입 정보는 업 샘플링 비율 정보를 포함하므로, 복호화기는 상기 업 샘플링 비율 정보가 지시하는 업 샘플링 비율에 따라 잔차 블록에 대한 업 샘플링을 수행할 수 있다. 그러나, 잔차 블록에 대한 업 샘플링 비율이 1인 경우, 그 잔차 블록에 대해서는 업 샘플링이 수행되지 않을 수도 있다. Referring to FIG. 7 again, the decoder may perform upsampling on the generated residual block based on the decoded RRU type information (S740). Since the RRU type information includes upsampling rate information, the decoder may perform upsampling on the residual block according to the upsampling rate indicated by the upsampling rate information. However, when the upsampling ratio for the residual block is 1, upsampling may not be performed for the residual block.
또한, 복호화기는 예측 블록 및 업 샘플링이 수행된 잔차 블록을 기반으로 복원 블록을 생성할 수 있다(S750). 이 때, 잔차 블록에 대해 업 샘플링이 수행되지 않은 경우라면, 상기 복원 블록 생성에 사용되는 잔차 블록은 업 샘플링이 수행되지 않은 잔차 블록일 수 있다.In addition, the decoder may generate a reconstruction block based on the prediction block and the residual block on which upsampling is performed (S750). In this case, if upsampling is not performed on the residual block, the residual block used to generate the reconstructed block may be a residual block on which upsampling is not performed.
복원 블록이 생성되면, 복호화기는 생성된 복원 블록 내의 복원 샘플 각각에 대해 필터링을 수행할 수 있다(S760). 상술한 RRU 타입 정보는 필터 타입 정보를 포함하므로, 복호화기는 상기 필터 타입 정보에 기반하여 필터링을 수행할 수 있다. 텍스쳐 영상에 대해 적용되는 필터 및 깊이 영상에 대해 적용되는 필터의 구체적인 실시예들은 상술한 바 있으므로, 여기서는 생략하기로 한다.When the reconstruction block is generated, the decoder may perform filtering on each reconstruction sample in the generated reconstruction block (S760). Since the above-described RRU type information includes filter type information, the decoder may perform filtering based on the filter type information. Since specific embodiments of the filter applied to the texture image and the filter applied to the depth image have been described above, a description thereof will be omitted.

상술한 실시예들에 따르면, 본 발명은 RRU 타입 및/또는 RRU 모드를 기반으로 해상도 감소 갱신을 수행함으로써, 에지 등과 같은 영상의 특성들이 더 잘 유지되도록 할 수 있다. 즉, RRU 타입 정보가 사용되는 경우 영상의 특성에 따라 샘플링 비율을 달리하거나 필터 타입의 조합을 달리할 수 있으므로, 적응적인 해상도 감소 갱신이 가능해질 수 있다. According to the embodiments described above, the present invention may perform resolution reduction update based on the RRU type and / or RRU mode, so that characteristics of an image such as an edge may be better maintained. That is, when the RRU type information is used, the sampling rate or the combination of the filter types may be changed according to the characteristics of the image, so that adaptive resolution reduction updating may be possible.
한편, 상술한 바와 같이 깊이 영상은 에지 영역을 제외한 대부분의 영역에서는 텍스쳐 영상에 비해 디테일이 중요시되지 않는 특징을 가진다. 따라서, 상술한 업 스케일링 방법 및/또는 해상도 감소 갱신 방법은, 율-왜곡 최적화 관점에서 깊이 영상에 대해 적용될 때 특히 효율적이라 할 것이다.On the other hand, as described above, the depth image has a feature that the detail is less important than the texture image in most regions except the edge region. Thus, the upscaling method and / or resolution reduction update method described above will be particularly efficient when applied to depth images in terms of rate-distortion optimization.

상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above-described embodiment, the methods are described based on a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and any steps may occur in a different order or simultaneously from other steps as described above. have. In addition, those skilled in the art will appreciate that the steps shown in the flowcharts are not exclusive and that other steps may be included or one or more steps in the flowcharts may be deleted without affecting the scope of the present invention.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능합을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. While not all possible combinations may be described to represent the various aspects, one of ordinary skill in the art would recognize that other combinations are possible. Accordingly, the invention is intended to embrace all other replacements, modifications and variations that fall within the scope of the following claims.

Claims (20)

  1. 비트스트림을 수신하는 단계;
    상기 비트스트림을 기반으로, 현재 픽쳐에 대한 예측 블록 및 잔차(residual) 블록을 생성하는 단계;
    상기 비트스트림으로부터 도출된 RRU(Rrduced-Resolution Update) 타입 정보를 기반으로, 상기 잔차 블록에 대한 업 샘플링(up-sampling)을 수행하는 단계;
    상기 예측 블록 및 상기 업 샘플링이 수행된 잔차 블록을 기반으로 복원 블록을 생성하는 단계; 및
    상기 RRU 타입 정보를 기반으로, 상기 복원 블록에 대한 필터링을 수행하는 단계를 포함하되,
    상기 RRU 타입 정보는 샘플링 비율(sampling ratio) 정보 및 필터 타입(filter type) 정보를 포함하고,
    상기 업 샘플링 수행 단계에서는 상기 샘플링 비율 정보가 지시하는 샘플링 비율을 기반으로 업 샘플링을 수행하고,
    상기 필터링 수행 단계에서는 상기 필터 타입 정보가 지시하는 필터를 기반으로 필터링을 수행하는 것을 특징으로 하는 영상 복호화 방법.
    Receiving a bitstream;
    Generating a prediction block and a residual block for a current picture based on the bitstream;
    Performing up-sampling on the residual block based on RRU (Rrduced-Resolution Update) type information derived from the bitstream;
    Generating a reconstruction block based on the prediction block and the residual block on which the upsampling is performed; And
    Performing filtering on the reconstruction block based on the RRU type information,
    The RRU type information includes sampling ratio information and filter type information.
    In the upsampling step, upsampling is performed based on a sampling rate indicated by the sampling rate information.
    And performing the filtering in the filtering step based on a filter indicated by the filter type information.
  2. 제 1항에 있어서,
    상기 샘플링 비율 정보는,
    상기 현재 블록 내에서 상기 잔차 블록에 해당되는 영역의 주파수가 낮을수록 더 높은 값의 샘플링 비율을 지시하는 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 1,
    The sampling rate information is,
    The lower the frequency of the region corresponding to the residual block in the current block indicates a higher sampling rate.
  3. 제 1항에 있어서,
    상기 필터링 수행 단계는,
    상기 잔차 블록 내의 필터링 대상 픽셀에 대해, 소정의 크기 및 모양의 윈도우(window)를 결정하는 단계; 및
    상기 윈도우 내의 픽셀을 기반으로 상기 필터링 대상 픽셀에 대한 필터링을 수행하는 단계를 더 포함하는 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 1,
    The filtering step may include:
    Determining a window of a predetermined size and shape for a pixel to be filtered in the residual block; And
    And performing the filtering on the filtering target pixel based on the pixel in the window.
  4. 제 3항에 있어서,
    상기 현재 픽쳐가 텍스쳐 영상(texture video) 내의 픽쳐인 경우,
    상기 필터 타입 정보가 지시하는 필터는 상기 윈도우 내의 픽셀을 기반으로 가중치 평균을 수행하는 양방향 가중치 필터(bi-laterally weighted filter)인 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 3, wherein
    If the current picture is a picture in a texture video,
    And the filter indicated by the filter type information is a bi-laterally weighted filter that performs a weighted average based on pixels in the window.
  5. 제 4항에 있어서,
    상기 양방향 가중치 필터는,
    상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩(weak smoothing)을 수행하고,
    상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩(strong smoothing)을 수행하는 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 4, wherein
    The bidirectional weight filter,
    When the filtering target pixel is a pixel in an edge region including an edge, weak smoothing is performed.
    And if the filtering target pixel is a pixel in a non-edge region that does not include an edge, strong smoothing.
  6. 제 3항에 있어서,
    상기 현재 픽쳐가 깊이 영상(depth video) 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상(texture video) 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효(available)한 경우,
    상기 필터링 수행 단계에서는,
    상기 텍스쳐 픽쳐에서 상기 윈도우에 대응되는 영역 내의 텍스쳐 픽셀을 기반으로 필터링을 수행하는 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 3, wherein
    When the current picture is a depth picture in a depth video, and the texture picture corresponding to the current picture is available in a texture video corresponding to the depth video,
    In the filtering step,
    And filtering based on a texture pixel in an area corresponding to the window in the texture picture.
  7. 제 6항에 있어서,
    상기 필터 타입 정보가 지시하는 필터는, 양방향 가중치 WTA 필터(bi-laterally weighted Winner_Take_All filter)이고,
    상기 양방향 가중치 WTA 필터는,
    상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 깊이 픽셀 중에서 가장 높은 가중치 스코어를 갖는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정하고,
    상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀인 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 6,
    The filter indicated by the filter type information is a bi-laterally weighted Winner_Take_All filter,
    The bidirectional weighted WTA filter,
    A weighting score is derived for each depth pixel in the window based on the texture pixel, and a pixel value of a depth pixel having the highest weight score among the depth pixels is determined as an output value for the filtering target pixel. and,
    And the depth pixel is a pixel in the depth picture.
  8. 제 6항에 있어서,
    상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터(bi-laterally weighted median filter)이고,
    상기 양방향 가중치 미디언 필터는,
    상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정하고,
    상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀인 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 6,
    The filter indicated by the filter type information is a bi-laterally weighted median filter,
    The bidirectional weighted median filter,
    Deriving a weighting score for each depth pixel in the window based on the texture pixel, Deriving a middle value among the depth pixels based on the weighting score, Depth pixel corresponding to the derived intermediate value Determine a pixel value of as an output value for the pixel to be filtered,
    And the depth pixel is a pixel in the depth picture.
  9. 제 3항에 있어서,
    상기 현재 픽쳐가 깊이 영상 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효하지 않은 경우,
    상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터이고,
    상기 양방향 가중치 미디언 필터는,
    상기 윈도우 내의 깊이 픽셀을 기반으로, 상기 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정하고,
    상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀인 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 3, wherein
    If the current picture is a depth picture in a depth image, and the texture picture corresponding to the current picture is not valid in the texture image corresponding to the depth image,
    The filter indicated by the filter type information is a bidirectional weighted median filter,
    The bidirectional weighted median filter,
    A weighting score is derived for each of the depth pixels based on the depth pixel in the window, a median value is derived from the depth pixels based on the weight score, and a depth corresponding to the derived median value. Determine a pixel value of the pixel as an output value for the pixel to be filtered,
    And the depth pixel is a pixel in the depth picture.
  10. 제 9항에 있어서,
    상기 양방향 가중치 미디언 필터는,
    상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩을 수행하고,
    상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩을 수행하는 것을 특징으로 하는 영상 복호화 방법.
    The method of claim 9,
    The bidirectional weighted median filter,
    When the filtering target pixel is a pixel in an edge region including an edge, weak smoothing is performed.
    And if the filtering target pixel is a pixel in a non-edge region that does not include an edge, strong smoothing.
  11. 비트스트림을 수신하는 수신부;
    상기 비트스트림을 기반으로, 현재 픽쳐에 대한 예측 블록 및 잔차(residual) 블록을 생성하는 예측 블록 및 잔차 블록 생성부;
    상기 비트스트림으로부터 도출된 RRU(Rrduced-Resolution Update) 타입 정보를 기반으로, 상기 잔차 블록에 대한 업 샘플링(up-sampling)을 수행하는 업 샘플러;
    상기 예측 블록 및 상기 업 샘플링이 수행된 잔차 블록을 기반으로 복원 블록을 생성하는 복원 블록 생성부; 및
    상기 RRU 타입 정보를 기반으로, 상기 복원 블록에 대한 필터링을 수행하는 필터부를 포함하되,
    상기 RRU 타입 정보는 샘플링 비율(sampling ratio) 정보 및 필터 타입(filter type) 정보를 포함하고,
    상기 업 샘플러는 상기 샘플링 비율 정보가 지시하는 샘플링 비율을 기반으로 업 샘플링을 수행하고,
    상기 필터부는 상기 필터 타입 정보가 지시하는 필터를 기반으로 필터링을 수행하는 것을 특징으로 하는 영상 복호화 장치.
    A receiver for receiving a bitstream;
    A prediction block and residual block generation unit generating a prediction block and a residual block for a current picture based on the bitstream;
    An up sampler for performing up-sampling on the residual block based on RRU (Rrduced-Resolution Update) type information derived from the bitstream;
    A reconstruction block generation unit configured to generate a reconstruction block based on the prediction block and the residual block on which the upsampling is performed; And
    On the basis of the RRU type information, including a filter for performing filtering on the recovery block,
    The RRU type information includes sampling ratio information and filter type information.
    The upsampler performs upsampling based on the sampling rate indicated by the sampling rate information.
    And the filter unit performs filtering based on a filter indicated by the filter type information.
  12. 제 11항에 있어서,
    상기 샘플링 비율 정보는,
    상기 현재 블록 내에서 상기 잔차 블록에 해당되는 영역의 주파수가 낮을수록 더 높은 값의 샘플링 비율을 지시하는 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 11,
    The sampling rate information is,
    The lower the frequency of the region corresponding to the residual block in the current block indicates a higher sampling rate.
  13. 제 11항에 있어서,
    상기 필터부는,
    상기 잔차 블록 내의 필터링 대상 픽셀에 대해 소정의 크기 및 모양의 윈도우(window)를 결정하고, 상기 윈도우 내의 픽셀을 기반으로 상기 필터링 대상 픽셀에 대한 필터링을 수행하는 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 11,
    The filter unit,
    And determining a window having a predetermined size and shape with respect to the filtering target pixel in the residual block, and performing filtering on the filtering target pixel based on the pixel in the window.
  14. 제 13항에 있어서,
    상기 현재 픽쳐가 텍스쳐 영상(texture video) 내의 픽쳐인 경우,
    상기 필터 타입 정보가 지시하는 필터는 상기 윈도우 내의 픽셀을 기반으로 가중치 평균을 수행하는 양방향 가중치 필터(bi-laterally weighted filter)인 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 13,
    If the current picture is a picture in a texture video,
    And a filter indicated by the filter type information is a bi-laterally weighted filter that performs a weighted average based on pixels in the window.
  15. 제 14항에 있어서,
    상기 양방향 가중치 필터는,
    상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩(weak smoothing)을 수행하고,
    상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩(strong smoothing)을 수행하는 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 14,
    The bidirectional weight filter,
    When the filtering target pixel is a pixel in an edge region including an edge, weak smoothing is performed.
    And if the filtering target pixel is a pixel in a non-edge region that does not include an edge, strong smoothing.
  16. 제 13항에 있어서,
    상기 현재 픽쳐가 깊이 영상(depth video) 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상(texture video) 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효(available)한 경우,
    상기 필터부는,
    상기 텍스쳐 픽쳐에서 상기 윈도우에 대응되는 영역 내의 텍스쳐 픽셀을 기반으로 필터링을 수행하는 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 13,
    When the current picture is a depth picture in a depth video, and the texture picture corresponding to the current picture is available in a texture video corresponding to the depth video,
    The filter unit,
    And filtering based on a texture pixel in an area corresponding to the window in the texture picture.
  17. 제 16항에 있어서,
    상기 필터 타입 정보가 지시하는 필터는, 양방향 가중치 WTA 필터(bi-laterally weighted Winner_Take_All filter)이고,
    상기 양방향 가중치 WTA 필터는,
    상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 깊이 픽셀 중에서 가장 높은 가중치 스코어를 갖는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정하고,
    상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀인 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 16,
    The filter indicated by the filter type information is a bi-laterally weighted Winner_Take_All filter,
    The bidirectional weighted WTA filter,
    A weighting score is derived for each depth pixel in the window based on the texture pixel, and the pixel value of the depth pixel having the highest weight score among the depth pixels is determined as an output value for the filtering target pixel. and,
    And the depth pixel is a pixel in the depth picture.
  18. 제 16항에 있어서,
    상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터(bi-laterally weighted median filter)이고,
    상기 양방향 가중치 미디언 필터는,
    상기 텍스쳐 픽셀을 기반으로 상기 윈도우 내의 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정하고,
    상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀인 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 16,
    The filter indicated by the filter type information is a bi-laterally weighted median filter,
    The bidirectional weighted median filter,
    Deriving a weighting score for each depth pixel in the window based on the texture pixel, Deriving a middle value among the depth pixels based on the weighting score, Depth pixel corresponding to the derived intermediate value Determine a pixel value of as an output value for the pixel to be filtered,
    And the depth pixel is a pixel in the depth picture.
  19. 제 13항에 있어서,
    상기 현재 픽쳐가 깊이 영상 내의 깊이 픽쳐이고, 상기 깊이 영상에 대응하는 텍스쳐 영상 내에서 상기 현재 픽쳐에 대응하는 텍스쳐 픽쳐가 유효하지 않은 경우,
    상기 필터 타입 정보가 지시하는 필터는 양방향 가중치 미디언 필터이고,
    상기 양방향 가중치 미디언 필터는,
    상기 윈도우 내의 깊이 픽셀을 기반으로, 상기 깊이 픽셀 각각에 대해 가중치 스코어(weighting score)를 도출하고, 상기 가중치 스코어를 기반으로 상기 깊이 픽셀 중에서 중간 값을 도출하고, 상기 도출된 중간 값에 해당되는 깊이 픽셀의 픽셀 값을 상기 필터링 대상 픽셀에 대한 출력 값으로 결정하고,
    상기 깊이 픽셀은 상기 깊이 픽쳐 내의 픽셀인 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 13,
    If the current picture is a depth picture in a depth image, and the texture picture corresponding to the current picture is not valid in the texture image corresponding to the depth image,
    The filter indicated by the filter type information is a bidirectional weighted median filter,
    The bidirectional weighted median filter,
    A weighting score is derived for each of the depth pixels based on the depth pixel in the window, a median value is derived from the depth pixels based on the weight score, and a depth corresponding to the derived median value. Determine a pixel value of the pixel as an output value for the pixel to be filtered,
    And the depth pixel is a pixel in the depth picture.
  20. 제 19항에 있어서,
    상기 양방향 가중치 미디언 필터는,
    상기 필터링 대상 픽셀이, 에지를 포함하는 에지(edge) 영역 내의 픽셀인 경우에는 약한 스무딩을 수행하고,
    상기 필터링 대상 픽셀이, 에지를 포함하지 않는 넌 에지(non-edge) 영역 내의 픽셀인 경우에는 강한 스무딩을 수행하는 것을 특징으로 하는 영상 복호화 장치.
    The method of claim 19,
    The bidirectional weighted median filter,
    When the filtering target pixel is a pixel in an edge region including an edge, weak smoothing is performed.
    And if the filtering target pixel is a pixel in a non-edge region that does not include an edge, strong smoothing.
PCT/KR2012/004694 2011-06-20 2012-06-14 Image decoding/decoding method and device WO2012177015A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161499128P 2011-06-20 2011-06-20
US61/499,128 2011-06-20

Publications (2)

Publication Number Publication Date
WO2012177015A2 true WO2012177015A2 (en) 2012-12-27
WO2012177015A3 WO2012177015A3 (en) 2013-04-04

Family

ID=47423059

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/004694 WO2012177015A2 (en) 2011-06-20 2012-06-14 Image decoding/decoding method and device

Country Status (1)

Country Link
WO (1) WO2012177015A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054561A1 (en) * 2017-09-15 2019-03-21 서울과학기술대학교 산학협력단 360-degree image encoding device and method, and recording medium for performing same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070007327A (en) * 2004-04-02 2007-01-15 톰슨 라이센싱 Method and apparatus for complexity scalable video encoder
KR20070108092A (en) * 2006-05-04 2007-11-08 한국전자통신연구원 Method and apparatus for encoding multi-view moving pictures
WO2009001793A1 (en) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba Image encoding and image decoding method and apparatus
KR20100009718A (en) * 2008-07-21 2010-01-29 에스케이 텔레콤주식회사 Video encoding/decoding apparatus and mehod using direction of prediction
WO2010146771A1 (en) * 2009-06-19 2010-12-23 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070007327A (en) * 2004-04-02 2007-01-15 톰슨 라이센싱 Method and apparatus for complexity scalable video encoder
KR20070108092A (en) * 2006-05-04 2007-11-08 한국전자통신연구원 Method and apparatus for encoding multi-view moving pictures
WO2009001793A1 (en) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba Image encoding and image decoding method and apparatus
KR20100009718A (en) * 2008-07-21 2010-01-29 에스케이 텔레콤주식회사 Video encoding/decoding apparatus and mehod using direction of prediction
WO2010146771A1 (en) * 2009-06-19 2010-12-23 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054561A1 (en) * 2017-09-15 2019-03-21 서울과학기술대학교 산학협력단 360-degree image encoding device and method, and recording medium for performing same
US10986342B2 (en) 2017-09-15 2021-04-20 Foundation For Research And Business, Seoul National University Of Science And Technology 360-degree image encoding apparatus and method, and recording medium for performing the same

Also Published As

Publication number Publication date
WO2012177015A3 (en) 2013-04-04

Similar Documents

Publication Publication Date Title
KR102668077B1 (en) Apparatus and method for image coding and decoding
CN102450009B (en) Filter selection for video pre-processing in video applications
JP5663093B2 (en) Optimized filter selection for reference picture processing
JP5654685B2 (en) Motion compensation method and motion compensation device
KR101484606B1 (en) Methods and apparatus for adaptive reference filtering
JP5529293B2 (en) A method for edge enhancement for time scaling with metadata
JP6245888B2 (en) Encoder and encoding method
US9317896B2 (en) Image interpolation method and apparatus
JP5902814B2 (en) Video encoding method and apparatus, video decoding method and apparatus, and programs thereof
JP2013535901A (en) Reference processing using advanced motion models for video coding
CN110225337A (en) Video coding, decoded device, method, storage medium and video capture device
JP2014523698A (en) Method and apparatus for predicting color difference component of image using luminance component of image
CN115606179A (en) CNN filter for learning-based downsampling for image and video coding using learned downsampling features
KR20150010903A (en) Method And Apparatus For Generating 3K Resolution Display Image for Mobile Terminal screen
JP2014171097A (en) Encoder, encoding method, decoder, and decoding method
CN115552905A (en) Global skip connection based CNN filter for image and video coding
CN116848843A (en) Switchable dense motion vector field interpolation
KR20140138544A (en) Method for deriving motion information in multi-layer structure and apparatus using the same
KR102163477B1 (en) Video encoding and decoding method and device using said method
CN116762338A (en) Video encoding using preprocessing
KR20130037188A (en) Method for encoding and decoding video
WO2013051897A1 (en) Image-encoding method and image-decoding method
JP4580880B2 (en) Image encoding apparatus, image decoding apparatus, and image processing system
WO2012177015A2 (en) Image decoding/decoding method and device
KR20210024113A (en) Reference sample interpolation method and apparatus for bidirectional intra prediction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12802516

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12802516

Country of ref document: EP

Kind code of ref document: A2