WO2003092300A1 - Moving picture coding method and decoding method, and apparatus and program using the same - Google Patents

Moving picture coding method and decoding method, and apparatus and program using the same Download PDF

Info

Publication number
WO2003092300A1
WO2003092300A1 PCT/JP2003/004797 JP0304797W WO03092300A1 WO 2003092300 A1 WO2003092300 A1 WO 2003092300A1 JP 0304797 W JP0304797 W JP 0304797W WO 03092300 A1 WO03092300 A1 WO 03092300A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
filters
moving picture
motion vector
decimal point
Prior art date
Application number
PCT/JP2003/004797
Other languages
English (en)
French (fr)
Inventor
Keiichi Chono
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=29267445&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2003092300(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to EP03747221.4A priority Critical patent/EP1499134B1/en
Priority to US10/503,317 priority patent/US7835440B2/en
Priority to KR20047011913A priority patent/KR100660358B1/ko
Publication of WO2003092300A1 publication Critical patent/WO2003092300A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a moving image encoding / decoding technique, and more particularly to a moving image encoding / decoding program, method, and apparatus that perform interpolation of decimal point pixels used for motion compensation by adaptively switching filter coefficients.
  • Fig. 1 is a block diagram showing the configuration of a typical video signal encoder.
  • the encoder shown in Fig. 1 includes a local decoder, frequency converter 11, quantizer 12, variable-length encoder 13, inverse quantizer 14, inverse frequency It comprises a conversion means 15, a frame memory 16, a motion compensator 17, and a motion vector detector 18.
  • An input image is input to an encoder and divided into a plurality of blocks.
  • the motion compensation device 17 subtracts a prediction value generated from a previously decoded image for each block.
  • inter-frame prediction is a method of encoding a current image using a reference image reconstructed in the past. Next, this image block is transformed into the frequency domain by the frequency transformer 11.
  • the image block converted into the frequency domain is quantized by the quantizer 12.
  • the quantized image block is entropy-encoded by the variable-length encoder 13 and stored.
  • the quantized image block is returned to the original spatial domain again by the inverse quantization device 14 and the inverse frequency transformer 15.
  • the above predicted values are added to the image blocks to form a reconstructed image.
  • This reconstructed image is called the reference image because it is used for encoding the next image.
  • the reference image is stored in the frame memory 16 and used for the motion vector detecting device 18 and the motion compensating device 17.
  • the motion vector detecting device 18 detects a motion vector from a block of the input image and the reference image.
  • the motion compensator 17 generates a predicted value from the motion vector and the reference image.
  • Fig. 2 is a block diagram showing the configuration of the decoder corresponding to the encoder shown in Fig. 1.
  • the decoder shown in Fig. 2 is composed of a variable-length decoder 19, an inverse quantizer 20, an inverse frequency converter 21, a motion compensator 22, and a frame memory 23.
  • the operations of the inverse quantizer 20, the inverse frequency converter 21, the motion compensator 22, and the frame memory 23 are performed by the inverse quantizer 14 of the internal decoder of the encoder and the inverse frequency converter. 15. Same as motion compensator 17 and frame memory 16.
  • the input is returned from the encoded expression to the original expression by the variable length decoder 19.
  • inverse quantization and inverse frequency transform are performed on the decoded transform coefficient, and the transform coefficient is returned to an image block in the spatial domain.
  • a predicted value is added to the image block returned to the spatial domain to form a reconstructed image.
  • This predicted value is generated by the reference image stored in the frame memory 23 and the motion vector supplied from the variable length decoder 19.
  • the reconstructed image is stored in the frame memory 23 because it is used for the next image to be decoded.
  • Means for improving the coding efficiency of the moving image signal include using a prefilter and motion compensation with decimal pixel accuracy.
  • the prefilter improves the coding efficiency by manipulating the band of the input image with a filter.
  • motion compensation with decimal pixel accuracy improves coding efficiency by creating decimal precision motion in the referenced image.
  • the prefilter limits the bandwidth of the input image, and does not directly improve the coding efficiency of moving images.
  • motion compensation of the decimal point pixel precision in the conventional method interpolates the decimal point pixel using a fixed filter. For this reason, interpolation of decimal point pixels cannot be performed according to the characteristics and bit rate of the moving image.
  • the present invention has been made in view of the above-described related art, and has as its object to realize a moving picture coding Z decoding method capable of enhancing the effect of motion compensation and improving coding efficiency.
  • a motion detection program, method or apparatus for decimal point precision wherein a pixel at a decimal point position in a reference image is interpolated by a plurality of sets of filters, and the most coded data is obtained. Detects a combination of an efficient filter and motion vector, generates a predicted value using the detected filter and motion vector, and outputs the filter information and motion vector information that generated the predicted value This is the feature.
  • a filter and a motion vector having the highest encoding efficiency are detected, and a predicted value generated by the detected filter and the motion vector is used for motion compensation.
  • the coding efficiency of a moving image can be improved.
  • a moving picture decoding program or method or apparatus for performing motion compensation with decimal point accuracy The filter or the interpolation frame to be referred to is switched according to the input filter information, and a predicted value is generated using the switched filter or the reference interpolation frame and the input motion vector.
  • the moving picture encoding program, method or apparatus according to the first aspect, wherein at least a plurality of filters having different phases are used as a filter for interpolating a pixel at a decimal point position.
  • the motion compensation accuracy is improved and the coding efficiency is improved.
  • a moving image decoding program, method, or apparatus for a moving image according to the second embodiment wherein at least a plurality of filters having different phases are used as a filter for interpolating a pixel at a decimal point position. It is characterized.
  • the video coding program, method or apparatus according to the first aspect, wherein at least a plurality of filters having different bands are used as the filter for interpolating the pixel at the decimal point.
  • the bandwidth of the reference image can be preserved or the noise of the reference image can be attenuated, so that the coding efficiency is improved.
  • a moving image decoding program, method, or apparatus according to a second embodiment, characterized in that a plurality of filters having at least different bands are used as the filter for interpolating the pixel at the decimal point.
  • Fig. 1 is a coding block diagram of the conventional method.
  • Fig. 2 is a decoding block diagram of the conventional method.
  • FIG. 3 is a block diagram showing a configuration in a case where a plurality of interpolated image memories are provided in the first embodiment according to the present invention.
  • FIG. 4 is a flowchart showing the operation in the case where a plurality of interpolation image memories are provided in the first embodiment according to the present invention.
  • FIG. 5 is a block diagram showing a configuration in a case where one interpolated image storage is provided in the second embodiment according to the present invention.
  • FIG. 6 is a flowchart showing the operation when the interpolation image storage is not provided in the second embodiment according to the present invention.
  • FIG. 7 is a block diagram illustrating a configuration in the case where the interpolation image storage is not provided in the third embodiment according to the present invention.
  • FIG. 8 is a flowchart showing the operation when a plurality of interpolated image storages are provided in the third embodiment according to the present invention.
  • FIG. 9 is a block diagram illustrating a configuration in a case where a plurality of interpolation image storages are provided in the fourth embodiment according to the present invention.
  • FIG. 10 is a flowchart showing the operation in the case where a plurality of interpolation image storages are provided in the fourth embodiment according to the present invention.
  • Fig. 11 is a diagram showing the interpolation step of the decimal point pixel.
  • Fig. 12 is a diagram when the decimal point pixel is interpolated without shifting the phase.
  • Fig. 13 is a diagram when the decimal point pixel is interpolated by shifting the phase.
  • Fig. 14 shows the difference between a filter that interpolates a half pixel and a filter that interpolates a quarter pixel.
  • FIG. 15 is a diagram showing that edges are preserved by performing interpolation with a filter having a wide band.
  • Fig. 16 shows that a filter with a wide band also preserves noise.
  • FIG. 17 is a general schematic block configuration diagram of an information processing system that implements the moving picture encoding / decoding device according to the present invention.
  • FIG. 3 is a block diagram showing the configuration of the first embodiment according to the present invention.
  • the present embodiment is configured using a general computer system including a control device, a storage device, an input device, and a display device, and FIG. 3 shows only a main part thereof.
  • I have. Includes filter Z interpolation image storage device 101, motion vector filter filter detection device 102, and predicted value generation device 103. These correspond to the motion vector detection of the frame memory Z motion compensator in the encoding method shown in Fig. 1, and the other configurations are the same as those of the encoder shown in Fig. 1. Have been. Therefore, in the following description, the present embodiment will be described with reference to FIG.
  • the filter interpolated image storage device 101 receives a plurality of sets in which the filter 101 and the interpolated image storage device 102 are combined and the output of each set of interpolated image storage devices 1021. And a switch 101 for selectively outputting either one of them to the motion vector Bruno filter detecting device 102 and the predicted value generating device 103.
  • Each filter 101 1 has a different filter characteristic, generates a decimal point position interpolated image from an input reconstructed image, and supplies it to the interpolated image storage device 102 1.
  • the interpolated image storage device 1021 stores the interpolated image supplied from the filter 101.
  • the motion vector filter detection device 102 is composed of a motion vector detection device 102 1 and a filter detection device 102 2.
  • the motion vector filter detection device 102 is configured so that the switch 103 can be operated, and detects a combination of a motion vector and a filter with the highest encoding efficiency from the input image and the interpolated image. Then, it supplies it to the prediction value generator 103 and the variable-length encoder 13 (see Fig. 1).
  • the motion vector detecting device 1 0 2 1 is configured to input an image and to operate the switch 1 13.
  • the filter detector 1 0 2 2 is a motion vector detector 1 0 2 1 A motion vector and a prediction error of each interpolated image stored in each interpolated image storage device 1 0 1 2 supplied from a power source.
  • the coding cost described later is obtained using the filter information and the filter information, and the filter 101 that has generated the image with the smallest coding cost is detected.
  • a set of the detected motion vector and the filter is supplied to the predicted value generator 103 and the variable length encoder .13.
  • the motion vector detection 1021 and the filter detection 1022 are integrated so as to detect the smallest set of motion vector and filter of block cost and coding cost. You may.
  • the predicted value generation device 103 is configured to be able to operate the switch 103 similarly to the motion vector detection device 1021, and is supplied from the motion vector filter detection device 102.
  • the prediction value is generated using the motion vector and the filter.
  • the interpolation image corresponding to the filter is referred to by switching the switch 103, and the predicted value is read from the interpolation image using the motion vector.
  • step S101 a plurality of decimal point position interpolation images are generated for the reconstructed image using the filter interpolation image storage device 101, and the plurality of interpolation images are stored.
  • the pixels constituting the image are x ( ⁇ , j)
  • the size of the image is WX ⁇
  • the interpolation filter coefficients (f1, f2, f3, f4), x (i, j) and x ( ⁇ ) is interpolated by the following equation.
  • Equation 1 Interpolation of a half pixel is completed by adapting Equation 1 in the horizontal and vertical directions of the image.
  • the size of the interpolated image at the half-decimal point position is 4 x Wx ⁇ .
  • a quarter pixel and a eighth pixel are obtained by repeating the above, and the respective interpolated image sizes are 16 ⁇ WxH and 64 ⁇ WxH.
  • direct interpolation may be performed using a filter that is general according to the interpolation accuracy and the decimal point pixel position.
  • step S 102 the motion vector and the prediction error are calculated from each interpolated image obtained in step S 101 by using the motion vector filter filter detecting device 102 for each interpolated image with the smallest block cost.
  • the block cost (Block cost) is calculated by the motion vector detection device 1021, and the pixels constituting the input image are represented by s (i, j), and the pixels constituting the interpolated reconstructed image are represented by s ( ⁇ , j), block size ⁇ ⁇ ⁇ , motion vector (vx, vy), motion vector prediction (px, py), and vector code function VF (X, y),
  • the weighting parameter for the torque code amount is expressed by the following equation.
  • Block cost -(i-vx, j-yy)
  • the motion vector obtained in step S102 An encoding cost (Encode cost) is obtained by filter detection 1022 using a set of a torque and a prediction error and a filter coefficient for specifying an interpolated image. prediction Assuming that the error code amount is E, the filter coefficient is coeff 1, and the function for calculating the filter coefficient code amount is FF (coeff), the coding cost for this filter coefficient is given by
  • Equation 3-1 Note that if the amount of calculation for calculating the prediction error code amount of the first term in Equation 3-1 is to be reduced, the block cost is reused as the coding cost. do it,
  • Encode cost coeJ ⁇ i Block cost coe ⁇ -1 + F (coejfl) ⁇ (Equation 3-2). If the filter is switched in units of P blocks of size (a frame is also a set of blocks), the coding cost for the filter coefficient coeff l is
  • step S104 the set of the filter coefficient and the motion vector with the smallest coding cost obtained in step S103 is combined with the variable length encoder 13 and the prediction value generator 103. To supply.
  • step S105 a predicted value is generated by the predicted value generator 103 using the filter coefficient and the motion vector obtained in step S104.
  • the predicted value generator 103 By switching the switch 103 according to the filter coefficient, an interpolated image to be referred to is selected, and a predicted value is read out and generated using a motion vector. It goes without saying that the above steps can be easily combined with an algorithm for estimating the force filter coefficient itself, which describes how to select a filter coefficient obtained in advance. Second Embodiment Next, a second embodiment of the present invention will be described.
  • the present embodiment is constructed when the main memory of the computer system including the present embodiment has no room and cannot store a plurality of interpolated images. The configuration and operation will be described below.
  • FIG. 5 is a block diagram showing a main configuration of a second embodiment of the present invention.
  • a filter interpolation image storage 101 b a motion vector Z filter coefficient detection 102 b , Prediction value generation 103 b.
  • the filter-interpolated image storage device 101b and the filter-interpolated image storage device 101 and the motion vector The crutor filter coefficient detecting device 102 and the predicted value generating device 103 b perform the same operation as the predicted value generating device 103.
  • the difference between the two is that there is only one set of the filter 110 1 b and the interpolated image storage device 101 2 b that make up the filterno interpolation image storage device 101 b, and the motion vector Z filter detection device. 102b and the predicted value generator 103b are provided with signal lines for updating the filter coefficients. Since there is only one set of the filter 101b and the interpolation image storage device 101b, the switch 103 is not provided.
  • FIG. 6 is a flowchart showing the operation of the embodiment shown in FIG.
  • the flowchart shown in Fig. 6 is composed of steps S101b to S107b.
  • step S101b Is step S101
  • step S102b is step S102
  • step S103b is step S103
  • step S104b is step S104
  • step S105b is step In step S101 and step S106b, the same processing as step S105 is performed.
  • step S101b decimal point pixel interpolation is performed in step S101b
  • motion vector detection is performed in step S102b
  • step In the cost comparison performed in S103b a different point is that the optimal filter and motion vector pair are detected while overwriting the interpolated image stored in the interpolated image storage device 101b.
  • step S104b it is checked whether or not the interpolation image to be referred to by the prediction generation device 103b is stored in the interpolation image storage device 102b, and the interpolation image is stored in the interpolation image storage device.
  • step S 105 If it is not stored in 1 0 1 2 b, the point is that interpolation of the decimal point pixel is performed again in step S 105, and then a predicted value is generated in step S 106.
  • the configuration of the present embodiment is effective when there is no room in the main memory. However, if the interpolated image to be referred to does not remain in the interpolated image memory 1 0 1 2 b, it is necessary to generate the interpolated image again by using the filter, so that the amount of computation increases compared to the configuration of the first embodiment. I do. Third Embodiment Next, a third embodiment of the present invention will be described.
  • the present embodiment is constructed when the main memory of the computer system including the present embodiment has no room for decoding and cannot store the decimal point position interpolated image.
  • FIG. 7 is a block diagram showing a main configuration of the present embodiment.
  • This embodiment includes a filter switching device 201 and a predicted value generation device 202. These are equivalent to the frame memory motion compensation unit Z motion vector detection of the encoding method shown in Fig. 1, and the other configurations are the same as those of the encoder shown in Fig. 1. Have been. Therefore, in the following description, the present embodiment will be described with reference to FIG.
  • the filter switching device 201 switches the filter coefficient of the prediction value generation device 202 according to the filter coefficient information supplied from the variable length decoding.
  • the predicted value generation device 202 is composed of an integer pixel readout device 2021, a filter 202, and a predicted value readout device 202, and stores the motion vector supplied from the variable length decoding. Use to read integer pixels from the reconstructed image, perform filtering, and generate predicted values.
  • the integer pixel reading device 2021 using the motion vector supplied from the variable length decoding, reads an integer pixel including a predicted value from the reconstructed image.
  • the read integer pixel is supplied to the filter 202.
  • the filter 2202 interpolates the decimal point pixel to the integer pixel supplied from the integer pixel reading device 2021, using the filter coefficient switched by the filter switching device 201.
  • the predicted value reading device 2023 reads the predicted value block using the interpolation pixel supplied from the filter 2202 and the motion vector supplied from the variable length decoding.
  • FIG. 8 is a flowchart showing the operation of the embodiment shown in FIG.
  • step S201 an integer pixel block is read from the reconstructed image by the integer pixel reading device 2021, using the motion vector supplied from the variable length decoding.
  • step S202 the filter coefficient of the filter 2202 is switched by the filter switching device 201 using the filter coefficient information supplied from the variable length decoding.
  • step S203 the integer pixels supplied from the integer pixel reading device 201 are interpolated by the filter 2022 using the filter coefficients switched in step S202.
  • a predicted value is read out from the interpolated image obtained in step S203 by the predicted value reading device 2023 using the motion vector supplied from the variable length decoding. .
  • the present embodiment is constructed when the main memory of the computer system including the present embodiment has room and can store a plurality of decimal point position interpolated images. The configuration and operation will be described below. I do.
  • FIG. 9 is a block diagram showing a main part configuration of a fourth embodiment of the present invention.
  • the present embodiment includes a selective interpolation image switching device 201b and a predicted value generation device 202b.
  • the selection interpolation image switching device 201b switches the interpolation image to which the prediction value generation device 202b refers, based on the filter coefficient information supplied from the variable length decoding.
  • the predicted value generating device 202 includes a plurality of sets of filters 2002b, an interpolated image storage device 2022b, and a predicted value reading device 20023b.
  • the filter 2021b and the interpolation image storage 2022b perform a filter calculation and store a decimal pixel interpolated image.
  • the predicted value reading device 202b reads the predicted value using the motion vector supplied from the variable length decoding with reference to the interpolated image selected by the selected interpolated image switching device 201b.
  • FIG. 10 is a flowchart showing the operation of the embodiment shown in FIG.
  • step S201b a plurality of decimal point position interpolated images are generated from the reconstructed image and stored by a plurality of sets of filters 2021b and interpolated image storage 2022b.
  • step S202b the selected interpolated image switching device 201b uses the filter coefficient information supplied from the variable length decoding to select an interpolated image referred to by the predicted value reading device 203b.
  • step S203b using the motion vector supplied from the variable-length decoding and the interpolation image stored in the interpolation image storage device 202b selected by the selection interpolation image switching device 201b, The predicted value is read out by the predicted value generation device 202b.
  • the configuration of the main part of this embodiment is the same as that of the first embodiment shown in FIG. 3 or the second embodiment shown in FIG.
  • the present embodiment is characterized in that at least a plurality of filter coefficients having different phases are used as the filter coefficients used in the filters 110 1 and 110 1 b in the first or second embodiment. Is the same as in the i-th embodiment or the second embodiment.
  • FIG. 14 (a) and (b) show the filter coefficients of a filter that interpolates 12 pixels and a filter that interpolates 14 pixels, respectively.
  • the dashed line indicates an ideal filter
  • the solid line indicates a filter obtained by shifting the dashed line by 12 or 14 pixels.
  • the filter coefficients for obtaining the pixel values at the 1-pixel and 2-pixel positions are shown.
  • These filter coefficients (a, b, c, c, b, a) are the values for the ideal filter It can be obtained by shifting one by two. Assuming that P (i) is a pixel value, a pixel value P (1/2) at a 1/2 position is obtained by the following equation.
  • the filter coefficients for calculating the pixel values at the 14 pixel positions are shown. These filter coefficients, ⁇ , and ⁇ ⁇ ⁇ are obtained by shifting the ideal filter by 14. As in the case of the 1/2 position, the pixel value P (1/4) at the 1/4 position is obtained by the following equation.
  • Each filter 110 1 1 or 101 1 b in the present embodiment is a filter coefficient having a different phase as described above, and interpolation is performed using these to obtain the filter coefficient of the first or second embodiment.
  • fine-precision motion compensation becomes possible, and the coding efficiency is improved.
  • the present embodiment is characterized in that at least a plurality of filter coefficients having different phases are used as the filter coefficients used in the filters 2021 and 2021b in the third or fourth embodiment.
  • the operation is the same as in the third embodiment or the fourth embodiment.
  • filters having different phases are the same as the filters described in the fifth embodiment, and thus detailed description is omitted.
  • fine-precision motion compensation becomes possible, and the coding efficiency is improved.
  • the present embodiment is characterized in that, as the filters 110 1 and 101 1 b in the first or second embodiment, at least filter coefficients having different bands are used. Is the same as in the first embodiment or the second embodiment. Regarding the effects of the present embodiment, first, the effects obtained by changing the filter band will be described.
  • Fig. 15 shows the case where the decimal point pixel is interpolated by the wide band filter and the case where the decimal point pixel is interpolated by the narrow band filter.
  • the images shown in Fig. 15 (a) are converted to the images shown in Figs. 15 (c) and (d) by using the broadband amplitude characteristic filter and the narrowband amplitude characteristic filter shown in Fig. 15 (b).
  • the interpolated image shown is obtained.
  • Figure 15 (c) shows that edge information can be preserved by interpolating decimal pixels with a broadband filter. For images with many edges, that is, images with many high-frequency components, use of a wideband filter preserves the edge information and improves the effect of motion compensation.
  • FIG. 16 (a) to (d) are diagrams showing such a storage state. For this reason, the effect of the motion compensation deteriorates. Therefore, at low bit rates, encoding efficiency can be improved by performing decimal point pixel interpolation using narrow band filter coefficients. Next, a method of changing the band stored by the decimal point pixel will be described.
  • A be the coefficient of the broadband filter shown in Figs. 15 and 16
  • B be the coefficient of the narrowband filter.
  • Decimal point interpolation can be performed with a narrow band filter.
  • decimal point interpolation can be performed with a wide band filter. That is, by switching the filter coefficient corresponding to each band characteristic and performing interpolation, the band stored by the decimal point pixel can be changed.
  • the present embodiment is characterized in that at least filter coefficients having different bands are used as the filters 210 and 210b in the third or fourth embodiment. This is the same as the third embodiment or the fourth embodiment. Further, filters having different bands are the same as the filters described in the seventh embodiment, and thus detailed description is omitted. In the present embodiment, in addition to the effects of the third or fourth embodiment, the band in which the decimal point pixel is stored can be changed.
  • FIG. 17 is a block diagram showing a schematic configuration of an example of an information processing system which implements the moving picture encoding / decoding device according to the present invention.
  • the video encoding / decoding device according to the present invention can be configured by hardware, but can also be realized by a computer program.
  • the information processing system shown in Fig. 2 comprises a processor 301, a program memory 302, storage media 303 and 304.
  • the storage media 303 and 304 may be separate storage media or storage areas composed of the same storage media.
  • a storage medium a magnetic storage medium such as a hard disk can be used.
  • ADVANTAGE OF THE INVENTION According to this invention, the encoding efficiency of a moving image can be improved by switching the filter coefficient for decimal point position interpolation according to the property of the moving image divided by the bit rate.
  • This switching of filter coefficients includes filter selection and estimation. Filter selection means that filter coefficients having different bands and phases are prepared in advance, and the optimum filter coefficient is selected from the prepared filter coefficients.
  • the filter estimation means that the filter coefficients are calculated by an adaptive algorithm or the like, and the calculated filter coefficients are used for switching.
  • the filter estimation By manipulating the phase of the filter, it is possible to perform fine-precision motion compensation, and the coding efficiency is improved. The effect of recoding increases, and the coding efficiency improves.
  • the filter coefficient is switched in units of image blocks or more, the amount of computation for filtering does not change, and the amount of overhead computation by switching is small, so that the increase in the amount of computation for decoding is small.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

明細書 動画像の符号化方法および復号化方法、 これを用いた装置とプログラム 技術分野
本発明は動画像の符号化 復号技術に関し、 特に、 動き補償に用いる 小数点画素の補間を、 フィルタ係数を適応的に切リ替えて符号化を行う 動画像符号化 復号プログラム、 方法および装置に関する。
背景技術
ディジタル放送システムやサービス等において、 多くの動画像信号は 圧縮符号化されて伝送 ·蓄積される。
Fig. 1 は、 典型的な動画像信号の符号化器の構成を示すブロック図で ある。 Fig. 1 に示される符号化器は、 局所的復号器を含んでおり、 周波 数変換器 1 1、 量子化装置 1 2、 可変長符号化器 1 3、 逆量子化装置 1 4、逆周波数変換手段器 1 5、フレームメモリ 1 6、動き補償装置 1 7 , および動きべク トル検出装置 1 8より構成されている。 入力画像は、 符号化器に入力されて複数のブロックに分割される。 入 力画像にフレーム間予測が行われる場合、 それぞれのブロックは、 動き 補償装置 1 7によって、 過去に復号された画像から生成された予測値が 減じられる。 ここで、 フレーム間予測とは、 過去に再構築された参照画 像を用いて、 現在の画像を符号化する方法である。 次に、 この画像ブロックは、 周波数変換器 1 1によって周波数領域に 変換される。 周波数領域に変換された画像ブロックは、 量子化装置 1 2 によって量子化される。 上記量子化された画像ブロックは、 可変長符号 化器 1 3によってエントロピ一符号化されて、 蓄積される。 局所的復号として、 上記量子化された画像ブロックは、 逆量子化装置 1 4、 逆周波数変換器 1 5により、 再びもとの空間領域に戻される。 フレーム間予測の場合、 上記予測値が画像ブロックに加えられ、 再構 築画像を形成する。 この再構築画像は、 次の画像の符号化に用いられる ので参照画像と呼ばれる。 上記参照画像はフレームメモリ 1 6に格納さ れて、 動きべク トル検出装置 1 8、 動き補償装置 1 7に用いられる。 動 きべク トル検出装置 1 8は、 入力画像のブロックと上記参照画像から、 動きべク トルを検出する。 動き補償装置 1 7は、 上記動きべク トルと上 記参照画像から予測値を生成する。
Fig. 2は Fig. 1 に示した符号化器に対応する復号器の構成を示すプロ ック図である。 Fig. 2に示される復号器は、 可変長復号化器 1 9、 逆量 子化装置 2 0、 逆周波数変換器 2 1、 動き補償装置 2 2、 フレームメモ リ 2 3で構成されている。 逆量子化装置 2 0、 逆周波数変換器 2 1、 動 き補償装置 2 2およびフレームメモリ 2 3の動作は、 符号化器の内部復 号器の逆量子化装置 1 4、 逆周波数変換手段器 1 5、 動き補償装置 1 7 およびフレームメモリ 1 6と同じである。 復号では、 まず、 可変長復号化器 1 9により、 入力を符号化された表 現からもとの表現に戻す。 次に、 復号された変換係数に、 逆量子化、 逆 周波数変換を行い、 変換係数を空間領域の画像ブロックに戻す。 フレー ム間予測の場合、 空間領域に戻された画像ブロックに予測値を加え、 再 構築画像を形成する。 この予測値は、 フレームメモリ 2 3に格納された 参照画像と可変長復号化器 1 9から供給される動きべク トルによって 生成される。 再構築画像は、 次に復号する画像に利用されるのでフレー ムメモリ 2 3に格納される。 上記の動画像信号の符号化効率を改善する手段として、 プレフィルタ を用いることや小数点画素精度の動き補償などがある。 プレフィルタは. 入力画像の帯域をフィルタによって操作する.ことで符号化効率を改善 する。 これに対して、 小数点画素精度の動き補償は、 參照画像に小数精 度の動きを作り出すことによって符号化効率を改善する。 プレフィルタは、 入力画像の帯域制限を行うので、 動画像の符号化効 率を直接向上させるものではない。 また、 従来方式における小数点画素 精度の動き補償は、 小数点画素を固定のフィルタを用いて補間する。 こ のため、 動画像の性質、 ビッ トレートに応じた小数点画素の補間ができ ない。
発明の開示
本発明は上述したような従来技術に鑑みてなされたものであって、 動 き補償の効果を高め、 符号化効率を改善することのできる動画像の符号 化 Z復号方法を実現することを目的とする。 本発明の第 1形態によれば、 小数点精度の動き検出、 動画像符号化プログラムあるいは方法あるい は装置であって、 参照画像における小数点位置の画素を複数組のフィルタで補間し、 最も符号化効率が良いフィルタと動きべク トルの組を検出し、 検出されたフィルタと動きべク トルを用いて予測値を生成し、 予測値を生成したフィルタ情報と動きべク トルの情報を出力するこ とを特徴とする。 上記構成によれば、 最も符号化効率が良いフィルタと動きべク トルを 検出し、 この検出したフィルタと動きベク トルによって生成された予測 値を動き補償に用いる。これにより、動画像の符号化効率が改善できる。 本発明の第 2形態によれば、 小数点精度の動き補償をする動画像復号プログラムあるいは方法あ るいは装置であって、 入力されたフィルタ情報によってフィルタあるいは参照する補間フ レームを切り替え、 切り替わったフィルタあるいは参照する補間フレーム、 および入力さ れる動きべク トルを用いて予測値を生成することを特徴とする。 本発明の第 3形態によれば、 第 1形態の動画像符号化プログラムあるいは方法あるいは装置であ つて、 小数点位置の画素を補間するフィルタに少なく とも位相の異なる複 数のフィルタを用いることを特徴とする。 第 3実施形態により、動き補償精度が高まリ、符号化効率が改善する。 本発明の第 4実態によれば、 第 2形態の動画像の動画像復号プログラムあるいは方法あるいは装 置であって、 小数点位置の画素を補間するフィルタに少なく とも位相の異なる複 数のフィルタを用いること特徴とする。 本発明の第 5形態によれば、 第 1形態の動画像符号化プログラムあるいは方法あるいは装置であ つて、 上記小数点位置の画素を補間するフィルタに少なく とも帯域の異な る複数のフィルタを用いることを特徴とする。 第 5形態により、 参照画像の帯域保存あるいは参照画像の雑音減衰が 行えるので, 符号化効率が改善する。 本発明の第 6形態によれば、 第 2形態の動画像復号プログラムあるいは方法あるいは装置であつ て、 上記小数点位置の画素を補間するフィルタに少なく とも帯域の異な る複数のフィルタを用いることを特徴とする。
図面の簡単な説明
Fig. 1 は、 従来方式の符号化ブロック図である。
Fig. 2は、 従来方式の復号ブロック図である。
Fig. 3は、 本発明による第 1実施形態で複数の補間画像記憶を備える 場合の構成を表すプロック図である。
Fig. 4は、 本発明による第 1実施形態で複数の補間画像記憶を備える 場合の動作を表すフローチヤ一トである。
Fig. 5は、 本発明による第 2実施形態で 1 つの補間画像記憶を備える 場合の構成を表すプロック図である。
Fig. 6は、 本発明による第 2実施形態で補間画像記憶を備えない場合 の動作を表すフローチヤ一トである。
Fig. 7は、 本発明による第 3実施形態で補間画像記憶を備えない場合 の構成を表すプロック図である。
Fig. 8は、 本発明による第 3実施形態で複数の補間画像記憶を備える 場合の動作を表すフローチヤ一トである。
Fig. 9は、 本発明による第 4実施形態で複数の補間画像記憶を備える 場合の構成を表すプロック図である。
Fig. 10は、本発明による第 4実施形態で複数の補間画像記憶を備える 場合の動作を表すフローチヤ一トである。 Fig. 1 1 は、 小数点画素の補間ステップを示す図である。
Fig. 12は、 位相をずらさず小数点画素を補間した場合の図である。
Fig. 13は、 位相をずらして小数点画素を補間した場合の図である。
Fig. 14は、 2分の 1画素を補間するフィルタと 4分の 1画素を補間す るフィルタの違いを示す図である。
F i g · 15は、帯域の広いフィルタで補間をおこなうことでエッジが保存 されることを示す図である。
Fig. 16は、帯域の広いフィルタがノィズも保存してしまうことを示す 図である。
Fig. 17は、本発明による動画像符号化 復号装置をインプリメン卜し た情報処理システムの一般的な概略的ブロック構成図である。 発明を実施するための最良の形態
次に、 本発明の実施形態について図面を参照して詳細に説明する。 第 1実施形態
Fig. 3は本発明による第 1実施形態の構成を示すブロック図である。 本実施形態は、 制御装置、 記憶装置、 入力装置および表示装置からなる —般的なコンピュータシステムを用いて構成されるものであり、 Fig. 3 にはその要部となる部分のみが示されている。 フィルタ Z補間画像記憶装置 1 0 1、 動きべク トルノフィルタ係数検 出装置 1 0 2、 予測値生成装置 1 0 3を含む。 これらは、 Fig. 1 に示し た符号化方式のフレームメモリ Z動き補償部 動きべク トル検出に相 当するものであり、 これら以外の構成は Fig. 1 に示した符号化器と同じ 構成とされている。 このため、 以下の説明では Fig. 1 も参照して本実施 形態について説明する。 本実施形態は、 本実施形態を含むコンピュータシステムの主記憶に余 裕があり、 補間画像を複数格納できる場合に構築されるものであり、 以 下にその構成と動作を説明する。 フィルタ 補間画像記憶装置 1 0 1は、 フィルタ 1 0 1 1 と補間画像 記憶装置 1 0 2 1 とが組合わされた複数の組と、 各組の補間画像記憶装 置 1 0 2 1 出力を入力し、 いずれかを選択的に動きべク 卜ルノフィルタ 検出装置 1 0 2および予測値生成装置 1 0 3へ出力するスィッチ 1 0 1 3とで構成される。 各フィルタ 1 0 1 1 はそれぞれ異なるフィルタ特性を有するもので、 入力される再構築画像から小数点位置補間画像を生成し、 補間画像記憶 装置 1 0 2 1 に供給する。 補間画像記憶装置 1 0 2 1は、 フィルタ 1 0 1 1から供給される補間 画像を格納する。 なお、 再構築画像を記憶する手段を別途に設け、 必要に応じて逐次読 み出す構成とする場合には、 補間画像記憶装置 1 0 2 1 を設けることな く、 フィルタ 1 0 1 1で逐次計算された結果を出力することとしてもよ い。 動きべク 卜ル フィルタ検出装置 1 0 2は、 動きべク トル検出装置 1 0 2 1 とフィルタ検出装置 1 0 2 2で構成される。 この動きべク トル フィルタ検出装置 1 0 2は、 スィッチ 1 0 1 3を操作可能に構成されて おり、 入力画像と補間画像から、 最も符号化効率の良い動きべク トルと フィルタの組を検出し、 予測値生成装置 1 0 3および可変長符号化器 1 3 ( Fig. 1参照) へ供給する。 動きベク トル検出装置 1 0 2 1は、 画像を入力し、 また、 スィッチ 1 0 1 3を操作可能に構成されており、 スィッチ 1 0 1 3を順次切り替え て各補間画像記憶装置 1 0 1 2に格納されている各補間画像を入力し て参照し、 参照した補間画像と入力画像から、 後述するブロックコス ト を求め、 最もブロックコス トの小さな動きべク トルと予測誤差の組をフ ィルタ検出装置 1 0 2 2へ供給する。 なお、 予測誤差とは、 入力画像と 再構築画像の差分である。 フィルタ検出装置 1 0 2 2は、 動きべク トル検出装置 1 0 2 1 力ヽら供 給される各補間画像記憶装置 1 0 1 2に格納されている各補間画像の 動きベク トルと予測誤差、 および、 フィルタ情報を用いて後述する符号 化コス トを求め、 最も符号化コス 卜の小さな画像を生成したフィルタ 1 0 1 1 を検出する。 また、 検出された動きべク トルとフィルタの組を予 測値生成 1 0 3および可変長符号化器.1 3へ供給する。 ここで、 動きべク トル検出 1 0 2 1 とフィルタ検出 1 0 2 2を一体化 し、 ブロックコス 卜および符号化コス卜の最も小さな動きベク トルとフ ィルタの組を検出するように構成してもよい。 予測値生成装置 1 0 3は動きべク トル検出装置 1 0 2 1 と同様に、 ス イッチ 1 0 1 3を操作可能に構成されており、 動きべク トル フィルタ 検出装置 1 0 2より供給される動きべク トルとフィルタを用いて予測 値を生成する。 具体的には、 フィルタに対応する補間画像をスィッチ 1 0 1 3の切り替えにより参照し、 動きべク トルを用いて補間画像から予 測値を読み出す。 なお、 動きベク トル Zフィルタ検出装置 1 0 2に予測 値を記憶する機能を設け、 動きべク トル フィルタ検出装置 1 0 2が、 予測値を直接生成できるように構成してもよい。 次に、 本実施形態の動作について、 Fig. 4を参照して説明する。 Fig. 4 は本実施形態の動作を示すフローチヤ一トである。 ステップ S 1 0 1 では、 再構築画像にフィルタ 補間画像記憶装置 1 0 1 を用いて複数の小数点位置補間画像を生成し、 複数の補間画像を格 納する。 画像を構成する画素を x ( ί , j ) 、 画像のサイズを W X Η, 補間フ ィルタ係数 ( f 1 , f 2, f 3 , f 4) とすると、 x ( i , j ) と x ( ί + 1 , j )の中間に位置する 2分の 1画素は、以下の数式で補間される。
Λ:(ί+1/2); 1
Figure imgf000011_0001
■ ■ ■ (式 1 ) 式 1 を画像の横方向、 縦方向に適応させることで 2分の 1画素の補間 が完了する。 2分の 1小数点位置の補間画像のサイズは 4 xWx Ηとな る。 4分の 1画素、 8分の 1画素は、 上記を繰り返すことで得られ、 そ れぞれの補間画像サイズは 1 6 xWx H、 64 xWx Hとなる。 また、 n分の 1画素の補間を行う場合に一般的な、 補間精度と小数点 画素位置に応じたフィルタを用いて直接補間することとしてもよい。 続くステップ S 1 02では、 ステップ S 1 0 1 で得られた各補間画像 から、 動きべク トルノフィルタ検出装置 1 02を用いて各補間画像別に ブロックコス 卜が最も小さな動きべク トルと予測誤差の組を求める。 ブロックコスト (Block cost) は、 動きべク トル検出装置 1 02 1 に より算出され、 入力画像を構成する画素を s ( i , j ) , 補間された再 構築画像を構成する画素を s ( ί , j ) , ブロックのサイズを Μ χ Ν、 動きベク トルを ( v x , v y ) 、 動きベク トル予測を ( p x , p y ) 、 ベク トル符号量を求める関数を V F ( X , y ) 、 をベク トル符号量の 重みづけパラメータとすると以下の数式で示される。
MJf
Block cost= - (i - vx,j - yy)| + dxVF(vx- px,vy - py) . . . (式 2 ) 続くステップ S 1 03では、 ステップ S 1 02で得られた動きべク ト ルと予測誤差の組と補間画像を特定するフィルタ係数を用いて、 フィル タ検出 1 0 2 2により、 符号化コス ト (Encode cost) を求める。 予測 誤差の符号量を E , フィルタ係数を coeff 1 、 フィルタ係数の符号量を 求める関数を F F (coeff) とすると、 このフィルタ係数に対する符号化 コストは、 以下で与えられる
Encode cost coeff l = Ecoeff l + d x VF(yx - px,vy - py)coeff l + F (coeff 1)
• · ' (式 3— 1 ) なお、 式 3— 1 における第 1 項の予測誤差符号量を求める演算量を削 減しょうとする場合には、 符号化コス トは、 ブロックコス トを再利用し て、
Encode cost coeJ^i = Block cost coe^-1 +F(coejfl) · · · (式 3— 2 ) としてもよい。 もし、フィルタを、サイズのブロック P個の単位で切リ替える場合(フ レームはブロックの集合でもある) 、 フィルタ係数 coeff l に対する符 号化コス 卜は、
P
Encode cost coeガ (Block cost
Figure imgf000012_0001
+ F (coeffl) · · ' (式 3 3 ) で与えられる。 ブロックコス トには、 当然ながら予測誤差の符号量を用 いることができる。 ただしブロックの集合単位で、 フィルタ係数の切り 替えを行う場合、 ブロックの個数だけ、 動きべク トルと予測誤差および ブロックコス トを記憶しておく ことが必要となり、 フィルタ検出装置 1 0 2 2はこれらを記憶する機能を備えている。 続くステップ S 1 0 4では、 ステップ S 1 0 3で得られた最も符号化 コス卜の小さなフィルタ係数と動きべク トルの組を、 可変長符号化器 1 3および予測値生成装置 1 0 3に供給する。 続くステップ S 1 0 5では、 ステップ S 1 0 4により得られたフィル タ係数と動きべク トルを用いた予測値生成装置 1 0 3による予測値の 生成が行なわれる。 予測値の生成において予測値生成装置 1 0 3は、 フ ィルタ係数に応じてスィッチ 1 0 1 3を切り替えて参照する補間画像 を選択し、 動きべク トルを用いて予測値を読出して生成する。 以上のステップは、 予め求められたフィルタ係数をどのようにして選 択するかについて述べている力 フィルタ係数そのものを見積もるアル ゴリズムと用意に組み合わせることが可能なことは言うまでもない。 第 2実施形態 次に、 本発明の第 2の実施形態について説明する。 本実施形態は、 本 実施形態を含むコンピュータシステムの主記憶に余裕がなく、 補間画像 を複数格納できない場合に構築されるものであり、 以下にその構成と動 作を説明する。
Fig. 5は本発明の第 2の実施形態の要部構成を示すブロック図である, 本実施形態は、 フィルタ 補間画像蓄積 1 0 1 b、 動きべク トル Zフ ィルタ係数検出 1 0 2 b、 予測値生成 1 0 3 bとを備えている。 Fig. 3 に示した実施形態の構成要素と比較すると、 フィルタ 補間画像蓄積装 置 1 0 1 bはフィルタ 補間画像蓄積装置 1 0 1 、 動きベク トル フィ ルタ係数検出装置 1 0 2 bは動きべク トルノフィルタ係数検出装置 1 0 2、 予測値生成装置 1 0 3 bは予測値生成装置 1 0 3と同様の動作を 行う。 これらの相違点は、 フィルタノ補間画像蓄積装置 1 0 1 bを構成 するフィルタ 1 0 1 1 bと補間画像記憶装置 1 0 1 2 bがー組しかな く、 動きべク トル Zフィルタ検出装置 1 0 2 bおよび予測値生成装置 1 0 3 bがフィルタ係数を更新する信号線を備えていることである。 また. フィルタ 1 0 1 1 bと補間画像記憶装置 1 0 1 2 bが一組しかないこ とからスィッチ 1 0 1 3は設けられていない。
Fig. 6は、 Fig. 5に示した実施形態の動作を示すフローチヤ一トであ る。 Fig.6に示されるフローチャートはステップ S 1 0 1 b〜S 1 07 b から構成されるが、 Fig.4に示した第 1 の実施形態のフローチヤ一卜と 比較すると、 ステップ S 1 0 1 bはステップ S 1 0 1 , ステップ S 1 0 2 bはステップ S 1 0 2, ステップ S 1 03 bはステップ S 1 03 , ス テツプ S 1 04 bはステップ S 1 04, ステップ S 1 05 bはステップ S 1 0 1 , ステップ S 1 0 6 bはステップ S 1 05と同様の処理を行う。 本実施形態と第 1 の実施形態とが動作において大きく異なる点は、 ス テツプ S 1 0 1 bにて行なわれる小数点画素補間、 ステップ S 1 0 2 b にて行なわれる動きべク トル検出、 ステップ S 1 03 bにて行なわれる コス ト比較において、 補間画像記憶装置 1 0 1 2 bに格納された補間画 像を上書きしながら最適なフィルタと動きべク トルの組を検出する点 で異なリ、 さらに、 ステップ S 1 04 bの後に、 予測生成装置 1 03 b が参照したい補間画像が補間画像記憶装置 1 0 1 2 bに格納されてい るかの確認を行い、 補間画像が補間画像記憶装置 1 0 1 2 bに格納され ていない場合には、 ステップ S 1 05にて再度小数点画素の補間を行つ てから、 ステップ S 1 06にて予測値生成を行う点である。 本実施形態の構成は、主記憶に余裕が無いときに有効である。ただし、 参照したい補間画像が補間画像記憶 1 0 1 2 bに残っていない場合に は、 再度フィルタで補間画像を生成する必要があるので、 第 1の実施形 態の構成よりも演算量が増加する。 第 3実施形態 次に、 本発明の第 3の実施形態について説明する。 本実施形態は、 本 実施形態を含むコンピュータシステムの主記憶に復号において余裕が なく、 小数点位置補間画像を格納できない場合に構築されるものであり、 以下にその構成と動作を説明する。 Fig. 7は本実施形態の要部構成を示すプロック図である。 本実施形態 は、フィルタ切替装置 2 0 1 、予測値生成装置 2 0 2を含む。これらは、 Fig. 1 に示した符号化方式のフレームメモリ 動き補償部 Z動きべク ト ル検出に相当するものであり、 これら以外の構成は Fig. 1 に示した符号 化器と同じ構成とされている。 このため、 以下の説明では Fig. 1 も参照 して本実施形態について説明する。 フィルタ切替装置 2 0 1 は、 可変長復号から供給されるフィルタ係数 情報に応じて、 予測値生成装置 2 0 2のフィルタ係数を切り替える。 予測値生成装置 2 0 2は、 整数画素読出し装置 2 0 2 1 、 フィルタ 2 0 2 2、 予測値読出し装置 2 0 2 3で構成されており、 可変長復号から 供給される動きべク トルを用いて、 再構築画像から整数画素を読出し、 フィルタ リングを行い、 予測値を生成する。 整数画素読み出し装置 2 0 2 1 は、 可変長復号から供給される動きべ ク トルを用いて、 予測値を含む整数画素を再構築画像から読み込む。 読 み込んだ整数画素は、 フィルタ 2 0 2 2に供給される。 フィルタ 2 0 2 2は、 フィルタ切替装置 2 0 1 によって切り替えられ たフィルタ係数を用いて、 整数画素読出し装置 2 0 2 1から供給される 整数画素に小数点画素を補間する。 もちろん、 フィルタ係数が、 可変長 復号から供給されるフィルタ係数情報によつて直接切リ替え可能なこ とは言うまでもない。 予測値読出し装置 2 0 2 3は、 フィルタ 2 0 2 2から供給される補間 画素と可変長復号から供給される動きべク トルを用いて、 予測値ブロッ クを読み出す。
Fig. 8は、 Fig. 7に示した実施形態の動作を示すフローチヤ一卜であ る。 ステップ S 2 0 1 では、 可変長復号よリ供給される動きべク トルを用 いて、 整数画素読み出し装置 2 0 2 1 によって、 再構築画像から整数画 素ブロックを読み出す。 ステップ S 2 0 2では、 可変長復号よリ供給されるフィルタ係数情報 を用いて、 フィルタ切替装置 2 0 1 により、 フィルタ 2 0 2 2のフィル タ係数を切り替える。 ステップ S 2 0 3では、 整数画素読み出し装置 2 0 1から供給される 整数画素を、 ステップ S 2 0 2によって切り替えられたフィルタ係数を 用いて、 フィルタ 2 0 2 2により小数点画素を補間する。 ステップ S 2 0 4では、 ステツプ S 2 0 3で得られた補間画像から、 可変長復号より供給される動きべク トルを用いて、 予測値読出し装置 2 0 2 3によリ予測値を読み出す。 第 4実施形態 次に、 本発明の第 4の実施形態について説明する。 本実施形態は、 本 実施形態を含むコンピュータシステムの主記憶に余裕があリ、 複数の小 数点位置補間画像を格納できる場合に構築されるものであり、 以下にそ の構成と動作を説明する。
Fig. 9は本発明の第 4の実施形態の要部構成を示すブロック図である (
Fig. 9に示されるように、 本実施形態は、 選択補間画像切替装置 2 0 1 b、 予測値生成装置 2 0 2 bを含む。 選択補間画像切替装置 2 0 1 b は、 可変長復号から供給されるフィルタ係数情報によって、 予測値生成 装置 2 0 2 bが、 参照する補間画像を切り替える。 予測値生成装置 2 0 2は、 複数の組のフィルタ 2 0 2 1 bと補間画像 記憶装置 2 0 2 2 b、 予測値読出し装置 2 0 2 3 bで構成される。 フィルタ 2 0 2 1 bと補間画像蓄積 2 0 2 2 bは、 フィルタ計算を行 つて小数点画素補間画像を格納する。 予測値読出し装置 2 0 2 3 bは、 選択補間画像切替装置 2 0 1 bによって選択された、 補間画像を参照し, 可変長復号から供給される動きべク トルを用いて予測値を読み出す。
Fig. 10は、 Fig. 9に示した実施形態の動作を示すフローチヤ一トであ る。 ステップ S 2 0 1 bでは、 複数組のフィルタ 2 0 2 1 bと補間画像記 憶 2 0 2 2 bによって、 再構築画像から複数の小数点位置補間画像を生 成し、 格納する。 ステップ S 2 0 2 bでは、 可変長復号から供給されるフィルタ係数情 報を用いて選択補間画像切替装置 2 0 1 bによって、 予測値読出し装置 2 0 3 bが参照する補間画像を選択する。 ステップ S 2 0 3 bでは、 可変長復号から供給される動きべク トルと 選択補間画像切り替え装置 2 0 1 bが選択する補間画像記憶 2 0 2 2 bに格納された補間画像を用いて、 予測値生成装置 2 0 2 3 bによって. 予測値を読み出す。 上記の構成は、 領域、 ブロック、 あるいは、 画素単位での小数点位置 補間画像フィルタの切り替えが不要になる。 よって、 プロセッサのァー キテクチャが、 フィルタ係数切り替えのオーバーヘッ ドを嫌い、 かつ、 主記憶を大量にもつ場合に有効である。 第 5実施形態 次に、 本発明の第 5の実施形態について説明する。 本実施形態の要部 構成は Fig. 3に示した第 1 の実施形態、 または、 Fig. 5に示した第 2の 実施形態と同様であるため、 構成については図示省略する。 本実施形態は、 第 1 または第 2の実施形態におけるフィルタ 1 0 1 1 , 1 0 1 1 bで用いるフィルタ係数として、 少なくとも位相の異なる複数 のフィルタ係数を用いることを特徴とするもので、 動作は第 i実施形態 または第 2の実施形態と同様である。 本実施形態の効果について、 まず、 フィルタの位相をずらすことによ る効果について説明する。 まず、 従来行なわれている 4分の 1画素補間の動作について説明する ( 小数点画素の補間は、 Fig. 1 1 に示すようにフィルタ 1 を用いる 1段目の 処理により整数画素から 2分の 1画素を生成し、 フィルタ 2を用いる 2 段目の処理で 2分の 1画素から 4分の 1画素を生成するといつたよう に 2段階の処理により行われる。 上記の 2段階の処理により、 Fig. 12 ( a ) 〜 ( c ) に示すように中間 位置の補間を繰り返す。 補間により、 横方向に並んだ整数画素と整数画 素の間には、 3つの小数点画素が作り出される。 ここで、 Fig. 13 ( a ) 〜 (c ) に示すように、 故意に 1段目の補間フ ィルタだけを右方向に 4分の 1だけずらすと、 見かけ上は 4分の 1刻み だが、 2段目の補間で 1 8 , 5 Z 8画素を作り出すことができる。 ま た、 Fig, 13 ( d ) 〜 ( f ) に示すように、 左方向に 4分の 1だけずらし た場合には、 2段目の補間で 3 8 , 7 8画素を作り出すことができ る。 上記のように左右に 4分の 1ずれたフィルタによって、 見かけ上 4分 の 1画素精度の動き補償でも、 整数画素と整数画素の間に補間される 3 つの小数点画素が、 8分の 1刻みの値をとることができる。 もちろん、 位相のずらしかたにより、 1 6分の 1 、 3 2分の 1画素刻みの値をとれ ることは言うまでも無い。 次に、 本実施形態で行なわれる位相をずらす方法について説明する。 Fig. 14 ( a ) , ( b ) は、 1 2画素を補間するフィルタおよび 1 4画素を補間するフィルタのフィルタ係数をそれぞれ示している。 各図において、 破線は理想フィルタを示し、 実線は破線を 1 2また は 1 4画素ずらしたフィルタを示している。 Fig. 14 ( a ) に示す例で は、 1ノ 2画素位置の画素値を求めるフィルタ係数を示しており、 この フィルタ係数 (a,b,c,c,b,a)は、理想フィルタを 1ノ 2ずらすことによって 得られる。 P(i)を画素値とすると、 1/2位置の画素値 P(1/2)は、 以下の式 によって求められる。
P
Encode cost coej^- F(coeffX) · · ' 、式 3— 3
た 2〉 (Block cost coeffi(k)) +
=1
Fig. 14 (b) に示す例では、 1 4画素位置の画素値を求めるフィル タ係数を示しており、 このフィルタ係数 ,㊀ , りは、 理想フィルタを 1 4ずらすことによって得られる。 1/2位置の場合と同様に、 1/4位置 の画素値 P(1/4)は、 以下の式によって求められる。
P(l / 4) = X (-2) + exP(-l) + /x (0) + gxP(l) + hx (2) + i x (3)) /(d +e + f + g +h + i) • · · (式 4一 2 )
補間された小数点位置の画素を右に 4分の 1ずらすには、 1ノ 2位置 に 1 2画素を補間するフィルタ Aの代わりに、 同じ 1 2位置に 1 Z 4画素を補間するフィルタ Bを用いる。 つまり、 フィルタ係数そのもの を切り替えることで、 位相を操作することができる。 本実施形態における各フィルタ 1 0 1 1または 1 0 1 1 bは上記の ように位相が異なるフィルタ係数とされており、 これらを用いて補間を 行なうことにより、 第 1または第 2の実施形態の効果に加えて、 細かな 精度の動き補償が可能となり、 符号化効率が改善されたものとなる。 第 6実施形態 次に、 本発明の第 6の実施形態について説明する。 本実施形態の要部 構成は Fig. 7に示した第 3の実施形態、 または、 Fig. 9に示した第 4の 実施形態と同様であるため、 構成については図示省略する。 本実施形態は、 第 3または第 4の実施形態におけるフィルタ 2 0 2 1 , 2 0 2 1 bで用いるフィルタ係数として、 少なく とも位相の異なる複数 のフィルタ係数を用いることを特徴とするもので、 動作は第 3実施形態 または第 4の実施形態と同様である。 また、 位相の異なるフィルタは、 第 5の実施形態で示したフィルタと 同じであるため、 詳細な説明は省略する。 本実施形態においては、 第 3または第 4の実施形態の効果に加えて、 細かな精度の動き補償が可能となり、 符号化効率が改善されたものとな る。 第 7実施形態 次に、 本発明の第 7の実施形態について説明する。 本実施形態の要部 構成は Fig. 3に示した第 1の実施形態、 または、 Fig. 5に示した第 2の 実施形態と同様であるため、 構成については図示省略する。 本実施形態は、 第 1 または第 2の実施形態におけるフィルタ 1 0 1 1 , 1 0 1 1 bと して、 少なく とも帯域の異なるフィルタ係数のものを用い ることを特徴とするもので、 動作は第 1実施形態または第 2の実施形態 と同様である。 本実施形態の効果について、 まず、 フィルタ帯域を変えることで得ら れる効果について説明する。
Fig. 15は広帯域なフィルタで小数点画素を補間した場合と、狭帯域な フィルタで小数点画素を補間した場合を示す図である。 Fig. 15 ( a ) に示す画像を Fig. 15 ( b ) に示される広帯域な振幅特 性のフィルタと狭帯域な振幅特性のフィルタを用いることにより、 Fig. 15 ( c ) , ( d ) に示す補間画像が得られる。 広帯域なフィルタで小数 点画素を補間した方が、 エッジ情報を保存できることが Fig. 15 ( c ) か らわかる。 エッジが多い、 つまり、 高域成分が多い画像は、 広帯域なフ ィルタを使うことでエッジ情報が保存され、 動き補償の効果が改善され る。 ただし、 低ビッ トレー卜で量子化雑音が、 偽エッジとして多く生じる 場合、 広帯域なフィルタを用いて小数点画素の補間を行うと雑音までも 保存されてしまう。 Fig. 16 ( a ) 〜 ( d ) はこのような保存状態を示す 図である。 このため、 動き補償の効果が悪くなる。 よって低ビッ トレー 卜では、 狭帯域なフィルタ係数を用いて小数点画素補間することで符号 化効率が改善できる。 次に、 小数点画素が保存する帯域を変更の方法を示す。
Fig. 15および Fig. 16に示した広帯域フィルタの係数を A , 狭帯域フ ィルタの係数を Bとする。 フィルタ係数を Aから Bへ切り替えることで. 狭帯域なフィルタで小数点補間することができ、 フィルタ係数を Bから Aへ切り替えることで、 広帯域なフィルタで小数点補間することができ る。 つまり、 各帯域特性に対応するフィルタ係数を切り替えて、 内挿を行 うことで小数点画素が保存する帯域を変えることができる。 第 8実施形態 次に、 本発明の第 8の実施形態について説明する。 本実施形態の要部 構成は Fig. 7に示した第 3の実施形態、 または、 Fig. 9に示した第 4の 実施形態と同様であるため、 構成については図示省略する。 本実施形態は、 第 3または第 4の実施形態におけるフィルタ 2 0 2 1 , 2 0 2 1 bとして、 少なく とも帯域の異なるフィルタ係数のものを用い ることを特徴とするもので、 動作は第 3実施形態または第 4の実施形態 と同様である。 また、 帯域の異なるフィルタは、 第 7実施形態で示した フィルタと同じであるため、 詳細な説明は省略する。 本実施形態においては、 第 3または第 4の実施形態の効果に加えて、 小数点画素が保存する帯域を変えることができる。
Fig. 17は、本発明による動画像符号化 復号装置をインプリメントし た情報処理システムの一例の概略構成を示すブロック図である。 本発明による動画像符号化ノ復号装置は、 以上の説明からも明らかな ように、 ハードウェアで構成することも可能であるが、 コンピュータプ ログラムにより実現することも可能である。
Fig. 2に示す情報処理システムは、 プロセッサ 3 0 1 , プログラムメ モリ 3 0 2 , 記憶媒体 3 0 3および 3 0 4からなる。 記憶媒体 3 0 3お よび 3 0 4は、 別個の記憶媒体であってもよいし、 同一の記憶媒体から なる記憶領域であってもよい。 記憶媒体としては、 ハードディスク等の 磁気記憶媒体を用いることができる。 本発明により、 動画像の性質ゃビッ トレー卜に応じた小数点位置補間 するフィルタ係数を切り替えることで、 動画像の符号化効率を改善でき る。 このフィルタ係数の切り替えは、 フィルタ選択と見積もりを含む。 フィルタ選択は、 帯域および位相の異なるフィルタ係数を予め用意して おき、 用意しておいたフィルタ係数から最適なフィルタ係数を選択する ことを意味する。 一方のフィルタ見積もりは、 フィルタ係数を適応アル ゴリズム等によって算出し、 算出されたフィルタ係数を切り替えに用い ることを意味する。 フィルタの位相を操作することで、 細かい精度の動き補償が可能とな リ、 符号化効率が改善し、 フィルタの帯域操作によって、 画像の高域成 分および量子化雑音をコントロールできるので、 動き補償の効果が高ま リ符号化効率が改善する。 また、 フィルタ係数を画像ブロック単位以上で切り替える場合、 フィ ルタリングの演算量は変わらず、 切り替えによるオーバーへッ ド演算量 も小さいので、 復号の演算量増加も小さい。

Claims

請求の範囲
1 . 小数点精度の動き検出、 小数点精度の動き補償をする動画像符号 化をコンピュータに実行させる動画像符号化プログラムであって、 参照画像における小数点位置の画素を複数組のフィルタで補間する ステップと、 最も符号化効率が良いフィルタと動きべク トルの組を検出するステ ップと、 検出されたフィルタと動きべク トルを用いて予測値を生成するステ ップと、 予測値を生成したフィルタ情報と動きべク トルの情報を出力するス テツプとを有することを特徴とする動画像符号化プログラム。
2 . 小数点精度の動き補償をする動画像復号をコンピュータに実行さ せる動画像復号プログラムであって、 入力されたフィルタ情報によってフィルタあるいは参照する補間フ レームを選択するステップと、 切り替わったフィルタあるいは参照する補間フレーム、 および入力さ れる動きべク トルを用いて予測値を生成するステップとを有すること を特徴とする動画像復号プログラム。
3 . 請求項 1記載の動画像の符号化コンピュータプログラムにおいて 参照画像における小数点位置の画素を複数組のフィルタで補間する ステップにて、 少なく とも位相の異なる複数のフィルタを用いることを 特徴とする動画像符号化プログラム。
4 . 請求項 2の動画像復号プログラムにおいて、 入力されたフィルタ情報によってフィルタあるいは参照する補間フ レームを選択するステップにて、 少なく とも位相の異なる複数のフィル タを用いることを特徴とする動画像復号プログラム。
5 . 請求項 1記載の動画像の符号化コンピュータプログラムにおいて, 参照画像における小数点位置の画素を複数組のフィルタで補間する ステップにて、 少なく とも帯域の異なる複数のフィルタを用いることを 特徴とする動画像符号化プログラム。
6 . 請求項 2記載の動画像復号プログラムにおいて、 入力されたフィルタ情報によってフィルタあるいは参照する補間フ レームを選択するステップにて、 少なくとも帯域の異なる複数のフィル タを用いることを特徴とする動画像復号プログラム。
7 . 小数点精度の動き検出、 小数点精度の動き補償をする動画像符号 化方法であって、 参照画像における小数点位置の画素を複数組のフィルタで補間し、 最も符号化効率が良いフィルタと動きべク トルの組を検出し、 検出されたフィルタと動きべク トルを用いて予測値を生成し、 予測値を生成したフィルタ情報と動きべク トルの情報を出力するこ とを特徴とする動画像符号化方法。
8 . 小数点精度の動き補償をする動画像復号方法であって、 入力されたフィルタ情報によってフィルタあるいは参照する補間フ レームを選択し、 切り替わったフィルタあるいは参照する補間フレーム、 および入力さ れる動きべク トルを用いて予測値を生成することを特徴とする動画像 復号方法。
9 . 請求項 7記載の動画像の符号化方法において、 小 点位置の画素を補間するフィルタとして少なく とも位相の異な る複数のフィルタを用いることを特徴とする動画像符号化方法。
1 0 . 請求項 8記載の動画像復号方法において、 フィルタとして少なく とも位相の異なる複数のフィルタを用いるこ とを特徴とする動画像復号方法。
1 1 . 請求項 7記載の動画像の符号化方法において、 小数点位置の画素を補間するフィルタとして少なく とも帯域の異な る複数のフィルタを用いることを特徴とする動画像符号化方法。
1 2 . 請求項 8記載の動画像復号化方法において、 フィルタと して少なく とも帯域の異なる複数のフィルタを用いるこ とを特徴とする動画像復号方法。
1 3 . 小数点精度の動き検出、 小数点精度の動き補償をする動画像符 号化装置であって、 参照画像における小数点位置の画素を複数組のフィルタで補間する 手段と、 最も符号化効率が良いフィルタと動きべク トルの組を検出する手段
検出されたフィルタと動きべク トルを用いて予測値を生成する手段 予測値を生成したフィルタ情報と動きべク トルの情報を出力する手 段とを有することを特徴とする動画像符号化装置。
1 . 小数点精度の動き補償をする動画像復号化装置であって、 入力されたフィルタ情報によってフィルタあるいは參照する補間フ レームを選択する手段と、 切り替わったフィルタあるいは参照する補間フレーム、 および入力さ れる動きべク トルを用いて予測値を生成する手段とを有することを特 徴とする動画像復号化装置。
1 5 . 請求項 1 3記載の動画像の符号化装置において、 小数点位置の画素を補間する手段は少なく とも位相の異なる複数の フィルタを用いることを特徴とする動画像符号化装置。
1 6 . 請求項 1 4記載の動画像復号化装置において、 予測値を生成する手段は少なく とも位相の異なる複数のフィルタを 用いることを特徴とする動画像復号化装置。
1 7 . 請求項 1 3記載の動画像符号化装置において、 小数点位置の画素を補間する手段は少なく とも帯域の異なる複数の フィルタを用いることを特徴とする動画像符号化装置。
1 8 . 請求項 1 4記載の動画像復号化装置において、 予測値を生成する手段は少なく とも帯域の異なる複数のフィルタを 用いることを特徴とする動画像復号化装置。
PCT/JP2003/004797 2002-04-24 2003-04-16 Moving picture coding method and decoding method, and apparatus and program using the same WO2003092300A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP03747221.4A EP1499134B1 (en) 2002-04-24 2003-04-16 Moving picture decoding method and a device that uses this method
US10/503,317 US7835440B2 (en) 2002-04-24 2003-04-16 Moving picture coding method and decoding method, and apparatus and program using the same
KR20047011913A KR100660358B1 (ko) 2002-04-24 2003-04-16 동화상 코딩 방법 및 디코딩 방법, 및 이 방법을 사용하는장치 및 프로그램

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-122379 2002-04-24
JP2002122379A JP4102973B2 (ja) 2002-04-24 2002-04-24 動画像の符号化方法および復号化方法、これを用いた装置とプログラム

Publications (1)

Publication Number Publication Date
WO2003092300A1 true WO2003092300A1 (en) 2003-11-06

Family

ID=29267445

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/004797 WO2003092300A1 (en) 2002-04-24 2003-04-16 Moving picture coding method and decoding method, and apparatus and program using the same

Country Status (6)

Country Link
US (1) US7835440B2 (ja)
EP (4) EP3043561B1 (ja)
JP (1) JP4102973B2 (ja)
KR (1) KR100660358B1 (ja)
CN (3) CN101175207B (ja)
WO (1) WO2003092300A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100405853C (zh) * 2004-02-27 2008-07-23 精工爱普生株式会社 动态图像编码装置及动态图像处理装置

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060109247A (ko) 2005-04-13 2006-10-19 엘지전자 주식회사 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
KR20060105408A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US8761252B2 (en) 2003-03-27 2014-06-24 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
US8824553B2 (en) * 2003-05-12 2014-09-02 Google Inc. Video compression method
FR2867328A1 (fr) * 2004-03-02 2005-09-09 Thomson Licensing Sa Procede de decodage d'une sequence d'images codee avec echelonnabilite spatiale et temporelle
DE602005015067D1 (de) 2004-09-30 2009-08-06 Toshiba Kk Informationsbearbeitungsgerät und Programm
US8243820B2 (en) 2004-10-06 2012-08-14 Microsoft Corporation Decoding variable coded resolution video with native range/resolution post-processing operation
US9071847B2 (en) * 2004-10-06 2015-06-30 Microsoft Technology Licensing, Llc Variable coding resolution in video codec
US8660180B2 (en) 2005-04-01 2014-02-25 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
KR100880640B1 (ko) * 2005-04-01 2009-01-30 엘지전자 주식회사 스케일러블 비디오 신호 인코딩 및 디코딩 방법
TWI280805B (en) * 2005-07-20 2007-05-01 Novatek Microelectronics Corp Method and apparatus for cost calculation in decimal motion estimation
US8755434B2 (en) 2005-07-22 2014-06-17 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
US7956930B2 (en) 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US20070160134A1 (en) * 2006-01-10 2007-07-12 Segall Christopher A Methods and Systems for Filter Characterization
JP2007306538A (ja) * 2006-04-12 2007-11-22 Matsushita Electric Ind Co Ltd 画像復号装置及び方法
US7916791B2 (en) * 2006-06-16 2011-03-29 International Business Machines Corporation Method and system for non-linear motion estimation
TWI367457B (en) * 2006-07-03 2012-07-01 Nippon Telegraph & Telephone Image processing method and apparatus, image processing program, and storage medium for storing the program
CN100452882C (zh) * 2006-08-07 2009-01-14 清华大学 可变块大小运动补偿的数据缓存方法及其实现装置
US9014280B2 (en) * 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
KR100878536B1 (ko) 2006-11-08 2009-01-13 삼성전자주식회사 영상 보간 방법 및 장치
KR100835662B1 (ko) 2006-12-04 2008-06-09 부산대학교 산학협력단 필터 예측 기능을 가지는 움직임 보상 예측 장치 및 이를이용한 동영상 압축 장치 및 방법
US7944969B2 (en) * 2007-01-05 2011-05-17 Freescale Semiconductor, Inc. Method and system for sampling video data
US8107571B2 (en) * 2007-03-20 2012-01-31 Microsoft Corporation Parameterized filters and signaling techniques
EP1983759A1 (en) * 2007-04-19 2008-10-22 Matsushita Electric Industrial Co., Ltd. Estimation of separable adaptive interpolation filters for hybrid video coding
JP4139430B1 (ja) * 2007-04-27 2008-08-27 シャープ株式会社 画像処理装置及び方法、画像表示装置及び方法
US8090031B2 (en) 2007-10-05 2012-01-03 Hong Kong Applied Science and Technology Research Institute Company Limited Method for motion compensation
WO2009046601A1 (en) * 2007-10-09 2009-04-16 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Method for motion compensation
EP2048886A1 (en) * 2007-10-11 2009-04-15 Panasonic Corporation Coding of adaptive interpolation filter coefficients
CN101971632B (zh) * 2008-01-08 2013-10-16 艾利森电话股份有限公司 自适应滤波
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
JP5062483B2 (ja) * 2008-04-01 2012-10-31 ソニー株式会社 信号処理装置および方法、並びにプログラム
US8811484B2 (en) * 2008-07-07 2014-08-19 Qualcomm Incorporated Video encoding by filter selection
US10123050B2 (en) 2008-07-11 2018-11-06 Qualcomm Incorporated Filtering video data using a plurality of filters
US20110235711A1 (en) * 2008-10-03 2011-09-29 Sony Corporation Image processing device and method
US9078007B2 (en) 2008-10-03 2015-07-07 Qualcomm Incorporated Digital video coding with interpolation filters and offsets
US9143803B2 (en) 2009-01-15 2015-09-22 Qualcomm Incorporated Filter prediction based on activity metrics in video coding
CN102422642B (zh) * 2009-05-11 2015-03-25 株式会社Ntt都科摩 动态图像编码装置、方法和程序以及动态图像解码装置、方法和程序
JP2011082725A (ja) * 2009-10-06 2011-04-21 Nippon Telegr & Teleph Corp <Ntt> 映像符号化方法,映像符号化装置,映像復号方法,映像復号装置,映像符号化・復号方法,およびプログラム
EP3633996A1 (en) * 2009-10-14 2020-04-08 InterDigital Madison Patent Holdings Methods and apparatus for adaptive coding of motion information
WO2011118946A2 (ko) * 2010-03-21 2011-09-29 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
FR2959376A1 (fr) * 2010-04-22 2011-10-28 France Telecom Procede de traitement d'une information de mouvement, procedes de codage et de decodage, dispositifs, signal et programme d'ordinateur correspondants
JP5805991B2 (ja) * 2010-05-07 2015-11-10 トムソン ライセンシングThomson Licensing ピクチャ・シーケンスを符号化する方法、それに対応する再構築方法、および当該シーケンスを表す符号化データのストリーム
JP5524762B2 (ja) 2010-08-12 2014-06-18 日本電信電話株式会社 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
JP5485851B2 (ja) * 2010-09-30 2014-05-07 日本電信電話株式会社 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
AU2011333238B2 (en) 2010-11-26 2015-06-11 Nec Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and program
US8982960B2 (en) 2011-02-23 2015-03-17 Qualcomm Incorporated Multi-metric filtering
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
US9264725B2 (en) 2011-06-24 2016-02-16 Google Inc. Selection of phase offsets for interpolation filters for motion compensation
CN103108175A (zh) * 2011-11-09 2013-05-15 深圳市德赛微电子技术有限公司 多模视频解码器中运动补偿结构
CN106331722B (zh) 2015-07-03 2019-04-26 华为技术有限公司 图像预测方法和相关设备
US10194170B2 (en) 2015-11-20 2019-01-29 Mediatek Inc. Method and apparatus for video coding using filter coefficients determined based on pixel projection phase
ES2853700T3 (es) 2016-04-15 2021-09-17 Magic Pony Tech Limited Compensación de movimiento utilizando interpolación de imagen temporal
CN107139724A (zh) * 2017-03-31 2017-09-08 斑马信息科技有限公司 用于车辆的车载屏幕动态显示方法及其车载中控系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63309082A (ja) * 1987-06-11 1988-12-16 Mitsubishi Electric Corp 画像符号化伝送装置
JPH05219498A (ja) * 1992-02-06 1993-08-27 Fujitsu Ltd 動画像符号化装置
JPH0638197A (ja) * 1992-06-30 1994-02-10 Sony Corp 符号器、復号器、および符号化方法
JPH1146364A (ja) * 1997-07-28 1999-02-16 Victor Co Of Japan Ltd 動き補償符号化装置、復号化装置、符号化方法及び復号化方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475501A (en) * 1991-09-30 1995-12-12 Sony Corporation Picture encoding and/or decoding method and apparatus
JP2611591B2 (ja) * 1991-10-31 1997-05-21 日本ビクター株式会社 動き補償装置
JP2606523B2 (ja) * 1992-02-28 1997-05-07 日本ビクター株式会社 予測符号化装置及び復号化装置
JP3201343B2 (ja) 1992-07-03 2001-08-20 ケイディーディーアイ株式会社 インターレース動画像の動き補償予測装置
JPH06121174A (ja) 1992-10-02 1994-04-28 Hitachi Ltd 符号化復号化装置
JP3529432B2 (ja) * 1994-06-30 2004-05-24 株式会社東芝 動画像符号化/復号化装置
JP3745425B2 (ja) 1995-11-15 2006-02-15 日本放送協会 動きベクトル検出方法および動きベクトル検出用適応切り替え型前置フィルタ
JPH1070717A (ja) 1996-06-19 1998-03-10 Matsushita Electric Ind Co Ltd 画像符号化装置及び画像復号化装置
JPH10178560A (ja) 1996-12-17 1998-06-30 Oki Electric Ind Co Ltd ノイズ除去回路
EP0901735A1 (en) * 1997-03-12 1999-03-17 Matsushita Electric Industrial Co., Ltd Hdtv downconversion system
US6259734B1 (en) * 1998-04-03 2001-07-10 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing apparatus, and data storage media
JP4272771B2 (ja) * 1998-10-09 2009-06-03 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体
DE10120395A1 (de) 2001-04-25 2002-10-31 Bosch Gmbh Robert Einrichtung zur Interpolation von Abtastwerten sowie Bildencoder und Bilddecoder
JP4129374B2 (ja) 2001-09-18 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
US7630566B2 (en) * 2001-09-25 2009-12-08 Broadcom Corporation Method and apparatus for improved estimation and compensation in digital video compression and decompression
CA2360295A1 (en) * 2001-10-26 2003-04-26 Jaldi Semiconductor Corp. System and method for image warping
KR100418437B1 (ko) * 2001-12-24 2004-02-14 (주)씨앤에스 테크놀로지 멀티미디어 신호처리를 위한 영상복원 프로세서
WO2003058945A2 (en) * 2002-01-14 2003-07-17 Nokia Corporation Coding dynamic filters
US7110459B2 (en) * 2002-04-10 2006-09-19 Microsoft Corporation Approximate bicubic filter

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63309082A (ja) * 1987-06-11 1988-12-16 Mitsubishi Electric Corp 画像符号化伝送装置
JPH05219498A (ja) * 1992-02-06 1993-08-27 Fujitsu Ltd 動画像符号化装置
JPH0638197A (ja) * 1992-06-30 1994-02-10 Sony Corp 符号器、復号器、および符号化方法
JPH1146364A (ja) * 1997-07-28 1999-02-16 Victor Co Of Japan Ltd 動き補償符号化装置、復号化装置、符号化方法及び復号化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1499134A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100405853C (zh) * 2004-02-27 2008-07-23 精工爱普生株式会社 动态图像编码装置及动态图像处理装置

Also Published As

Publication number Publication date
EP1499134B1 (en) 2016-12-28
KR20040096548A (ko) 2004-11-16
EP1499134A1 (en) 2005-01-19
CN101686396B (zh) 2013-04-03
EP3043564B1 (en) 2017-08-09
EP1499134A4 (en) 2010-06-16
KR100660358B1 (ko) 2006-12-21
EP3043563A1 (en) 2016-07-13
US7835440B2 (en) 2010-11-16
CN101686396A (zh) 2010-03-31
EP3043564A1 (en) 2016-07-13
CN100358367C (zh) 2007-12-26
US20050105617A1 (en) 2005-05-19
EP3043563B1 (en) 2017-09-20
CN101175207A (zh) 2008-05-07
EP3043561B1 (en) 2017-06-21
CN1625902A (zh) 2005-06-08
CN101175207B (zh) 2012-05-02
JP4102973B2 (ja) 2008-06-18
EP3043561A1 (en) 2016-07-13
JP2003319398A (ja) 2003-11-07

Similar Documents

Publication Publication Date Title
WO2003092300A1 (en) Moving picture coding method and decoding method, and apparatus and program using the same
RU2456761C1 (ru) Операции повторной дискретизации и изменения размера изображения для кодирования и декодирования видео с переменной разрешающей способностью
US7116831B2 (en) Chrominance motion vector rounding
JP5134001B2 (ja) 下層のフィルタリングを備えたスケーラブルビデオ符号化
JP5128976B2 (ja) 復元されたフレームのフレーム率をアップコンバートする装置および方法
CN101194515A (zh) 使用平滑预测基于多层的视频编码和解码方法以及视频编码器和解码器
EP1353514A2 (en) Sub-pixel interpolation in motion estimation and compensation
JP2003333603A (ja) コンピュータ実施される方法、システムおよびコンピュータ可読媒体
JP2004297566A (ja) 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2004186897A (ja) 動き予測補償方法及び動き予測補償装置
JP2007060673A (ja) 画像予測装置、画像符号化装置、画像復号化装置、画像予測方法、画像符号化方法、画像復号化方法、記録媒体及びプログラム
JP2003339050A (ja) マルチステージ補間の丸め制御
JP2005318297A (ja) 動画像符号化・復号方法及び装置
JP4844456B2 (ja) 映像信号階層符号化装置、映像信号階層符号化方法、及び映像信号階層符号化プログラム
JP4403094B2 (ja) スケーラブル符号化方法,スケーラブル復号方法,これらの装置,およびそれらのプログラム,並びにそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP6071618B2 (ja) 画像処理装置及びプログラム
KR20140135307A (ko) 움직임 정보를 이용한 해상도 변환 방법 및 그 장치
JP2006309652A (ja) 信号処理方法及び信号処理装置
JP2010063118A (ja) 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
REEP Request for entry into the european phase

Ref document number: 2003747221

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2003747221

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10503317

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020047011913

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038031469

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2003747221

Country of ref document: EP