WO2004008772A1 - 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置 - Google Patents

画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置 Download PDF

Info

Publication number
WO2004008772A1
WO2004008772A1 PCT/JP2003/007995 JP0307995W WO2004008772A1 WO 2004008772 A1 WO2004008772 A1 WO 2004008772A1 JP 0307995 W JP0307995 W JP 0307995W WO 2004008772 A1 WO2004008772 A1 WO 2004008772A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
unit
image
motion compensation
motion
Prior art date
Application number
PCT/JP2003/007995
Other languages
English (en)
French (fr)
Inventor
Shunichi Sekiguchi
Yoshihisa Yamada
Kohtaro Asai
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to EP03764122A priority Critical patent/EP1418763A4/en
Priority to US10/488,229 priority patent/US8045616B2/en
Priority to KR20047003731A priority patent/KR100593350B1/ko
Priority to CA2459229A priority patent/CA2459229C/en
Publication of WO2004008772A1 publication Critical patent/WO2004008772A1/ja
Priority to US11/926,660 priority patent/US8054884B2/en
Priority to US11/926,630 priority patent/US20080056371A1/en
Priority to US11/926,816 priority patent/US8401079B2/en
Priority to US11/943,716 priority patent/US20080084930A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • Image encoding device image encoding method, image decoding device,
  • the present invention relates to an image encoding apparatus and an image encoding method for predicting an image to be encoded or an image to be decoded from an existing image and encoding a prediction error in highly efficient encoding or decoding of an image.
  • the present invention relates to an image decoding device and an image decoding method for performing decoding by adding a prediction error.
  • the present invention also relates to a communication device including at least one of the image encoding device and the image decoding device.
  • a luminance signal called 16 ⁇ 16 pixels called a macro block color difference signal 8 X 8 pixels are included
  • the frame screen is divided into square blocks, and the motion from the reference frame is estimated by motion compensation prediction in units of the blocks, and the estimated error difference signal (prediction residual signal) and the motion vector And coded information.
  • MPEG-2 a macroblock is divided into two field areas, and motion prediction is performed for each field.
  • H.263 and MPEG-4 a macroblock is further reduced to an 8 ⁇ 8 pixel block size.
  • a technology has been introduced to divide the motion and perform motion prediction for each sub-block.
  • adaptation of the motion prediction block size in MPEG-4 increases the amount of code in the motion vector, while improving the ability to follow more intense and finer motion, It is known that performance can be improved by selecting an appropriate mode.
  • Another technical aspect of motion compensation prediction is the accuracy of motion vectors.
  • integer pixels discrete pixel information generated by sampling
  • virtual samples are created by interpolation between integer pixels and predicted.
  • the technology used as images is widely used. This technology has two effects: improving the prediction accuracy by increasing the number of candidate points for prediction, and improving the prediction efficiency by reducing the singular points of the predicted image by the fill effect resulting from the interpolation operation. It is known.
  • the accuracy of the virtual sample is improved, it is necessary to increase the accuracy of the motion vector representing the motion amount, and therefore, it is necessary to note that the code amount also increases.
  • Fig. 1 shows how a sample with 1 pixel and 2 pixels accuracy is generated.
  • A, B, C, and D indicate integer pixels
  • e, f, g, h, and i indicate half-pixel precision virtual samples generated from A to D.
  • the number of pixels to be predicted depends on the number of blocks.
  • the required memory bandwidth becomes large.
  • the end pixel of the block to be predicted is folded back to reduce the number of new read pixels required for generating a predicted image.
  • this prevents natural filtering at the boundary of the block to be predicted, which is not preferable in terms of coding efficiency.
  • the present invention provides an image coding method that can improve the coding efficiency while suppressing the memory bandwidth even when a video frame such as a macroblock is divided into small regions and motion compensation prediction is individually performed. It is an object to provide an encoding device, an image encoding method, an image decoding device, an image decoding method, and a communication device including at least one of the image encoding device and the image decoding device. Disclosure of the invention
  • a moving picture coding apparatus compresses and encodes a difference signal between a generated predicted picture and a moving picture signal by performing motion compensation prediction in units of regions obtained by dividing each frame of the moving picture signal by a predetermined method.
  • a moving picture coding apparatus for generating a coded bit stream comprising: a frame memory for storing a reference picture used for generating a prediction picture; and a prediction picture according to a shape of an area serving as a unit of motion compensation prediction.
  • a motion detection unit that generates a predicted image candidate by switching the accuracy of a virtual pixel that is a constituent element of the predicted image candidate, and generates a motion vector that gives a predicted image with high prediction efficiency among the plurality of predicted image candidates; Based on the motion vector generated by the detection unit, a predicted image is generated by switching the accuracy of virtual pixels that are constituent elements of the predicted image according to the shape of a region that is a unit of motion compensation prediction. And a come compensator, the encoded bitstream, and shape information indicating a shape of the region which is a unit of motion compensation prediction, is to multiplex the Ugokibeku Torr.
  • the moving picture coding apparatus is characterized in that a difference signal between a predicted picture generated by performing motion compensation prediction in units of regions obtained by dividing each frame of the moving picture signal by a predetermined method and the moving picture signal is obtained.
  • a moving picture coding apparatus that generates a coded bit stream that has been compressed and coded, a frame memory that stores a reference picture used for generating a predicted picture, and a shape of an area that is a unit of motion compensation prediction. , The accuracy of a virtual pixel that is a component of the predicted image is switched to generate a predicted image candidate, and a motion vector that gives a predicted image having high prediction efficiency among the plurality of predicted image candidates is generated.
  • the prediction image is switched by switching the accuracy of the virtual pixel that is a component of the prediction image according to the shape of the area that is the unit of motion compensation prediction.
  • Raw A motion compensator that performs motion compensation prediction in the coded bitstream according to shape information indicating a shape of a region serving as a unit of motion compensation prediction and a shape of a region serving as a unit of motion compensation prediction indicated by the shape information.
  • the motion vector prediction coding method is switched to multiplex the coded motion vector.
  • the moving picture coding apparatus is characterized in that a difference signal between a predicted picture generated by performing motion compensation prediction in units of regions obtained by dividing each frame of the moving picture signal by a predetermined method and the moving picture signal is obtained.
  • a moving picture coding apparatus that generates a coded bit stream that has been compressed and coded, a frame memory that stores a reference picture used for generating a predicted picture, and a shape of an area that is a unit of motion compensation prediction.
  • a control signal for controlling whether or not to switch the accuracy of a virtual pixel which is a component of the predicted image in units of predetermined moving image data, generating a plurality of predicted image candidates.
  • the motion detector that generates a motion vector that gives a predicted image with high prediction efficiency, and the shape of the area that is the unit of motion compensation prediction based on the motion vector generated by the motion detector According to Whether to switch the accuracy of virtual pixels as components of the image And a motion compensator that generates a predicted image based on a control signal that controls the video signal in units of a predetermined moving image data.
  • the motion vector is multiplexed with shape information indicating the shape of a region to be the unit of motion compensation prediction.
  • the motion compensation unit includes a first accuracy for generating a virtual pixel by a predetermined method based on a plurality of pixel data of the reference image stored in the frame memory having a plurality of accuracy, and a first accuracy of the first accuracy. It is characterized in that a reference image is generated by performing motion compensation prediction in accordance with one of the second accuracies for generating a virtual pixel based on a virtual pixel and the indicated accuracy for each area unit.
  • the area that is the unit of the motion compensation prediction is a prediction unit block obtained by further dividing a macroblock obtained by dividing each frame of a moving image signal into 16 pixels ⁇ 16 lines corresponding to a luminance signal, and forming the shape of the area.
  • the shape information shown is characterized in that it is information instructing a method of dividing a macroblock into prediction unit blocks.
  • a plurality of frame memories for storing reference images used for generating a predicted image are provided, and the motion compensation unit generates a predicted image by performing motion compensation prediction with reference to the plurality of reference images stored in the plurality of frame memories. It is characterized by
  • an intra mode for encoding a moving image signal in an intra mode is provided, and a motion compensation prediction mode by a motion compensator or an intra mode is selectively performed. Furthermore, encoding mode information indicating the selected mode is multiplexed.
  • a spatial prediction unit that performs predictive encoding of the video signal in the spatial prediction mode is provided. It is characterized by selectively performing the spatial prediction mode and multiplexing coding mode information indicating the selected mode into the coding bitstream.
  • the image encoding device of the present invention it is possible to perform compression encoding with improved encoding efficiency while suppressing the memory band width.
  • the accuracy of motion compensation prediction is switched according to the shape of the area that is the unit of motion compensation prediction
  • the prediction encoding method of the motion vector is also switched according to the shape of the area that is the unit of motion compensation prediction. For example, by performing coding while changing the bandwidth, it is possible to allocate a larger amount of code to the motion vector as much as the coding efficiency is improved while suppressing the memory band width. It is also possible to maintain image quality.
  • the moving picture decoding apparatus further comprises: a compression encoding unit configured to perform a motion compensation prediction on a region basis obtained by dividing each frame of the moving picture signal by a predetermined method and a differential signal between the generated predicted picture and the moving picture signal.
  • a moving picture decoding apparatus for restoring a moving picture signal by inputting a coded bit stream comprising: a frame memory for storing a reference picture used to generate a predicted picture; and a coded bit stream.
  • a decoding unit that inputs a differential signal, a motion vector, and shape information indicating a shape of an area serving as a unit of motion compensation prediction, and a shape information indicating a shape of an area serving as a unit of motion compensation prediction.
  • the accuracy of the virtual pixel that is a component of the predicted image is switched based on the accuracy, and the reference image stored in the frame memory is referenced using the motion vector decoded by the decoding unit according to the switched accuracy.
  • a motion compensation unit generating a prediction image Te, and the difference signal decoded by the decoding unit, in which by adding the predicted image generated by the motion compensation unit to restore the moving image signal.
  • the moving picture decoding apparatus converts each frame of the moving picture signal A motion picture signal is restored by inputting an encoded bit stream obtained by compressing and encoding a difference signal between a motion picture signal and a predicted picture generated by performing motion compensation prediction in units of regions divided by a predetermined method.
  • a video decoding device comprising: a frame memory for storing a reference image used to generate a predicted image; a differential signal obtained by inputting an encoded bitstream; and a shape indicating a shape of an area serving as a unit of motion compensation prediction.
  • a decoding unit that decodes the motion vector and decodes the motion vector by switching the prediction and restoration method of the motion vector based on the shape information, and shape information indicating the shape of a region that is a unit of motion compensation prediction.
  • the accuracy of the virtual pixel that is a component of the predicted image is switched based on the accuracy, and the reference stored in the frame memory using the motion vector decoded by the decoding unit according to the switched accuracy.
  • a motion compensation unit that generates a predicted image by referring to an image, a difference signal decoded by the decoding unit, and a predicted image generated by the motion compensation unit are added to restore a moving image signal. is there. '
  • the moving picture decoding apparatus further comprises: A moving picture decoding apparatus for restoring a moving picture signal by inputting a coded bit stream, a frame memory for storing a reference picture used for generating a predicted picture, and a coded bit stream.
  • a moving picture decoding apparatus for restoring a moving picture signal by inputting a coded bit stream
  • a frame memory for storing a reference picture used for generating a predicted picture
  • a coded bit stream To decode the difference signal and the shape information indicating the shape of the area to be the unit of motion compensation prediction, and the control signal defined in the unit of a predetermined moving image data, and perform motion vectoring based on the shape information.
  • a decoding unit that controls whether or not to switch the prediction and restoration method of the motion vector in units of predetermined moving image data based on the control signal and decodes the motion vector, and is a unit of motion compensation prediction.
  • the shape of the area Whether or not to switch the accuracy of the virtual pixel that is a component of the predicted image based on the shape information shown is controlled in units of a predetermined moving image data based on the control signal, and the accuracy of the virtual pixel is determined. According to the determined accuracy ⁇ ⁇ A motion compensator that generates a predicted image by referring to the reference image stored in the frame memory using the motion vector decoded by the decoder, a differential signal decoded by the decoder, and motion compensation The video signal is restored by adding the predicted image generated by the section.
  • the motion compensation unit includes a first accuracy of generating a virtual pixel by a predetermined method based on a plurality of pixel data of the reference image stored in the frame memory having a plurality of accuracy, and a first accuracy of the first accuracy. It is characterized in that a reference image is generated by performing motion compensation in accordance with one of the second accuracies for generating a virtual pixel based on a virtual pixel and the indicated accuracy for each area unit.
  • the area serving as the unit of motion compensation is a prediction unit block obtained by further dividing a macro block obtained by dividing each frame of a moving image signal into 16 pixels ⁇ 16 lines corresponding to a luminance signal.
  • the shape information indicating the shape of the region is information instructing a method of dividing the mask opening block into prediction unit blocks, and the corresponding motion vector is the motion vector used in each prediction unit block. It is characterized by being a vector.
  • a plurality of frame memories for storing reference images used for generating a predicted image are provided, and the motion compensation unit generates a predicted image by performing motion compensation with reference to the plurality of reference images stored in the plurality of frame memories. It is characterized by:
  • the decoding unit further decodes the coding mode information from the coding bitstream, and decodes the moving image signal in intra mode based on the coding mode information, or a motion compensation unit. Decoding in the motion compensation prediction mode.
  • the image processing apparatus further includes a spatial prediction unit that performs predictive encoding of the video signal in a spatial prediction mode, and the decoding unit further decodes the encoding mode information from the encoded bitstream, and performs decoding based on the encoding mode information.
  • a spatial prediction unit that performs predictive encoding of the video signal in a spatial prediction mode
  • the decoding unit further decodes the encoding mode information from the encoded bitstream, and performs decoding based on the encoding mode information.
  • Moving image signal in space The decoding is performed in a spatial prediction mode by a prediction unit or in a motion compensation prediction mode by a motion compensation unit.
  • the video decoding device of the present invention it is possible to decode an encoded bitstream that has been compression-encoded while improving the encoding efficiency while suppressing the memory band width.
  • the reduction of the memory bandwidth can be achieved by simplifying the implementation of video decoding processing, especially when mounting a player mainly for video playback on hardware of video encoding devices and video decoding devices such as mobile phones and personal digital assistants. Since it has a remarkable effect on power consumption, it is possible to provide a video encoding device and a video decoding device with high transmission and recording efficiency while suppressing the mounting cost of these encoding devices and decoding devices.
  • FIG. 1 is a diagram showing how a sample with 1Z2 pixel accuracy is generated.
  • Figure 2 shows the positions of the half-pixel precision virtual sample a created to generate a 14-pixel precision virtual sample only in the case of horizontal processing, and the X components X- 4 to X 4 of the integer pixels in the following equation. It is a figure showing a relation.
  • FIG. 3 is a diagram showing a configuration of a video encoding device according to Embodiment 1.
  • FIG. 4 is a diagram showing a configuration of the video decoding device according to Embodiment 1.
  • FIG. 5 is a flowchart showing a motion compensation prediction process in the encoding device.
  • FIG. 6 is a diagram showing a configuration of a detection unit area of a motion vector according to the first embodiment.
  • FIG. 7 shows the results of local setting of virtual sample accuracy according to Embodiment 1.
  • FIG. 8 is a diagram for explaining that the memory bandwidth required for generating virtual samples can be reduced in each mode of 8 ⁇ 4, 4 ⁇ 8, and 4 ⁇ 4 MC.
  • FIG. 8 is a diagram for explaining how to obtain a prediction difference value (MVD) in step ST4.
  • FIG. 9 is a flowchart showing the motion compensation processing on the decoding device side.
  • FIG. 10 is a diagram showing a configuration of a video encoding device according to Embodiment 2.
  • FIG. 11 is a diagram showing a method of executing bidirectional prediction.
  • FIG. 12 is a diagram showing another example different from bidirectional prediction in which a motion vector is detected using a plurality of reference images.
  • FIG. 13 is a diagram showing a configuration of a video decoding device according to Embodiment 2.
  • FIG. 14 is a diagram showing a configuration of a video encoding device according to Embodiment 3.
  • FIG. 15 is a diagram showing a configuration of a video decoding device according to Embodiment 3.
  • FIG. 16 is a diagram showing a configuration of a video encoding device according to Embodiment 4.
  • FIG. 17 is a diagram showing a configuration of a video decoding apparatus according to Embodiment 4.
  • FIG. 18 is a diagram illustrating a configuration of a mobile phone according to a fifth embodiment in which element products such as the image encoding device and the image decoding device according to the first to fourth embodiments are mounted.
  • each frame image of a video is divided into units of a macroblock, and furthermore, a macroblock is divided into subblocks of a plurality of shapes to enable motion compensation prediction individually.
  • a video encoding and decoding device having a prediction unit will be described.
  • Video encoding according to the first embodiment ⁇ A feature of the decoding device is that the accuracy of the virtual sample described in the conventional example is switched according to the shape and size of a region (block) as a unit of motion compensation prediction. And that the motion vector encoding / decoding method is switched accordingly.
  • FIGS. 3 and 4 show the configurations of the video encoding device and the decoding device according to the first embodiment.
  • FIG. 3 shows the configuration of the video encoding device according to the first embodiment.
  • this video encoding apparatus includes a subtractor 10, an encoding mode determination unit 12, an orthogonal transformation unit 15, a quantization unit 16, an inverse quantization unit 18, an inverse orthogonal It has a converter 19, a switch 52, an adder 53, a frame memory 3, a motion detector 2, a motion compensator 7, a variable length encoder 6, a transmission buffer 24, and an encoder controller 22. are doing.
  • the input video signal 1 is assumed to be input in units of individual video frames divided into macroblocks, and is first stored in the frame memory 3 in the motion detection unit 2.
  • motion vector 5 is detected in macroblock units.
  • the motion compensator 7 obtains a predicted image 8 based on the motion vector 5, and the subtractor 10
  • the prediction residual signal 9 is obtained by taking the difference between the prediction image 8 and the input signal 1.
  • the coding mode determination unit 12 selects one of a plurality of modes for specifying a macroblock coding method, such as a motion prediction mode for coding the prediction residual signal 9 and an intra mode for coding a frame. Then, select the mode that can encode the macro block most efficiently.
  • the encoding mode information 13 is output to the variable length encoding unit 6 as encoding target information.
  • the motion prediction mode is selected as the encoding mode information 13 by the encoding mode determination unit 12
  • the motion vector 5 is passed to the variable length encoding unit 6 as encoding target information. It is.
  • the signal to be encoded selected by the encoding mode determination unit 12 passes through the orthogonal transformation unit 15 and the quantization unit 16, and is converted into an orthogonal transformation coefficient data 17 by the variable length encoding unit. While being passed to 6, the orthogonal transform coefficient data 17 passes through an inverse quantization section 18 and an inverse orthogonal transform section 19, and is then output to a switch 52.
  • the switch 52 2 performs the inverse quantization and inverse orthogonal transform on the orthogonal transform coefficient data 17. Or the prediction image 8 from the motion compensation unit 7 and output it to the frame memory 3 as a locally decoded image 21, or if the coding mode information 13 indicates the intra mode, The quantized and inverse orthogonal transformed orthogonal transform coefficient data 17 are output as is as the locally decoded image 21.
  • the locally decoded image 21 is stored in the frame memory 3 as reference image data because it is used for the subsequent frame motion prediction.
  • the quantization unit 16 performs orthogonal transform coefficient decoding with the quantization accuracy given by the quantization step parameter 23 determined by the encoding control unit 22. Perform evening quantization. By adjusting this quantization step parameter 23, the output coding rate and the quality are balanced. Generally, after variable-length encoding, the occupation amount of encoded data stored in the transmission buffer 24 immediately before transmission is checked at regular intervals, and parameters are adjusted according to the remaining buffer amount 25. Is performed. Specifically, for example, when the remaining buffer capacity 25 is small, the rate is slightly suppressed, while when the remaining buffer capacity 25 has room, the rate is increased to improve the quality. So that Note that the quantization step parameter 23 determined in the encoding control unit 22 is also output to the variable length encoding unit 6.
  • variable-length encoding unit 6 encodes the data to be encoded, such as the motion vector 5, the quantization step parameter 23, the encoding mode information 13, the orthogonal transform coefficient data 17 and the like. After performing tropy coding, the data is transmitted as video compression data 26 via the transmission buffer 24.
  • FIG. 4 shows the configuration of the video decoding device according to the first embodiment.
  • the video decoding device includes a variable length decoding unit 27, an inverse quantization unit 18, an inverse orthogonal transformation unit 19, an adder 55, a switch 54, and a motion compensation unit 7. And a frame memory 3.
  • variable-length decoding unit 27 upon receiving the compressed video data 26, the variable-length decoding unit 27 performs entropy decoding processing to be described later, and the motion vector 5, the encoding mode information 13; orthogonal transform coefficient data 17; quantization step parameters 23;
  • the orthogonal transform coefficient data 17 and the quantization step parameter 23 are decoded by the same inverse quantization unit 18 and inverse orthogonal transform unit 19 as those on the encoding side.
  • the switch 54 indicates that the coding mode information 13 indicates the motion prediction mode.
  • the prediction image 8 is restored and output based on the motion vector 5 decoded by the motion compensation unit 7 and the encoding mode information 13, while when the intra mode is indicated, Outputs 0.
  • the output from the switch 54 is added to the decoded signal output from the inverse orthogonal transform unit 19 by the adder 55 to obtain a decoded image 21.
  • the decoded image 21 is stored in the frame memory 3 because it is used for generating a predicted image of a subsequent frame.
  • FIG. 5 shows a flowchart of the motion compensation prediction process in the encoding device. Hereinafter, each step will be described.
  • FIG. 6 shows the configuration of a motion vector detection unit area in the first embodiment.
  • 16 ⁇ 16 MC refers to a macroblock itself as a motion vector detection unit.
  • the 16 x 8 MC uses a vertically divided area, and the 8 x 16 MC uses a horizontally divided area as a motion vector detection unit.
  • 8x8 MC divides a macroblock equally into four regions, and each unit is used as a motion vector detection unit.
  • each of the divided areas is further divided into two vertically (8 ⁇ 4 MC), two horizontally (4 ⁇ 8 MC), and four (4 ⁇ 8 MC). 4 MC), which can be used as a motion vector detection unit.
  • fine division can increase the prediction efficiency when there is a complicated motion inside a macroblock, while it is necessary to transmit a lot of motion vector information.
  • the configuration of the motion vector detection unit area can be adapted in various ways within the macroblock, encoding can be performed while selecting and detecting the locally optimal divided shape and motion vector. Can be executed.
  • motion compensation prediction using virtual samples is used as shown in the conventional example.
  • the localization is performed in association with the shape and size of each motion vector detection unit area. Determine the accuracy of the virtual sample and the prediction coding method of the motion vector.
  • the encoding apparatus uses shape information indicating the shape and size of a region of a motion vector detection unit, which is a unit of motion compensation prediction, as coding mode information 13. Are encoded by the variable-length encoding unit 6 as a part of the motion prediction mode, and transmitted to the decoding device.
  • the coding mode other than the coding mode indicating whether the mode is the motion prediction mode or the intra coding mode is determined only by the coding mode information 13.
  • the shape and size of the motion vector detection unit area which is the unit of motion compensation prediction, and the shape and size are unambiguous.
  • the accuracy of the virtual sample and the prediction coding method of the motion vector can be determined, so no additional information is required to switch the prediction method of the virtual sample accuracy and the motion vector. .
  • a motion vector detection unit area smaller than 8 ⁇ 8 MC for example, 8 ⁇ 4, 4 ⁇ 8, 4 ⁇ 4 size, or the like is used. In the region, a virtual sample with half-pixel accuracy is used, and in the motion vector detection unit region of a larger size, a virtual sample with 1/4 pixel accuracy is used.
  • One reason for applying this rule is how to select the shape of the motion vector detection unit area. That is, in general, the spatial resolution of the screen is maintained in an area where the motion is uniform and the motion speed is slow, and the visibility of the texture is improved. In such areas, the large motion vector detection area makes the motion vector as uniform as possible, avoids inter-region discontinuity due to subdivision of the motion area, improves signal reproducibility, and increases the accuracy of virtual samples. It is desirable to improve forecasting efficiency by improving forecasting efficiency. Conversely, in areas where the movement is complex or the movement speed is difficult to perceive visually, the detailed texture of the screen is not preserved, and the spatial resolution is visually perceived to be low.
  • each of these 8 ⁇ 4, 4 ⁇ 8, and 4 ⁇ 4 MC modes as in Embodiment 1 it is determined in advance that only virtual samples with half-pixel accuracy are used.
  • the data that needs to be read from the memory for generating the virtual sample is, for example, only one pixel around the motion vector detection unit area according to the conventional half-pixel precision sample generation procedure. This is extremely significant in small motion vector detection unit areas because the individual detection unit areas are spatially discontinuous.
  • Step ST2, Step ST3 Calculation of prediction error (Step ST2, Step ST3)
  • Step ST2 Step ST3
  • Step ST3 Calculation of prediction error (Step ST2, Step ST3)
  • a prediction image is generated for each motion vector candidate, and the difference between the prediction image and the motion vector detection unit area to be predicted is calculated to calculate a prediction error amount.
  • generation of a half-pixel precision sample as shown in FIG. 1 and generation of a quarter-pixel precision sample as shown in FIG. 2 are performed.
  • the pixel value wrapping is not used at the end point in FIG. 2, and the number of fill taps is hereinafter referred to as an evening tap in order to have generality.
  • the pixel data used for virtual sample generation is shown in the lower part of FIG. As shown in (1), only one pixel around each 8X4, 4X8, 4X4 motion vector detection unit area is read from the memory (step ST2).
  • step ST 3 The calculation of the prediction error amount (step ST 3) is based on the block matching method. It is generally calculated by adding the error amount of each pixel unit.
  • the square error (pp,) 2 or the absolute difference value Ipp'I is mainly used as the error amount.
  • p is the pixel value of the prediction target
  • p ' is the pixel value of the corresponding position in the prediction image.
  • the error amount is assumed to be the latter absolute value
  • the SAD Sud of Absolute Difference
  • the code amount of the motion vector is calculated (step ST4). Since the motion vector usually has a high correlation with the surrounding area, the motion vector of the surrounding area is used as the predicted value, and the prediction difference between the predicted value of the motion vector of the surrounding area and the obtained motion vector is calculated. Variable-length encode the value (MVD). There are various methods for setting the predicted value.Here, it is assumed that the predicted value is determined by a predetermined rule and the predicted difference value (MVD) of the motion vector is obtained. Details are omitted.
  • the virtual sample precision determined in 3-1-1 is considered when calculating the code amount of the prediction difference value (MVD).
  • step ST4 The method of obtaining the predicted difference value (MVD) in step ST4 will be described with reference to FIG. This operation is performed in the motion detection unit 2, but the same rule is applied to the case where the motion vector finally determined in step ST9 is encoded by the variable length encoding unit 6.
  • the motion vectors to be encoded are MV1 to MV5, and the prediction vectors defined for MV1 and MV3 in accordance with a predetermined prediction value setting rule are PMV1, Let PMV2 be the prediction vector determined for MV5. Let MV2 be MV1 and MV4 be MV3, respectively. PMV 1 and PMV 2 are already encoded Since it is a value, it may be appropriately cached.
  • PMV 1 is a motion vector based on 16 x 8 MC
  • MV 5 is a motion vector based on 8 x 8 MC. Therefore, virtual samples with 1/4 pixel precision can be obtained according to the rules defined in (3) 1-1-1. This is the motion vector determined using.
  • MV1 to MV4 and PMV2 are motion vectors based on 4x4 MC
  • the value of the prediction vector and its virtual sample precision are known in advance.
  • the accuracy of the motion vector is adaptively adjusted to obtain a prediction difference value (MVD). That is, the prediction difference value (MVD) is obtained under the following conditions.
  • Condition 1 If itself (MV) is a motion vector obtained by prediction using virtual samples with half-pixel accuracy, it is divided into the following two types according to the accuracy of PMV.
  • Condition 1-1 When the PMV is a motion vector using virtual samples of the same accuracy
  • Condition 2 If itself (MV) is a motion vector obtained by prediction using virtual samples with quarter-pixel accuracy, the motion vector is divided into two according to the accuracy of PMV as follows.
  • Condition 2-1 Motion vector using virtual samples with the same precision of PMV If it is
  • X X y indicates a left y-bit shift operation on X
  • X >> y indicates a right y-bit shift operation on X
  • Condition 1-2 above is applied as a rule between ⁇ ⁇ 1 and] ⁇ ⁇ 1 and MV3.
  • MV1, MV3 and MV2, MV4 the above condition 1 is applied.
  • — 1 is applied, and
  • Condition 2-2 is applied as the rule between P MV 2 and MV 5.
  • step ST5 cost C is obtained for each motion vector candidate by the following equation (step ST5).
  • the motion compensation unit 7 determines whether or not the calculated cost is the minimum (step ST6), and calculates the cost of the mode calculated before that. If a smaller value appears (step ST 6 “Y”), the minimum cost is updated, and the corresponding prediction mode and motion vector are held (step S ⁇ 7).
  • Steps ST 1 to ST 7 are executed for 16 x 16 MC to 8 X 8 MC and all the division modes below it.
  • Steps S S2 to S5 are performed for each motion.
  • all the motions within the predetermined motion vector search range set in advance by the encoding device that is, all the motions within the window that defines the upper limit of the horizontal and vertical translation amounts. Execute for vector candidates.
  • Step ST8 calculates the cost in all prediction modes It is determined whether or not the calculation has been performed (step ST8). If the cost calculation has not been performed in all the prediction modes (step ST8 "N"), the processing shown in 3-114 described above (step ST1) Step ST7), while the cost is calculated in all prediction modes (Step ST8 "Y"), the cost of the macroblock unit obtained in 3—1—4 is The least expensive prediction mode is determined as the prediction mode to be actually encoded (step ST9). At the same time as the prediction mode is determined, the motion vector corresponding to the prediction mode is determined (step ST9).
  • the optimal mode is finally determined by comparison with the intra mode, and the variable length coding unit 13 is used as the coding mode information 13. It is multiplexed into video compression data on a macroblock basis through 6 through 26.
  • the determined motion vector data 5 is converted into an MVD data in the procedure of 3-113, and is passed through the variable-length coding unit 6. Multiplexed into compressed video data 26 in macroblock units.
  • FIG. 9 shows a flowchart of the motion compensation processing on the decoding device side.
  • the motion compensation processing on the decoding device side will be described in detail with reference to a flowchart.
  • variable length decoding unit 27 converts the encoding mode information from the video compression data 26 output from the encoding device shown in FIG. Decrypt 1 3 When this indicates the inter (inter-frame prediction) mode, the variable-length decoding unit 27 subsequently decodes the motion vector 5 encoded in the form of a prediction difference value (MVD). (Step ST10).
  • the coding mode information 13 indicates the in-frame (inter-frame prediction) mode, that is, in the case of the first embodiment, for example, any of the motion compensation prediction modes shown in FIG.
  • the virtual sample accuracy is determined in the same manner as in the case of the procedure (3-1-11) (step ST1) described as the motion compensation prediction processing procedure in the coding device. That is, as described in the operation of the coding apparatus, the shape information indicating the unit of motion compensation prediction, that is, the shape and size of the area of the motion vector detection unit, is the coding mode information 1 Since the variable-length coding unit 6 encodes a part of the motion prediction mode as part of the motion prediction mode in 3, the decoding device side includes in the decoded coding mode information 13 a part of the motion prediction mode.
  • step ST 1 2 Based on the shape information included in the motion vector, the shape and size of the motion vector detection unit area, which is the unit of motion compensation prediction, and the accuracy of the virtual sample uniquely determined from the shape and size can be determined. . 3—2—3 Decoding of motion vector (step ST 1 2)
  • the motion vector decoded in the form of the prediction difference value (MVD) is actually applied to each motion vector application unit area, that is, each motion vector detection unit area in the description of the encoder.
  • Decoding to the used motion vector overnight (MV) (step ST12).
  • This procedure is performed in the variable length decoding unit 27 and the like in the first embodiment, and may be the reverse of the procedure described in (3) -11 described as the motion compensation prediction processing procedure in the encoding device. That is, in the first embodiment, as in the case of determining the accuracy of the virtual sample, the motion vector is calculated from the shape information included as part of the motion prediction mode in the encoding mode information 13. Since the prediction and restoration method of the motion vector is uniquely determined, the motion vector is decoded by switching the prediction and restoration method of the motion vector based on the shape information. This will be explained using Fig. 8 in comparison with the procedure of 3-1-3.
  • MVD1 is a predicted difference value (MVD) corresponding to MV1
  • MVD3 is a predicted difference value (MVD) corresponding to MV3.
  • Condition 1 If itself (MV) is a motion vector obtained by prediction using a virtual sample with 1/2 pixel accuracy, it is divided into two according to the accuracy of PMV as follows.
  • Condition 1-1 When the PMV is a motion vector using virtual samples of the same accuracy
  • Condition 2 If itself (MV) is a motion vector obtained by prediction using virtual samples with quarter-pixel accuracy, the motion vector is divided into two according to the accuracy of PMV as follows.
  • the motion vector is decoded by using the following rules.
  • the motion compensation prediction process ST As in the case of 2, the pixel data used for generating the virtual sample is read from the memory as shown in the lower part of FIG. 7 to generate a predicted image.
  • the size of the block serving as the motion compensation prediction unit can be adapted to the local situation of the motion.
  • the method of calculating the motion vector is also switched, so that compression encoding that maintains image quality while suppressing the memory band width is performed. Becomes possible.
  • the reduction of the memory bandwidth has a remarkable effect on simplifying the implementation of video decoding processing and reducing power consumption, especially when implementing a player mainly for video playback on a mobile phone, portable information terminal, etc. .
  • the accuracy of virtual samples when performing motion compensation prediction is switched according to the size of a block serving as a motion compensation prediction unit, and the method of calculating a motion vector is also switched.
  • the present invention is not limited to this, and the method for calculating a motion vector is only required to switch the accuracy of a virtual sample when performing motion compensation prediction according to the size of a block serving as a motion compensation prediction unit. May of course not be switched.
  • the coding efficiency can be improved while suppressing the memory band width, but the image quality is reduced by the lower accuracy of the motion compensation prediction. This also applies to all the following embodiments.
  • the virtual sample generation is performed in accordance with the virtual sample accuracy to be used. It is configured to change the file processing for the purpose.
  • a 1/4 pixel precision sample was generated by further linearly interpolating the pixel precision virtual sample.
  • half-pixel precision samples are generated by linear interpolation of integer pixel data. In this case, it suffices to read out from the memory only the motion compensation prediction target block size plus one peripheral pixel.
  • the point was to reduce the amount of data read from memory in motion compensation prediction with a small block size, but this fill processing itself does not depend on virtual sample accuracy. It may be configured so as to be uniquely determined. In other words, even in the case of a small block size using only the half-pixel precision sample, the half-pixel precision sample may be configured by the K tap filter. This fixation of the fill process does not reduce the memory bandwidth in terms of the amount of data read from the memory, but on the other hand, the process of creating a sample with 1 to 4 pixel accuracy from the half-pixel samples generated by the K-type fill process It is not necessary, and the expression accuracy of the motion vector can still be limited, as in 3-1-3, 3-2-3, and the motion vector encoding can be made more efficient.
  • the unit of video input is always described as a frame.
  • an interlaced video input such as an odd field and an even field is input, strictly, two frames are used.
  • Field image data In this case, the video encoding device and the video decoding device according to the first embodiment form a macro block for each field. It is clear that the present invention is also applicable to encoding / decoding. This applies to all the following embodiments.
  • a virtual sample with half-pixel accuracy is used in a motion vector detection unit area of 8 ⁇ 4, 4 ⁇ 8, or 4 ⁇ 4 size as a size smaller than 8 ⁇ 8.
  • the present invention is not limited to this, and may be a size smaller than 8 ⁇ 8 such as 4 ⁇ 2, 2 ⁇ 4, etc., other than 8 ⁇ 4, 4 ⁇ 8, 4 ⁇ 4, or 8 ⁇ 8.
  • the accuracy of the virtual sample may be changed depending on the size, based on another size such as 8 ⁇ 16 or 16 ⁇ 8, instead of based on 8.
  • a motion vector detection unit area of a size smaller than the predetermined size is used instead of using virtual samples with half-pixel accuracy in a motion vector detection unit area of a size smaller than a predetermined size such as 8 ⁇ 8.
  • the motion compensation prediction may be performed with integer pixel precision. In this way, the memory bandwidth can be significantly reduced, although the image quality will be slightly reduced.
  • the search accuracy of the motion vector based on a predetermined block size where memory band width is a problem It is only necessary to reduce the memory band width by lowering the memory bandwidth. This applies to all the following embodiments.
  • FIG. 10 shows the configuration of the video encoding device according to the second embodiment.
  • the difference from the encoding apparatus of the first embodiment shown in FIG. 3 is that the frame memory 3 is replaced by a frame memory group 28, and the motion detection unit 2 and the motion compensation unit 7 are The point is that the memory group 28 is used to obtain the optimal predicted image and motion vector from a plurality of frame memories.
  • the motion detecting unit 2 and the motion compensating unit 7 are different in the details of the operation from the encoding device shown in FIG. 3, but will be described below with the same figure number on the premise thereof.
  • the input video signal 1 is assumed to be input in a unit in which each video frame is divided into macroblocks.
  • the motion detecting unit 2 divides a plurality of reference images 4 stored in a frame memory group 28 into two. Then, motion vector 5 is detected in macroblock units.
  • Fig. 11 shows a method of performing bidirectional prediction disclosed in ISO / IEC13818-2 (MPEG-2 video standard).
  • F (t) is the input video frame to be encoded at present, and the reference images stored in the frame memory are distinguished as F and ().
  • B (x, y, t) be a block of a motion-compensated prediction unit in F (t).
  • the block image in the past reference image F, (t—1) which is shifted from the position of B (X, y, t) by the motion vector MV f (B (x, y, t)) was a forward predictive picture P f (B (x, y , t)), B (x, y, t) future is moved from the position of the motion vector MV b (B (x, y , t)) only A backward prediction image of the block image in the reference image F ′ (t + 1) of P: P b (B (x, y, t)), and the sum of P f (B (x,, t)) and P b (B (x, y, t)) gives B (x, y, t) A predicted image P i (B (x, y, t)) is generated.
  • MV f (B (x, y, t)) and MV b (B (x, y, t)) in the motion detection unit 2 correspond to B (B (x, y, t)) within the given search range on the reference image.
  • X, y, t) is searched for a block image that has a high degree of similarity with the picture or a pixel difference that is the smallest, and this value corresponds to the value of the detected deviation.
  • FIG. 12 shows an example of unidirectional prediction for detecting a motion vector using a plurality of reference images.
  • Another example shown in FIG. 12 is, for example, a code configured so that a plurality of past reference images disclosed in Japanese Patent Application Laid-Open No. 4-127689 can be stored in a frame memory group 28.
  • the block image similar to the block B (X, y, t) of the motion compensation prediction unit is not in the immediately preceding reference image F (t-1), and the previous reference image F (t- Even in the case of ( 2 ), since motion compensation prediction can be performed using the motion vector MV t — 2 (B (x, y, t)), motion compensation prediction adapted to the local properties of the video can be performed. It is made to be able to do.
  • a motion vector is calculated using the plurality of frame memories and the plurality of reference images stored therein.
  • the present invention can be applied to the encoding device having any of the configurations shown in FIGS. 11 and 12 to be detected.
  • the motion vector 5 detected as in the case of FIG. 11 or FIG. The information that indicates which frame memory was referred to is specified as a set.
  • the motion compensation unit 7 of the second embodiment refers to an appropriate frame memory in the frame memory group 28 according to the information.
  • the predicted image 8 is obtained. Further, by taking the difference from the input signal 1, the prediction residual signal 9 is obtained. Note that the information indicating which frame memory in the frame memory group 28 the motion vector 5 refers to is not the motion vector 5 itself, but the encoded data for notifying the decoder as separate information. It may be expressed in a form.
  • the coding mode determination unit 12 of the second embodiment specifies a macroblock coding method such as a motion prediction mode for coding the prediction residual signal 9 and an intra mode for intra-frame coding.
  • a mode capable of encoding the macroblock most efficiently is selected and output as encoding mode information 13.
  • the motion prediction mode is a prediction using only the shape of the intra-macroblock division shown in FIG. 6 described in Embodiment 1 or P f (B (X, y, t)) in FIG. whether to measurement, P b (B (x 5 y, t)) or the prediction is performed using only its corresponding like information identifying and whether taking the arithmetic mean of these.
  • the encoding mode information 13 is passed to the variable length encoding unit 6 as encoding target information.
  • the motion vector 5 is passed to the variable length coding unit 6 as coding target information, and is subjected to variable length coding.
  • FIG. 13 shows the configuration of the video decoding device according to the second embodiment. 4, the difference from the decoding apparatus of Embodiment 1 shown in FIG. 4 is that the frame memory 3 is replaced by a frame memory group 28, and the motion compensation unit ⁇ ⁇ is decoded by the variable length decoding unit 27. Motion vector 5 and coding mode information 1 According to 3, a predicted image is obtained from a specified frame memory in the frame memory group 28.
  • the details of the operation of the motion compensating section 7 are different from those of the decoding apparatus shown in FIG. 4, but the following description will be made with the same figure number on the premise thereof.
  • variable-length decoding unit 27 When the decoding device receives the compressed video data 26, the variable-length decoding unit 27 first performs entropy decoding processing to be described later to obtain a motion vector 5, encoding mode information 13, and orthogonal transform coefficient data 1. 7. The quantization step parameters are restored. Note that the process of restoring the prediction residual signal based on the orthogonal transform coefficient data 17 and the quantization step parameter 23 is the same as that of the decoding device according to the first embodiment, and a description thereof will not be repeated.
  • the motion compensation unit 7 performs frame memory based on the motion vector 5 decoded by the variable-length decoding unit 27 and the encoding mode information 13.
  • the predicted image 8 is restored using a reference image stored in a predetermined frame memory in the group 28.
  • the switch 54 outputs the predicted image 8 from the motion compensation unit 7 to the adder 55 in the motion prediction mode based on the encoding mode information 13, while outputting 0 in the intra mode. Output to adder 5 5.
  • the adder 55 adds the output from the switch 54 to the decoded signal output from the inverse orthogonal transform unit 19 to obtain a decoded image 21.
  • the decoded image 21 is stored in the frame memory group 28 because it is used for generating a predicted image of a subsequent frame.
  • the processing for obtaining the motion vector 5 and the predicted image 8 using the frame memory in which the individual reference images (F ′ (t-1), etc.) are stored on the encoding device side has been described in the first embodiment.
  • the process of obtaining the predicted image 8 using the frame memory to be performed can be regarded as the motion compensation process in the 3-2 decoding device composed of 3—2-1—3—2—4 in Embodiment 1.
  • the procedure described in Embodiment 1 can be applied as it is.
  • the local state of the motion is The accuracy of the virtual sample described in the conventional example is switched according to the size of the block that becomes the motion compensation prediction unit in accordance with, and the coding and decoding methods of the motion vector are also switched.
  • the motion compensation prediction is complicated and complicated. If the effect of image coding is reduced, the virtual sample accuracy is limited to half a pixel or an integer pixel, and the motion vector representation accuracy is also reduced. The width can be reduced.
  • the prediction of the decoding device is used if the motion vector detection processing is performed by the coding device. A remarkable reduction in the amount of computation for image generation processing is expected.
  • the second embodiment has a plurality of frame memories
  • the contents of the plurality of frame memories are usually decoded images.
  • the instruction to not update only the contents of one of the multiple frame memories is issued, only the contents of one of the multiple frame memories are updated.
  • the short-term frame memory which updates multiple frame memories sequentially, and the linguistic frame memory, in which the reference image is not updated until the next event occurs, are used.
  • the motion compensation prediction may be performed using the reference images of the short-term frame memory and the long-term frame memory. In this way, it is possible to use a plurality of frame memories according to the temporal local characteristics of the moving image signal, and to efficiently use the frame memory while coding. Encoding can be performed while maintaining high prediction efficiency without being affected by the sequence.
  • the bidirectional prediction shown in Fig. 11 and the unidirectional prediction shown in Fig. 12 are adaptively switched in units of the region where the motion compensation prediction is performed. Updating the contents of the multiple frame memories sequentially with the decoded image, and updating only the contents of one of the multiple frame memories If it is instructed not to do so, it is possible to adaptively switch not to update only the contents of one of the frame memories out of the plurality of frame memories. Even if various characteristics such as dynamic motion appear, it is possible to improve the coding efficiency and the image quality without increasing the memory band width.
  • a virtual sample calculation method switching flag for improving the degree of freedom of adaptive switching of the virtual sample calculation method with respect to the video encoding device and the video decoding device described in the first and second embodiments.
  • the following describes a video encoding device and a video decoding device that incorporate the above.
  • the motion compensation prediction in the size of, for example, 8x4, 4x8, and 4x4 smaller than 8x8MC in FIG. Is limited to virtual samples with half-pixel accuracy, but depending on the video, even in the case of motion-compensated prediction in units smaller than smaller than 8 ⁇ 8 MC, it is necessary to improve prediction efficiency.
  • motion compensation prediction with quarter-pixel accuracy may be required. For example, there may be a case in which a subtle noise component included in an input signal causes a variation in a motion vector while the image to be subjected to the motion compensation prediction sufficiently stores the texture.
  • FIG. 14 shows the configuration of the video encoding device according to the third embodiment.
  • FIG. 15 shows the configuration of the video decoding device according to the third embodiment.
  • the virtual sample precision switching flag 29 which is a precision switching signal of the motion compensation prediction plays a role for adapting the motion compensation prediction precision described above,
  • the other points are the same as those of the video encoding device or the video decoding device of the first embodiment shown in FIG. 3 or FIG.
  • the virtual sample precision switching flag 29 is used to pre-analyze input video data inside the encoding device or to control externally in a system including the encoding device.
  • the flag value is determined in predetermined video data units on the basis of factors such as the remaining buffer capacity of the transmission buffer 24 and the transmission environment such as the coded bit rate.
  • the motion detecting unit 2 and the motion compensating unit 7 change the virtual sample at the time of motion compensation prediction while adaptively changing the switching unit as shown below.
  • the motion vector and the predicted image are generated by changing the accuracy and the method of calculating the motion vector.
  • the virtual sample precision switching flag 29 of 0 N or 1 means that the motion compensation prediction with a block size of less than 8 ⁇ 8 MC in the video data unit to be the switching unit is 1 / Indicates that the motion compensation prediction is performed with 4-pixel accuracy. In other words, in this case, the prediction efficiency is prioritized even if a large amount of pixel data is allowed to be read from the frame memory on the assumption that a multi-tap file as shown in FIG. 2 is used. In this case, all the movements Since the vectors have the same accuracy, the motion vector prediction and code amount calculation with the accuracy conversion of the motion vector described in 3- 1-3 are not performed.
  • the virtual sample precision switching flag 29 is 0 FF or 0, it means that 8 ⁇ 4, 4 ⁇ 8, 4 ⁇ 4 Indicates that motion-compensated prediction with a block size in terms of size should be performed with half-pixel accuracy.
  • This specification is used in the case where the necessary and sufficient prediction efficiency can be obtained even with a virtual sample with half-pixel accuracy as shown in Fig. 1.
  • the video data unit which is the switching unit of the virtual sample precision switching flag 29 is, for example, a macroblock, a slice (a unit area of a video frame composed of a plurality of macroblocks), a frame field (an image field).
  • a sequence a time series unit composed of a plurality of video frames
  • the virtual sample precision switching flag 29 set on the encoding side as described above is multiplexed into a bit stream in the variable length encoding unit 6 in predetermined video data units.
  • variable length decoding unit 27 decodes the value of the virtual sample precision switching flag 29, and for each video data unit to which the virtual sample precision switching flag 29 is added. Based on the above criteria, the variable-length decoding unit 27 decodes the precision-adaptive motion vector 5 described in 3-2-3 as necessary, and the motion compensation unit 7 switches the virtual sample accuracy.
  • the prediction image 8 is configured to be generated based on the virtual sample generation processing with the accuracy specified by the flag 29 and the motion vector 5.
  • the virtual sample precision switching flag 29 is applicable to the video encoding device and the video decoding device in the second embodiment. Needless to say.
  • An example will be described in which a spatial prediction unit 10a that performs encoding by an intra prediction mode that encodes a difference signal between a moving image signal and a prediction signal using spatial prediction in a frame is used as a tiger mode.
  • FIG. 16 shows the configuration of an encoding apparatus according to the fourth embodiment in which a spatial prediction unit 10a is added to the encoding apparatus according to the first embodiment shown in FIG.
  • the spatial prediction unit 1 ⁇ a changes the variable length coding unit 6 to the intra prediction mode 1 4 and the spatial prediction unit 10a outputs the spatial prediction image 20 to the switch 52 instead of the zero input of the intra mode in the case of the first to third embodiments.
  • Others are the same as in the first embodiment.
  • FIG. 17 shows that the decoding apparatus of Embodiment 1 shown in FIG. 15 shows a configuration of a decoding apparatus according to Embodiment 4 to which 0a is added.
  • spatial decoding section 10a is added in the decoding apparatus according to the fourth embodiment, that is, as shown in FIG. Since a is added, the spatial prediction unit 10 a is output from the variable length decoding unit 27 a and the Heintra prediction mode 14 is output, and the switch 54 is switched to the intra mode in the first to third embodiments.
  • the spatial prediction unit 10a outputs a spatially predicted image 20 instead of the 0 input. Others are the same as the first embodiment.
  • the variable length coding unit 6 outputs the intra prediction mode 14 from 0a, and the variable length coding unit 6 outputs the motion vector 5, the quantization step parameter 23, the coding mode information 13 and
  • the intra prediction mode 14 is also subjected to entropy coding together with the orthogonal transform coefficient data 17 and transmitted as a video compression data 26 via the transmission buffer 24.
  • the switch 52 of the fourth embodiment performs the reverse operation when the coding mode information 13 indicates the motion prediction mode that is the prediction in the time direction.
  • the quantized and inverse orthogonal transformed orthogonal transform coefficient data 17 and the predicted image 8 from the motion compensator 7 are added and output as a locally decoded image 21 to the frame memory 3 or its encoding mode
  • the orthogonal transform coefficient data 17 subjected to the inverse quantization and the inverse orthogonal transform and the spatial prediction image 20 are added and the local prediction image 20 is added. It is output as a decoded image 21 and is stored in the frame memory 3 as reference image data because it is used for motion prediction of a descending frame.
  • the decoding apparatus decodes the intra prediction mode 14 and outputs the decoded result to the spatial prediction unit 10a, where the spatial prediction image 20 is restored. Then, in switch 54 of the fourth embodiment, based on coding mode information 13 from variable length decoding section 27, if the motion prediction mode is prediction in the time direction, the motion compensation section While the predicted image 8 from 7 is output to the adder 55, the spatial predicted image 20 is output to the adder 55 when the intra prediction mode, which is the prediction in the spatial direction, is indicated.
  • the adder 55 adds the output from the switch 54 to the decoded signal output from the inverse orthogonal transform unit 19 to obtain a decoded image 21, which is used to generate a predicted image for the subsequent frames. Since it is used, it is stored in the frame memory 3.
  • a moving image is obtained by using spatial prediction in a frame. Since the intra prediction mode in which the difference signal between the image signal and the prediction signal is encoded is employed, the same effect as in the first embodiment can be obtained, and also the normal signal performed in the first embodiment can be obtained. Compression efficiency can be improved compared to intra mode.
  • a spatial prediction unit 10a is added to the encoding apparatus of Embodiment 1 shown in FIG. 3 and the decoding apparatus of Embodiment 1 shown in FIG.
  • the spatial prediction unit 10a is not limited to this, and the spatial prediction unit 10a may be added to the encoding device and the decoding device according to the second embodiment shown in FIGS. 10 and 13. It is also possible to add a spatial prediction unit 10a to the encoding apparatus and the decoding apparatus according to the third embodiment shown in FIGS. 14 and 15 in these cases. Can be described in the same manner as described above.
  • the description has been given as an element product such as an image encoding device or an image decoding device.
  • the image encoding device or the image decoding device according to the first to fourth embodiments is used.
  • a brief description of the final product to be implemented will be given.
  • FIG. 18 shows a configuration of a mobile phone in which the image encoding device and the image decoding device according to the first to fourth embodiments are mounted.
  • this mobile phone has a transmitting / receiving unit 71, a baseband processing unit 2, a control unit 73, an audio codec 74, a video codec 75, an interface 76, and a camera 7 7, a display 78, a microphone / speaker 79, an antenna 80, etc., and as the video codec 75, the image encoding device and the image decoding device according to any of the first to fourth embodiments are used.
  • the video codec 75 the image encoding device and the image decoding device according to any of the first to fourth embodiments are used.
  • the mobile phone by implementing the element products such as the image encoding device and the image decoding device according to the first to fourth embodiments, the mobile phone can be adapted to the local situation of movement.
  • the implementation of video decoding processing can be simplified and power consumption can be significantly reduced.
  • both the image encoding device and the image decoding device are video codecs as final products on which the element products such as the image encoding device or the image decoding device of Embodiments 1 to 4 are mounted.
  • the description has been made by taking as an example the mobile terminal mounted on the device 75 the present invention is not limited to this, and the broadcasting device mounted only with the image coding device of the first to fourth embodiments and the image of the first to fourth embodiments are not limited thereto.
  • the present invention can be applied to a DVD player or the like in which only the image decoding device is mounted.
  • video recovery is achieved by reducing the memory bandwidth. This has a significant effect on simplifying signal processing implementation and reducing power consumption.
  • a communication device including at least one of the video encoding device and the video decoding device according to the present invention divides a video frame such as a macroblock into small regions and individually performs motion compensation prediction. It is suitable for improving the coding efficiency while suppressing the memory band width.

Abstract

 個々の領域の動きベクトルの検出において仮想サンプルを用いた動き補償予測を用いるが、個々の動きベクトル検出単位の領域の大きさに関連付けて局所的に仮想サンプルの精度を決定する。例えば、8×8 MCより小さい8×4や、4×8、4×4サイズの動きベクトル検出単位領域では、半画素精度の仮想サンプルを用いることとし、8×8 MC以上のサイズの動きベクトル検出単位領域では1/4画素精度の仮想サンプルを用いる。これにより、8×4,4×8,4×4 MCの各モードについて、仮想サンプル生成に必要なメモリバンド幅を削減することができ、装置の簡略化にも効果的である。

Description

明 細 書 画像符号化装置、 画像符号化方法、 画像復号装置、
画像復号方法、 および通信装置 技術分野
この発明は、 画像の高能率符号化あるいは復号化において、 既存の画 像から符号化すべき画像もしくは復号すべき画像の予測を行い、 予測誤 差を符号化する画像符号化装置、 画像符号化方法、 及び、 予測誤差との 加算により復号を行う画像復号装置、 画像復号方法に関するものである 。 また、 これらの画像符号化装置と画像復号装置のうち少なく とも一方 を備えた通信装置に関するものである。 背景技術
MP E G (Mo v i n g P i c t u r e E xp e r t s G r o up) や I TU— T H . 2 6 xなどの標準映像符号化方式では、 マク ロブロックとよばれる輝度信号 1 6 X 1 6画素 (色差信号 8 X 8画素を 含む) から構成される正方ブロックにフレーム画面の分割を行い、 その 単位で動き補償予測によって参照フレームからの動きを推定し、 推定誤 差分の信号 (予測残差信号) と動きベク トル情報とを符号化している。 また、 M P E G— 2ではマクロブロックを 2つのフィール ド領域に分割 してフィールド別に動き予測を行ったり、 H . 2 6 3や M P E G— 4で はマクロプロックをさらに 8 X 8画素ブロックのサイズに 4分割し、 各 サプブ口ック単位で動き予測を行う技術が導入されている。 特に、 MP E G - 4における動き予測プロックサイズの適応化は、 動きべク トルの 符号量が増える一方で、 より激しい ·細かい動きへの追随性が向上し、 適切なモード選択を行う ことによって性能向上が見込めることが知られ ている。
また、 動き補償予測の別の技術的側面として、 動きベク トルの精度が ある。 本来、 デジタル画像データゆえ、 サンプリ ングによって生成され た離散的な画素情報 (以降、 整数画素と呼ぶ) しか存在しないが、 整数 画素の間に内挿演算によって仮想的なサンプルを作り出し、 それを予測 画像と して用いる技術が広く利用されている。 この技術には、 予測の候 補点が増えることによる予測精度の向上と、 内挿演算に伴うフィル夕効 果によって予測画像の特異点が削減され予測効率が向上するという 2つ の効果があることが知られている。 一方で、 仮想サンプルの精度が向上 すると、 動き量を表現する動きベク トルの精度も上げる必要があるため 、 その符号量も増加することに注意する必要がある。
MP E G— 1、 MP E G— 2ではこの仮想サンプルの精度を 1 / 2画 素精度まで許容する半画素予測が採用されている。 第 1図に 1ノ 2画素 精度のサンプルの生成の様子を示す。 同図において、 A , B , C , Dは 整数画素、 e , f , g , h , iは A〜Dから生成される半画素精度の仮 想サンプルを示す。
6 = ( A + B ) / / 2
f = ( C +D ) // 2
g = ( A + C) // 2
h = (B +D ) / / 2
i = (A + B + C +D ) // 2
(ただし、 //は丸めつき除算を示す。 )
この半画素精度の仮想サンプル生成手順を、 所定のプロックに対して 適用する場合は、 プロ ックの端点から周辺 1整数画素分余分なデータを 要する。 これはプロックの端点 (整数画素) から半画素分外側の仮想サ ンプルを算出する必要があるためである。
また、 MP E G— 4では、 1Z4画素精度までの仮想サンプルを用い る 1Z4画素精度予測が採用されている。 1 /4画素精度予測では、 半 画素サンプルを生成した後、 それらを用いて 1 /4画素精度のサンプル を生成する。 半画素サンプル生成時の過度の平滑化を抑える目的で、 夕 ップ数の多いフ ィ ル夕を用いてもとの信号の周波数成分を極力保持する よう設計される。 例えば MP E G— 4の 1 /4画素精度予測では、 1ノ 4画素精度の仮想サンプル生成のために作られる半画素精度の仮想サン プル aは、 その周辺 8画素分を使用して、 以下のように生成される。 な お、 下式は、 水平処理の場合のみを示しており、 1 /4画素精度の仮想 サンプル生成のために作られる半画素精度の仮想サンプル aと、 下式の 整数画素の X成分 X_4〜X 4との関係は、 第 2図に示す位置関係にある a = ( C O E 1 * X 1 + C O E 2 * X2 + C O E 3 * X 3 + C O E 4 * X4 + C O E_ 1 * X_ 1 + C O E _2 * X_2 + C O E_3 * X_ 3 + C O E _ 4 * X _ 4 ) / / 2 5 6
(ただし、 C 0 E k : フィ ル夕係数 (係数総和が 2 5 6 ) 。 //は丸 めっき除算を示す。 )
この 1 /4画素精度の仮想サンプル生成手順を、 所定のブロックに対し て適用する場合は、 プロックの端点から周辺 4整数画素分余分なデータ を要する。 これはプロックの端点 (整数画素) から 1 /4画素分外側の 仮想サンプルを算出する必要があるためである。
しかし、 予測対象ブロックの端点において、 フ ィル夕タツプ数に応じ た数の予測対象プロヅクの周辺画素がフ ィル夕演算に必要になるため、 夕ップ数次第では予測画像生成のために必要なメモリバン ド幅が大き く なるという問題がある。 特に、 M P E G— 4の 1 / 4画素精度予測では、 この問題を避けるた め、 予測対象プロックの端点画素を折り返すことで予測画像生成のため に必要な新規読み出し画素数を抑える工夫がなされているが、 これによ り、 予測対象ブロックの境界での自然なフィル夕リ ングが阻まれ、 符号 化効率上好ましいとはいえないという問題がある。
そこで、 本発明は、 マクロブロックなど映像フレームを小領域単位に 分割して個々に動き補償予測を行う場合でも、 メモリバンド幅を抑えつ つ、 符号化効率を向上させることを可能とする画像符号化装置、 画像符 号化方法、 画像復号装置、 画像復号方法、 およびこれらの画像符号化装 置と画像復号装置とのうち少なく とも一方を備えた通信装置を提供する ことを目的とする。 発明の開示
この発明に係る動画像符号化装置は、 動画像信号の各フレームを所定 の方法で分割した領域単位で動き補償予測を行い生成した予測画像と動 画像信号との間の差分信号を圧縮符号化した符号化ビッ トス ト リームを 生成する動画像符号化装置であって、 予測画像の生成に用いる参照画像 を格納するフレームメモリ と、 動き補償予測の単位となる領域の形状に 応じて、 予測画像の構成要素となる仮想画素の精度を切り換えて予測画 像の候補を生成し、 該複数の予測画像候補のうち予測効率が大きい予測 画像を与える動きべク トルを生成する動き検出部と、 動き検出部にて生 成された動きべク トルに基づき、 動き補償予測の単位となる領域の形状 に応じて予測画像の構成要素となる仮想画素の精度を切り換えて予測画 像を生成する動き補償部とを備え、 符号化ビッ トス ト リームに、 動き補 償予測の単位となる領域の形状を示す形状情報と、 動きべク トルとを多 重するものである。 また、 この発明に係る動画像符号化装置は、 動画像信号の各フレーム を所定の方法で分割した領域単位で動き補償予測を行い生成した予測画 像と動画像信号との間の差分信号を圧縮符号化した符号化ビッ トス ト リ ームを生成する動画像符号化装置であって、 予測画像の生成に用いる参 照画像を格納するフレームメモリと、 動き補償予測の単位となる領域の 形状に応じて、 予測画像の構成要素となる仮想画素の精度を切り換えて 予測画像の候補を生成し、 該複数の予測画像候補のうち予測効率が大き い予測画像を与える動きべク トルを生成する動き検出部と、 動き検出部 にて生成された動きべク トルに基づき、 動き補償予測の単位となる領域 の形状に応じて予測画像の構成要素となる仮想画素の精度を切り換えて 予測画像を生成する動き補償部とを備え、 符号化ビッ トス ト リームに、 動き補償予測の単位となる領域の形状を示す形状情報と、 該形状情報で 示される動き補償予測の単位となる領域の形状に応じて動きべク トルの 予測符号化方法を切り換えて符号化された動きべク トルとを多重するも のである。
また、 この発明に係る動画像符号化装置は、 動画像信号の各フレーム を所定の方法で分割した領域単位で動き補償予測を行い生成した予測画 像と動画像信号との間の差分信号を圧縮符号化した符号化ビッ トス ト リ ームを生成する動画像符号化装置であって、 予測画像の生成に用いる参 照画像を格納するフレームメモリ と、 動き補償予測の単位となる領域の 形状に応じて、 予測画像の構成要素となる仮想画素の精度を切り換える か否かを所定の動画像データの単位で制御する制御信号に基づいて予測 画像の候補を生成し、 該複数の予測画像候補のうち予測効率が大きい予 測画像を与える動きべク トルを生成する動き検出部と、 動き検出部にて 生成された動きべク トルに基づき、 動き補償予測の単位となる領域の形 状に応じて予測画像の構成要素となる仮想画素の精度を切り換えるか否 かを所定の動画像デ一夕の単位で制御する制御信号に基づいて予測画像 を生成する動き補償部と、 を備え、 符号化ビッ トス ト リームに、 制御信 号を所定の動画像データの単位で多重するとともに、 動き補償予測の単 位となる領域の形状を示す形状情報と、 動きべク トルとを多重するもの である。
特に、 動き補償部は、 複数の精度であるフレームメモリに格納された 参照画像の複数の画素データに基づいて所定の方法で仮想画素を生成す る第 1の精度と、 その第 1の精度の仮想画素に基づいて仮想画素を生成 する第 2の精度とのうちから領域単位毎にいずれか一の指示された精度 にしたがって動き補償予測を行って参照画像を生成することを特徴とす る。
また、 動き補償予測の単位となる領域は、 動画像信号の各フレームを 輝度信号相当で 1 6画素 X 1 6ラインに分割したマクロプロヅクをさら に分割した予測単位プロックであり、 当該領域の形状を示す形状情報は 、 マクロプロックを予測単位プロックへ分割する方法を指示する情報で あることを特徴とする。
また、 予測画像の生成に用いる参照画像を格納するフレームメモリが 複数設けられ、 動き補償部は、 複数のフレームメモリに格納された複数 の参照画像を参照し動き補償予測を行って予測画像を生成することを特 徴とする。
また、 動画像信号をィン トラモードによ り符号化を行うィン トラモー ドを備え、 動き補償部による動き補償予測モードか、 イ ン トラモードか を選択的に行うと共に、 符号化ビッ トス ト リームに、 さらに選択したモ 一ドを示す符号化モード情報を多重することを特徴とする。
また、 動画像信号を空間予測モードにより予測符号化を行う空間予測 部を備え、 動き補償部による動き補償予測モードか、 空間予測部による 空間予測モードかを選択的に行うと共に、 符号化ビッ トス ト リームに、 さらに選択したモ一ドを示す符号化モード情報を多重することを特徴と する。
これにより、 この発明に係る画像符号化装置によれば、 メモリバン ド 幅を抑えながら符号化効率を向上させた圧縮符号化を行うことが可能と なる。
また、 動き補償予測単位となる領域の形状に応じて動き補償予測の精 度を切り換えると共に、 動き補償予測の単位となる領域の形状に応じて 動きべク トルの予測符号化方法も切り換えて適応的に切り変えて符号化 を行うことにより、 例えば、 メモリバン ド幅を抑えながら符号化効率を 向上させた分だけ動きベク トルに多く符号量を割り当てることが可能と なり、 メモリバン ド幅を抑えながら画質も保つことも可能である。
また、 この発明に係る動画像復号装置は、 動画像信号の各フレームを 所定の方法で分割した領域単位で動き補償予測を行い生成した予測画像 と動画像信号との間の差分信号を圧縮符号化した符号化ビッ トス ト リー ムを入力して動画像信号を復元する動画像復号装置であって、 予測画像 の生成に用いる参照画像を格納するフレームメモリ と、 符号化ビッ トス ト リ一ムを入力して差分信号と、 動きベク トルと、 動き補償予測の単位 となる領域の形状を示す形状情報とを復号する復号部と、 動き補償予測 の単位となる領域の形状を示す形状情報に基づいて予測画像の構成要素 となる仮想画素の精度を切り換え、 切り換えられた精度にしたがい復号 部にて復号された動きべク トルを用いフレームメモリに格納された参照 画像を参照して予測画像を生成する動き補償部と、 復号部にて復号され た差分信号と、 動き補償部にて生成された予測画像とを加算して動画像 信号を復元するものである。
また、 この発明に係る動画像復号装置は、 動画像信号の各フレームを 所定の方法で分割した領域単位で動き補償予測を行い生成した予測画像 と動画像信号との間の差分信号を圧縮符号化した符号化ビッ トス ト リー ムを入力して動画像信号を復元する動画像復号装置であって、 予測画像 の生成に用いる参照画像を格納するフレームメモリ と、 符号化ビッ トス ト リームを入力して差分信号と、 動き補償予測の単位となる領域の形状 を示す形状情報とを復号するとともに、 該形状情報に基づいて動きべク トルの予測復元方法を切り換えて動きべク トルの復号を行う復号部と、 動き補償予測の単位となる領域の形状を示す形状情報に基づいて予測画 像の構成要素となる仮想画素の精度を切り換え、 切り換えられた精度に したがい復号部にて復号された動きべク トルを用いフレームメモリに格 納された参照画像を参照して予測画像を生成する動き補償部と、 復号部 にて復号された差分信号と、 動き補償部にて生成された予測画像とを加 算して動画像信号を復元するものである。 '
また、 この発明に係る動画像復号装置は、 動画像信号の各フレームを 所定の方法で分割した領域単位で動き補償予測を行い生成した予測画像 と動画像信号との間の差分信号を圧縮符号化した符号化ビッ トス ト リー ムを入力して動画像信号を復元する動画像復号装置であって、 予測画像 の生成に用いる参照画像を格納するフレームメモリと、 符号化ビッ トス ト リームを入力して差分信号と動き補償予測の単位となる領域の形状を 示す形状情報と、 所定の動画像デ一夕の単位で定義される制御信号を復 号するとともに、 形状情報に基づいて動きべク トルの予測復元方法を切 り換えるか否かを、 制御信号に基づいて所定の動画像データの単位で制 御して動きべク トルの復号を行う復号部と、 動き補償予測の単位となる 領域の形状を示す形状情報に基づいて予測画像の構成要素となる仮想画 素の精度を切り換えるか否かを、 制御信号に基づいて所定の動画像デー 夕の単位で制御して仮想画素の精度を決定し、 決定された精度にしたが ぃ復号部にて復号された動きべク トルを用いフレームメモリに格納され た参照画像を参照して予測画像を生成する動き補償部と、 復号部にて復 号された差分信号と、 動き補償部にて生成された予測画像とを加算して 動画像信号を復元するものである。
特に、 動き補償部は、 複数の精度であるフレームメモリ に格納された 参照画像の複数の画素データに基づいて所定の方法で仮想画素を生成す る第 1の精度と、 その第 1の精度の仮想画素に基づいて仮想画素を生成 する第 2の精度とのうちから領域単位毎にいずれか一の指示された精度 にしたがって動き補償を行って参照画像を生成することを特徴とする。
また、 動き補償の単位となる領域は、 動画像信号の各フレームを輝度 信号相当で 1 6画素 X 1 6 ライ ンに分割したマクロブロ ックをさらに分 割した予測単位プロ ックであり、 当該領域の形状を示す形状情報は、 マ ク口プロ ックを予測単位プロックへ分割する方法を指示する情報であ り 、 対応する動きべク トルは、 各予測単位プロ ックで利用する動きべク ト ルであることを特徴とする。
また、 予測画像の生成に用いる参照画像を格納するフレームメモリが 複数設けられ、 動き補償部は、 複数のフレームメモリ に格納された複数 の参照画像を参照し動き補償を行って予測画像を生成することを特徴と する。
また、 復号部は、 さらに符号化ビッ トス ト リームから符号化モ一 ド情 報を復号し、 符号化モー ド情報に基づき、 動画像信号をイ ン トラモー ド により復号するか、 あるいは動き補償部による動き補償予測モー ドによ り復号することを特徴とする。
また、 さらに、 動画像信号を空間予測モードにより予測符号化を行う 空間予測部を備え、 復号部は、 さらに符号化ビッ トス ト リームから符号 化モー ド情報を復号し、 符号化モード情報に基づき、 動画像信号を空間 予測部による空間予測モードにより復号するか、 あるいは動き補償部に よる動き補償予測モードにより復号することを特徴とする。
これにより、 この発明に係る動画像復号装置によれば、 メモリバン ド 幅を抑えながら符号化効率を向上させて圧縮符号化が行われた符号化ビ ッ トス ト リームを復号することが可能となる。
特に、 メモリバン ド幅削減は、 特に映像再生を主とするプレーヤを、 携帯電話、 携帯情報端末などの映像符号化装置、 映像復号装置のハード ウェア実装する際に、 映像復号処理実装の簡略化、 消費電力化に著しい 効果を発揮するので、 これら符号化装置、 復号装置の実装コス トを抑え ながら伝送 · 記録効率の高い映像符号化装置、 映像復号装置を提供する ことが可能となる。 図面の簡単な説明
第 1図は、 1 Z 2画素精度のサンプルの生成の様子を示す図である。 第 2図は、 水平処理の場合のみの 1 4画素精度の仮想サンプル生成 のために作られる半画素精度の仮想サンプル aと、 下式の整数画素の X 成分 X - 4〜X 4との位置関係を示す図である。
第 3図は、 実施の形態 1における映像符号化装置の構成を示す図であ る。
第 4図は、 実施の形態 1における映像復号装置の構成を示す図である 第 5図は、 符号化装置における動き補償予測処理を示すフローチヤ一 トである。
第 6図は、 実施の形態 1における動きべク トルの検出単位領域の構成 を示す図である。
第 7図は、 実施の形態 1による仮想サンプル精度の局所的設定によ り 、 8 x 4 , 4 x 8 , 4 x 4 M Cの各モードについて、 仮想サンプル生 成に必要なメモリバン ド幅を削減することができることを説明するため の図である。
第 8図は、 ステップ S T 4における予測差分値 (M V D ) の求め方を 説明するための図である。
第 9図は、 復号装置側における動き補償処理を示すフローチヤ一トで める。
第 1 0図は、 実施の形態 2における映像符号化装置の構成を示す図で ある。
第 1 1図は、 両方向予測の実行の方法を示す図である。
第 1 2図は、 複数の参照画像を用いて動きべク トルを検出する両方向 予測とは別の例を示す図である。
第 1 3図は、 実施の形態 2における映像復号装置の構成を示す図であ る。
第 1 4図は、 実施の形態 3における映像符号化装置の構成を示す図で ある。
第 1 5図は、 実施の形態 3における映像復号装置の構成を示す図であ る。
第 1 6図は、 実施の形態 4における映像符号化装置の構成を示す図で ある。
第 1 7図は、 実施の形態 4における映像復号装置の構成を示す図であ る o
第 1 8図は、 実施の形態 1〜 4の画像符号化装置および画像復号装置 等の要素製品が実装された実施の形態 5の携帯電話の構成を示す図であ る。 発明を実施するための最良の形態
以下、 この発明をより詳細に説明するために、 この発明を実施するた めの最良の形態について、 添付の図面にしたがって説明する。
実施の形態 1 .
本実施の形態 1では、 映像の各フレーム画像をマク口プロックの単位 に分割し、 さらに、 マクロブロック内を複数の形状のサプブロックに分 割して個々に動き補償予測を可能とする動き補償予測手段を有する映像 符号化 , 復号装置について説明する。 本実施の形態 1の映像符号化 ■ 復 号装置の特徴は、 動き補償予測の単位となる領域 (ブロック) の形状や その大きさに応じて、 従来例にて述べた仮想サンプルの精度を切り替え ることと、 それに伴い動きベク トルの符号化 · 復号方法も切り替えるこ との 2点にある。 本実施の形態 1における映像符号化装置および復号装 置の構成を第 3図および第 4図に示す。
第 3図は、 本実施の形態 1における映像符号化装置の構成を示してい る。 この映像符号化装置は、 図に示すように、 減算器 1 0、 符号化モ一 ド判定部 1 2、 直交変換部 1 5、 量子化部 1 6、 逆量子化部 1 8、 逆直 交変換部 1 9、 切替器 5 2、 加算器 5 3、 フレームメモリ 3、 動き検出 部 2、 動き補償部 7、 可変長符号化部 6、 送信バッファ 2 4、 符号化制 御部 2 2を有している。
次に第 3図に示す映像符号化装置の動作を説明する。
①符号化装置の動作概要
第 3図の符号化装置において、 入力映像信号 1は、 個々の映像フレー ムがマクロブロックに分割された単位で入力されるものとし、 まず、 動 き検出部 2において、 フレームメモリ 3に格納される参^画像 4を用い てマクロブロック単位に動きべク トル 5が検出される。 動きべク トル 5 に基づいて動き補償部 7において予測画像 8が得られ、 減算器 1 0にて 予測画像 8 と入力信号 1 との差分をとることによって予測残差信号 9 が 得られる。
符号化モード判定部 1 2では、 予測残差信号 9 を符号化する動き予測 モード、 フレーム内を符号化するイ ン トラモー ドなど、 マクロプロック の符号化方法を指定する複数のモー ドの中から、 当該マクロブロ ックを もっとも効率よ く符号化することができるモー ドを選択する。 この符号 化モー ド情幸 1 3は符号化対象情報として可変長符号化部 6へ出力され る。 ここで、 符号化モード判定部 1 2 にて符号化モー ド情報 1 3 として 動き予測モードが選択される場合は、 動きべク トル 5が符号化対象情報 として可変長符号化部 6 に受け渡される。
また、 符号化モー ド判定部 1 2において選択された符号化対象信号は 、 直交変換部 1 5、 量子化部 1 6を経て、 直交変換係数デ一夕 1 7 と し て可変長符号化部 6へ受け渡される一方、 その直交変換係数データ 1 7 は、 逆量子化部 1 8、 逆直交変換部 1 9 を経たのち、 切替器 5 2へ出力 される。
切替器 5 2では、 符号化モード情報 1 3に従って、 その符号化モー ド 情報 1 3が動き予測モードを示している場合には、 逆量子化および逆直 交変換された直交変換係数データ 1 7 と、 動き補償部 7からの予測画像 8 と加算して局所復号画像 2 1 としてフレームメモリ 3へ出力するか、 あるいはその符号化モード情報 1 3がイ ン トラモードを示している場合 には、 逆量子化および逆直交変換された直交変換係数データ 1 7をその まま局所復号画像 2 1 として出力する。 局所復号画像 2 1 は以降のフレ ームの動き予測に用いられるため、 参照画像データとしてフレームメモ リ 3へ格納される。
量子化部 1 6では、 符号化制御部 2 2 において決定される量子化ステ ップパラメ一夕 2 3 によって与えられる量子化精度で直交変換係数デ一 夕の量子化を行う。 この量子化ステップパラメ一夕 2 3を調整すること で出力の符号化レー ト と品質のバランスとをとる。 一般には、 可変長符 号化の後、 伝送直前の送信バッファ 2 4に蓄積される符号化データの占 有量を一定時間ごとに確認し、 そのバッファ残量 2 5 に応じてパラメ一 夕調整が行われる。 具体的には、 例えば、 バッファ残量 2 5が少ない場 合は、 レー トを抑え気味にする一方、 バッファ残量 2 5 に余裕がある場 合は、 レー トを高めにして品質を向上させるよう にする。 なお、 この符 号化制御部 2 2 において決定される量子化ステヅプパラメ一夕 2 3は、 可変長符号化部 6へも出力される。
可変長符号化部 6では、 動きべク トル 5、 量子化ステツプパラメ一夕 2 3、 符号化モー ド情報 1 3、 直交変換係数デ一夕 1 7などの符号化対 象デ一夕のエン トロピー符号化を行い、 送信バッファ 2 4経由で、 映像 圧縮デ一夕 2 6 として伝送する。
第 4図は、 本実施の形態 1 における映像復号装置の構成を示している 。 この映像復号装置は、 第 4図に示すように、 可変長復号部 2 7、 逆量 子化部 1 8、 逆直交変換部 1 9、 加算器 5 5、 切替器 5 4、 動き補償部 7、 フレームメモリ 3を有している。
②復号装置の動作概要
次に、 第 4図に示す実施の形態 1の映像復号装置の動作を説明する。 第 4図に示した復号装置では、 映像圧縮データ 2 6 を受け取ると、 可 変長復号部 2 7にて後述するェン トロピー復号処理が行われて、 動きべ ク トル 5、 符号化モード情報 1 3、 直交変換係数データ 1 7、 量子化ス テヅプパラメ一夕 2 3などが復元される。
直交変換係数データ 1 7、 量子化ステツプパラメ一夕 2 3は、 符号化 側と同じ逆量子化部 1 8 と逆直交変換部 1 9 によって復号される。
また、 切替器 5 4は、 符号化モード情報 1 3が動き予測モードを示し ている場合は、 動き補償部 7において復号された動きベク トル 5と符号 化モ一ド情報 1 3とに基づいて予測画像 8を復元し出力する一方、 ィ ン トラモードを示している場合は、 0を出力する。
そして、 切替器 54からの出力は、 加算器 5 5にて逆直交変換部 1 9 の出力である復号信号と加算されることによって復号画像 2 1が得られ る。 復号画像 2 1は以降のフレームの予測画像生成に用いられるため、 フレームメモリ 3に格納される。
③動き補償予測の詳細動作
次に、 符号化装置の動き検出部 2、 動き補償部 7、 フレームメモリ 3 を用いて行われる動き補償予測処理について、 また、 復号装置の動き補 償部 7、 フレームメモリ 3を用いて行われる動き補償処理についてそれ それ説明する。
③ー 1 符号化装置における動き補償予測処理手順
第 5図に、 符号化装置における動き補償予測処理のフローチャートを 示す。 以下、 ステップごとに説明する。
③— 1— 1 仮想サンプル精度の決定 (ステップ S T 1 )
第 6図に、 本実施の形態 1における動きべク トルの検出単位領域の構 成を示す。 同図において、 1 6 x 1 6 MCとはマクロブロックそのも のを動きベク トル検出単位とする。 1 6 x 8 MCは縦方向に 2分割し た領域を、 8 X 1 6 M Cは横方向に 2分割した領域をそれそれ動きべ ク トル検出単位とする。 8 x 8 M Cはマクロブロックを 4つの領域に 均等分割し、 それそれを動きべク トル検出単位とする。 さらに、 本実施 の形態 1の場合、 8 x 8 M Cでは、 個々の分割領域に対して、 さらに 縦 2分割 ( 8 X 4 M C ) 、 横 2分割 ( 4 X 8 M C ) 、 4分割 ( 4 x 4 MC) の領域分割を可能とし、 それそれを動きべク トル検出単位と することができるようにする。 これは、 一般に、 細かい分割ではマクロブロック内部に複雑な動きが 存在する場合に予測効率をあげることができる一方、 多くの動きべク ト ル情報を伝送する必要がある。 このようにマクロブロック内部で動きべ ク トル検出単位領域の形状を様々に適応化できるように構成すれば、 局 所的に最適な分割形状と動きべク トルの選択 ·検出を行いながら符号化 を実行することができるからである。
さて、 個々の領域の動きベク トルの検出においては、 従来例に示した とおり、 仮想サンプルを用いた動き補償予測を用いる。 ただし、 従来の 標準映像符号化方式などと異なり、 本実施の形態 1では、 例えば、 第 6 図に示すように、 個々の動きべク トル検出単位の領域の形状や大きさ等 に関連付けて局所的に仮想サンプルの精度および動きべク トルの予測符 号化方法を決定する。
そして、 本実施の形態 1の符号化装置では、 動き補償予測の単位であ る動きべク トル検出単位の領域の形状や大きさ等を示す形状情報を、 符 号化モ一ド情報 1 3の中の動き予測モードの一部として可変長符号化部 6にて符号化し、 復号装置に伝送する。
したがって、 本実施の形態 1の復号装置では、 符号化モード情報 1 3 だけによつて、 動き予測モードかィン トラ符号化モードかであるかを示 す符号化モード以外に、 その符号化モード情報 1 3の中の動き予測モー ドの一部として含まれる形状情報により、 動き補償予測の単位である動 きべク トル検出単位領域の形状や大きさ、 およびその形状や大きさから 一義的に決まる仮想サンプルの精度および動きべク トルの予測符号化方 法を判定することができるので、 仮想サンプル精度および動きべク トル の予測符号化方法の切り替えのための付加情報を一切必要としない。 本実施の形態 1では、 その決定ルールとして、 8 X 8 M Cより小さ い例えば 8 x 4や、 4 x 8、 4 X 4サイズ等の動きベク トル検出単位領 域では半画素精度の仮想サンプルを用いることとし、 それ以上のサイズ の動きべク トル検出単位領域では 1 / 4画素精度の仮想サンプルを用い る ο
このルールを適用する理由として、 動きべク トル検出単位領域の形状 の選ばれ方が挙げられる。 つま り、 一般に、 動きが均一でかつ動き速度 の遅い領域では画面の空間解像度が保持され、 テクスチャに対する視認 度が向上する。 こういった領域では大きな動きべク トル検出領域によ り できるだけ動きベク トルを均一にし、 動き領域の細分化に伴う領域間不 連続を回避して信号の再現性を高めるとともに、 仮想サンプルの精度を 向上して予測効率を上げることが望ましい。 逆に、 動きが複雑であった り、 動きの速度が視覚的に認知しにくい領域では画面の詳細なテクスチ ャが保存されず、 視覚的には空間解像度が低く感じられる。 こういった 領域では、 ある程度信号の再現性を犠牲にしても動きべク トルの本数を 多く して予測効率を向上させることが望ましい。 ただし、 信号の空間解 像度が低くなること、 動きべク トルの情報量が多くなることから、 仮想 サンプルの精度は低く設定しても全体的な符号化効率の観点からは問題 ないと考えられる。
このような仮想サンプル精度の局所的設定を可能とすることによ り、 第 7図に示すように、 8 X 4, x 8 , 4 x 4 M Cの各モードについ て、 仮想サンプル生成に必要なメモリバン ド幅を削減することができ、 装置の簡略化にも効果的である。 同図では、 中段のモー ド状態に対して 、 上段はこれらのすべてのモードに対して 1 Z 4画素精度の仮想サンプ ルを用いることを想定した場合を示しており、 かつ仮想サンプル生成の ために Kタツプのフィル夕を用いる場合、 すなわち、 動きべク トル検出 単位領域の端点からそれぞれ K画素 (K≥ 2 ) 分の整数画素データをメ モリから読み出す必要があることを示している。 従来例では、 Κ画素分 の半分は折り返しで作成する例を示したが、 ここでは^り返しを行わず 、 連続する K画素すベてを使用することで自然なフィル夕 リングを行う ことを想定している。
それに対し、 本実施の形態 1のように、 これらの 8 x4, 4 x 8, 4 X 4 MCの各モードでは、 半画素精度の仮想サンプルのみを使用する ことをあらかじめ決定しておく ことにより、 仮想サンプル生成のために メモリから読み出す必要があるデータは、 例えば従来例の半画素精度サ ンプル生成手順に従えば動きべク トル検出単位領域の周辺 1画素分だけ でよい。 小さいサイズの動きベク トル検出単位領域では、 個々の検出単 位領域が空間的に不連続で.あるため、 このことが極めて大きな意味をも つ o
③— 1— 2 予測誤差量の算出 (ステップ S T 2、 ステップ S T 3 ) ステップ S T 1で決定された仮想サンプル生成ルールに従い、 それそ れのモードで個々の動きべク トル検出単位領域ごとに、 各動きべク トル 候補に対して予測画像を生成し、 予測対象の動きべク トル検出単位領域 との差分をとることにより予測誤差量を算出する。 ここで、 仮想サンプ ルについては、 第 1図に示したような半画素精度サンプルの生成、 第 2 図に示したような 1/4画素精度サンプルの生成を行うものとする。 た だし、 本実施の形態 1の場合、 第 2図の端点での画素値折り返し使用は 行わないこととし、 フィル夕タップ数は一般性を持たせるため、 以降 夕ヅプとする。 したがって、 半画素精度の仮想サンプルを用いる 8 X 8 M Cよ り小さい例えば 8 X 4や、 4 x8、 4 x M C以下のモードの 場合は、 仮想サンプル生成に用いる画素データは、 第 7図の下段に示す ように、 各 8 X 4, 4 X 8 , 4 X 4動きべク トル検出単位領域の周辺 1 画素分だけメモリから読み出すことになる (ステップ S T 2) o
予測誤差量の算出 (ステップ S T 3 ) は、 ブロックマツチング法に基 づき、 各画素単位の誤差量を加算することで算出するのが一般的であり
、 誤差量としては主に二乗誤差 ( p p, ) 2もしくは差分絶対値 I p p ' I が用いられる。 ここで、 pは予測対象の画素値、 p' は予測画像内 の対応する位置の画素値である。 以下では、 誤差量は、 後者の差分絶対 値を想定し、 動きべク トル検出単位領域ごとあるいはマクロブロック内 の総和として SAD ( S um o f Ab s o l u t e D i f f e r e n c e ) という夕一ムを用いることとする。
③— 1— 3 動きベク トル符号量の算出 (ステップ S T 4)
次いで、 動きべク トルの符号量を算出する (ステヅプ S T 4) 。 動き ベク トルは、 通常、 周辺領域との相関が高いため、 周辺領域の動きべク トルを予測値として、 周辺領域の動きベク トルの予測値と、 求めた動き ベク トルとの間の予測差分値 (MVD) を可変長符号化する。 予測値の 設定の方法には様々な手法が存在するが、 ここでは予測値は所定のルー ルで定められたものとして動きべク トルの予測差分値 (MVD) が得ら れるものとし、 その詳細は割愛する。
そして、 本実施の形態 1では、 予測差分値 (MVD) の符号量を求め るにあたり、 ③— 1— 1で定めた仮想サンプル精度を考慮する。
第 8図を用いてステップ S T 4における予測差分値 (MVD) の求め 方を説明する。 なお、 この動作は動き検出部 2において実行されるが、 最終的にステップ S T 9で定まる動きべク トルを可変長符号化部 6で符 号化する場合にも同じルールが適用される。
第 8図において、 '符号化対象となる動きべク トルを MV 1 ~MV 5 と し、 所定の予測値設定ルールにしたがって MV 1および M V 3に対して 定められた予測ベク トルを PMV 1、 MV 5に対して求められた予測べ ク トルを PMV 2とする。 MV 2は MV 1を、 MV4は MV 3をそれそ れ予測値とするものとする。 PMV 1、 PMV 2はすでに符号化済みの 値であるため適宜キャッシュしておけばよい。
PMV 1は、 1 6 X 8 MCによる動きベク トル、 MV 5は 8 x 8 MCによる動きべク トルであるため、 ③一 1— 1で定めたルールに従え ば 1 /4画素精度の仮想サンプルを用いて決定された動きべク トルであ る。 一方、 MV 1〜MV4および PMV 2は 4 x 4 MCによる動きべ ク トルであるため、 ③一 1— 1で定めたルールに従えば半画素精度の仮 想サンプルを用いて決定された動きベク トルである。 つま り、 PMV 1 , MV 5と、 MV 1〜MV4と、 P M V 2との間には仮想サンプルの精 度の違いが存在する。 一方、 動きベク トル符号化時にはあらかじめ予測 べク トルの値およびその仮想サンプル精度は既知である。 このこ とを利 用して、 本実施の形態 1では、 予測差分値 (MVD) を得るために適応 的に動きベク トルの精度のあわせこみを行う。 すなわち、 以下の条件に よ り、 予測差分値 (MVD) を求める。
( 1 ) 条件 1 : 自身 (MV) が 1/2画素精度の仮想サンプルを用いた 予測により得られた動きべク トルである場合は、 PMVの精度により、 以下のように 2つに分かれる。
条件 1— 1 : PMVが同じ精度の仮想サンプルを用いた動きべク トル である場合
MVD = M V P M V
.条件 1一 2 : PMVが 1/4画素精度の仮想サンプルを用いた動きべ ク トルである場合
M V D = M V ( P M V >> 1 )
( 2 ) 条件 2 : 自身 (MV) が 1/4画素精度の仮想サンプルを用いた 予測により得られた動きべク トルである場合は、 PMVの精度により、 以下のように 2つに分かれる。
条件 2 - 1 : PMVが同じ精度の仮想サンプルを用いた動きべク トル である場合
MVD = M V P M V
条件 2 — 2 : P MVが 1 / 2画素精度の仮想サンプルを用いた動きべ ク トルである場合
MVD = M V ( P M V くく 1 )
ただし、 X くく yは、 Xに対する左方向への yビヅ トシフ ト演算 、 X > > yは Xに対する右方向への yビッ トシフ ト演算を示してい る。
卩 ¥ 1 と]^¥ 1、 MV 3 との間のルールとしては、 上記条件 1 — 2 が適用され、 MV 1 , MV 3 と MV 2 , M V 4 との間のルールとしては 、 上記条件 1 — 1が適用され、 P MV 2 と MV 5 との間のルールとして は条件 2 ― 2が適用される。
この手順によ り、 半画素精度の動きべク トルに対しては半画素精度で MVDを算出することが可能であり、 常時 1 /4画素精度の MVDを用 いるのに比ぺ符号量を削減することが可能である。
③— 1 — 4 コス トの算出 ■ 最小コス トの更新 (ステップ S T 5、 ステ ヅプ S T 6、 ステップ S T 7 )
上記の結果得られる予測差分値 (MVD ) を符号化することによ り、 符号量 RMV Dが得られる。 これとステップ S T 2 における S AD とを用 いて、 各動きベク トル候補について下記の式によ り、 コス ト Cを求める (ステップ S T 5 ) 。
= ΰ A ) M V + 人 RMVD
(入は正の定数)
動き補償部 7は、 上記のようにしてコス トを算出するごとに、 算出し たコス トが最小であるか否かを判断し (ステップ S T 6 ) 、 それ以前に 算出されたモードのコス トよ り も小さい値が現れれば (ステップ S T 6 "Y" ) 、 最小コス トの更新を行う とともに、 該当する予測モー ド、 動 きべク トルデ一夕を保持しておく (ステップ S Τ 7 ) 。
なお、 ステップ S T 1〜ステップ S T 7は、 1 6 x 1 6 M C ~ 8 X 8 M Cおよびそれ以下の分割モー ドすぺてについて実行され、 ステツ プ S Τ 2〜ステップ S Τ 5は、 各動きべク トル検出単位領域に対し、 あ らかじめ符号化装置において設定された所定の動きべク トル探索範囲内 、 すなわち水平 · 垂直方向の平行移動量の上限を規定する窓内のすべて の動きべク トル候補に対して実行する。
③— 1 — 5 最終モー ド ' 動きベク トルの決定 (ステップ S T 8、 ステ ヅプ S T 9 )
以上説明した③— 1— 4の,コス トの算出 · 最小コス トの更新処理 (ス テヅプ S T 5、 ステップ S T 6、 ステップ S T 7 ) が終了したら、 続い て全予測モー ドでコス トを算出したか否かを判断し (ステップ S T 8 ) 、 全予測モードでコス ト算出をしていなければ (ステップ S T 8 "N" ) 、 以上説明した③ー 1 一 4までに示す処理 (ステップ S T 1〜ステヅ プ S T 7 ) を行う一方、 全予測モードでコス ト算出をした場合には (ス テツプ S T 8 " Y " ) 、 ③— 1 — 4で得られるマクロブロックの単位の コス トのうち、 最もコス トの小さい予測モードを、 実際に符号化する予 測モー ドとして決定する (ステップ S T 9 ) 。 また、 予測モー ドの決定 と同時に、 当該予測モー ドに対応した動きべク トルが決定されることに なる (ステップ S T 9 ) 。
以上説明した動き補償予測処理によ り決定された予測モードは、 最終 的にはイ ン トラモー ドとの比較で最適なモー ドが決定され、 符号化モー ド情報 1 3 として可変長符号化部 6を通じてマクロプロック単位に映像 圧縮デ一夕 2 6に多重される。 また、 決定された動きべク トルデ一夕 5 は、 ③— 1 一 3の手順で MVDデ一夕化され、 可変長符号化部 6を通じ てマクロプロック単位に映像圧縮データ 2 6に多重される。
③ー 2 復号装置における動き補償処理
第 9図に、 復号装置側における動き補償処理のフローチヤ一トを示す 。 以下、 フローチャー トを参照して復号装置側における動き補償処理を 詳細に説明する。
③一 2 _ 1 予測モード、 動きべク トルデータの復号 (ステップ S T 1 0 )
第 4図に示すように復号装置側では、 可変長復号部 2 7が、 例えば第 3図に示す符号化装置から出力された映像圧縮デ一夕 2 6からマクロブ 口ヅク単位に符号化モード情報 1 3を復号する。 これがイ ンター (フ レ ーム間予測) モードを示す場合、 可変長復号部 2 7は、 続いて予測差分 値 (M V D ) の形式で符号化されている動きベク トルデ一夕 5を復号す る (ステップ S T 1 0 ) 。
③ー 2 — 2 仮想サンプル精度の決定 (ステップ S T 1 1 )
符号化モ一ド情報 1 3がィン夕ー (フレーム間予測) モード、 すなわ ち、 本実施の形態 1の場合例えば第 6図に示すいずれかの動き補償予測 モードを表す場合は、 符号化装置における動き補償予測処理手順として 説明した③— 1 一 1の手順 (ステップ S T 1 ) の場合と同様に、 仮想サ ンプル精度の決定を行う。 つま り、 符号化装置側の動作で説明したよう に、'動き補償予測の単位、 すなわち動きべク トル検出単位の領域の形状 や大きさ等を示す形状情報は、 符号化モ一ド情報 1 3の中の動き予測モ — ドの一部として可変長符号化部 6で符号化されているので、 復号装置 側では、 復号した符号化モード情報 1 3の中に動き予測モードの一部と して含まれる形状情報により、 動き補償予測の単位である動きべク トル 検出単位領域の形状や大きさ、 およびその形状や大きさから一義的に決 まる仮想サンプルの精度を判定することができる。 ③— 2— 3 動きべク トルの復号 (ステップ S T 1 2 )
次いで、 予測差分値 (MVD) の形式で復号された動きベク トルを、 実際に各動きべク トル適用単位領域、 すなわち符号化装置の説明におけ る各動きべク トル検出単位領域に対して使用された動きべク トルデ一夕 (M V) へ復号する (ステップ S T 1 2 ) 。 この手順は、 本実施の形態 1では、 可変長復号部 27等において行われ、 符号化装置における動き 補償予測処理手順として説明した③— 1一 3の逆の手順をとればよい。 つまり、 本実施の形態 1の場合、 仮想サンプルの精度の判定の場合と同 様に、 符号化モー ド情報 1 3の中に動き予測モードの一部として含まれ る形状情報から動きべク トルの予測復元方法が一義的に決まるので、 そ の形状情報に基づいて動きべク トルの予測復元方法を切り換えて動きべ ク トルを復号する。 第 8図を用いて③ー 1— 3の手順と対比させて説明 する。
③ー 1— 3と同様、 ここでは符号化装置 ·復号装置の間であらかじめ 取り決められた共通の予測値設定方法を用いる。 まず、 MV 1、 M V 3 に対しては、 P M V 1を用いて、
M V 1 = M V D 1 + ( P M V 1 > > 1 )
M V 3 = M V D 3 + ( P M V 1 > > 1 )
として復号される。 ここで、 MVD 1は MV 1に対応する予測差分値 ( M VD ) 、 MVD 3は MV 3に対応する予測差分値 (M V D ) である。
また、 M V 2, M V 4に対しては、
M V 2 = MVD 2 + M V 1
M V 4 = M V D 4 + M V 3
M V 5.に対しては、
M V 5 = M V D 5 + ( P M V 2 くく
として復号を行う。 すなわち、 以下の条件式に従う。
( 1 ) 条件 1 : 自身 (M V) が 1 / 2画素精度の仮想サンプルを用いた 予測により得られた動きべク トルである場合は、 PMVの精度により、 以下のように 2つに分かれる。
条件 1— 1 : PMVが同じ精度の仮想サンプルを用いた動きベク トル である場合
M V = M V D + P M V
条件 1— 2 : PMVが 1/4画素精度の仮想サンプルを用いた動きべ ク トルである場合
M V = M V D + ( P M V > > 1 )
( 2 ) 条件 2 : 自身 (MV) が 1/4画素精度の仮想サンプルを用いた 予測により得られた動きべク トルである場合は、 PMVの精度により、 以下のように 2つに分かれる。
条件 2— 1 : P M Vが同じ精度の仮想サンプルを用いた動きベク トル である場合
M V = MVD + P M V
条件 2— 2 : PMVが 1 2画素精度の仮想サンプルを用いた動きべ ク トルである場合
M V = M V D + ( P M V << 1 )
なるルールを用いることで動きべク トルの復号を行う。
③— 2— 4 予測画像生成 (ステップ S T 1 3、 S 1 4 )
③— 2— 2で決定された仮想サンプル生成ルールに従い、 ③— 2— 3 で復号された動きべク トルデータを用いて、 個々の動きべク トル適用単 位領域ごとに予測画像を生成する。 仮想サンプルについては、 従来例の 第 1図に示したような半画素精度サンプルの生成、 第 2図に示したよう な 1 /4画素精度サンプルの生成を行うものとする。 ただし、 第 2図の 端点での画素値折り返し使用は行わないこととし、 フィル夕タ ツプ数は 一般性を持たせるため、 以降 K夕ヅプとする。 したがって、 半画素精度 の仮想サンプルを用いる 8 X 8 M Cよ り小さい例えば 8 X 4や、 4 X 8、 4 x 4 M C以下のモー ドの場合は、 符号化装置における動き補償 予測処理のステップ S T 2の場合と同様に、 仮想サンプル生成に用いる 画素デ一夕は第 7図の下段に示すようにメモリから読み出して、 予測画 像を生成することになる。
従って、 以上の構成をもつ本実施の形態 1の映像符号化装置または復 号装置を用いることによ り、 動きの局所的な状況に適応して、 動き補償 予測単位となるブロ ックの大きさに応じて動き補償予測を行う際の仮想 サンプルの精度を切り替えると共に、 動きベク トルの算出方法も切り替 えるようにしたので、 メモリバン ド幅を抑えながら画質を保った圧縮符 号化を行う ことが可能となる。 特に、 メモリバン ド幅削減は、 特に映像 再生を主とするプレーヤを、 携帯電話、 携帯情報端末などにハードゥエ ァ実装する際に、 映像復号処理実装の簡略化、 消費電力化に著しい効果 を発揮する。
なお、 上記実施の形態 1の説明では、 動き補償予測単位となるブロ ッ クの大きさに応じて動き補償予測を行う際の仮想サンプルの精度を切り 替える と共に、 動きベク トルの算出方法も切り替えるようにしたが、 本 発明では、 これに限らず、 動き補償予測単位となるブロックの大きさに 応じて動き補償予測を行う際の仮想サンプルの精度を切り替えるのみで 、 動きべク トルの算出方法は切り替えないようにしても勿論よい。 ただ し、 この場合には、 メモリバン ド幅を抑えながら符号化効率を向上させ ることができるが、 動き補償予測の精度を低く した分だけ画質が落ちる ことになる。 このことは、 以下のすべての実施の形態においても適用さ れ ο また、 本実施の形態 1では、 符号化装置における③ー 1— 1、 復号装 置における③— 2 — 2において仮想サンプル精度を決定した後、 使用す る仮想サンプル精度に合わせて仮想サンプル生成のためのフィル夕処理 を変更するように構成した。 1 / 4画素精度の場合はまず半画素精度仮 想サンプルを、 第 2図のように整数画素デ一夕を用いて K ( = 8 ) タ ツ プフィル夕によって生成し、 それによって生成された半画素精度仮想サ ンプルをさらに線形補間することによって 1 / 4画素精度サンプルを生 成した。 半画素精度の場合は、 整数画素データの線形補間によって半画 素精度サンプルを生成する。 この場合は動き補償予測対象プロ ックサイ ズ +周辺 1画素分だけメモリから読み出せば済む。 このフィル夕処理の 違いにより、 小さいプロ ックサイズでの動き補償予測ではメモリから読 み出すデ一夕量を低減することをポイン ト としたが、 このフィル夕処理 そのものは仮想サンプル精度に依存せずに一意に定めるように構成して もよい。 つま り、 半画素精度サンプルのみを使用する小さいブロ ックサ ィズの場合であつても、 Kタップフィル夕で半画素精度サンプルを構成 するようにしても良い。 このフィル夕処理の固定化により、 メモリから 読み出すデータ量に関してはメモリバン ド幅削減にはならないが、 一方 で、 Kタヅプフィル夕で生成された半画素サンプルから 1ノ4画素精度 のサンプルを作り出す処理は必要なく、 かつ③ー 1— 3、 ③— 2— 3の ように動きぺク トルの表現精度は依然として制限することができ、 動き べク トルの符号化を効率化することが可能となる。
さらに、 本実施の形態 1では、 常に映像入力の単位をフレームとして 記述したが、 奇数フィールドと偶数フィール ド等のイ ン夕レース映像入 力を想定する場合には、 厳密にはフレームは 2枚のフィールド画像デ一 夕の組合わせで定義される。 この場合、 本実施の形態 1の映像符号化装 置および映像復号装置は、 各フィール ドごとにマクロプロ ックを構成し て符号化 · 復号する場合にも適用可能であることは明らかである。 この ことは、 以下のすべての実施の形態においても適用される。
また、 本実施の形態 1では、 8 X 8よ り小さいサイズとして 8 X 4や 、 4 x 8、 4 X 4サイズの動きベク トル検出単位領域では半画素精度の 仮想サンプルを用いることとし説明したが、 本発明ではこれに限らず、 8 x 8 よ り小さいサイズとして 4 X 2や、 2 X 4等の 8 x 4や 4 x 8、 4 X 4サイズ以外であっても良いし、 8 X 8を基準としてではなく、 8 X 1 6や 1 6 X 8等他のサイズを基準にして大小によ り仮想サンプルの 精度を変えても良い。 またさらに、 8 X 8等の所定サイズよ り小さいサ ィズの動きべク トル検出単位領域において半画素精度の仮想サンプルを 用いるのでなく、 所定サイズより小さいサイズの動きべク トル検出単位 領域においては整数画素精度として動き補償予測を行う ようにしても勿 論よい。 このようにすれば、 画質は多少落ちるものの、 メモリバン ド幅 は大幅に削減することが可能となる。 要は、 符号化単位であるマクロブ ロックをさらに分割して動き補償予測を行う動きべク トル検出単位領域 において、 メモリバン ド幅が問題となる所定のブロックサイズを基準に 動きべク トルの探索精度を下げて、 メモリパン ド幅を削減すれば良いの である。 このことは、 以下のすべての実施の形態においても適用される
実施の形態 2 .
本実施の形態 2では、 実施の形態 1 に述べた映像符号化装置および映 像復号装置に加えて、 複数のフレームメモリからなるフレームメモリ群 を用意して、 マクロブロ ックまたはマクロプロ ックを分割した動き補償 予測プロックの単位で、 複数のフレームメモリを使用して動き補償予測 を行う ことを可能とする装置について説明する。 第 1 0図に、 本実施の形態 2における映像符号化装置の構成を示す。 同図において、 第 3図に示す実施の形態 1の符号化装置との違いは、 フ レームメモリ 3がフ レームメモリ群 2 8に置き換わっており、 動き検出 部 2、 動き補償部 7がフ レームメモリ群 2 8を利用して複数のフ レーム メモリから最適な予測画像と動きべク トルを得るように構成されている 点である。 動き検出部 2、 動き補償部 7は、 第 3図の符号化装置と比べ て動作の詳細が異なるが、 以下ではその前提で同一図番にて説明を行う ものとする。
①符号化装置の動作概要
入力映像信号 1は、 個々の映像フ レームがマクロブロックに分割され た単位で入力されるものとし、 まず、 動き検出部 2において、 フ レーム メモリ群 2 8に格納される複数の参照画像 4を用いてマクロブロック単 位に動きベク トル 5が検出される。
複数の参照画像を用いた動きべク トル検出の方法としては、 例えば I S O/ I E C 1 3 8 1 8 - 2 (M P E G— 2 ビデオ規格) で開示される 両方向予測がある。
第 1 1図に、 I S O/ I E C 1 3 8 1 8— 2 (MP E G— 2 ビデオ規 格) で開示される両方向予測の実行の方法を示す。 同図において、 F ( t ) が現在符号化対象の入力映像フ レームであり、 フ レームメモリ中に 格納される参照画像には F, ( ) として区別をした。 B (x , y , t ) が F ( t ) 内のある動き補償予測単位のブロックであるとする。 両方向 予測では、 B ( X , y , t ) の位置から動きべク トル MVf ( B ( x, y , t ) ) だけ移動させた過去の参照画像 F, ( t — 1 ) 中のプロック 画像を前方向予測画像 P f ( B (x, y, t ) ) とし、 B (x, y , t ) の位置から動きベク トル MVb ( B (x , y, t ) ) だけ移動させた 未来の参照画像 F ' ( t + 1 ) 中のブロック画像を後方向予測画像: P b ( B ( x , y , t ) ) とし、 P f ( B ( x , , t ) ) と P b ( B ( x , y , t ) ) との加算平均で B ( x, y , t ) の予測画像 P i ( B (x , y , t ) ) を生成する。 MVf ( B ( x , y , t ) ) や MVb ( B ( x, y , t ) ) は、 動き検出部 2において、 それそれ対応する参照画像 上の与えられた探索範囲内で B ( X , y, t ) との絵柄の類似度が高い 、 もしくは画素差分が最も小さくなるブロック画像を探し出し、 その偏 移分を検出した値に該当する。
第 1 2図に、 複数の参照画像を用いて動きべク トルを検出する片方向 予測の一例を示す。 第 1 2図に示す別の例は、 例えば、 特開平 4— 1 2 7 6 8 9号公報に開示された過去の複数の参照画像をフレームメモリ群 2 8に格納できるように構成された符号化装置であって、 動き補償予測 単位のブロック B ( X , y , t ) に類似するブロック画像が直前の参照 画像 F ( t - 1 ) にはなく、 さらにその前の参照画像 F ( t - 2 ) に見 つかるような場合でも、 動きベク トル MVt2 ( B (x, y, t ) ) を 用いて動き補償予測が行えるため、 映像の局所的な性質に適応した動き 補償予測が行えるようにしたものである。
本実施の形態 2では、 複数のフ レームメモリからなるフ レームメモリ 群 2 8を有しているので、 その複数のフ レームメモリそれそれに格納さ れた複数の参照画像を用いて動きベク トルを検出する第 1 1図または第 1 2図のいずれの構成の符号化装置にも適用可能である。
さて、 本実施の形態 2では、 上記の第 1 1図または第 1 2図の事例の ように検出された動きべク トル 5には、 その動きべク トル 5がフレーム メモリ群 2 8のうちでどのフ レームメモリを参照したかを指示する情報 が組になって明示されている。
このため、 本実施の形態 2の動き補償部 7では、 それらの情報に従つ てフレームメモリ群 2 8の中の適切なフレームメモリを参照することで 予測画像 8が得られる。 さらに入力信号 1 との差分をとることによって 予測残差信号 9が得られる。 なお、 動きベク トル 5がフレームメモリ群 2 8の中のどのフレームメモリを参照したかを指示する情報は、 動きべ ク トル 5そのものでなく、 別情報としてデコーダに通知するための符号 化データの形で表現されてもよい。
また、 本実施の形態 2の符号化モード判定部 1 2では、 予測残差信号 9を符号化する動き予測モード、 フレーム内符号化を行うイ ン トラモー ドなど、 マクロプロックの符号化方法を指定する複数のモードの中から 、 当該マクロブロックをもっとも効率よく符号化することができるモー ドを選択して符号化モード情報 1 3 として出力する。 動き予測モードと は、 実施の形態 1 に説明した第 6図に示すようなマクロブロック内分割 の形状や、 第 1 1図において P f ( B ( X , y , t ) ) だけを用いて予 測を行うか、 P b ( B ( x 5 y, t ) ) だけを用いて予測を行うか、 そ れらの加算平均をとるかなどを識別する情報などに該当する。 この符号 化モード情報 1 3は、 符号化対象情報として可変長符号化部 6に受け渡 される。 符号化モード情報 1 3 として動き予測モードが選択される場合 は、 動きぺク トル 5が符号化対象情報として可変長符号化部 6に受け渡 され、 可変長符号化される。
なお、 符号化モード判定部 1 2において選択された符号化対象信号 1 1の符号化である直交変換部以降の処理は、 実施の形態 1 に同じである ため、 説明を省略する。
次に、 本実施の形態 2における映像復号装置について説明する。
第 1 3図に、 本実施の形態 2における映像復号装置の構成を示す。 同 図において、 第 4図に示す実施の形態 1の復号装置との違いは、 フレー ムメモリ 3がフレームメモリ群 2 8に置き換わっており、 動き補償部 Ί が可変長復号部 2 7で復号される動きべク トル 5 と符号化モード情報 1 3 とにしたがって、 フレームメモリ群 2 8のうち指定されたフレームメ モリから予測画像を得るように構成される。 動き補償部 7は第 4図の復 号装置と比べて動作の詳細が異なるが、 以下ではその前提で同一図番に て説明を行う。
②復号装置の動作概要
復号装置では映像圧縮データ 2 6を受け取ると、 まず可変長復号部 2 7にて後述するエン トロピー復号処理が行われて、 動きベク トル 5、 符 号化モード情報 1 3、 直交変換係数データ 1 7、 量子化ステツプパラメ 一夕 2 3などが復元される。 なお、 直交変換係数データ 1 7、 量子化ス テツプパラメ一夕 2 3による予測残差信号の復元処理は、 実施の形態 1 の復号装置と同一であるため、 説明を省略する。
そして、 実施の形態 1の復号装置の場合と同様に、 動き補償部 7は、 可変長復号部 2 7にて復号された動きべク トル 5 と符号化モード情報 1 3 とに基づき、 フレームメモリ群 2 8の中の所定のフレームメモリに格 納される参照画像を用いて予測画像 8を復元する。
切替器 5 4は、 符号化モー ド情報 1 3に基づいて、 動き予測モードで あれば動き補償部 7からの予測画像 8を加算器 5 5へ出力する一方、 ィ ン トラモードであれば 0を加算器 5 5へ出力する。 加算器 5 5では、 こ れら切替器 5 4からの出力を、 逆直交変換部 1 9の出力である復号信号 と加算することによって復号画像 2 1を得る。 復号画像 2 1は以降のフ レームの予測画像生成に用いられるため、 フレームメモリ群 2 8に格納 される。
③動き補償予測の動作
符号化装置における動き検出部 2、 動き補償部 7およびフレームメモ リ群 2 8を用いて行われる動き補償予測処理や、 復号装置における動き 補償部 7およびフレームメモリ群 2 8を用いて行われる動き補償処理に ついては、 第 1 1図や第 1 2図から明らかなように、 フレームメモリご との処理単位に分離して考えることができる。 符号化装置側にて個々の 参照画像 ( F ' ( t— 1 ) など) が格納されるフレームメモリを用いて 動きべク トル 5 と予測画像 8を得る処理を実施の形態 1 にて説明した③ 一 1 一 1〜③— 1— 5からなる③— 1の符号化装置における動き補償予 測処理処理、 また復号装置側にて個々の参照画像 ( F ' ( t— 1 ) など ) が格納されるフ レームメモリを用いて予測画像 8を得る処理を実施の 形態 1の③— 2— 1〜③— 2— 4からなる③— 2の復号装置における動 き補償処理とみなすことができ、 実施の形態 1 に記載した手順をそのま ま適用可能である。
従って、 以上の構成をもつ本実施の形態 2の映像符号化装置または復 号装置によれば、 上記実施の形態 1の映像符号化装置または復号装置の 場合と同様に、 動きの局所的な状況に適応して動き補償予測単位となる プロックの大きさに応じて、 従来例にて述べた仮想サンプルの精度を切 り替えると共に、 動きべク トルの符号化 ·復号方法も切り替えているの で、 メモリバン ド幅を抑えながら画質を保った圧縮符号化を行うことが 可能となる。
特に、 第 1 1図に示すように前方向も後方向も含めた両方向の複数の フレームメモリから予測画像を生成する必要がある場合や、 第 1 2図に 示す片方向でも複数のフレームメモリから予測画像を生成する必要があ る場合には、 それだけフレームメモリからの読み出し画素数が増大する ことは明らかであるが、 本実施の形態 2によれば、 動きが複雑等で精緻 な動き補償予測の効果が薄れる場合には、 仮想サンプル精度を半画素、 あるいは整数画素までに限定して動きべク トルの表現精度も低くするこ とで、 符号化効率を保ちながらフレームメモリアクセス時のメモリバン ド幅を低減することができる。 その結果、 本実施の形態 2によれば、 特 に複数のフ レームメモリ に格納された複数の参照画像を参照して動き補 償予測を行う両方向予測等の場合には、 符号化装置における動きべク ト ル検出処理ならぴに復号装置の予測画像生成処理に関して著しい演算量 削減効果が期待される。
また、 本実施の形態 2では、 複数のフ レームメモリ を有しているので
、 第 1 1図に示す通常の両方向予測や、 第 1 2図に示す過去の複数の参 照画像からの片方向予測だけでなく、 例えば、 通常はその複数のフ レー ムメモリの内容を復号画像をもつて逐次更新を行う一方、 複数のフレ一 ムメモリのうち一のフレームメモリの内容のみ更新しないことが指示等 された場合には、 その複数のフレームメモリのうち一のフレームメモリ の内容のみ更新しないようにして、 複数のフレームメモリを逐次更新を 行うショー トタームフレームメモリ と、 次のイベン トが発生するまで参 照画像が更新されない口ング夕一ムフ レームメモリ と して使用して、 シ ョ―ト夕—ムフレームメモリ とロングタームフレームメモリの参照画像 を用いて動き補償予測を行う ようにしても勿論かまわない。 このように すれば、 動画像信号の時間的な局所的特性に応じて複数のフレームメモ リを弹力的に使用することが可能となり、 フ レームメモリを効率的に使 用しつつも、 符号化シーケンスに影響されずに高い予測効率を維持しな がら符号化を行う ことができることになる。
特に、 動きの局所的な状況に適応して、 動き補償予測単位となるプロ ックの大きさに応じて動き補償予測を行う際の仮想サンプルの精度を切 り替えたり、 動きベク トルの算出方法も切り替えるだけでなく、 その動 き補償予測を行う領域単位で適応的に第 1 1図に示す両方向予測や第 1 2図に示す片方向予測等を切り替えたり、 あるいはその領域単位で通常 はその複数のフレームメモリの内容を復号画像をもつて逐次更新を行う のと、 複数のフレームメモリのうち一のフレームメモリの内容のみ更新 しないことが指示等された場合におけるその複数のフレームメモリのう ち一のフ レームメモリの内容のみ更新しないようにすることを適応的に 切り替えるようにすれば、 空間的だけでなく時間的な局所的な動きなど の各種の特徴が現れる場合でも、 メモリバン ド幅を増大させることなく 、 符号化効率を向上させると共に、 画質も向上させることが可能となる
実施の形態 3 .
実施の形態 3では、 実施の形態 1や実施の形態 2に述べた映像符号化 装置および映像復号装置に対し、 さらに、 仮想サンプル算出方法の適応 切り換えの自由度を向上させる仮想サンプル算出方法切り換えフラグを 導入した映像符号化装置および映像復号装置について説明する。
実施の形態 1および 2に示した映像符号化装置および映像復号装置で は、 第 6図の、 8 x 8 M Cより小さい例えば 8 x 4や、 4 x 8、 4 x 4サイズでの動き補償予測を半画素精度の仮想サンプルに限定して予測 を行うように構成したが、 映像によっては、 8 X 8 M Cより小さいよ りも小さい単位での動き補償予測であっても予測効率向上のために 1 / 4画素精度の動き補償予測を必要とする場合がありうる。 例えば、 動き 補償予測対象の画像が十分にテクスチャを保存していながら、 入力信号 に載った微妙な雑音成分が動きべク トルのばらつきを生じさせてしまう ような場合があり うる。 このような場合では、 単純に動きの複雑さのみ を仮定して仮想サンプル精度を固定化させてしまうのでなく、 映像の局 所的な信号状況に適応化させて、 最適な仮想サンプル精度を選択させる ことで、 真に微細な仮想サンプル精度を必要とする場合にのみ必要最小 限の演算量を追加させるように装置構成を行うことができ、 さらなる映 像符号化品質の向上を図ることが可能である。 第 1 4図に、 本実施の形態 3における映像符号化装置の構成を示す。 第 1 5図に、 本実施の形態 3における映像復号装置の構成を示す。 第 1 4図および第 1 5図において、 上記に述べた動き補償予測精度の適応 化のための役割を果たすのが、 動き補償予測の精度切り替え信号である 仮想サンプル精度切り換えフラグ 2 9であり、 それ以外の点は、 第 3図 または第 4図に示す実施の形態 1の映像符号化装置または映像復号装置 と同様である。
次に動作を説明する。
第 1 4図に示す本実施の形態 3の符号化装置側では、 仮想サンプル精 度切り換えフラグ 2 9は、 符号化装置内部における入力映像データの事 前解析もしくは符号化装置を含むシステムにおける外的要因、 例えば送 信バッファ 2 4のバッファ残量や符号化ビヅ トレ一ト等の送信環境など に基づいて、 所定の映像データ単位でフラグの値の決定が行われ、 動き 検出部 2および動き補償部 7に入力される。 動き検出部 2および動き補 償部 7では、 入力する仮想サンプル精度切り換えフラグ 2 9に基づいて 、 以下に示すように、 切り換え単位を適応的に変化させながら、 動き補 償予測の際の仮想サンプル精度や、 動きべク トルの算出方法を変えて、 動きべク トルおよび予測画像を生成する。
仮想サンプル精度切り換えフラグ 2 9の値については、 例えば以下の ような意味付けを考えることができる。 具体的には、 仮想サンプル精度 切り換えフラグ 2 9が 0 Nまたは 1であるとは、 切り換え単位となる映 像データ単位内において、 すべての 8 X 8 M C未満のブロックサイズで の動き補償予測を 1 / 4画素精度の動き補償予測によって行う、 という ことを指示する。 つまり、 この場合は第 2図に示したような多タップフ ィル夕を用いることを前提に多くの画素データをフ レームメモリから読 み出すことを許容しても予測効率を優先する。 この際は、 すべての動き べク トルが同一精度であるため、 ③— 1— 3に述べた動きべク トルの精 度変換を伴う動きべク トル予測と符号量算出は実施しない。
これに対し、 仮想サンプル精度切り換えフラグ 2 9が 0 F Fまたは 0 であるとは、 すべての 8 X 8 M C未満である第 6図の場合であれば 8 X 4や、 4 x 8、 4 X 4サイズでのブロックサイズでの動き補償予測を半 画素精度の動き補償予測を実施せよ、 という ことを指示する。 この指定 は、 第 1図に示したような半画素精度の仮想サンプルでも必要十分な予 測効率が得られるケースで用いられる。 この際は、 8 X 8 M C未満のブ ロヅクサイズでは、 動きベク トルの精度が異なるため、 適宜、 ③— 1 — 3に述べた動きべク トルの精度変換を伴う動きベク トル予測と符号量算 出を実施することになる。 なお、 O N/O F Fと、 1 / 0の関係は、 こ れに固定化されるものではなく、 もちろん逆の関連付けを行ってもよい (O N= 0、 0 F F = 1 ) o
仮想サンプル精度切り換えフラグ 2 9の切り換え単位となる映像デ一 夕単位は、 例えばマクロブロ ック、 スライス (複数のマクロブロックか ら構成される映像フレームの単位領域) 、 フレームゃフィール ド (イ ン 夕レース信号の場合) 、 シーケンス (複数の映像フレームから構成され る時系列単位) などがあり う る。
このように符号化側で設定された仮想サンプル精度切り換えフラグ 2 9は、 所定の映像データ単位で可変長符号化部 6においてビッ トス ト リ ームに多重化される。
復号装置では、 第 1 5図に示すように、 可変長復号部 2 7が仮想サン プル精度切り換えフラグ 2 9の値を復号し、 仮想サンプル精度切り換え フラグ 2 9が付与された映像データ単位ごとに上記規範に基づいて、 可 変長復号部 2 7は必要に応じて③ー 2— 3に述べた精度適応の動きべク トル 5の復号処理を行い、 動き補償部 7は、 仮想サンプル精度切り換え フラグ 2 9が指定する精度の仮想サンプル生成処理と動きべク トル 5 に 基づいて、 予測画像 8の生成を行うように構成する。
従って、 以上の構成を有する本実施の形態 3の映像符号化装置および 映像復号装置によれば、 予測効率と演算負荷とのトレードオフを自在に 制御することが可能となり、 自由度の高い映像符号化を行うことができ るようになる。
なお、 実施の形態 3では、 実施の形態 1の事例をもとに説明したが、 仮想サンプル精度切り換えフラグ 2 9が実施の形態 2における映像符号 化装置および映像復号装置にも適用可能であることはいうまでもない。 実施の形態 4 .
上記実施の形態 1 ~ 3の画像符号化装置および画像復号装置側では、 イン トラモードの場合、 空間予測を行わない通常のフレーム内符号化に より説明したが、 この実施の形態 4では、 イ ン トラモードとしてフレー ム内で空間予測を用いて動画像信号と予測信号との差分信号を符号化す るイントラ予測モ一ドにより符号化を行う空間予測部 1 0 aを設けた例 について説明する。
第 1 6図に、 第 3図に示す実施の形態 1の符号化装置に対し空間予測 部 1 0 aを追加した本実施の形態 4の符号化装置の構成を示す。 第 1 6 図に示すように、 本実施の形態 4の符号化装置では、 空間予測部 1 0 a を追加したので、 空間予測部 1 ◦ aから可変長符号化部 6ヘイン トラ予 測モード 1 4を出力すると共に、 切替器 5 2には実施の形態 1〜 3の場 合のィン トラモードの 0入力の代わりに空間予測部 1 0 aから空間予測 画像 2 0が出力されることになる。 その他は、 実施の形態 1 と同様であ る。
第 1 7図に、 第 4図に示す実施の形態 1の復号装置から空間予測部 1 0 aを追加した本実施の形態 4の復号装置の構成を示す。 第 1 7図に示 すように、 本実施の形態 4の復号装置では空間予測部 1 0 aを追加した ので、 すなわち第 1 6図に示すように符号化装置側にて空間予測部 1 0 aを追加したので、 可変長復号部 2 7から空間予測部 1 0 aヘイ ン トラ 予測モード 1 4が出力されると共に、 切替器 5 4には実施の形態 1 〜 3 の場合のィン トラモードの 0入力の代わりに空間予測部 1 0 aから空間 予測画像 2 0が出力されることになる。 その他は、 実施の形態 1 と同様 である。
簡単に動作を説明すると、 第 1 6図に示す本実施の形態 4の符号化装 置では、 空間予測部 1 0 aによるイン トラ予測モ一ド符号化が行われる 場合には、 空間予測部 1 0 aから可変長符号化部 6ヘイン トラ予測モー ド 1 4が出力され、 可変長符号化部 6では、 動きべク トル 5、 量子化ス テツプパラメ一夕 2 3、 符号化モード情報 1 3、 直交変換係数デ一夕 1 7と共にィン トラ予測モ一ド 1 4もェン トロピー符号化を行い、 送信バ ヅファ 2 4経由で、 映像圧縮デ一夕 2 6 として伝送する。 そして、 本実 施の形態 4の切替器 5 2では、 符号化モード情報 1 3に従って、 その符 号化モード情報 1 3が時間方向の予測である動き予測モードを示してい る場合には、 逆量子化および逆直交変換された直交変換係数デ一夕 1 7 と、 動き補償部 7からの予測画像 8と加算して局所復号画像 2 1 として フレームメモリ 3へ出力するか、 あるいはその符号化モード情報 1 3が 空間方向の予測であるィントラ予測モードを示している場合には、 逆量 子化および逆直交変換された直交変換係数データ 1 7 と、 空間予測画像 2 0 とが加算されて局所復号画像 2 1 として出力され、 降のフレームの 動き予測に用いられるため、 参照画像データとしてフレームメモリ 3へ 格納される。
その一方、 第 1 7図に示す本実施の形態 4の復号装置では、 可変長復 号部 2 7がイ ン トラ予測モード 1 4を復号され、 空間予測部 1 0 aへ出 力され、 空間予測画像 2 0が復元される。 そして、 本実施の形態 4の切 替器 5 4では、 可変長復号部 2 7からの符号化モード情報 1 3に基づい て、 時間方向の予測である動き予測モ一ドであれば動き補償部 7からの 予測画像 8を加算器 5 5へ出力する一方、 空間方向の予測であるィン ト ラ予測モードを示している場合には空間予測画像 2 0を加算器 5 5へ出 力する。 · 加算器 5 5では、 これら切替器 5 4からの出力を、 逆直交変換 部 1 9の出力である復号信号と加算することによって復号画像 2 1を得 て、 以降のフレームの予測画像生成に用いられるため、 フレームメモリ 3に格納される。
従って、 実施の形態 4の画像符号化装置および画像復号装置によれば 、 上記実施の形態 1の画像符号化装置および画像復号装置におけるィ ン トラモードの代わりに、 フレーム内で空間予測を用いて動画像信号と予 測信号との差分信号を符号化するィントラ予測モードを採用するように したので、 上記実施の形態 1 と同様の効果が得られると共に、 上記実施 の形態 1にて行う通常のィン トラモードよりも圧縮効率を向上させるこ とができる。
なお、 この実施の形態 4では、 第 3図に示す実施の形態 1の符号化装 置、 および第 4図に示す実施の形態 1の復号装置に対し空間予測部 1 0 aを追加したものを実施の形態として図示して説明したが、 本発明では 、 これに限らず、 第 1 0図および第 1 3図に示す実施の形態 2の符号化 装置および復号装置に対し空間予測部 1 0 aを追加することも、 さらに は第 1 4図および第 1 5図に示す実施の形態 3の符号化装置および復号 装置に対し空間予測部 1 0 aを追加することも可能であり、 これらの場 合も、 上記と同様に説明することができる。 実施の形態 5 .
上記実施の形態 1〜 4では、 画像符号化装置または画像復号装置等の 要素製品として説明したが、 この実施の形態 5では、 実施の形態 1〜 4 の画像符号化装置または画像復号装置等が実装される最終製品について 簡単に説明する。
第 1 8図は、 実施の形態 1〜 4の画像符号化装置および画像復号装置 等が実装された実施の携帯電話の構成を示している。 この携帯電話は、 第 1 8図に示すように、 送受信部 7 1、 ベースバン ド処理部 Ί 2、 制御 部 7 3、 音声コーデック 7 4、 ビデオコ一デヅク 7 5、 イン夕フェース 7 6、 カメラ 7 7、 ディスプレイ 7 8、 マイク · スピーカ 7 9、 アンテ ナ 8 0等を備えて構成されており、 ビデオコーデック 7 5 として、 実施 の形態 1〜 4のいずれかの画像符号化装置および画像復号装置が搭載さ れる。
従って、 実施の形態 5の携帯電話によれば、 実施の形態 1〜 4の画像 符号化装置および画像復号装置等の要素製品を実装することにより、 動 'きの局所的な状況に適応して、 メモリバン ド幅を抑えながら画質を保つ た圧縮符号化を行うことが可能となり、 メモリバン ド幅削減により映像 復号処理実装の簡略化、 消費電力化に著しい効果を発揮する。
なお、 本実施の形態 5では、 実施の形態 1〜 4の画像符号化装置また は画像復号装置等の要素製品が実装される最終製品として、 画像符号化 装置および画像復号装置の双方をビデオコーデック 7 5に搭載した携帯 端末を一例に説明したが、 本発明では、 これに限らず、 実施の形態 1 〜 4の画像符号化装置のみを搭載した放送装置や、 実施の形態 1〜 4の画 像復号装置のみを搭載した D V Dプレーヤ等にも適用できることは勿論 である。 これら映像再生を主とするプレーヤや、 携帯電話、 携帯情報端 末などにハードウェア実装する際に、 メモリバン ド幅削減により映像復 号処理実装の簡略化、 消費電力化に著しい効果を発揮する。
以上、 この発明をその好適な実施の形態を参照しながら詳細に図示し て説明したが、 請求の範囲に記載されたこの発明の趣旨および区域内で 、 形式および細部に関する様々な変更が可能であることは当業者であれ ば理解できることだろう。 かかる変更、 代替、 修正もこの発明の範囲に 含まれるものであると出願人は意図している。 産業上の利用可能性
以上のように、 この発明に係る動画像符号化装置及び画像復号装置の うちの少なく とも一方を備えた通信装置は、 マクロブロックなど映像フ レームを小領域単位に分割して個々に動き補償予測を行う場合でも、 メ モリバン ド幅を抑えつつ、 符号化効率を向上させるのに適している。

Claims

請 求 の 範 囲 1 . 動画像信号の各フレームを所定の方法で分割した領域単位で動き 補償予測を行い生成した予測画像と上記動画像信号との間の差分信号を 圧縮符号化した符号化ビッ トス ト リームを生成する動画像符号化装置で あって、
予測画像の生成に用いる参照画像を格納するフレームメモリ と、 動き補償予測の単位となる領域の形状に応じて、 予測画像の構成要素 となる仮想画素の精度を切り換えて予測画像の候補を生成し、 該複数の 予測画像候補のうち予測効率が大きい予測画像を与える動きべク トルを 生成する動き検出部と、
上記動き検出部にて生成された動きべク トルに基づき、 動き補償予測 の単位となる領域の形状に応じて予測画像の構成要素となる仮想画素の 精度を切り換えて予測画像を生成する動き補償部とを備え、
上記符号化ビッ トス ト リームに、 上記動き補償予測の単位となる領域 の形状を示す形状情報と、 上記動きべク トルとを多重する動画像符号化
2 . 上記符号化ビッ トス ト リームに、 上記動き補償予測の単位となる 領域の形状を示す形状情報と、 該形状情報で示される動き補償予測の単 位となる領域の形状に応じて上記動きべク トルの予測符号化方法を切り 換えて符号化された動きべク トルとを多重することを特徴とする請求の 範囲第 1項記載の動画像符号化装置。
3 . 動き検出部は、 動き補償予測の単位となる領域の形状に応じて、 予測画像の構成要素となる仮想画素の精度を切り換えるか否かを所定の 動画像デ一夕の単位で制御する制御信号に基づいて予測画像の候補を生 成し、 該複数の予測画像候補のうち予測効率が大きい予測画像を与える 動きべク トルを生成し、
動き補償部は、 上記動き検出部にて生成された動きべク トルに基づき 、 動き補償予測の単位となる領域の形状に応じて予測画像の構成要素と なる仮想画素の精度を切り換えるか否かを所定の動画像データの単位で 制御する制御信号に基づいて予測画像を生成することを特徴とする請求 の範囲第 1項記載の動画像符号化装置。
4 . 上記動き補償部は、 複数の精度であるフレームメモリに格納され た参照画像の複数の画素データに基づいて所定の方法で仮想画素を生成 する第 1の精度と、 その第 1の精度の仮想画素に基づいて仮想画素を生 成する第 2の精度とのうちから上記領域単位毎にいずれか一の指示され た精度にしたがって動き補償予測を行って参照画像を生成することを特 徴とする請求の範囲第 1項記載の動画像符号化装置。
5 . 上記動き補償予測の単位となる領域は、 動画像信号の各フ レーム を輝度信号相当で 1 6画素 X 1 6ラインに分割したマクロブロックをさ らに分割した予測単位プロックであり、
当該領域の形状を示す形状情報は、 マクロプロックを予測単位プロッ クへ分割する方法を指示する情報であることを特徴とする請求の範囲第 1項記載の動画像符号化装置。
6 . 予測画像の生成に用いる参照画像を格納するフ レームメモリが複 数設けられ、
上記動き補償部は、 上記複数のフレームメモリに格納された複数の参 照画像を参照し動き補償予測を行って予測画像を生成することを特徴と する請求の範囲第 1項記載の動画像符号化装置。
7 . さらに、 動画像信号をイ ン トラモー ドにより符号化を行うイ ン ト ラモードを備え、
上記動き補償部による動き補償予測モードか、 上記ィ ン トラモードか を選択的に行う と共に、 上記符号化ビッ トス ト リームに、 さらに選択し たモ一ドを示す符号化モード情報を多重することを特徴とする請求の範 囲第 1項記載の動画像符号化装置。
8 . さらに、 動画像信号を空間予測モードにより予測符号化を行う空 間予測部を備え、
上記動き補償部による動き補償予測モードか、 上記空間予測部による 空間予測モードかを選択的に行う と共に、 上記符号化ビッ トス ト リ一ム に、 さらに選択したモードを示す符号化モード情報を多重することを特 徴とする請求の範囲第 1項記載の動画像符号化装置。
9 . 動画像信号の各フレームを所定の方法で分割した領域単位で動き 補償予測を行い生成した予測画像と上記動画像信号との間の差分信号を 圧縮符号化した符号化ビッ トス ト リームを生成する際の動画像符号化方 法であって、
動き補償予測の単位となる領域の形状に応じて、 予測画像の構成要素 となる仮想画素の精度を切り換えて予測画像の候補を生成し、 該複数の 予測画像候補のうち予測効率が大きい予測画像を与える動きベク トルを 生成すると共に、 生成した動きベク トルに基づき、 動き補償予測の単位 となる領域の形状に応じて予測画像の構成要素となる仮想画素の精度を 切り換えて予測画像を生成し、
上記符号化ビッ トス ト リームに、 上記動き補償予測の単位となる領域 の形状を示す形状情報と、 上記動きべク トルとを多重する動画像符号化 方 。
1 0 . 動画像信号の各フレームを所定の方法で分割した領域単位で動 き補償予測を行い生成した予測画像と上記動画像信号との間の差分信号 を圧縮符号化した符号化ビッ トス ト リームを入力して動画像信号を復元 する動画像復号装置であって、
予測画像の生成に用いる参照画像を格納するフレームメモリ と、 上記符号化ビッ トス ト リームを入力して上記差分信号と、 動きべク ト ルと、 上記動き補償予測の単位となる領域の形状を示す形状情報とを復 号する復号部と、
上記動き補償予測の単位となる領域の形状を示す形状情報に基づいて 予測画像の構成要素となる仮想画素の精度を切り換え、 切り換えられた 精度にしたがい上記復号部にて復号された動きべク トルを用い上記フレ ームメモリに格納された参照画像を参照して予測画像を生成する動き補 償部と.を備え、
上記復号部にて復号された上記差分信号と、 上記動き補償部にて生成 された予測画像とを加算して動画像信号を復元する動画像復号装置。
1 1 . 復号部は、 符号化ビッ トス ト リームを入力して差分信号と、 動 き補償予測の単位となる領域の形状を示す形状情報とを復号するととも に、 上記形状情報に基づいて動きべク トルの予測復元方法を切り換えて 動きべク トルの復号を行うことを特徴とする請求の範囲第 1 0項記載の 動画像復号装置。
1 2 . 復号部は、 符号化ビッ トス ト リームを入力して差分信号と、 動 き補償予測の単位となる領域の形状を示す形状情報と、 所定の動画像デ 一夕の単位で定義される制御信号を復号するとともに、 上記形状情報に 基づいて動きべク トルの予測復元方法を切り換えるか否かを上記制御信 号に基づいて所定の動画像データの単位で制御し、 動きべク トルの復号 を行い、
動き補償部は、 動き補償予測の単位となる領域の形状を示す形状情報 に基づいて予測画像の構成要素となる仮想画素の精度を切り換えるか否 かを、 上記制御信号に基づいて所定の動画像データの単位で制御して仮 想画素の精度を決定し、 決定された精度にしたがい上記復号部にて復号 された動きべク トルを用い上記フレームメモリに格納された参照画像を 参照して予測画像を生成することを特徴とする請求の範囲第 1 0項記載 の動画像復号装置。
1 3 . 上記動き補償部は、 複数の精度であるフレームメモリに格納さ れた参照画像の複数の画素データに基づいて所定の方法で仮想画素を生 成する第 1の精度と、 その第 1の精度の仮想画素に基づいて仮想画素を 生成する第 2の精度とのうちから上記領域単位毎にいずれか一の指示さ れた精度にしたがって動き補償を行って参照画像を生成することを特徴 とする請求の範囲第 1 0項記載の動画像復号装置。
1 4 . 上記動き補償の単位となる領域は、 動画像信号の各フレームを 輝度信号相当で 1 6画素 X 1 6ラインに分割したマクロブロックをさら に分割した予測単位プロックであり、
当該領域の形状を示す形状情報は、 マクロプロックを予測単位プロッ クへ分割する方法を指示する情報であり、
対応する動きべク トルは、 各予測単位プロックで利用する動きべク ト ルであることを特徴とする請求の範囲第 1 0項記載の動画像復号装置。
1 5 . 予測画像の生成に用いる参照画像を格納するフレームメモリが 複数設けられ、
上記動き補償部は、 上記複数のフレームメモリに格納された複数の参 照画像を参照し動き補償を行って予測画像を生成することを特徴とする 請求の範囲第 1 0項記載の動画像復号装置。
1 6 . 上記復号部は、 さらに上記符号化ビッ トス ト リームから符号化 モード情報を復号し、
上記符号化モ一ド情報に基づき、 動画像信号をィン トラモードにより 復号するか、 あるいは上記動き補償部による動き補償予測モードにより 復号することを特徴とする請求の範囲第 1 0項記載の動画像復号装置。
1 7 . 動画像信号を空間予測モードにより予測符号化を行う空間予測 部を備え、
上記復号部は、 さらに上記符号化ビッ トス ト リームから符号化モード 情報を復号し、
上記符号化モード情報に基づき、 動画像信号を上記空間予測部による 空間予測モ一ドにより復号するか、 あるいは上記動き補償部による動き 補償予測モードにより復号することを特徴とする請求の範囲第 1 0項記 載の動画像復号装置。
1 8 . 動画像信号の各フレームを所定の方法で分割した領域単位で動 き補償予測を行い生成した予測画像と上記動画像信号との間の差分信号 を圧縮符号化した符号化ビッ トス ト リームを入力して動画像信号を復元 する際の動画像復号方法であつて、
上記符号化ビッ トス ト リームを入力して上記差分信号と、 動きぺク ト ルと、 上記動き補償予測の単位となる領域の形状を示す形状情報とを復 号し、 その動き補償予測の単位となる領域の形状を示す形状情報に基づ いて予測画像の構成要素となる仮想画素の精度を切り換え、 切り換えら れた精度にしたがい上記復号された動きべク トルを用い上記参照画像を 参照して予測画像を生成し、
上記復号された上記差分信号と、 上記動き補償によって生成された予 測画像とを加算して動画像信号を復元する動画像復号方法。
1 9 . 請求の範囲第 1項記載の画像符号化装置を備えた通信装置。
2 0 . 請求の範囲第 1 0項記載の画像復号装置を備えた通信装置。
PCT/JP2003/007995 2002-07-15 2003-06-24 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置 WO2004008772A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP03764122A EP1418763A4 (en) 2002-07-15 2003-06-24 An image coding apparatus and method, an image decoding apparatus and method, and a communication apparatus
US10/488,229 US8045616B2 (en) 2002-07-15 2003-06-24 Image coding device, image coding method, image decoding device, image decoding method and communication apparatus
KR20047003731A KR100593350B1 (ko) 2002-07-15 2003-06-24 화상 부호화 장치, 화상 부호화 방법, 화상 복호 장치,화상 복호 방법, 및 통신 장치
CA2459229A CA2459229C (en) 2002-07-15 2003-06-24 Image coder and decoder which select interpolated pixel accuracy depending on the size of coverage of local motion vector detection areas
US11/926,660 US8054884B2 (en) 2002-07-15 2007-10-29 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus
US11/926,630 US20080056371A1 (en) 2002-07-15 2007-10-29 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus
US11/926,816 US8401079B2 (en) 2002-07-15 2007-10-29 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus
US11/943,716 US20080084930A1 (en) 2002-07-15 2007-11-21 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-205488 2002-07-15
JP2002205488A JP4724351B2 (ja) 2002-07-15 2002-07-15 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置

Related Child Applications (5)

Application Number Title Priority Date Filing Date
US10488229 A-371-Of-International 2003-06-24
US11/926,816 Division US8401079B2 (en) 2002-07-15 2007-10-29 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus
US11/926,660 Division US8054884B2 (en) 2002-07-15 2007-10-29 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus
US11/926,630 Division US20080056371A1 (en) 2002-07-15 2007-10-29 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus
US11/943,716 Division US20080084930A1 (en) 2002-07-15 2007-11-21 Image coding apparatus, image coding method, image decoding apparatus, image decoding method and communication apparatus

Publications (1)

Publication Number Publication Date
WO2004008772A1 true WO2004008772A1 (ja) 2004-01-22

Family

ID=30112765

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/007995 WO2004008772A1 (ja) 2002-07-15 2003-06-24 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置

Country Status (8)

Country Link
US (5) US8045616B2 (ja)
EP (4) EP1418763A4 (ja)
JP (1) JP4724351B2 (ja)
KR (1) KR100593350B1 (ja)
CN (4) CN1882094B (ja)
CA (1) CA2459229C (ja)
TW (2) TW200402662A (ja)
WO (1) WO2004008772A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012005099A1 (ja) * 2010-07-09 2012-01-12 ソニー株式会社 画像処理装置及び画像処理方法
CN114175645A (zh) * 2019-07-06 2022-03-11 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的虚拟预测缓冲

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4724351B2 (ja) 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
US7620254B2 (en) * 2003-08-07 2009-11-17 Trident Microsystems (Far East) Ltd. Apparatus and method for motion-vector-aided interpolation of a pixel of an intermediate image of an image sequence
EP1538844A3 (en) * 2003-11-26 2006-05-31 Samsung Electronics Co., Ltd. Color image residue transformation and encoding method
JP4243205B2 (ja) * 2004-02-18 2009-03-25 日本放送協会 動画像符号化装置、その方法及びそのプログラム
US8442108B2 (en) * 2004-07-12 2013-05-14 Microsoft Corporation Adaptive updates in motion-compensated temporal filtering
US8340177B2 (en) * 2004-07-12 2012-12-25 Microsoft Corporation Embedded base layer codec for 3D sub-band coding
EP1617672A1 (en) * 2004-07-13 2006-01-18 Matsushita Electric Industrial Co., Ltd. Motion estimator/compensator including a 16-bit 1/8 pel interpolation filter
US8374238B2 (en) 2004-07-13 2013-02-12 Microsoft Corporation Spatial scalability in 3D sub-band decoding of SDMCTF-encoded video
CN100377599C (zh) * 2004-09-03 2008-03-26 北京航空航天大学 一种快速亚像素运动估计方法
KR100647294B1 (ko) * 2004-11-09 2006-11-23 삼성전자주식회사 화상 데이터 부호화 및 복호화 방법 및 장치
JP2006148615A (ja) * 2004-11-22 2006-06-08 Hitachi Ltd 復号化装置および符号化方法をコンピュータに実行させるためのプログラム
JP2006157481A (ja) * 2004-11-30 2006-06-15 Canon Inc 画像符号化装置及びその方法
US20060133507A1 (en) * 2004-12-06 2006-06-22 Matsushita Electric Industrial Co., Ltd. Picture information decoding method and picture information encoding method
JP4317814B2 (ja) 2004-12-06 2009-08-19 株式会社ルネサステクノロジ 動画像情報の符号化装置及び符号化方法
JP4501676B2 (ja) 2004-12-22 2010-07-14 日本電気株式会社 動画像圧縮符号化方法と動画像圧縮符号化装置並びにプログラム
US8363714B2 (en) * 2004-12-22 2013-01-29 Entropic Communications, Inc. Video stream modifier
KR100703751B1 (ko) * 2005-02-14 2007-04-06 삼성전자주식회사 가상 영역의 영상을 참조하여 인코딩 및 디코딩 하는 방법및 장치
US7864209B2 (en) * 2005-04-28 2011-01-04 Apple Inc. Audio processing in a multi-participant conference
US7899170B2 (en) 2005-04-28 2011-03-01 Apple Inc. Multi-participant conference setup
US7653250B2 (en) * 2005-04-28 2010-01-26 Apple Inc. Adjusting sampling rate for encoding
US7817180B2 (en) * 2005-04-28 2010-10-19 Apple Inc. Video processing in a multi-participant video conference
US8861701B2 (en) * 2005-04-28 2014-10-14 Apple Inc. Multi-participant conference adjustments
US7692682B2 (en) * 2005-04-28 2010-04-06 Apple Inc. Video encoding in a video conference
US7949117B2 (en) * 2005-04-28 2011-05-24 Apple Inc. Heterogeneous video conferencing
KR100995226B1 (ko) * 2005-07-22 2010-11-17 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법, 화상 복호 방법, 화상 부호화 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체, 화상 복호 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
CN103118254B (zh) * 2005-09-26 2016-01-20 三菱电机株式会社 运动图像编码装置以及运动图像译码装置
JP4675383B2 (ja) * 2005-11-11 2011-04-20 富士通株式会社 画像復号化装置および方法、画像符号化装置
US9071844B2 (en) * 2005-12-16 2015-06-30 Texas Instruments Incorporated Motion estimation with motion vector penalty
US7956930B2 (en) 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US20090067503A1 (en) * 2006-01-07 2009-03-12 Electronics And Telecommunications Research Institute Method and apparatus for video data encoding and decoding
JP2007189518A (ja) * 2006-01-13 2007-07-26 Matsushita Electric Ind Co Ltd 信号処理装置、撮像装置、ネットワークカメラシステム及び映像システム
WO2007091588A1 (ja) * 2006-02-09 2007-08-16 Nec Corporation 動画像復号装置、復号画像記録装置、それらの方法及びプログラム
US8665967B2 (en) * 2006-02-15 2014-03-04 Samsung Electronics Co., Ltd. Method and system for bit reorganization and packetization of uncompressed video for transmission over wireless communication channels
US20070230461A1 (en) * 2006-03-29 2007-10-04 Samsung Electronics Co., Ltd. Method and system for video data packetization for transmission over wireless channels
US8787465B2 (en) * 2006-03-31 2014-07-22 Intel Corporation Method for neighboring block data management of advanced video decoder
KR20090008418A (ko) 2006-04-28 2009-01-21 가부시키가이샤 엔티티 도코모 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
JP4712643B2 (ja) 2006-08-17 2011-06-29 富士通セミコンダクター株式会社 フレーム間予測処理装置、フレーム間予測方法、画像符号化装置及び画像復号装置
JP4592656B2 (ja) * 2006-08-17 2010-12-01 富士通セミコンダクター株式会社 動き予測処理装置、画像符号化装置および画像復号化装置
JP4763549B2 (ja) 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
JP4762095B2 (ja) * 2006-09-20 2011-08-31 株式会社東芝 画像復号装置及び画像復号方法
KR100827093B1 (ko) 2006-10-13 2008-05-02 삼성전자주식회사 영상 부호화 방법 및 장치
KR100858245B1 (ko) * 2006-11-17 2008-09-12 주식회사 휴맥스 결정 비트를 이용한 부호화/복호화 장치 및 그에 따른프로그램이 기록된 매체
US8175041B2 (en) * 2006-12-14 2012-05-08 Samsung Electronics Co., Ltd. System and method for wireless communication of audiovisual data having data size adaptation
JP4908180B2 (ja) * 2006-12-20 2012-04-04 株式会社東芝 動画像符号化装置
US8929448B2 (en) * 2006-12-22 2015-01-06 Sony Corporation Inter sub-mode decision process in a transcoding operation
US8345968B2 (en) * 2007-06-28 2013-01-01 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
CN103338364B (zh) 2007-06-29 2016-07-06 夏普株式会社 图像编码装置、图像编码方法、图像译码装置、图像译码方法
US8842739B2 (en) 2007-07-20 2014-09-23 Samsung Electronics Co., Ltd. Method and system for communication of uncompressed video information in wireless systems
US8259811B2 (en) * 2007-11-30 2012-09-04 Olympus Imaging Corp Method for determining a number of items of encoded data that can be stored in a memory, and method for controlling sizes of items of encoded image data to be stored in a memory
CN101459838B (zh) * 2007-12-14 2010-11-03 安凯(广州)微电子技术有限公司 一种帧间预测系统、方法及多媒体处理器
WO2009088038A1 (ja) * 2008-01-09 2009-07-16 Mitsubishi Electric Corporation 画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法
US8953673B2 (en) * 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) * 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
US9967590B2 (en) 2008-04-10 2018-05-08 Qualcomm Incorporated Rate-distortion defined interpolation for video coding based on fixed filter or adaptive filter
US9077971B2 (en) 2008-04-10 2015-07-07 Qualcomm Incorporated Interpolation-like filtering of integer-pixel positions in video coding
US8705622B2 (en) 2008-04-10 2014-04-22 Qualcomm Incorporated Interpolation filter support for sub-pixel resolution in video coding
US8176524B2 (en) * 2008-04-22 2012-05-08 Samsung Electronics Co., Ltd. System and method for wireless communication of video data having partial data compression
US8494058B2 (en) 2008-06-23 2013-07-23 Mediatek Inc. Video/image processing apparatus with motion estimation sharing, and related method and machine readable medium
KR101379187B1 (ko) * 2008-06-23 2014-04-15 에스케이 텔레콤주식회사 블록 변환을 이용한 인트라 예측 방법 및 장치와 그를이용한 영상 부호화/복호화 방법 및 장치
US8284839B2 (en) * 2008-06-23 2012-10-09 Mediatek Inc. Joint system for frame rate conversion and video compression
JP2010050833A (ja) * 2008-08-22 2010-03-04 Canon Inc 映像符号化装置
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
US8213503B2 (en) * 2008-09-05 2012-07-03 Microsoft Corporation Skip modes for inter-layer residual video coding and decoding
US8325796B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video coding using adaptive segmentation
US8107750B2 (en) * 2008-12-31 2012-01-31 Stmicroelectronics S.R.L. Method of generating motion vectors of images of a video sequence
US9369759B2 (en) 2009-04-15 2016-06-14 Samsung Electronics Co., Ltd. Method and system for progressive rate adaptation for uncompressed video communication in wireless systems
EP2446629B1 (fr) * 2009-06-23 2018-08-01 Orange Procédés de codage et de décodage d'images, dispositifs de codage et de décodage, et programme d'ordinateur correspondants
KR101712351B1 (ko) * 2009-06-26 2017-03-06 에스케이 텔레콤주식회사 다차원 정수 변환을 이용한 영상 부호화/복호화 장치 및 방법
EP2449784A1 (fr) * 2009-07-03 2012-05-09 France Telecom Prédiction d'un vecteur mouvement d'une partition d'image courante de forme géometrique ou de taille différente de celle d'au moins une partition d'image de référence voisine, codage et décodage utilisant une telle prédiction
BR112012000002B1 (pt) * 2009-07-03 2021-11-23 France Telecom Método para predizer um vetor de movimento de uma partição de imagem corrente, método para codificar uma imagem, método para decodificar um fluxo de dados representativo de uma imagem, dispositivo para predizer um vetor de movimento de uma partição de imagem corrente, dispositivo para codificar uma imagem e dispositivo para decodificar um fluxo de dados
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
KR20110017302A (ko) * 2009-08-13 2011-02-21 삼성전자주식회사 움직임 벡터의 정확도 조절을 이용한 영상 부호화, 복호화 방법 및 장치
EP3633996A1 (en) * 2009-10-14 2020-04-08 InterDigital Madison Patent Holdings Methods and apparatus for adaptive coding of motion information
TWI566586B (zh) * 2009-10-20 2017-01-11 湯姆生特許公司 一序列形象的現時區塊之寫碼方法和重建方法
WO2011080807A1 (ja) * 2009-12-28 2011-07-07 富士通株式会社 動画像符号化装置および動画像復号装置
JP5533885B2 (ja) * 2010-01-08 2014-06-25 富士通株式会社 動画像符号化装置および動画像復号装置
KR101487687B1 (ko) 2010-01-14 2015-01-29 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
KR101768207B1 (ko) 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR20140083063A (ko) * 2010-02-09 2014-07-03 니폰덴신뎅와 가부시키가이샤 움직임 벡터 예측 부호화 방법, 움직임 벡터 예측 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 그들의 프로그램
CN102742276B (zh) 2010-02-09 2016-08-03 日本电信电话株式会社 运动向量预测编码方法、运动向量预测解码方法、活动图像编码装置、活动图像解码装置及其程序
BR112012019676A2 (pt) 2010-02-09 2016-05-03 Nippon Telegraph & Telephone método de codificação preditiva de vetor de movimento, método de decodificação preditiva de vetor de movimento, aparelho de codificação de imagem em movimento, aparelho de decodificação de imagem em movimento e programas destes
US9237355B2 (en) * 2010-02-19 2016-01-12 Qualcomm Incorporated Adaptive motion resolution for video coding
JP5368631B2 (ja) 2010-04-08 2013-12-18 株式会社東芝 画像符号化方法、装置、及びプログラム
US9020043B2 (en) 2010-05-10 2015-04-28 Google Inc. Pathway indexing in flexible partitioning
JP2011244210A (ja) * 2010-05-18 2011-12-01 Sony Corp 画像処理装置および方法
JP5563403B2 (ja) * 2010-08-12 2014-07-30 日本電信電話株式会社 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
JP5485851B2 (ja) * 2010-09-30 2014-05-07 日本電信電話株式会社 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
US10327008B2 (en) 2010-10-13 2019-06-18 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
AU2012216026B2 (en) 2011-02-10 2016-04-28 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US8891627B1 (en) 2011-04-18 2014-11-18 Google Inc. System and method for coding video using color segmentation
WO2012165886A2 (ko) * 2011-05-31 2012-12-06 (주)휴맥스 화면 간 예측 방법에서 움직임 예측 관련 정보 저장 방법 및 화면 간 예측 방법에서 움직임 예측 관련 정보 산출 방법
US9232233B2 (en) * 2011-07-01 2016-01-05 Apple Inc. Adaptive configuration of reference frame buffer based on camera and background motion
US10536701B2 (en) 2011-07-01 2020-01-14 Qualcomm Incorporated Video coding using adaptive motion vector resolution
GB2493755B (en) * 2011-08-17 2016-10-19 Canon Kk Method and device for encoding a sequence of images and method and device for decoding a sequence of images
CN107105302B (zh) 2011-08-25 2019-12-10 太阳专利托管公司 视频编码装置及视频编码方法
PL3094092T3 (pl) 2011-09-07 2018-11-30 Sun Patent Trust Sposób dekodowania obrazów i urządzenie do dekodowania obrazów
JP5932811B2 (ja) 2011-09-19 2016-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法、及び画像復号装置
IN2014CN02604A (ja) 2011-10-19 2015-08-07 Panasonic Corp
CN107197250B (zh) 2011-10-28 2019-09-03 三星电子株式会社 用于视频的帧内预测的方法和设备
TWI597973B (zh) * 2011-10-31 2017-09-01 Jvc Kenwood Corp Video encoding device, video encoding method and recording medium
KR20130050149A (ko) 2011-11-07 2013-05-15 오수미 인터 모드에서의 예측 블록 생성 방법
US9510018B2 (en) * 2011-11-23 2016-11-29 Luca Rossato Signal analysis and generation of transient information
TWI607650B (zh) * 2011-12-28 2017-12-01 Jvc Kenwood Corp Motion picture decoding apparatus, motion picture decoding method, and motion picture decoding program
EP3550840A1 (en) * 2012-01-20 2019-10-09 Sony Corporation Complexity reduction of significance map coding
US10469851B2 (en) * 2012-04-16 2019-11-05 New Cinema, LLC Advanced video coding method, system, apparatus, and storage medium
ITVI20120087A1 (it) 2012-04-17 2013-10-18 St Microelectronics Srl Stabilizzazione video digitale
CN104604241B (zh) 2012-07-09 2018-06-01 Vid拓展公司 用于功率感知视频解码的方法和移动设备
WO2014163209A1 (ja) * 2013-04-05 2014-10-09 シャープ株式会社 画像復号装置
US9749642B2 (en) 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
US9774881B2 (en) * 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
BR112016017201B1 (pt) * 2014-01-29 2023-09-26 Hfi Innovation Inc Método de codificação e decodificação para precisão adaptativa de vetor de movimento de um bloco de dados de vídeo
US9392272B1 (en) 2014-06-02 2016-07-12 Google Inc. Video coding using adaptive source variance based partitioning
US9578324B1 (en) 2014-06-27 2017-02-21 Google Inc. Video coding using statistical-based spatially differentiated partitioning
US9946956B2 (en) * 2016-06-15 2018-04-17 Qualcomm Incorporated Differential image processing
US10979732B2 (en) * 2016-10-04 2021-04-13 Qualcomm Incorporated Adaptive motion vector precision for video coding
CN108235007B (zh) * 2016-12-12 2023-06-27 上海天荷电子信息有限公司 各模式使用不同精度同种编码参数的数据压缩方法和装置
US10764603B2 (en) 2018-12-31 2020-09-01 Alibaba Group Holding Limited Resolution-adaptive video coding
CN113963672B (zh) * 2021-11-05 2023-02-24 惠州华星光电显示有限公司 显示器亮度调节方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01238389A (ja) * 1988-03-18 1989-09-22 Fujitsu Ltd 動画像の予測符号化方式
JPH09154140A (ja) * 1995-11-29 1997-06-10 Nec Corp 動画像の動き補償回路
JPH1146364A (ja) * 1997-07-28 1999-02-16 Victor Co Of Japan Ltd 動き補償符号化装置、復号化装置、符号化方法及び復号化方法
JPH11262018A (ja) * 1998-03-09 1999-09-24 Victor Co Of Japan Ltd 動き補償符号化装置、動き補償符号化方法、及び動き補償符号記録媒体
WO2003063503A1 (en) * 2002-01-24 2003-07-31 Hitachi, Ltd. Moving picture signal coding method, decoding method, coding apparatus, and decoding apparatus

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US135411A (en) * 1873-02-04 Improvement in inhalers
JPH04127689A (ja) 1990-09-19 1992-04-28 Hitachi Ltd 動画像予測符号化方式
US5436666A (en) * 1993-05-21 1995-07-25 Intel Corporation Limited-domain motion estimation/compensation for video encoding/decoding
US5477272A (en) * 1993-07-22 1995-12-19 Gte Laboratories Incorporated Variable-block size multi-resolution motion estimation scheme for pyramid coding
US5610657A (en) 1993-09-14 1997-03-11 Envistech Inc. Video compression using an iterative error data coding method
US5754699A (en) * 1994-11-24 1998-05-19 Victor Company Of Japan, Ltd. Method of reducing mosquito noise generated during decoding process of image data and device for decoding image data using the same
EP1271957B1 (en) * 1994-12-20 2006-05-24 Matsushita Electric Industrial Co., Ltd. Object-based digital image predictive coding and transfer method and apparatus, and decoding apparatus
JP3169783B2 (ja) * 1995-02-15 2001-05-28 日本電気株式会社 動画像の符号化・復号システム
CN1122421C (zh) * 1995-08-04 2003-09-24 株式会社大宇电子 用于图象信号编码系统的运动矢量估算方法和设备
EP1274253A3 (en) * 1995-08-29 2005-10-12 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
US5692063A (en) * 1996-01-19 1997-11-25 Microsoft Corporation Method and system for unrestricted motion estimation for video
JP3573465B2 (ja) * 1996-01-22 2004-10-06 松下電器産業株式会社 デジタル画像符号化、復号化方法及びそれを用いたデジタル画像符号化、復号化装置
WO1997028650A1 (en) * 1996-01-29 1997-08-07 Matsushita Electric Industrial Co., Ltd. Method for supplementing digital image with picture element, and digital image encoder and decoder using the same
KR100226684B1 (ko) * 1996-03-22 1999-10-15 전주범 반화소 움직임 추정장치
DE69718834T2 (de) * 1996-05-17 2003-11-13 Matsushita Electric Ind Co Ltd Bilddekodiervorrichtung mit Objektzonendekoder und Formdekoder
ES2190935T3 (es) * 1996-05-28 2003-09-01 Matsushita Electric Ind Co Ltd Procedimiento y dispositivo de anticipacion y de codificado/descodificado de imagen.
EP0817499A3 (en) * 1996-06-28 2002-05-22 Matsushita Electric Industrial Co., Ltd. Image coding method using extrapolated pixels in insignificant areas of blocks
TW366648B (en) * 1996-10-24 1999-08-11 Matsushita Electric Ind Co Ltd Method of supplementing pixel signal coding device, and pixel signal decoding device
JP4294743B2 (ja) * 1996-12-13 2009-07-15 富士通株式会社 動きベクトル探索装置および動画像符号化装置
US6005980A (en) * 1997-03-07 1999-12-21 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
DE69817460T2 (de) 1997-06-09 2004-06-09 Hitachi, Ltd. Bildsequenzdekodierungsverfahren
US6249318B1 (en) * 1997-09-12 2001-06-19 8×8, Inc. Video coding/decoding arrangement and method therefor
KR100582856B1 (ko) 1997-09-23 2006-05-24 코닌클리케 필립스 일렉트로닉스 엔.브이. 움직임 추정 및 움직임 보상된 보간법
US6266373B1 (en) * 1998-06-15 2001-07-24 U.S. Philips Corporation Pixel data storage system for use in half-pel interpolation
JP3855522B2 (ja) * 1999-02-23 2006-12-13 松下電器産業株式会社 動画変換装置
IT1313382B1 (it) * 1999-03-18 2002-07-23 St Microelectronics Srl Stima del moto ricorsiva spazio temporale con sottocampionamento ad 1/2 di macroblocco e ad 1/4 di pixel
US6968008B1 (en) 1999-07-27 2005-11-22 Sharp Laboratories Of America, Inc. Methods for motion estimation with adaptive motion accuracy
US6683992B2 (en) * 1999-12-28 2004-01-27 Matsushita Electric Industrial Co., Ltd. Image decoding apparatus and image coding apparatus
US6943827B2 (en) * 2001-04-16 2005-09-13 Kddi Corporation Apparatus for monitoring quality of picture in transmission
US6859494B2 (en) * 2001-07-27 2005-02-22 General Instrument Corporation Methods and apparatus for sub-pixel motion estimation
EP2099228B1 (en) * 2001-09-14 2014-11-12 NTT DoCoMo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
JP4610195B2 (ja) * 2001-12-17 2011-01-12 マイクロソフト コーポレーション スキップマクロブロックコード化
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP4724351B2 (ja) 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
DE102008044402A1 (de) 2008-12-05 2010-06-10 Robert Bosch Gmbh Werkzeugmaschine mit einer Führungsvorrichtung für ein Werkzeug

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01238389A (ja) * 1988-03-18 1989-09-22 Fujitsu Ltd 動画像の予測符号化方式
JPH09154140A (ja) * 1995-11-29 1997-06-10 Nec Corp 動画像の動き補償回路
JPH1146364A (ja) * 1997-07-28 1999-02-16 Victor Co Of Japan Ltd 動き補償符号化装置、復号化装置、符号化方法及び復号化方法
JPH11262018A (ja) * 1998-03-09 1999-09-24 Victor Co Of Japan Ltd 動き補償符号化装置、動き補償符号化方法、及び動き補償符号記録媒体
WO2003063503A1 (en) * 2002-01-24 2003-07-31 Hitachi, Ltd. Moving picture signal coding method, decoding method, coding apparatus, and decoding apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012005099A1 (ja) * 2010-07-09 2012-01-12 ソニー株式会社 画像処理装置及び画像処理方法
CN114175645A (zh) * 2019-07-06 2022-03-11 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的虚拟预测缓冲
CN114175645B (zh) * 2019-07-06 2024-04-12 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的虚拟预测缓冲

Also Published As

Publication number Publication date
CA2459229C (en) 2010-01-26
US8054884B2 (en) 2011-11-08
JP4724351B2 (ja) 2011-07-13
EP2222085A2 (en) 2010-08-25
CN1905679A (zh) 2007-01-31
US20080063068A1 (en) 2008-03-13
CN1905679B (zh) 2010-06-02
US20080056371A1 (en) 2008-03-06
TW200740248A (en) 2007-10-16
US8401079B2 (en) 2013-03-19
CN1557099A (zh) 2004-12-22
US20080084930A1 (en) 2008-04-10
EP1418763A1 (en) 2004-05-12
EP1418763A4 (en) 2009-01-21
CN1819659A (zh) 2006-08-16
CA2459229A1 (en) 2004-01-22
JP2004048552A (ja) 2004-02-12
US20040233990A1 (en) 2004-11-25
EP1863289A2 (en) 2007-12-05
EP1863289A3 (en) 2009-01-21
TWI395489B (zh) 2013-05-01
CN1882094B (zh) 2012-08-29
CN1254113C (zh) 2006-04-26
US20080063069A1 (en) 2008-03-13
EP2230848A1 (en) 2010-09-22
TW200402662A (en) 2004-02-16
US8045616B2 (en) 2011-10-25
TWI297134B (ja) 2008-05-21
CN1882094A (zh) 2006-12-20
KR100593350B1 (ko) 2006-06-28
KR20040036943A (ko) 2004-05-03

Similar Documents

Publication Publication Date Title
WO2004008772A1 (ja) 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
JP4793424B2 (ja) 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
TWI262726B (en) Image processor, media recording program that computer can read, and method thereof
KR100781525B1 (ko) 가중 평균합을 이용하여 fgs 계층을 인코딩 및디코딩하는 방법 및 장치
WO2011121894A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2005507587A (ja) 空間的にスケーラブルな圧縮
WO2003003749A1 (en) Image encoder, image decoder, image encoding method, and image decoding method
JP2004336369A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2001204026A (ja) 画像情報変換装置及び方法
WO2006103844A1 (ja) 符号化装置と方法、ならびに復号装置と方法
JP2006518568A (ja) ビデオ符号化
JP2004032355A (ja) 動画像符号化方法,動画像復号方法,動画像符号化装置および動画像復号装置
JP2005318296A (ja) 動画像符号化方法と装置及びプログラム
CA2868487A1 (en) Apparatuses and methods for providing quantized coefficients for video encoding
JP5648709B2 (ja) 画像変換装置と方法及びプログラム
JP3674535B2 (ja) 動画像符号化方法および装置
WO2012090425A1 (ja) 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
KR0181067B1 (ko) 호환성을 갖는 동영상 부호화기
KR20040046320A (ko) 동영상 부호화 방법
JP5000012B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JPWO2011099242A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2008512023A (ja) 動き予測のための方法及び装置
KR100196827B1 (ko) 영상부호기의 움직임 벡터 압축방법
KR20040039809A (ko) 동영상 부호화기 및 이를 이용한 부호화 방법
KR0174959B1 (ko) 초저속 전송을 위한 동영상부호화 장치

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

WWE Wipo information: entry into national phase

Ref document number: 2003764122

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2459229

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 10488229

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020047003731

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038010453

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2003764122

Country of ref document: EP