WO2011064990A1 - 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法 - Google Patents

画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法 Download PDF

Info

Publication number
WO2011064990A1
WO2011064990A1 PCT/JP2010/006853 JP2010006853W WO2011064990A1 WO 2011064990 A1 WO2011064990 A1 WO 2011064990A1 JP 2010006853 W JP2010006853 W JP 2010006853W WO 2011064990 A1 WO2011064990 A1 WO 2011064990A1
Authority
WO
WIPO (PCT)
Prior art keywords
transition
image
signal
transition vector
prediction
Prior art date
Application number
PCT/JP2010/006853
Other languages
English (en)
French (fr)
Inventor
上田 基晴
Original Assignee
Jvc・ケンウッド・ホールディングス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jvc・ケンウッド・ホールディングス株式会社 filed Critical Jvc・ケンウッド・ホールディングス株式会社
Priority to DE201011004586 priority Critical patent/DE112010004586T5/de
Priority to CN201080053749.2A priority patent/CN102640496B/zh
Publication of WO2011064990A1 publication Critical patent/WO2011064990A1/ja
Priority to US13/481,440 priority patent/US9100664B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to an image signal encoding and decoding technique, and uses an in-screen prediction process that generates a prediction signal for a target image signal from an encoded image and encodes a difference signal from the prediction signal.
  • the present invention relates to an encoding device, an image decoding device, an image encoding method, and an image decoding method.
  • High-efficiency coding of images includes, for example, MPEG2 and MPEG4-AVC (Advanced Video Coding), the correlation between spatially adjacent pixels in the same frame of a moving image signal, and temporally adjacent frames. And a method of compressing the amount of information using the correlation between fields.
  • MPEG2 and MPEG4-AVC Advanced Video Coding
  • an image is divided into a plurality of two-dimensional blocks, and a prediction signal is generated using correlation within the same frame or between frames in units of blocks. High encoding efficiency is realized by encoding the difference information with the prediction signal.
  • Prediction processing using correlation within the same frame in MPEG4-AVC is called intra prediction.
  • a predicted image of a block to be encoded is decoded from a coded portion adjacent to the target block. Generate using images.
  • intra prediction a plurality of (9 types in the case of performing prediction in units of 4 ⁇ 4 pixel blocks) assuming that adjacent decoded images have high correlation in a certain direction as shown in FIG. 20 are used.
  • a prediction mode with the smallest error from the encoding target block is selected from the generated prediction image, and is encoded together with the prediction mode information.
  • Intra prediction is a prediction process that uses only the correlation with the adjacent area, and the prediction effect decreases when the correlation at the boundary with the encoding target block is small.
  • Japanese Patent Application Laid-Open No. 2004-228561 presents a method for performing a prediction process using the correlation with an image at a position distant from the target block. Specifically, as shown in FIG. 21, the error between the encoded decoded image and the encoding target block at the position moved by the amount of transition (hereinafter referred to as a transition vector) within the screen from the target block is calculated. A reference image referred to by a transition vector with the least error is set as a predicted image, and is encoded together with the transition vector.
  • Patent Document 1 there is a problem that the efficiency decreases when a prediction signal having an effect exceeding the code amount of the transition vector cannot be calculated.
  • Patent Document 2 an adjacent image of the encoding target block is used as a template. Therefore, when the correlation between the adjacent image and the target block is low, or when the correlation with the adjacent image of the reference block referenced by the transition vector generated in Patent Document 1 is low, etc. Therefore, there is a problem that a highly accurate transition vector cannot be obtained and the efficiency is not improved.
  • the present invention provides an intra-frame prediction method that can more effectively utilize the correlation with the image at a position away from the target block than the conventional method in order to greatly improve the prediction efficiency within the frame.
  • the purpose is to make it happen.
  • an image encoding apparatus is an apparatus that divides an image signal into blocks each composed of a plurality of pixels, and performs encoding in units of divided blocks.
  • a signal having a high correlation with the block to be encoded is searched using a locally decoded image of the block in the same image signal that has already been encoded, and the highly correlated signal and the encoding are searched for
  • a transition vector detection unit that obtains a transition vector that is a transition in the screen of the target block; and a transition prediction signal generation unit that generates a prediction signal in accordance with the transition vector, wherein the transition vector detection unit A signal obtained by inverting at least one of the specified prediction signal in the horizontal and vertical directions is calculated, and an optimal prediction signal and a prediction signal are selected from the prediction signals including the inverted prediction signal.
  • the transition prediction signal generation unit In addition to detecting information indicating a transition vector and an inversion direction necessary for constructing a signal, the transition prediction signal generation unit generates a prediction signal from the locally decoded image according to the information indicating the transition vector and the inversion direction. Then, the difference signal between the prediction signal and the encoding target block, the transition vector, and information indicating the inversion direction are encoded.
  • An image encoding apparatus is an apparatus that divides an image signal into blocks each composed of a plurality of pixels, and performs encoding in units of divided blocks.
  • a decoding reference transition vector estimation unit Using a locally decoded image of a block in the same image signal that has already been encoded, and obtaining a transition vector that is a transition in a screen between a block to be encoded and a prediction signal generated from the locally decoded image, A decoding reference transition vector estimation unit; and a peripheral decoding reference transition prediction signal generation unit that generates a prediction signal according to the transition vector, wherein the peripheral decoding reference transition vector estimation unit is a local decoding adjacent to an encoding target block By performing error evaluation between an image and a signal of an adjacent part of a locally decoded image referred to by the transition vector, the prediction signal and the transition vector are generated, and The local decoded image adjacent to the conversion target block and the position of the adjacent portion of the local decoded image referred to by the shift vector are arranged in at least one of
  • the peripheral decoding reference transition prediction signal generation unit By performing error evaluation with respect to the signal at the inverted position, information indicating the inversion direction is generated, and the peripheral decoding reference transition prediction signal generation unit generates the local decoding according to the information indicating the transition vector and the inversion direction.
  • a prediction signal is generated from an image, and a difference signal between the prediction signal and the encoding target block is encoded.
  • a transition vector detection unit that obtains a transition vector that is a transition of the transition vector, a transition prediction signal generation unit that generates a prediction signal according to the transition vector, and an inversion for inverting at least one of the horizontal and vertical sequences of the prediction signal
  • a template inversion mode estimation unit for estimating information indicating a direction, the template inversion mode estimation unit, a local decoded image adjacent to the block to be encoded, An error evaluation is performed on the position of an adjacent portion of the locally decoded image referred to by the shift vector with respect to a signal at a position obtained by inverting at least one of the horizontal and vertical arrangements around the locally decoded image referenced by the shift vector.
  • the transition vector detecting unit calculates a signal obtained by inverting the prediction signal specified in the transition vector according to the information indicating the inversion direction, and predicts each transition vector.
  • a transition vector is detected by evaluating an error between the signal and the encoding target block, and the transition prediction signal generation unit generates a prediction signal from the locally decoded image according to the information indicating the transition vector and the inversion direction. Then, the difference signal between the prediction signal and the encoding target block and the transition vector are encoded.
  • An image decoding apparatus is an apparatus that divides an image signal into blocks each composed of a plurality of pixels, and receives and decodes an encoded stream that has been encoded in units of divided blocks.
  • a transition vector, a decoded vector specified in the transition vector is inverted to at least one of horizontal and vertical, information indicating an inversion direction is decoded, a transition vector / mode decoding unit, and the transition vector and the inversion direction are A prediction signal generator that generates a prediction signal from the decoded image in accordance with the indicated information, and the prediction signal and the decoded residual signal Calculating a decoded image by adding.
  • the prediction signal and the transition vector are generated by performing error evaluation between the decoded image to be performed and the signal of the adjacent portion of the decoded image referred to by the transition vector.
  • the position of the decoded image adjacent to the block to be decoded and the adjacent portion of the decoded image referred to by the transition vector is inverted, and at least one of the horizontal and vertical arrangements centered on the decoded image referenced by the transition vector is inverted.
  • the peripheral decoding reference transition prediction signal generation unit is configured to perform information from the decoded image according to the transition vector and the information indicating the inversion direction.
  • a prediction signal is generated, and a decoded image is calculated by adding the prediction signal and the decoded residual signal.
  • An image decoding apparatus is an apparatus that divides an image signal into blocks each composed of a plurality of pixels, and receives and decodes an encoded stream that has been encoded in units of divided blocks.
  • the decoding target block is decoded with respect to the prediction signal generated from the decoded image of the block within the same image signal that has already been decoded, and the transition vector that is the transition within the screen of the decoding target block.
  • a template reversal mode estimation unit for estimating information indicating a reversal direction for reversing at least one of horizontal and vertical sequences of a prediction signal; and a template reversal mode estimation unit.
  • the information indicating the inversion direction is generated by performing an error evaluation with a signal at a position obtained by inverting at least one of the horizontal and vertical arrangements around the image, and according to the transition vector and the information indicating the inversion direction,
  • a transition prediction signal generation unit for generating a prediction signal from the decoded image is provided, and the decoded image is calculated by adding the prediction signal and the decoded residual signal.
  • the image coding method of the present invention is a method of dividing an image signal into blocks each composed of a plurality of pixels, and performing coding in divided blocks. Then, using a locally decoded image of a block in the same image signal that has already been encoded, a signal having a high correlation with the encoding target block is searched, and the high correlation signal and the encoding target block in the screen are searched.
  • a prediction signal is received from the locally decoded image according to the information indicating the transition vector and the inversion direction. And generating a difference signal between the prediction signal and the encoding target block, and the information indicating the transition vector and the inversion direction.
  • the image coding method of the present invention is a method of dividing an image signal into blocks each composed of a plurality of pixels, and performing coding in divided blocks. Using a locally decoded image of a block in the same image signal that has already been encoded, and obtaining a transition vector that is a transition in a screen between a block to be encoded and a prediction signal generated from the locally decoded image, A decoding reference transition vector estimation step; and a peripheral decoding reference transition prediction signal generation step for generating a prediction signal according to the transition vector.
  • a locally decoded image adjacent to the encoding target block And an error evaluation of a signal of an adjacent part of a locally decoded image referred to by the transition vector, and the prediction signal and the transition vector
  • Information indicating the inversion direction is generated by performing error evaluation with a signal at a position where at least one of the sequences is inverted, and in the peripheral decoding reference transition prediction signal generation step, the information indicating the transition vector and the inversion direction is generated. Accordingly, a prediction signal is generated from the locally decoded image, and a difference signal between the prediction signal and the encoding target block is encoded.
  • the image coding method of the present invention is a method of dividing an image signal into blocks each composed of a plurality of pixels, and performing coding in divided blocks. Then, using a locally decoded image of a block in the same image signal that has already been encoded, a signal having a high correlation with the encoding target block is searched, and the high correlation signal and the encoding target block in the screen are searched.
  • a transition vector detection step for obtaining a transition vector a transition vector detection step for generating a prediction signal according to the transition vector, and an inversion for inverting at least one of the horizontal and vertical sequences of the prediction signal.
  • a template inversion mode estimation step for estimating information indicating the direction and in the template inversion mode estimation step, The position of the local decoded image adjacent to and the position of the adjacent portion of the local decoded image referred to by the transition vector is the position obtained by inverting at least one of the horizontal and vertical arrangements around the local decoded image referenced by the transition vector.
  • Information indicating the inversion direction is generated by evaluating an error with the signal, and in the transition vector detection step, a signal obtained by inverting the prediction signal specified in the transition vector is calculated according to the information indicating the inversion direction.
  • the transition vector is detected by performing error evaluation between the prediction signal and the encoding target block for each transition vector, and in the transition prediction signal generation step, according to the information indicating the transition vector and the inversion direction, A prediction signal is generated from the decoded image, and a difference signal between the prediction signal and the encoding target block and the transition vector are encoded. .
  • the image decoding method of the present invention is a method for dividing an image signal into blocks each composed of a plurality of pixels, and receiving and decoding an encoded stream that has been encoded in units of divided blocks.
  • the prediction stream generated from the decoded image of the block in the same image signal that has already been decoded from the encoded stream and the decoding target block in the screen.
  • a transition vector, a decoding vector specified in the transition vector is inverted in at least one of horizontal and vertical, information indicating an inversion direction is decoded, a transition vector / mode decoding step, and the transition vector and the inversion direction are A predictive signal generation step for generating a prediction signal from the decoded image in accordance with the information shown, and the prediction signal and the decoded signal And calculating a decoded image by adding the residual signal.
  • the image decoding method of the present invention is a method for dividing an image signal into blocks each composed of a plurality of pixels, and receiving and decoding an encoded stream that has been encoded in units of divided blocks.
  • a transition vector that is a transition in a screen between a decoding target block and a prediction signal generated from the decoded image using a decoded image of the block in the same image signal that has already been decoded with respect to the decoding target block.
  • the prediction signal and the variation are converted.
  • a vector is generated, and the position of the decoded image adjacent to the decoding target block and the decoded image referenced by the transition vector is at least one of horizontal and vertical with the decoded image referenced by the transition vector as the center.
  • the image decoding method of the present invention divides an image signal into blocks each composed of a plurality of pixels, and receives and decodes an encoded stream that has been encoded in units of divided blocks.
  • a template inversion mode estimation step for estimating information indicating an inversion direction for inverting at least one of the horizontal and vertical sequences of the prediction signal.
  • the mode estimation step the position of the decoded image adjacent to the decoding target block and the adjacent portion of the decoded image referred to by the transition vector is determined.
  • Information indicating the inversion direction is generated by performing an error evaluation with a signal at a position obtained by inverting at least one of the horizontal and vertical arrangements around the decoded image referred to by the transition vector, and the transition vector and the According to the information indicating the inversion direction, the method includes a transition prediction signal generation step for generating a prediction signal from the decoded image, and the decoded image is calculated by adding the prediction signal and the decoded residual signal.
  • the image decoding device In the image encoding device, the image decoding device, the image encoding method, and the image decoding method according to the present invention, upside down and left / right inversion with respect to an encoded decoded image used as a template signal for predicting a texture component.
  • By generating the generated reference image and using it as a predicted image it is possible to improve the accuracy of image signal prediction within a frame in the conventional method.
  • the inversion mode it is possible to realize a small amount of additional information by generating the prediction inversion mode using the inversion mode correlation with the adjacent block and the correlation of the transition vector.
  • FIG. 1 is a block diagram showing the configuration of an image encoding apparatus according to the first embodiment of the present invention.
  • the image coding apparatus includes an input terminal 100, an input image buffer 101, a block division unit 102, a transition vector detection unit 103, a transition prediction signal generation unit 104, a subtractor 105, Orthogonal transformation unit 106, quantization unit 107, inverse quantization unit 108, inverse orthogonal transformation unit 109, adder 110, intra-frame decoded image memory 111, transition vector / mode prediction unit 112, entropy coding unit 113, stream buffer 114 And an output terminal 115 and a code amount control unit 116.
  • the block is a processing block constituting an intra-frame encoding process in an image encoding apparatus such as MPEG4-AVC.
  • the digital image signal input from the input terminal 100 is stored in the input image buffer 101.
  • the digital image signal stored in the input image buffer 101 is supplied to the block dividing unit 102, and is cut out as an encoding target block in units of two-dimensional macroblocks composed of 16 ⁇ 16 pixels.
  • the block dividing unit 102 supplies the extracted encoding target block to the transition vector detecting unit 103 and the subtractor 105.
  • the subtractor 105 calculates a difference between the encoding target block supplied from the input image buffer 101 and a prediction image block supplied from a transition prediction signal generation unit 104 described later, and uses the result as a difference block to perform the orthogonal transformation unit 106. To supply.
  • the orthogonal transform unit 106 generates DCT coefficients corresponding to the orthogonally transformed frequency component signal by performing DCT transform on the difference block in units of 8 horizontal pixels ⁇ 8 vertical pixels. Further, the orthogonal transform unit 106 collects the generated DCT coefficients in units of two-dimensional macroblocks and outputs them to the quantization unit 107.
  • the quantization unit 107 performs quantization processing by dividing the DCT coefficient by a different value for each frequency component.
  • the quantization unit 107 supplies the quantized DCT coefficient to the inverse quantization unit 108 and the entropy encoding unit 113.
  • the inverse quantization unit 108 performs inverse quantization by multiplying the quantized DCT coefficient input from the quantization unit 107 by a value divided at the time of quantization, and the result of the inverse quantization is obtained.
  • the decoded DCT coefficient is output to the inverse orthogonal transform unit 109.
  • the inverse orthogonal transform unit 109 performs inverse DCT processing to generate a decoded difference block.
  • the inverse orthogonal transform unit 109 supplies the decoded difference block to the adder 110.
  • the adder 110 adds the prediction image block supplied from the transition prediction signal generation unit 104 and the decoded difference block supplied from the inverse orthogonal transform unit 109 to generate a local decoding block.
  • the local decoded block generated by the adder 110 is stored in the intra-frame decoded image memory 111 in a form subjected to inverse block conversion.
  • the transition vector detection unit 103 inverts the transition vector and the decoded image between the image signal of the block to be encoded input from the block division unit 102 and the decoded image signal stored in the intra-frame decoded image memory 111.
  • a mode to be instructed (hereinafter referred to as an inversion mode) is calculated.
  • the transition vector detection unit 103 receives the transition vector and the prediction value of the inversion mode for the target block supplied from the transition vector / mode prediction unit 112, and performs a transition vector detection process. The detailed operation of the transition vector detection unit 103 will be described later.
  • the transition vector detection unit 103 sends the detected transition vector value and the inversion mode value to the transition prediction signal generation unit 104 and the transition vector / mode prediction unit 112, and entropy codes the difference information between the transition vector and each prediction value of the inversion mode.
  • the transition prediction signal generation unit 104 generates a prediction image from the intra-frame decoded image memory 111 based on the transition vector value and the inversion mode value input from the transition vector detection unit 103, and outputs the prediction image to the subtractor 105 and the adder 110. .
  • the detailed operation of the transition prediction signal generation unit 104 will be described later.
  • the transition vector / mode prediction unit 112 has a function of storing the transition vector value and the inversion mode value input from the transition vector detection unit 103, and generating the transition vector and the inversion mode value of the subsequent encoding target block. The detailed operation of the transition vector / mode prediction unit 112 will be described later.
  • the entropy coding unit 113 uses the quantized DCT coefficient supplied from the quantization unit 107 and the prediction difference value of the shift vector value and the inversion mode value supplied from the shift vector detection unit 103 to perform the transition.
  • Vector information, inversion mode information, and variable length coding of quantized DCT coefficients are performed.
  • Information subjected to variable length coding is output to the stream buffer 114.
  • the encoded stream stored in the stream buffer 114 is output to a recording medium or a transmission path via the output terminal 115.
  • the code amount control unit 116 is supplied with the code amount of the bit stream stored in the stream buffer 114, and compared with the target code amount. In order to approximate the quantity, the quantization level (quantization scale) of the quantization unit 107 is controlled.
  • FIG. 2 is a block diagram showing the configuration of the image decoding apparatus according to the first embodiment of the present invention.
  • the image decoding apparatus according to the present embodiment includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a transition vector / mode decoding unit 203, a transition prediction signal generation unit 204, and an inverse quantization unit. 205, an inverse orthogonal transform unit 206, an adder 207, an intra-frame decoded image memory 208, and an output terminal 209.
  • transition vector / mode decoding unit 203 and the transition prediction signal generation unit 204 are provided, and the operation in these processing blocks are the features of the first embodiment of the present invention.
  • MPEG4-AVC or the like This is a processing block constituting the intra-frame decoding process in the image encoding apparatus.
  • the encoded bit stream input from the input terminal 200 is stored in the stream buffer 201.
  • the stored encoded bit stream is supplied from the stream buffer 201 to the entropy decoding unit 202, and the entropy decoding unit 202 receives encoded transition vector difference information, inversion mode difference information, and quantum from the input bit stream.
  • the variable length decoding is performed on the converted DCT coefficients, and the quantized DCT coefficients are output to the inverse quantization unit 205, and the shift vector / mode decoding unit 203 is output to the shift vector difference information and the inversion mode difference information.
  • the same processing as the local decoding processing of the moving image coding apparatus according to the first embodiment is performed.
  • the decoded image stored in the intra-frame decoded image memory 208 is displayed as a decoded image signal on the display device via the output terminal 209.
  • the transition vector / mode decoding unit 203 uses the transition vector difference information and the inversion mode difference information input from the entropy decoding unit 202, and the transition vector prediction value and the inversion mode value of the target block previously decoded, A function that calculates an inversion mode prediction value, adds the transition vector difference information and the inversion mode difference information, decodes the transition vector value and the inversion mode value of the encoding target block, and outputs them to the transition prediction signal generation unit 204
  • a function that calculates an inversion mode prediction value adds the transition vector difference information and the inversion mode difference information, decodes the transition vector value and the inversion mode value of the encoding target block, and outputs them to the transition prediction signal generation unit 204
  • the detailed operation of the transition vector / mode decoding unit 203 will be described later.
  • the transition prediction signal generation unit 204 generates a prediction image from the intra-frame decoded image memory 208 based on the transition vector value and the inversion mode value output from the transition vector / mode decoding unit 203, and outputs the prediction image to the adder 207.
  • the detailed operation of the transition prediction signal generation unit 204 will be described later.
  • the point of the present invention in the first embodiment is that a block obtained by inverting the reference image up and down, left and right, etc. in order to fully utilize the self-similarity and texture similarity of the image signal as compared with the conventional method. It is added as a prediction target signal and is encoded together with the inversion mode, thereby generating a prediction block having a higher correlation with the encoded block.
  • the template without inversion is a reference image (encoded decoded image) used in the prediction using the conventional in-screen transition vector calculation.
  • a reference image obtained by inverting the decoded image up, down, left, right, up, down, left, and right based on the upper left pixel of the target block is shown as an upside down template, left and right inverted template, up and down left and right inverted template. ing.
  • the reference block is obtained from the encoded decoded image that has been moved to the position indicated by the transition vector based on the target block for the calculation of the transition vector and the generation of the predicted image block for these reference images. It can be generated by flipping the reference block up / down / left / right / up / down / left / right.
  • the non-inversion mode prediction block, the up / down inversion mode prediction block, the left / right inversion mode prediction block, and the up / down / left / right inversion mode prediction block described in the lower part of FIG. 3 are the prediction block signals of the respective inversion modes referenced by the shift vector DV. It becomes.
  • the transition vector detection unit 103 includes a sequence unit 400, a target image buffer 401, a mode prediction value / transition vector prediction value buffer 402, a memory access unit 403, a transition reference image buffer 404, a mode error without inversion.
  • the encoding target block is input and stored in the target image buffer 401 from the block dividing unit 102.
  • the memory access unit 403 acquires a reference block from the intra-frame decoded image memory in accordance with the transition vector value managed by the sequence unit 400 and stores the reference block in the transition reference image buffer 404.
  • image signals in the horizontal direction are supplied to the non-inversion mode error calculator 405 and the left / right inversion mode error calculator 406 in order from the top to the bottom of the target block.
  • image signals in the horizontal direction are sequentially supplied from the lower part to the upper part of the target block from the target image buffer 401 to the up / down inversion mode error calculator 407 and the up / down / left / right inversion mode error calculator 408.
  • the transition reference image buffer 404 the upper part of the reference block is transferred to the non-inversion mode error calculator 405, the left / right inversion mode error calculator 406, the up / down inversion mode error calculator 407, and the up / down / left / right inversion mode error calculator 408.
  • the reference image signals in the horizontal direction are sequentially supplied from the bottom to the bottom.
  • the non-inversion mode error calculator 405 and the upside-down inversion mode error calculator 407 have a function of calculating a square difference between the horizontal signals of the input target image and the reference image at the same horizontal position and storing the sum. Have.
  • the left / right inversion mode error calculator 406 and the up / down inversion mode error calculator 407 calculate the square error between the horizontally symmetrical images of the input target image and the reference image in the horizontal direction, and the sum thereof. It has a function to store.
  • the prediction error evaluation values of the non-inversion mode prediction block, the upside down mode prediction block, the left / right inversion mode prediction block, and the up / down / left / right inversion mode prediction block shown in FIG. 3 are generated.
  • the non-inversion mode error calculator 405, the left / right inversion mode error calculator 406, the up / down inversion mode error calculator 407, and the up / down / left / right inversion mode error calculator 408 respectively calculate the block sum of the calculated square error values, and the optimal transition vector update unit. Output to 409.
  • the transition vector prediction value and the inversion mode prediction value supplied from the mode prediction value / transition vector prediction value buffer are matched with the transition vector value managed by the sequence unit 400 in the mode difference / transition vector difference calculator 410.
  • a prediction difference value and a transition vector difference value for each inversion mode are calculated and output to the optimum transition vector update unit 409.
  • Optimal transition vector update section 409 compares the error evaluation value (square error sum) of each inversion mode in the transition vector value managed by sequence section 400 with the minimum error evaluation value for the same encoding target block, and is the smallest.
  • the inversion mode and transition vector having the evaluation value are updated as the optimum transition vector, and are output to the optimal vector / evaluation value storage unit 411 together with the evaluation value and the prediction difference value and the transition vector difference value for each selected inversion mode.
  • the optimum vector / evaluation value storage unit 411 after the error evaluation for the transition vector value in the search range managed by the sequence unit 400 is completed, stores the inversion mode and the transition vector as the transition prediction signal generation unit 104 and the transition vector / mode prediction. And outputs the prediction difference value and the shift vector difference value for each inversion mode to the entropy encoding unit 113.
  • the procedure as the calculation process of the detection process is shown as a flowchart in FIG. 5, and the process procedure managed in the sequence unit 400 will be described.
  • the minimum error value MinErr is set to the maximum value (for example, 0xfffffff when the storage area is 32 bits) for the target coding block (S500).
  • the target encoding block is input (S501).
  • a transition vector detection range is set according to the position of the coding block in the screen (S502).
  • the detection range is limited so as not to exceed the encoded region in the screen with respect to the set transition vector detection range.
  • the initial value DVSearch of the transition vector is set (S503).
  • a value close to the encoding target block (small transition vector) is set within the detection range.
  • a reference image block is input from the decoded image memory at the position moved by DVSearch from the encoded block (S504).
  • the error value for each pixel of the encoding block and the reference image block is integrated with respect to the transition vector DVSearch, the error value ErrNorm (DVSearch) in the non-inversion mode, and the error in the left-right inversion mode
  • the value ErrLRinv (DVSearch), the error value ErrULinv (DVSearch) in the up / down inversion mode, and the error value ErrULLRinv (DVSearch) in the up / down / left / right inversion mode are calculated (S505).
  • the prediction value ModePred of the inversion mode the prediction value DVPred of the transition vector, the difference values DiffMode and DiffDV between each mode value and DVSearch are calculated, and the assumed code amount InfoBits at the time of encoding is calculated.
  • the InfoBits calculated for each inversion mode is added to ErrNorm (DVSearch), ErrLRinv (DVSearch), ErrULinv (DVSearch), and ErrULLRinv (DVSearch) (S506).
  • the mode value can be associated as follows so that the inversion direction becomes one direction when the prediction mode is different by one.
  • the inversion mode is not properly predicted, it is possible to transmit the inversion mode difference with a fixed length of 2 bits.
  • the inversion mode encoding method frames and slices defined in MPEG4-AVC, etc. It is possible to switch predictions by judging the suitability of prediction in a predetermined unit. According to the code defined in this way, the required code amount is calculated and InfoBits is calculated.
  • MinErr is compared with the minimum value of the generated ErrNorm (DVSearch), ErrLRinv (DVSearch), ErrULinv (DVSearch), ErrULLRinv (DVSearch) (S507).
  • MinErr YES
  • the minimum value is set in MinErr
  • the inversion mode value having the minimum value is stored in ModeResult
  • the transition vector value DVSearch at that time is stored in DVResult (S509). If the minimum value is not smaller than MinErr (S508: NO), the process proceeds directly to S510.
  • DiffMode and DiffDV which are the difference values between ModeResult and DVResult, and ModePred and DVPred, are output ( S511), the process ends. If it is not the last vector (S510: NO), the transition vector value DVSearch is updated to the next detection position (S512), and the process proceeds to S504.
  • the transition prediction signal generation unit 104 uses the transition vector value DVResult and the inversion mode ModeResult input from the transition vector detection unit 103, and at the position moved from the coding target block by the transition vector value from the intra-frame decoded image memory 111.
  • An encoded decoded image is acquired as a reference image.
  • the acquired reference image forms a predicted image block by changing the horizontal / vertical arrangement order according to the inversion mode. Specifically, conversion to the pixel position shown in the lower part of FIG. 3 is performed.
  • the constructed prediction image block is supplied to the subtracter 105 and the adder 110.
  • the transition vector / mode prediction unit 112 has a function of calculating the prediction value ModePred of the inversion mode and the prediction value DVPred of the transition vector described above and outputting them to the transition vector detection unit 103.
  • ModePred and DVPred are generated.
  • DVPred a configuration used for motion vector prediction in MPEG4-AVC as shown in FIG. 22 is used.
  • the adjacent blocks three blocks of the block A that is the left adjacent to the target block, the block B that is the upper adjacent, and the block C that is the upper right are selected.
  • the block C such as the image end is invalid
  • the block D at the upper left is used instead of the block C.
  • the predicted transition vector values PDVx, PDVy are expressed as horizontal components as shown in Equation 1 below.
  • DMVx Median (DVAx, DVBx, DVCx)
  • DMVy Median (DVAy, DVBy, DVCy)
  • ModePred setting is performed by checking the correlation of the inversion modes of adjacent blocks. When two or more values are the same among the inversion modes in three adjacent blocks, the value is set as ModePred. When all are different, the inversion mode taking the median value of the three inversion modes is set as ModePred.
  • ModePred it is also possible to set based on the closeness to the detected transition vector.
  • the transition vector DVSearch is the optimum transition vector in three adjacent blocks
  • the inversion mode of the adjacent block having the transition vector with the least error from DVSearch is set as ModePred.
  • ModePred it is possible to select and fix one of the above methods, but it is also possible to switch by a predetermined unit such as a frame or a slice, and set a prediction algorithm to which the prediction is more adapted. I can do it.
  • the transition vector / mode decoding unit 203 in FIG. 2 is the inversion mode input from the function of the transition vector / mode prediction unit 112 in FIG. 1 (encoding device), the generated ModePred and DVSearch, and the entropy decoding unit 202. And the inversion mode value ModeResult and the transition vector value DVResult are decoded by adding the difference values DiffMode and DiffDV of the transition vector. The decoded ModeResult and DVResult are output from the transition vector / mode decoding unit 203 to the transition prediction signal generation unit 204.
  • the transition prediction signal generation unit 204 has the same function as the transition prediction signal generation unit 104 in FIG. 1 (encoding device), and based on the ModeResult and DVResult input from the transition vector / mode decoding unit 203, From the intra-frame decoded image memory 208, the encoded decoded image at the position moved from the encoding target block by the transition vector value is acquired as a reference image.
  • the acquired reference image is rearranged in the pixel order according to the inversion mode in the same manner as the transition prediction signal generation unit 104, and a predicted image block is configured and output to the adder 207.
  • FIG. 6 shows a flowchart in which the operations of the transition vector / mode decoding unit 203 and the transition prediction signal generation unit 204 are processing procedures, and a specific processing procedure will be described.
  • the inversion mode prediction difference value DiffMode and the prediction difference value DiffDV of the transition vector are decoded from the stream (S600). Subsequently, the prediction value ModePred of the inversion mode and the prediction value DVPred of the transition vector are calculated (S601). By using the calculated result, the inversion mode ModeResult and the transition vector DVResult are decoded by adding the prediction difference value and the prediction value (S602).
  • a reference image is input from the decoded image memory at the position moved by the transition vector DVResult from the decoding target block (S603).
  • a prediction image block is configured by converting the scan order of the reference image according to the inversion mode ModeResult (S604).
  • a reference image that is used as a template signal for predicting a texture component and is inverted vertically and horizontally with respect to an encoded decoded image is generated as a predicted image.
  • the accuracy of image signal prediction within a frame in the conventional method is improved.
  • the inversion mode by generating the prediction inversion mode using the inversion mode correlation with the adjacent block or the correlation of the transition vector, it is possible to reduce the additional information, thereby improving the coding efficiency. I can do it.
  • the encoding device uses an error in each inversion mode in parallel operation after obtaining a reference image once.
  • the decoding device can generate a prediction image in each inversion mode only by address conversion after acquisition of a reference image increase, so that a prediction image having correlation can be acquired while suppressing an increase in processing. Is possible.
  • the first embodiment is an embodiment of an image encoding / decoding device that uses only the correlation within a frame.
  • the second embodiment is a moving image that uses a correlation within a frame and a correlation between frames.
  • 1 is an example of an image encoding / decoding device that can utilize the time correlation of
  • FIG. 7 is a block diagram showing the configuration of an image encoding apparatus according to the second embodiment of the present invention.
  • the image coding apparatus according to the present exemplary embodiment has an input terminal 100, an input image buffer 101, a block dividing unit 102, a subtractor 105, an orthogonal transform, and functions similar to those in the first exemplary embodiment.
  • Unit 106 quantization unit 107, inverse quantization unit 108, inverse orthogonal transform unit 109, adder 110, intra-frame decoded image memory 111, transition vector / mode prediction unit 112, entropy encoding unit 113, stream buffer 114, output
  • the intra prediction unit 717 receives the encoded target block from the block dividing unit 102, and decodes the decoded image of the adjacent encoded region in the intra-frame decoded image memory 111.
  • the intra prediction process performed in MPEG4-AVC is performed.
  • the intra prediction unit 717 selects an intra prediction mode that is supplied from the intra prediction mode prediction unit 718 and requires a small amount of code in consideration of the prediction mode value, and receives the intra prediction image, the intra prediction mode signal, and the error evaluation value.
  • the data is output to the mode determination unit 724.
  • the intra prediction mode prediction unit 718 acquires the selection information and intra prediction mode information of the prediction processing acquired from the mode determination unit 724, and the intra prediction mode described in the document “ISO / IEC 14496-10 Advanced Video Coding”. Calculate the predicted value. Further, the local decoded image output from the adder 110 is subjected to filter processing for removing distortion at the block boundary of the encoding processing unit in the deblocking filter 719, and is stored in the reference image memory 720.
  • the motion vector detection unit 721 performs motion estimation between the encoding target block image acquired from the block division unit 102 and the reference image stored in the reference image memory 720.
  • a reference image at a position moved by a predetermined movement amount from the same position on the screen is cut out, and a movement amount that minimizes a prediction error when the image is used as a prediction block is determined as a motion vector.
  • a value a block matching process that is obtained while changing the movement amount is used.
  • the motion vector prediction unit 723 calculates a motion vector prediction value by a method described in the document “ISO / IEC 14496-10 Advanced Video Coding”, and supplies the motion vector prediction value to the motion vector detection unit 721.
  • the motion vector detection unit 721 detects an optimal motion vector value in consideration of a code amount required when encoding the difference between the motion vector prediction value and the motion vector value.
  • the motion vector value obtained by the motion vector detection unit 721 is supplied to the motion compensation prediction unit 722.
  • the motion compensated prediction unit 722 selects a prediction signal with the least difference information to be encoded from the prediction signals for a plurality of reference images, and outputs the selected motion compensation prediction mode and the prediction signal to the mode determination unit 724.
  • the processing block described above is a configuration for applying the conventional method of intra prediction and motion compensation prediction.
  • transition vector detection unit 703, the transition prediction signal generation unit 704, and the mode determination unit 724 which are processing blocks that perform the operations showing the characteristics in the second embodiment of the present invention, will be described.
  • the transition vector detection unit 703 inputs the transition vector and the prediction value of the inversion mode for the target block supplied from the transition vector / mode prediction unit 112 and is supplied from the intra prediction mode prediction unit for intra prediction for the target block.
  • the prediction value of the mode is input, and a transition vector detection process is performed.
  • the transition vector detection unit 703 outputs the detected transition vector value, inversion mode value, error evaluation value, and information indicating that DC correction has been performed (hereinafter referred to as a DC correction bit) to the transition prediction signal generation unit 704.
  • the transition prediction signal generation unit 704 generates a prediction image from the intra-frame decoded image memory 111 based on the transition vector value, the inversion mode value, and the DC correction bit input from the transition vector detection unit 703, and inverts the transition vector value.
  • the mode value, the error evaluation value, and the DC correction bit are output to the mode determination unit 724. Detailed operations of the shift vector detection unit 703 and the shift prediction signal generation unit 704 will be described later.
  • the mode determination unit 724 includes an intra prediction image, an intra prediction mode, and an error evaluation value input from the intra prediction unit 717, a motion compensated prediction image, a motion compensation prediction mode, a motion vector value, and the input from the motion compensation prediction unit 722.
  • An optimal prediction mode is selected from the error evaluation value and the shift prediction image, the shift vector value, the inversion mode value, the DC correction bit, and the error evaluation value input from the shift prediction signal generation unit 704. For an encoded frame only in a frame that does not have a reference image for motion compensation prediction, an optimal prediction mode is selected from intra prediction and transition prediction.
  • the mode determination unit 724 outputs a prediction image block for the selected prediction mode to the subtractor 105 and the adder 110, and also provides the entropy encoding unit 113 with prediction mode information as additional information and the prediction mode. Provide information that needs to be encoded.
  • An inverse quantization unit 205 An inverse quantization unit 205, an inverse orthogonal transform unit 206, an adder 207, an intra-frame decoded image memory 208, an output terminal 209, a transition prediction signal generation unit 804 having additional processing with respect to the first embodiment, and an addition Prediction mode decoding unit 810, prediction signal selection unit 811, intra prediction mode decoding unit 812, intra prediction unit 813, motion vector decoding unit 814, deblock filter 815, reference image memory 816, and motion compensated prediction Part 817.
  • the intra prediction mode decoding unit 812, the intra prediction unit 813, the motion vector decoding unit 814, the deblock filter 815, the reference image memory 816, and the motion compensation prediction unit 817 are the second in FIG. Similar to the description of the image coding apparatus in the embodiment, this is a configuration for decoding intra prediction and motion compensated prediction in the MPEG4-AVC standard, and is not a processing block having the features of the present invention, and therefore will not be described.
  • the prediction mode information variably decoded by the entropy decoding unit 202 is stored in the prediction mode decoding unit 810 and acquired as information indicating a prediction signal generation method in the decoding target block.
  • the prediction mode information is input from the prediction mode decoding unit 810 to the prediction signal selection unit 811, and any one of the motion compensation prediction unit 817, the intra prediction unit 813, and the transition prediction signal generation unit 804 is selected according to the prediction signal generation method. Therefore, the predicted image block is input to the predicted signal selection unit 811.
  • transition vector detection unit 703 First, the detailed operation of the transition vector detection unit 703 will be described using the configuration diagram of FIG. 9 and the detection flowchart of FIG.
  • a more efficient code can be obtained by selecting intra prediction and motion compensated prediction, which are conventional prediction methods, based on the prediction error evaluation value as compared with the transition prediction processing in the first embodiment.
  • intra prediction and motion compensated prediction which are conventional prediction methods, based on the prediction error evaluation value as compared with the transition prediction processing in the first embodiment.
  • a mode is provided in which the DC component corresponding to the average value of the block is corrected with respect to the transition prediction process, and the texture component that is the variation in the encoding target block is directly used. As a result, further improvement in prediction efficiency is realized.
  • the DC component of the prediction block configured by the prediction mode of the intra prediction is calculated and acquired from the position separated by the transition vector. It has a function of correcting an error from the DC component of the reference block.
  • the intra prediction prediction mode input from the intra prediction mode prediction unit 718 is stored in the intra prediction DC calculation unit 914.
  • the intra prediction DC calculation unit 914 calculates the DC component of the intra prediction block from the decoded image signal adjacent to the target block from the intra-frame decoded image memory 111 according to the prediction mode.
  • the transition reference DC calculation unit 913 receives the reference image block from the transition reference image buffer 404 and calculates the DC component of the reference image block.
  • the calculated DC components are obtained from the intra prediction DC calculation unit 914 and the transition reference DC calculation unit 913 from the non-inversion mode error calculator 905, the left / right inversion mode error calculator 906, the up / down inversion mode error calculator 907, the up / down / left / right inversion mode. This is supplied to the error calculator 908 and used to generate an error evaluation value in the DC correction mode.
  • a non-inversion mode error calculator 905, a left / right inversion mode error calculator 906, an up / down inversion mode error calculator 907, and an up / down / left / right inversion mode error calculator 908 are a non-inversion mode error calculator 405, a left / right inversion in the first embodiment.
  • a function for calculating a prediction error value when the DC correction mode is used is added to the mode error calculator 406, the up / down inversion mode error calculator 407, and the up / down / left / right inversion mode error calculator 408.
  • the error evaluation value when the mode is not used and the error evaluation value when the DC correction mode is used are supplied to the optimum transition vector update unit 409.
  • the minimum error value MinErr is set to the maximum value (for example, 0xfffffff when the storage area is 32 bits) for the target coding block (S1000).
  • a target encoding block is input (S1001).
  • the DC component DCIpred when the target block is predicted is calculated based on the prediction value of the intra prediction mode (S1002).
  • a transition vector detection range is set according to the position of the coding block in the screen (S1003). Based on the set limited detection range, the initial value DVSearch of the transition vector is set (S1004).
  • a reference image block is input from the decoded image memory at the position moved by DVSearch from the encoded block (S1005).
  • the error value for each pixel of the encoding block when the DC correction is not performed on the transition vector DVSearch and the reference image block is integrated, and the non-inversion mode is applied.
  • the error value ErrNorm (DVSearch), the error value ErrLRinv (DVSearch) for the left / right inversion mode, the error value ErrULinv (DVSearch) for the up / down inversion mode, and the error value ErrULLRinv (DVSearch) for the up / down / left / right inversion mode are calculated (S1007).
  • the prediction value ModePred of the inversion mode the prediction value DVPred of the transition vector, the difference values DiffMode and DiffDV between each mode value and DVSearch are calculated, and the assumed code amount InfoBits at the time of encoding is calculated.
  • the InfoBits calculated for each inversion mode is added to ErrNorm (DVSearch), ErrLRinv (DVSearch), ErrULinv (DVSearch), and ErrULLRinv (DVSearch) (S1008).
  • the code amount required for the information indicating that DC correction has been performed is calculated and added to ErrNormCor (DVsearch), ErrLRinvCor (DVsearch), ErrULinvCor (DVsearch), ErrULLRinvCor (DVsearch) (S1010).
  • DiffMode which is a difference value between the error evaluation values MinErr, ModeResult, DVResult and these ModePred, DVPred, DiffDV and CorBit are output (S1015), and the process ends. If it is not the last vector (S1014: NO), the transition vector value DVSearch is updated to the next detection position (S1016), and the process proceeds to S1005.
  • the inversion mode prediction difference value DiffMode, the prediction difference value DiffDV of the transition vector, and information CorBit indicating whether or not DC correction has been performed are decoded from the stream (S1100).
  • the prediction value ModePred of the inversion mode and the prediction value DVPred of the transition vector are calculated (S1101).
  • the inversion mode ModeResult and the transition vector DVResult are decoded by adding the prediction difference value and the prediction value (S1102).
  • the prediction value of the intra prediction mode is acquired via the intra-frame decoded image memory 208 in FIG. DCIpred, which is a DC component when the target block is intra-predicted, is calculated (S1106).
  • DCRef which is a DC component of the reference image block is calculated (S1107). (DCIpred-DCRef) is subtracted from the predicted image to generate a predicted image subjected to DC correction (S1108).
  • the DC component corresponding to the average value of the block is corrected for the transition prediction process.
  • the DC component of the encoding target block is estimated and corrected based on the prediction mode information of the intra prediction mode, but the DC component is estimated from the adjacent decoded image by a fixed algorithm. In this case, it is also possible to add to the configuration of the first embodiment.
  • the correct DC component can be corrected by separately transmitting the DC component of the block to be encoded, which is also within the intended range of the above configuration, and the transmission code amount can be reduced even if the DC component is transmitted.
  • This is an effective function for an encoding target block that shows improvement in prediction efficiency.
  • FIG. 12 shows a configuration diagram of an image encoding device in the third embodiment
  • FIG. 13 shows a configuration diagram of an image decoding device in the third embodiment, and the operation will be described.
  • the image coding apparatus includes a peripheral decoding reference transition vector estimation unit 1225 and a peripheral decoding reference transition prediction signal.
  • the generation unit 1226 is added, and as illustrated in FIG. 13, the image decoding apparatus according to the present exemplary embodiment includes peripheral decoding in addition to the processing blocks having the same functions as those of the second exemplary embodiment.
  • a reference transition vector estimation unit 1318 and a peripheral decoding reference transition prediction signal generation unit 1319 are added.
  • the point of the present invention in the third embodiment is that a block obtained by inverting the reference image vertically and horizontally to fully utilize the self-similarity and texture similarity of the image signal as compared with the conventional method.
  • a prediction block with higher correlation with the coding block is added by adding it as a prediction target signal, estimating the template with the template matching method from the peripheral decoded image of the coding target block, combining the inversion mode and the transition vector. It is a point that is generated without the need to add.
  • FIG. 14 is a reference image (encoded decoded image) used in prediction using the conventional peripheral decoding reference transition vector estimation in the upper part of FIG.
  • the upper left part of the reference block used as a prediction signal that exists at the position where the encoded decoded image is moved by the shift vector for the image information in the area indicated by hatching in the upper left part with respect to the encoding target block An error with the image information (hereinafter referred to as a reference template) of the area indicated by hatching is evaluated, a transition vector value having the minimum error value is calculated as an estimated transition vector EDV, and the transition vector indicated by EDV Therefore, a reference image at a position moved with respect to the encoding target block is set as a predicted image.
  • the position of the reference template with respect to the same transition vector is changed according to the inversion mode.
  • the image signal of the portion located in the upper left part of the encoding target block is on the other hand, the lower left portion is used in the upside down mode, the upper right portion is used in the left and right inversion mode, and the lower right portion is used in the up and down left and right inversion mode prediction block.
  • FIG. 15 a configuration diagram of the peripheral decoding reference transition vector estimation unit 1225 is shown in FIG. 15, and the operation will be described.
  • the peripheral decoding reference transition vector estimation unit 1225 includes a sequence unit 1500, a memory access unit 1501, a peripheral decoded image buffer 1502, a transition reference image buffer 1503, a non-inversion mode error calculator 1504, and a left / right inversion mode. It comprises an error calculator 1505, an up / down inversion mode error calculator 1506, an up / down / left / right inversion mode error calculator 1507, an optimal estimated transition vector update unit 1508, and an optimal estimated vector / evaluation value storage unit 1509.
  • the memory access unit 1501 acquires peripheral image information adjacent to the position of the encoding target block from the intra-frame decoded image memory 111 and supplies the peripheral image information to the peripheral decoded image buffer 1502. Further, the memory access unit 1501 acquires a reference block from the intra-frame decoded image memory 111 according to the transition vector value managed by the sequence unit 1500 and stores the reference block in the transition reference image buffer 1503.
  • the same peripheral decoded image signal is supplied to a non-inversion mode error calculator 1504, a left / right inversion mode error calculator 1505, an up / down inversion mode error calculator 1506 and an up / down / left / right inversion mode error calculator 1507.
  • a non-inversion mode error calculator 1504 a left / right inversion mode error calculator 1505
  • an up / down inversion mode error calculator 1506 an up / down / left / right inversion mode error calculator 1507.
  • the transition reference image buffer 1503 for the non-inversion mode error calculator 1504, reference is made to the upper left part of the reference image block and the left / right inversion mode error calculator 1505.
  • the upper right part of the image block, for the upside down mode error calculator 1506, the lower left part of the reference image block, and for the up / down left / right inversion mode error calculator 1507, the reference image in the lower right part of the reference image block A signal is supplied as a peripheral reference image.
  • the non-inversion mode error calculator 1504, the left / right inversion mode error calculator 1505, the up / down inversion mode error calculator 1506, and the up / down / left / right inversion mode error calculator 1507 are square differences in each pixel of the input peripheral decoded image and peripheral reference image. And has a function of storing the sum.
  • prediction error evaluation values of the non-inversion mode prediction block, the upside down mode prediction block, the left / right inversion mode prediction block, and the up / down / left / right inversion mode prediction block shown in FIG. 14 are generated.
  • a non-inversion mode error calculator 1504, a left / right inversion mode error calculator 1505, an up / down inversion mode error calculator 1506, and an up / down / left / right inversion mode error calculator 1507 update the block sum of the calculated square error values, respectively, to update the optimal estimated transition vector. Output to the unit 1508.
  • the optimum estimated transition vector update unit 1508 compares the error evaluation value (square error sum) of each inversion mode in the transition vector value managed by the sequence unit 1500 with the minimum error evaluation value for the same encoding target block, The inversion mode and transition vector having a small evaluation value are updated as the optimal estimation inversion mode and optimal estimation transition vector, and are output to the optimal estimation vector / evaluation value storage unit 1509 together with the evaluation value.
  • the optimum estimated vector / evaluation value storage unit 1509 after completing the error evaluation for the transition vector value in the search range managed by the sequence unit 1500, uses the stored estimated inversion mode and estimated transition vector as the peripheral decoding reference transition prediction signal generation unit 1226. And it outputs to the transition vector detection part 703.
  • the minimum error value MinErr is set to the maximum value for the target coding block (S1600).
  • the decoded image signal at the position adjacent to the X pixel is input to the upper left side with respect to the target coding block (S1601).
  • a transition vector detection range is set according to the position of the coding block in the screen (S1602). Based on the limited detection range, an initial value DVSearch of the transition vector is set (S1603).
  • an image in the area of the upper, lower, left, and right X pixels is input from the decoded image memory based on the position where the DVsearch is moved from the encoding block (S1604).
  • Error value ErrNorm (DVsearch) in non-inversion mode error value ErrLRinv (DVsearch) in left / right inversion mode, up / down inversion mode Error value ErrULinv (DVsearch) and error value ErrULLRinv (DVsearch) in the up / down / left / right reversal mode are calculated (S1605).
  • the generated minimum value of ErrNorm (DVsearch), ErrLRinv (DVsearch), ErrULinv (DVsearch), ErrULLRinv (DVsearch) is compared with the stored MinErr (S1606). If the minimum value is smaller than MinErr (S1607: YES), the minimum value is set in MinErr, the estimated inversion mode value having the minimum value is stored in ModeResult, and the estimated transition vector value DVSearch at that time is stored in DVResult (S1608). When the minimum value is not smaller than MinErr (S1607: NO), the process proceeds to S1609 as it is.
  • transition vector value for which the error value has been calculated is the last vector in the detection range (S1609: YES)
  • ModeResult and DVResult are output (S1610) and the process ends. If it is not the last vector (S1609: NO), the transition vector value DVSearch is updated to the next detection position (S1611), and the process proceeds to S1604.
  • the peripheral decoding reference transition vector estimation unit 1225 in FIG. 12 and the peripheral decoding reference transition vector estimation unit 1318 in FIG. 13 generate the estimated transition vector value DVResult and the estimated inversion mode value ModeResult.
  • transition vector detection unit 703. can also be used as a predicted transition vector value and a predicted inversion mode value in the transition vector detection unit 703. When estimation from adjacent images is functioning effectively, transition vector detection is used. It is possible to reduce additional information necessary for transition prediction.
  • the peripheral decoding reference transition prediction signal generation unit 1226 in FIG. 12 and the peripheral decoding reference transition prediction signal generation unit 1319 in FIG. 13 estimate the transition vector value DVResult input from the peripheral decoding reference transition vector estimation units 1225 and 1318 and the estimation.
  • the encoded decoded image at the position moved from the encoding target block by the transition vector value is acquired from the intra-frame decoded image memories 111 and 208 as a reference image.
  • the acquired reference image forms a predicted image block by changing the horizontal / vertical arrangement order according to the inversion mode.
  • the configured prediction image block is supplied to the mode determination unit 724 in FIG. 12 and the prediction signal selection unit 811 in FIG. 13, and is used as a prediction image block when selected as the prediction mode.
  • the peripheral decoded reference transition vector estimation is performed, in which error evaluation is performed on an adjacent portion of an image referred to by a transition vector, using an encoded decoded image adjacent to the encoding target block.
  • the transition vector and the inversion mode are estimated by evaluating the error of the adjacent portion when the decoded image is inverted vertically and horizontally.
  • the fourth example is an example in which the inversion mode is calculated without transmitting the code by performing the evaluation using the adjacent image of the encoding target block as a template with respect to the configuration of the second example. .
  • FIG. 17 shows a configuration diagram of an image encoding device in the fourth embodiment
  • FIG. 18 shows a configuration diagram of an image decoding device in the fourth embodiment, and the operation will be described.
  • the image coding apparatus has a configuration in which a template inversion mode estimation unit 1727 is added to a processing block having the same function as that of the second embodiment.
  • the image decoding apparatus has a configuration in which a template inversion mode estimation unit 1820 is added in addition to a processing block having the same function as that of the second embodiment. Yes.
  • the template inversion mode estimation unit 1820 has a configuration in which an optimal inversion mode is calculated with respect to the set transition vector using the adjacent image of the encoding target block as a template. Since the processing block in the encoding device and the processing block in the decoding device have the same function, the detailed operation will be described together.
  • a target transition vector is input from the transition vector detection unit 703 to the template inversion mode estimation unit 1727.
  • the template inversion mode estimation unit 1820 receives a transition prediction.
  • the decoded transition vector is input from the signal generation unit 804.
  • a decoded image signal at a position adjacent to X pixels on the upper left side is input to the target encoding block (S1900).
  • the transition vector value DV for which the inversion mode is obtained is set (S1901).
  • an image in the upper, lower, left, and right X pixel area is input from the decoded image memory with reference to the position where the DV is moved from the coding block (S1902).
  • the error values for each pixel of the adjacent image of the coding block and the reference image block for the shift vector DV are accumulated, and the error value ErrNorm in the non-inversion mode, the error value ErrLRinv in the left / right inversion mode, the error value ErrULinv in the up / down inversion mode
  • the error value ErrULLRinv in the left / right reverse mode is calculated (S1903).
  • the minimum value among the generated ErrNorm, ErrLRinv, ErrULinv, ErrULLRinv is calculated (S1904). If the minimum value is ErrNorm, the estimated inversion mode value is 0 in ModeResult. If the minimum value is ErrLRinv, the estimated inversion mode value is 1 in ModeResult. If the minimum value is ErrULinv, the estimated inversion mode value is ModeMode. If the minimum value is ErrULLRinv, the estimated inversion mode value is set to 3 in ModeResult (S1905).
  • the ModeResult calculated in this way is output, and the inversion mode value for the encoding target block is calculated (S1906).
  • the inversion mode By generating the prediction signal using the calculated ModeResult as it is as the inversion mode value, the inversion mode can be determined without additional information, and the inversion mode value can be restored by performing the same processing in the decoding device. .
  • the calculated ModeResult can also be used as a prediction inversion mode value in the transition vector detection unit 703 in the encoding device.
  • transition vector detection is used. It is possible to reduce inversion mode information in transition prediction.
  • the position of the adjacent portion of the decoded image referenced by the transition vector is used as the decoded image referenced by the transition vector, using the encoded decoded image adjacent to the current block.
  • Estimate the inversion mode by evaluating the error of the adjacent part of the position inverted up and down and left and right around the center, and increase the additional information by generating the prediction signal using the inversion mode that is the estimation result
  • the image encoding device and the image decoding device presented as the first, second, third, and fourth embodiments are physically a CPU (central processing unit), a recording device such as a memory, and a display. It is possible to realize by a computer having a display device such as a communication unit and a communication means for a transmission path, and the means having each of the presented functions can be realized and executed as a program on the computer. is there.
  • the present invention can be used for image signal encoding and decoding techniques.

Abstract

 画像符号化装置は、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、相関性の高い信号と符号化対象ブロックの画面内の変移である変移ベクトルを求める変移ベクトル検出部103と、変移ベクトルに従い予測信号を生成する変移予測信号生成部104とを有する。変移ベクトル検出部103は、変移ベクトルにおいて指定される予測信号を水平及び垂直の少なくとも一方の並びを反転させた信号を算出し、反転された予測信号を含めた予測信号の中より最適な予測信号と、予測信号を構成する為に必要な変移ベクトルと反転方向を示す情報を検出する。変移予測信号生成部104は、変移ベクトル及び反転方向を示す情報に従って、局部復号画像より予測信号を生成する。

Description

画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
 本発明は、画像信号の符号化及び復号化技術に関し、対象となる画像信号に対する予測信号を符号化済み画像より生成し、予測信号との差分信号を符号化する画面内予測処理を用いる、画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法に関するものである。
 近年、デジタル化された画像・音声コンテンツを、衛星や地上波等の放送波やネットワークを介して配信するサービスが実用化されており、膨大な情報量を持つ画像・音声の情報を効率的に記録・伝送するための高能率符号化が必要となっている。コンテンツの高精細化・多様化に伴い、符号化される画像の数及びデータ量は更に増大しており、将来のコンテンツサービスを想定した、更なる画像信号の高効率な符号化が要求されている。
 画像の高能率符号化としては、MPEG2やMPEG4-AVC(Advanced Video Coding)に代表される、動画像信号の同一フレーム内で空間的に隣接する画素間の相関および、時間的に隣接するフレーム間やフィールド間の相関を利用して情報量を圧縮する方式が用いられている。
 MPEG4-AVC(文献「ISO/IEC 14496-10 Advanced Video Coding」)では、画像を複数の2次元ブロックに分割し、ブロック単位で同一フレーム内やフレーム間の相関を用いて予測信号を生成し、予測信号との差分情報を符号化する事で高い符号化効率を実現している。MPEG4-AVCにおける同一フレーム内の相関を用いた予測処理はイントラ予測と呼ばれ、図20に示すように、符号化対象であるブロックの予測画像を、対象ブロックに隣接する符号化済み部分の復号画像を用いて生成する。イントラ予測では、隣接する復号画像が図20に示すような一定の方向に対して相関が高い事を想定した複数(4×4画素ブロック単位で予測を行う場合には9種類)の予測モードで生成した予測画像より、最も符号化対象ブロックと誤差の少ない予測モードを選択し、予測モード情報と合わせて符号化される。
 イントラ予測は隣接した領域との相関性のみを利用した予測処理となり、符号化対象ブロックとの境界における相関性が少ない場合には、予測効果が減少する。
 画像信号においては、対象としたブロックより離れた位置においても、物体の形状や模様・背景等の類似した画像成分を有する信号が存在する。特許文献1においては対象ブロックより離れた位置における画像との相関性を利用して、予測処理を行う手法が提示されている。具体的には、図21に示すように対象ブロックより画面内の変移量(以降変移ベクトルと表記する)だけ移動した位置の、符号化済み復号画像と符号化対象ブロックとの誤差を算出し、最も誤差の少ない変移ベクトルで参照される参照画像を予測画像とし、変移ベクトルと合わせて符号化する。
 変移ベクトルを伝送する符号量を上回る、相関性が高い予測画像が生成できる場合には、イントラ予測に対して高い符号化効率を実現出来るが、変移ベクトルの伝送量が大きい場合には、十分な予測効率を発揮出来ない。
 特許文献2においては、上記変移ベクトルに要する符号量を削減するために、変移ベクトルを伝送せずに特定する手法が提示されている。特許文献2においては、対象ブロックに隣接した符号化済みの復号画像をテンプレートとして用いて、変移ベクトルだけ移動した位置の符号化済み復号画像と、前記対象ブロックに隣接した符号化済みの復号画像との誤差を算出し、最も誤差の少ない変移ベクトルを、符号化対象ブロックの変移ベクトルと見立て、変移ベクトルで参照される参照画像を予測画像とする。この方式においては、復号側では符号化側と同様に、符号化済みの復号画像を用いて変移ベクトルを検出することで、変移ベクトルを受信せずに算出できるため、付加情報による符号量の増大は起こらない。
特開2005-159947号公報 特開2007-043651号公報
 MPEG4-AVCにおいて、時間的に連続性のある画像信号に対しては、時間方向で異なるフレームの復号済み画像信号を基準に動き補償予測処理を行う事で高い符号化効率を実現出来るが、動き補償予測処理を行う基準フレームは同一フレーム内でのイントラ予測のみを使用して符号化を行う必要があり、符号化対象ブロックとの境界における相関性が低い場合には、予測効果が減少する課題がある。この課題は、動画像信号が時間的に連続性のない場合においても、動き補償予測が機能しないためにイントラ予測の性能限界による、符号化効率の低下となって現れる。
 特許文献1および特許文献2で提示されているような、対象ブロックとの変移ベクトルを伝送もしくは自己生成して、対象ブロックと離れた位置における画像相関性を利用する場合には、画像信号に対する隣接領域では無い部分の自己相似性や、同一なテクスチャ成分を有する、異なる物体からの予測を行うために、画面内に存在している物体の形状変化や輝度変化等の影響があり、画像信号が有する自己相似性やテクスチャの相似性を十分に活用できていない。
 特許文献1においては、変移ベクトルの符号量を上回る効果を有する予測信号を算出できない場合に、効率が低下する課題を有しており、特許文献2においては、符号化対象ブロックの隣接画像をテンプレートにして変移ベクトルを算出するため、隣接画像と対象ブロックの間で相関性が低い場合や、特許文献1で生成される変移ベクトルで参照される参照ブロックの隣接画像との相関性が低い場合等、精度の高い変移ベクトルを求める事が出来ず、効率が向上しない課題を有している。
 そこで、本発明はフレーム内での予測効率を大幅に向上させるために、対象ブロックと離れた位置における画像に対する相関性を、従来の手法よりも有効に活用することができる、フレーム内予測手法を実現させる事を目的とする。
 上記目的を達成するため、本発明の画像符号化装置は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う装置であって、符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出部と、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成部とを有し、前記変移ベクトル検出部は、変移ベクトルにおいて指定される予測信号を水平及び垂直の少なくとも一方の並びを反転させた信号を算出し、反転された予測信号を含めた予測信号の中より最適な予測信号と、予測信号を構成する為に必要な変移ベクトルと反転方向を示す情報を検出すると共に、前記変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトル及び前記反転方向を示す情報を符号化する。
 また、本発明の画像符号化装置は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う装置であって、符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと前記局部復号画像より生成される予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定部と、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成部とを有し、前記周辺復号参照変移ベクトル推定部は、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、前記周辺復号参照変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、前記予測信号と前記符号化対象ブロックとの差分信号を符号化する。
 また、本発明の画像符号化装置は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う装置であって、符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出部と、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成部と、予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定部とを有し、前記テンプレート反転モード推定部は、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成し、前記変移ベクトル検出部は、前記反転方向を示す情報に応じて、変移ベクトルにおいて指定される予測信号を反転させた信号を算出し、変移ベクトル毎に予測信号と符号化対象ブロックとの誤差評価を行う事で変移ベクトルを検出すると共に、前記変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトルを符号化する。
 また、本発明の画像復号化装置は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する装置であって、前記符号化ストリームより、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトル及び、前記変移ベクトルにおいて指定される前記復号画像を水平及び垂直の少なくとも一方に反転させる、反転方向を示す情報を復号する、変移ベクトル/モード復号部と、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成部とを有し、前記予測信号と、復号された残差信号を加算することで復号画像を算出する。
 また、本発明の画像復号化装置は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する装置であって、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像を用いて、復号対象ブロックと前記復号画像より生成した予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定部と、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成部とを有し、前記周辺復号参照変移ベクトル推定部は、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、前記周辺復号参照変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成し、前記予測信号と復号された残差信号を加算することで復号画像を算出する。
 また、本発明の画像復号化装置は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する装置であって、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトルを復号する、変移ベクトル/モード復号部と、予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定部とを有し、前記テンプレート反転モード推定部は、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成すると共に、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成部を有し、前記予測信号と、復号された残差信号を加算することで復号画像を算出する。
 また、本発明の画像符号化方法は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う方法であって、符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出ステップと、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成ステップとを含み、前記変移ベクトル検出ステップでは、変移ベクトルにおいて指定される予測信号を水平及び垂直の少なくとも一方の並びを反転させた信号を算出し、反転された予測信号を含めた予測信号の中より最適な予測信号と、予測信号を構成する為に必要な変移ベクトルと反転方向を示す情報を検出すると共に、前記変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトル及び前記反転方向を示す情報を符号化する。
 また、本発明の画像符号化方法は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う方法であって、符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと前記局部復号画像より生成される予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定ステップと、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成ステップとを含み、前記周辺復号参照変移ベクトル推定ステップでは、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、前記周辺復号参照変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、前記予測信号と前記符号化対象ブロックとの差分信号を符号化する。
 また、本発明の画像符号化方法は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う方法であって、符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出ステップと、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成ステップと、予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定ステップとを含み、前記テンプレート反転モード推定ステップでは、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成し、前記変移ベクトル検出ステップでは、前記反転方向を示す情報に応じて、変移ベクトルにおいて指定される予測信号を反転させた信号を算出し、変移ベクトル毎に予測信号と符号化対象ブロックとの誤差評価を行う事で変移ベクトルを検出すると共に、前記変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトルを符号化する。
 また、本発明の画像復号化方法は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する方法であって、前記符号化ストリームより、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトル及び、前記変移ベクトルにおいて指定される前記復号画像を水平及び垂直の少なくとも一方に反転させる、反転方向を示す情報を復号する、変移ベクトル/モード復号ステップと、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成ステップとを含み、前記予測信号と、復号された残差信号を加算することで復号画像を算出する。
 また、本発明の画像復号化方法は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する方法であって、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像を用いて、復号対象ブロックと前記復号画像より生成した予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定ステップと、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成ステップとを含み、前記周辺復号参照変移ベクトル推定ステップでは、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、前記周辺復号参照変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成し、前記予測信号と復号された残差信号を加算することで復号画像を算出する。
 更に、本発明の画像復号化方法は、画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する、画像復号化方法であって、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトルを復号する、変移ベクトル/モード復号ステップと、予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定ステップとを含み、前記テンプレート反転モード推定ステップでは、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成すると共に、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成ステップを含み、前記予測信号と、復号された残差信号を加算することで復号画像を算出する。
 本発明における、画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法においては、テクスチャ成分を予測するためのテンプレート信号として用いる、符号化済み復号画像に対する上下や左右の反転させた参照画像を生成し予測画像として用いる事により、従来方式におけるフレーム内での画像信号予測の精度を向上させる事が出来る。また、反転モードに関して、隣接ブロックとの反転モードの相関、変移ベクトルの相関を用いて、予測反転モードを生成する事により、付加情報を少なく実現出来る。これらを用いた予測処理を行う画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法を構成する事により、符号化効率を向上する事が出来る。
本発明の第1実施例の画像符号化装置を示す構成図である。 本発明の第1実施例の画像復号化装置を示す構成図である。 本発明の画面内変移予測を説明する概念図である。 本発明の第1実施例における変移ベクトル検出部の構成図である。 本発明の第1実施例の変移ベクトル検出動作を説明するためのフローチャートである。 本発明の第1実施例の変移ベクトル復号/予測画像生成動作を説明するためのフローチャートである。 本発明の第2実施例の画像符号化装置を示す構成図である。 本発明の第2実施例の画像復号化装置を示す構成図である。 本発明の第2実施例における変移ベクトル検出部の構成図である。 本発明の第2実施例の変移ベクトル検出動作を説明するためのフローチャートである。 本発明の第2実施例の変移ベクトル復号/予測画像生成動作を説明するためのフローチャートである。 本発明の第3実施例の画像符号化装置を示す構成図である。 本発明の第3実施例の画像復号化装置を示す構成図である。 本発明の周辺復号参照変移ベクトル推定を説明する概念図である。 本発明の第3実施例における周辺復号参照変移ベクトル推定部の構成図である。 本発明の第3実施例の周辺復号参照変移ベクトル推定動作を説明するためのフローチャートである。 本発明の第4実施例の画像符号化装置を示す構成図である。 本発明の第4実施例の画像復号化装置を示す構成図である。 本発明の第4実施例の反転モード推定動作を説明するためのフローチャートである。 従来手法のイントラ予測の概念図である。 従来手法の画面内変移予測の概念図である。 MPEG4-AVCにおける対象ブロックと予測動きベクトル算出に用いる隣接ブロックの関係を示す図である。
 次に、発明を実施するための形態について図面を併せ参照して説明する。
 まず、本発明の第1実施例である画像符号化装置、画像復号化装置の形態について説明する。
 図1は、本発明の第1実施例である画像符号化装置の形態を示す構成図である。図1に示すように、本実施例の形態の画像符号化装置は、入力端子100、入力画像バッファ101、ブロック分割部102、変移ベクトル検出部103、変移予測信号生成部104、減算器105、直交変換部106、量子化部107、逆量子化部108、逆直交変換部109、加算器110、フレーム内復号画像メモリ111、変移ベクトル/モード予測部112、エントロピー符号化部113、ストリームバッファ114、出力端子115及び符号量制御部116から構成される。
 変移ベクトル検出部103、変移予測信号生成部104、及び変移ベクトル/モード予測部112を設けた点と、これらの処理ブロックにおける動作が、本発明の第1実施例における特徴であり、他の処理ブロックに関してはMPEG4-AVC等の画像符号化装置におけるフレーム内符号化処理を構成する処理ブロックとなる。
 入力端子100より入力されたデジタル画像信号は、入力画像バッファ101に格納される。入力画像バッファ101に格納されたデジタル画像信号は、ブロック分割部102に供給され、16×16画素で構成される2次元マクロブロック単位で符号化対象ブロックとして切り出される。ブロック分割部102は、切り出した符号化対象ブロックを、変移ベクトル検出部103、減算器105に供給する。減算器105は、入力画像バッファ101から供給された符号化対象ブロックと、後述する変移予測信号生成部104より供給される予測画像ブロックとの差分を演算し、結果を差分ブロックとして直交変換部106に供給する。
 直交変換部106は、差分ブロックに対して水平8画素×垂直8画素単位にDCT変換を行うことで、直交変換された周波数成分信号に相当するDCT係数を生成する。また、直交変換部106は、生成したDCT係数を2次元マクロブロック単位に纏めて、量子化部107に出力する。量子化部107は、DCT係数を周波数成分毎に異なった値で除算することにより量子化処理を施す。量子化部107は、量子化処理されたDCT係数を、逆量子化部108及びエントロピー符号化部113に供給する。逆量子化部108は、量子化部107より入力した量子化処理されたDCT係数に対して、量子化時に除算された値を乗算することで逆量子化を行い、逆量子化された結果を復号されたDCT係数として、逆直交変換部109に出力する。逆直交変換部109は、逆DCT処理を行い、復号された差分ブロックを生成する。逆直交変換部109は、復号された差分ブロックを加算器110に供給する。加算器110は、変移予測信号生成部104より供給される予測画像ブロックと、逆直交変換部109より供給される、復号された差分ブロックを加算し、局部復号ブロックを生成する。加算器110で生成された局部復号ブロックは、フレーム内復号画像メモリ111に逆ブロック変換された形で格納される。
 変移ベクトル検出部103は、ブロック分割部102より入力された符号化対象ブロックの画像信号と、フレーム内復号画像メモリ111に格納されている復号画像信号との間で変移ベクトルと復号画像の反転を指示するモード(以降、反転モードと表記する)を算出する。変移ベクトル検出部103は、変移ベクトル/モード予測部112より供給される、対象ブロックに対する変移ベクトル及び反転モードの予測値を入力し、変移ベクトル検出処理を行う。変移ベクトル検出部103の詳細動作に関しては、後述する。
 変移ベクトル検出部103は、検出した変移ベクトル値と反転モード値を、変移予測信号生成部104及び変移ベクトル/モード予測部112に、変移ベクトルと反転モードそれぞれの予測値との差分情報をエントロピー符号化部113に出力する。変移予測信号生成部104は、変移ベクトル検出部103より入力した変移ベクトル値と反転モード値を元に、フレーム内復号画像メモリ111より予測画像を生成し、減算器105及び加算器110に出力する。変移予測信号生成部104の詳細動作に関しては後述する。
 変移ベクトル/モード予測部112は、変移ベクトル検出部103より入力された変移ベクトル値及び反転モード値を格納し、続く符号化対象ブロックの変移ベクトル及び反転モード値を生成する機能を有する。変移ベクトル/モード予測部112の詳細動作に関しては後述する。
 エントロピー符号化部113は、量子化部107より供給された量子化処理されたDCT係数と、変移ベクトル検出部103より供給された、変移ベクトル値と反転モード値の予測差分値を用いて、変移ベクトル情報及び反転モード情報と、量子化されたDCT係数の可変長符号化を行う。可変長符号化を施した情報は、ストリームバッファ114に出力される。
 ストリームバッファ114に蓄えられた符号化ストリームは、出力端子115を介して、記録媒体もしくは伝送路に出力される。符号化ストリームの符号量制御に関しては、符号量制御部116に、ストリームバッファ114に蓄えられているビットストリームの符号量が供給され、目標とする符号量との間で比較がとられ、目標符号量に近づけるために量子化部107の量子化の細かさ(量子化スケール)が制御される。
 続いて、本発明の第1実施例である画像符号化装置により生成された符号化ビットストリームを復号する、画像復号化装置の形態について説明する。
 図2は、本発明の第1実施例である画像復号化装置の形態を示す構成図である。図2に示すように、本実施の形態の画像復号化装置は、入力端子200、ストリームバッファ201、エントロピー復号部202、変移ベクトル/モード復号部203、変移予測信号生成部204、逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208及び出力端子209から構成される。
 変移ベクトル/モード復号部203及び変移予測信号生成部204を設けた点と、これらの処理ブロックにおける動作が、本発明の第1実施例における特徴であり、他の処理ブロックに関してはMPEG4-AVC等の画像符号化装置におけるフレーム内復号化処理を構成する処理ブロックとなる。
 入力端子200より入力された符号化ビットストリームは、ストリームバッファ201に格納される。格納された符号化ビットストリームは、ストリームバッファ201よりエントロピー復号部202に供給され、エントロピー復号部202は、入力されたビットストリームより、符号化された変移ベクトル差分情報と反転モード差分情報、及び量子化されたDCT係数に関して可変長復号を行い、逆量子化部205に量子化されたDCT係数を、変移ベクトル/モード復号部203に変移ベクトル差分情報と反転モード差分情報を出力する。逆量子化部205、逆直交変換部206、加算器207及びフレーム内復号画像メモリ208に関しては、第1実施例の動画像符号化装置の局部復号処理と同様の処理が行われる。フレーム内復号画像メモリ208に蓄えられた復号画像は、出力端子209を介して、表示装置に復号画像信号として表示される。
 変移ベクトル/モード復号部203は、エントロピー復号部202より入力された変移ベクトル差分情報と反転モード差分情報と、以前に復号された対象ブロックの変移ベクトル値及び反転モード値より、変移ベクトル予測値及び反転モード予測値を算出し、前記変移ベクトル差分情報と反転モード差分情報と加算する事で、符号化対象ブロックの変移ベクトル値及び反転モード値を復号し、変移予測信号生成部204に出力する機能を有する。変移ベクトル/モード復号部203の詳細動作は後述する。
 変移予測信号生成部204は、変移ベクトル/モード復号部203より出力された変移ベクトル値及び反転モード値を元に、フレーム内復号画像メモリ208より予測画像を生成し、加算器207に出力する。変移予測信号生成部204の詳細動作に関しては後述する。
 続いて、図3を用いて本発明の画面内変移予測の手法を説明する。第1実施例における本発明のポイントは、従来手法に比べてより画像信号が有する自己相似性やテクスチャの相似性を十分に活用するために、参照画像を上下・左右等に反転させたブロックを予測対象信号として追加し、反転モードと共に符号化する事で、より符号化ブロックとの相関性の高い予測ブロックを生成している点である。
 図3の上部における、反転無しテンプレートが従来の画面内変移ベクトル算出を用いた予測において使用される参照画像(符号化済み復号画像)である。それに対して、復号画像を上下・左右・上下左右に反転された参照画像を、対象ブロックの左上の画素を基準に配置したイメージ図が、上下反転テンプレート・左右反転テンプレート・上下左右反転テンプレートで示されている。
 具体的には、これらの参照画像に対する変移ベクトルの算出及び予測画像ブロックの生成を、対象ブロックを基準に変移ベクトルで示された位置に移動した符号化済み復号画像より、参照ブロックを取得し、参照ブロックを上下・左右・上下左右に反転することにより生成できる。図3の下側に記述した、反転無しモード予測ブロック、上下反転モード予測ブロック、左右反転モード予測ブロック、上下左右反転モード予測ブロックが、変移ベクトルDVにより参照される各々の反転モードの予測ブロック信号となる。
 変移ベクトルの算出時には、予測誤差の評価対象の画素を上下・左右・上下左右反転した位置で取り、予測誤差を評価する事で復号画像からのデータ取得を増加させる事なく、且つフィルタ処理等の画像変換に有する演算の増加も必要なく、参照候補となるテンプレートを生成している。
 図1における変移ベクトル検出部103は、図3に示した概念の変移ベクトル及び反転モードの算出を行う機能を有しており、その構成図を図4に示し説明する。
 変移ベクトル検出部103は、図4に示されるように、シーケンス部400、対象画像バッファ401、モード予測値・変移ベクトル予測値バッファ402、メモリアクセス部403、変移参照画像バッファ404、反転無しモード誤差算出器405、左右反転モード誤差算出器406、上下反転モード誤差算出器407、上下左右反転モード誤差算出器408、最適変移ベクトル更新部409、モード差分・変移ベクトル差分算出器410、最適ベクトル/評価値格納部411より構成される。
 ブロック分割部102より対象画像バッファ401に、符号化対象ブロックが入力され格納される。メモリアクセス部403は、フレーム内復号画像メモリからシーケンス部400が管理する、変移ベクトル値に合わせて参照ブロックを取得し、変移参照画像バッファ404に格納する。
 対象画像バッファ401からは、対象ブロックの上部から下部に対して順番に水平方向の画像信号が、反転無しモード誤差算出器405及び左右反転モード誤差算出器406に供給される。また、同時に対象画像バッファ401からは、対象ブロックの下部から上部に対して順番に水平方向の画像信号が、上下反転モード誤差算出器407及び上下左右反転モード誤差算出器408に供給される。
 一方、変移参照画像バッファ404からは、反転無しモード誤差算出器405、左右反転モード誤差算出器406、上下反転モード誤差算出器407及び上下左右反転モード誤差算出器408に対して、参照ブロックの上部から下部に対して順番に水平方向の参照画像信号が供給される。
 反転無しモード誤差算出器405及び上下反転モード誤差算出器407は、入力された対象画像及び参照画像の水平方向の画像信号を同じ水平位置同士で二乗差分を計算し、その総和を格納する機能を有する。
 左右反転モード誤差算出器406及び上下反転モード誤差算出器407は、入力された対象画像及び参照画像の水平方向の画像信号を水平方向に左右対称位置の画像同士の二乗誤差を計算し、その総和を格納する機能を有する。
 これらにより、図3に示した反転無しモード予測ブロック、上下反転モード予測ブロック、左右反転モード予測ブロック、上下左右反転モード予測ブロックの、予測誤差評価値が生成される。
 反転無しモード誤差算出器405、左右反転モード誤差算出器406、上下反転モード誤差算出器407及び上下左右反転モード誤差算出器408は、それぞれ算出した二乗誤差値のブロック総和を、最適変移ベクトル更新部409に出力する。
 モード予測値・変移ベクトル予測値バッファから供給される、変移ベクトル予測値及び反転モード予測値は、モード差分・変移ベクトル差分算出器410において、シーケンス部400で管理される変移ベクトル値に合わせて、各反転モードに対する予測差分値及び変移ベクトル差分値が計算され、最適変移ベクトル更新部409に出力される。
 最適変移ベクトル更新部409は、シーケンス部400で管理される変移ベクトル値における各反転モードの誤差評価値(二乗誤差総和)と、同一符号化対象ブロックに対する最小の誤差評価値を比較し、最も小さい評価値を有する反転モード及び変移ベクトルを最適変移ベクトルとして更新し、評価値及び選択された各反転モードに対する予測差分値及び変移ベクトル差分値と共に最適ベクトル/評価値格納部411に出力する。
 最適ベクトル/評価値格納部411は、シーケンス部400が管理する探索範囲の変移ベクトル値に対する誤差評価終了後に、格納された反転モード及び変移ベクトルを、変移予測信号生成部104及び変移ベクトル/モード予測部112に出力すると共に、各反転モードに対する予測差分値及び変移ベクトル差分値をエントロピー符号化部113に出力する。
 上記検出処理の演算処理としての手順を図5にフローチャートとして示し、シーケンス部400において管理される処理手順を説明する。
 対象となる符号化ブロックに対して、最初に最小誤差値MinErrを最大値(例えば、格納領域が32ビットの場合には0xffffffff)に設定する(S500)。続いて、対象となる符号化ブロックを入力する(S501)。次に、符号化ブロックの画面内位置に応じて変移ベクトルの検出範囲を設定する(S502)。ここでは、設定した変移ベクトル検出範囲に対して、画面内の符号化済み領域を超えないように検出範囲を制限する。制限された検出範囲を元に、変移ベクトルの初期値DVSearchを設定する(S503)。一例としては、検出範囲の中で符号化対象ブロックに近接した(変移ベクトルが小さい)値を設定する。設定されたDVSearchに対して、符号化ブロックからDVSearch移動した位置の復号画像メモリより参照画像ブロックを入力する(S504)。
 参照画像ブロックと符号化対象ブロックを用いて、変移ベクトルDVSearchに対する、符号化ブロックと参照画像ブロックの画素毎の誤差値を積算し、反転無しモードの誤差値ErrNorm(DVSearch)、左右反転モードの誤差値ErrLRinv(DVSearch)、上下反転モードの誤差値ErrULinv(DVSearch)及び上下左右反転モードの誤差値ErrULLRinv(DVSearch)を算出する(S505)。
 続いて、反転モードの予測値ModePredと変移ベクトルの予測値DVPredと、各モード値及びDVSearchとの差分値DiffMode、DiffDVを計算し、符号化時の想定符号量InfoBitsを計算する。それぞれの反転モードに対して計算されたInfoBitsをErrNorm(DVSearch)、ErrLRinv(DVSearch)、ErrULinv(DVSearch)、ErrULLRinv(DVSearch)に加算する(S506)。
 反転モードに関しては、予測モードが1異なる場合に反転する方向が一方向になるように、以下のようにモード値を対応つける事が出来る。
  反転無しモード:0
  上下反転モード:1
  上下左右反転モード:2
  左右反転モード:3
 反転モードの差分に関しては、予測値ModePredに加算して下2ビットを取得することで、反転モードを表すようにする。例えば、ModePredが左右反転モード(=3)で反転モードが反転無しモードの場合には、1が伝送される。反転モードが1小さくなる場合には、実際には3が伝送される。予測モードが適切に予測されている場合には近接する反転モードが多く現れることになり、0に対して少ない符号量で符号化することにより、少ない情報で反転モードを符号化できる。例えば、反転モード差分に対して下記の表1のような可変長符号で符号化する。
Figure JPOXMLDOC01-appb-T000001
 反転モードが適切に予測されない場合には、反転モード差分を2ビットの固定長で伝送する事も可能であり、反転モードの符号化方法に関しては、MPEG4-AVCで定義されているフレームやスライスなどの所定単位で、予測の適合性を判断して切替る事が可能である。このようにして定義された符号に従って、必要となる符号量を算出しInfoBitsを計算する。
 続いて、生成されたErrNorm(DVSearch)、ErrLRinv(DVSearch)、ErrULinv(DVSearch)、ErrULLRinv(DVSearch)の最小値と格納されているMinErrを比較する(S507)。最小値がMinErrよりも小さい場合(S508:YES)、MinErrに最小値を設定し、最小値を持つ反転モード値をModeResult、その際の変移ベクトル値DVSearchをDVResultに格納する(S509)。最小値がMinErrよりも小さくない場合(S508:NO)は、そのままS510に進む。
 上記誤差値算出を行った変移ベクトル値が検出範囲最後のベクトルである場合には(S510:YES)、ModeResult、DVResult及びこれらのModePred、DVPredとの差分値である、DiffMode、DiffDVを出力し(S511)、終了する。最後のベクトルでない場合には(S510:NO)、変移ベクトル値DVSearchを次の検出位置に更新し(S512)、S504に移動する。
 続いて、図1における変移予測信号生成部104の動作説明を行う。変移予測信号生成部104は、変移ベクトル検出部103より入力された変移ベクトル値DVResultと反転モードModeResultを用いて、フレーム内復号画像メモリ111より変移ベクトル値だけ符号化対象ブロックより移動した位置の、符号化済み復号画像を参照画像として取得する。取得した参照画像は、反転モードに応じて水平・垂直の並び順を入れ替えて、予測画像ブロックを構成する。具体的には、図3の下部に示している画素位置への変換が施される。構成された予測画像ブロックは、減算器105及び加算器110に供給される。
 続いて、図1における変移ベクトル/モード予測部112の詳細動作に関して説明する。
 変移ベクトル/モード予測部112は、前述した反転モードの予測値ModePredと変移ベクトルの予測値DVPredを算出し、変移ベクトル検出部103に出力する機能を有する。
 具体的には、反転モード及び変移ベクトルに関しては、物体の形状が隣接する符号化対象ブロックとの間で連続している場合には、同様の値を示す傾向が強い事を利用して、周辺ブロックの符号化済み情報からの予測を行い、ModePred及びDVPredを生成する。例えば、DVPredに関しては図22に示されるような、MPEG4-AVCにおいて動きベクトルの予測に用いられる構成を用いる。隣接ブロックは、対象ブロックに対して、左隣であるブロックA、上隣であるブロックB、右上であるブロックCの3ブロックが選択される。しかしながら、画像端であるようなブロックCが無効である場合には、ブロックCの代わりに左上であるブロックDが用いられる。選択された3ブロックの変移ベクトルの水平方向成分をDVAx、DVBx、DVCx、垂直方向成分をDVAy、DVBy、DVCyとすると、予測変移ベクトル値PDVx、PDVyは、下記の式1のように水平方向成分、垂直方向成分それぞれに3値の中間値を選択することで生成する。
 (式1)
 DMVx=Median(DVAx、DVBx、DVCx)
 DMVy=Median(DVAy、DVBy、DVCy)
 ModePredにおいても同様に、隣接ブロックの反転モードの相関性を見て設定する。3つの隣接ブロックにおける反転モードの内で2つ以上の値が同一の場合には、その値をModePredとする。全てが異なる場合には、3つの反転モードの中央値を取る反転モードをModePredとする。
 ModePredに関しては、検出される変移ベクトルとの近似性を元に設定する事も可能である。その場合には、3つの隣接ブロックにおいて変移ベクトルDVSearchが最適変移ベクトルであった場合に、最もDVSearchとの誤差の少ない変移ベクトルを有する隣接ブロックの反転モードをModePredとする。
 ModePredの予測アルゴリズムに関しては、上記の1方式を選択し固定にする事も可能であるが、フレームやスライスなどの所定単位で切替る事も可能であり、より予測が適応する予測アルゴリズムを設定することが出来る。
 次に、復号化装置における変移予測の復号処理に関する詳細動作を説明する。
 図2における変移ベクトル/モード復号部203は、図1(符号化装置)における、変移ベクトル/モード予測部112の機能と、生成したModePred及びDVSearchと、エントロピー復号部202より入力される、反転モード及び変移ベクトルの差分値DiffMode、DiffDVを加算する事で、反転モード値ModeResult及び変移ベクトル値DVResultを復号する。復号したModeResult及びDVResultは、変移ベクトル/モード復号部203より変移予測信号生成部204に出力される。
 変移予測信号生成部204は、図1(符号化装置)における、変移予測信号生成部104と同一機能を有しており、変移ベクトル/モード復号部203より入力されたModeResult及びDVResultを元に、フレーム内復号画像メモリ208より変移ベクトル値だけ符号化対象ブロックより移動した位置の、符号化済み復号画像を参照画像として取得する。取得した参照画像を変移予測信号生成部104と同様に反転モードに応じた画素の並び順入れ替えを行い、予測画像ブロックを構成して加算器207に出力する。
 ここで、変移ベクトル/モード復号部203及び変移予測信号生成部204の動作を処理手順にしたフローチャートを図6に示し、具体的な処理手順を説明する。
 最初に、反転モード予測差分値DiffModeと変移ベクトルの予測差分値DiffDVをストリームより復号する(S600)。続いて、反転モードの予測値ModePredと変移ベクトルの予測値DVPredを算出する(S601)。算出した結果を用いて、予測差分値と予測値を加算することで、反転モードModeResult及び変移ベクトルDVResultを復号する(S602)。
 前述した、3つの隣接ブロックにおいて変移ベクトル値との誤差の少ない変移ベクトルを有する隣接ブロックの反転モードをModePredとする場合には、DVPredを算出しDiffDVと加算して、DVResultを復号した後に、隣接ブロックの変移ベクトル値よりModePredを設定し、ModeResultを算出する。
 次に、復号対象ブロックから変移ベクトルDVResult移動した位置の復号画像メモリより、参照画像を入力する(S603)。参照画像に対して、反転モードModeResultに応じて、参照画像のスキャン順を変換して予測画像ブロックを構成する(S604)。
 最後に、予測画像ブロックを出力し、後続ブロックに対する予測値を算出するために、ModeResult及びDVResultを格納して(S605)、終了する。
 第1実施例における画像符号化装置及び画像復号化装置においては、テクスチャ成分を予測するためのテンプレート信号として用いる、符号化済み復号画像に対する上下や左右の反転させた参照画像を生成し予測画像として用いる事により、従来方式におけるフレーム内での画像信号予測の精度が向上する。また、反転モードに関しては、隣接ブロックとの反転モードの相関もしくは変移ベクトルの相関を用いて、予測反転モードを生成する事により、付加情報を少なく実現出来ることで、符号化効率を向上する事が出来る。
 更に、それぞれの反転モードにおける変移ベクトル値は反転前の符号化対象ブロックとの相対位置を示す情報として符号化するため、符号化装置においては一度の参照画像取得後に並列動作で各反転モードの誤差評価が可能になると共に、復号装置においても参照画増取得後のアドレス変換のみで、各反転モードの予測画像を生成できるため、処理の増加を抑えつつ、相関性を有する予測画像を取得する事が可能となる。
 次に、本発明の第2実施例である画像符号化装置、画像復号化装置の形態について説明する。第1実施例は、フレーム内の相関のみを利用する画像符号化・復号化装置の実施例であったが、第2実施例は、フレーム内の相関及びフレーム間の相関を利用する、動画像の時間相関を活用可能な画像符号化・復号化装置の実施例である。
 図7は、本発明の第2実施例である画像符号化装置の形態を示す構成図である。図7に示すように、本実施例の形態の画像符号化装置は、第1実施例と同様の機能を有する、入力端子100、入力画像バッファ101、ブロック分割部102、減算器105、直交変換部106、量子化部107、逆量子化部108、逆直交変換部109、加算器110、フレーム内復号画像メモリ111、変移ベクトル/モード予測部112、エントロピー符号化部113、ストリームバッファ114、出力端子115及び符号量制御部116と、第1実施例に対して追加の処理を有する変移ベクトル検出部703、変移予測信号生成部704、変移ベクトル/モード予測部112、及び追加された処理ブロックであるイントラ予測部717、イントラ予測モード予測部718、デブロックフィルタ719、参照画像メモリ720、動きベクトル検出部721、動き補償予測部722、動きベクトル予測部723、及びモード判定部724から構成される。
 追加された処理ブロックの動作を説明すると、イントラ予測部717は、ブロック分割部102から符号化対象ブロックが入力され、フレーム内復号画像メモリ111内にある、隣接する符号化済み領域の復号画像を用いて、MPEG4-AVCで行われるイントラ予測処理が施される。イントラ予測部717は、イントラ予測モード予測部718より供給される、予測モード値を加味して要する符号量が少ないイントラ予測モードを選択し、イントラ予測画像及びイントラ予測モード信号、及び誤差評価値をモード判定部724に出力する。イントラ予測モード予測部718は、モード判定部724より取得した予測処理の選択情報及びイントラ予測モード情報を取得し、文献「ISO/IEC 14496-10 Advanced Video Coding」に記載されているイントラ予測モードの予測値を計算する。また、加算器110より出力された局部復号画像は、デブロックフィルタ719において符号化処理単位のブロック境界の歪を除去するためのフィルタ処理が施され、参照画像メモリ720に格納される。動きベクトル検出部721は、ブロック分割部102から取得した符号化対象ブロック画像と、参照画像メモリ720に格納されている参照画像との間で、動き推定を行う。一般的な動き推定処理としては、画面内の同一位置より所定の移動量だけ移動させた位置の参照画像を切り出し、その画像を予測ブロックとした際の予測誤差が最も少なくなる移動量を動きベクトル値として、移動量を変化させながら求めるブロックマッチング処理が用いられる。動きベクトル予測部723は、動きベクトル予測値を文献「ISO/IEC 14496-10 Advanced Video Coding」に記載されている方式で算出し、動きベクトル検出部721に供給する。動きベクトル検出部721は、動きベクトル予測値と動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な動きベクトル値を検出する。
 動きベクトル検出部721によって求められた動きベクトル値は、動き補償予測部722に供給される。動き補償予測部722は、複数の参照画像に対する予測信号より最も符号化する差分情報が少ない予測信号を選択し、選択された動き補償予測モードと予測信号をモード判定部724に出力する。上述した処理ブロックに関しては、従来手法のイントラ予測及び動き補償予測を適用するための構成である。
 続いて、本発明の第2実施例における特徴を示す動作を行う処理ブロックである、変移ベクトル検出部703、変移予測信号生成部704及び、モード判定部724の動作を説明する。
 変移ベクトル検出部703は、変移ベクトル/モード予測部112より供給される、対象ブロックに対する変移ベクトル及び反転モードの予測値を入力すると共に、イントラ予測モード予測部から供給される、対象ブロックに対するイントラ予測モードの予測値が入力され、変移ベクトル検出処理を行う。
 変移ベクトル検出部703は、検出した変移ベクトル値と反転モード値と誤差評価値及び、DC補正を施した事を示す情報(以降DC補正ビットと記す)を変移予測信号生成部704に出力する。変移予測信号生成部704は、変移ベクトル検出部703より入力した変移ベクトル値と反転モード値及び、DC補正ビットを元に、フレーム内復号画像メモリ111より予測画像を生成し、変移ベクトル値と反転モード値と誤差評価値及び、DC補正ビットと共に、モード判定部724に出力される。変移ベクトル検出部703及び変移予測信号生成部704の詳細動作に関しては後述する。
 モード判定部724は、イントラ予測部717より入力されたイントラ予測画像、イントラ予測モード及び誤差評価値と、動き補償予測部722より入力された動き補償予測画像、動き補償予測モード、動きベクトル値及び誤差評価値と、変移予測信号生成部704より入力された、変移予測画像、変移ベクトル値、反転モード値、DC補正ビット及び誤差評価値より、最適な予測モードを選択する。動き補償予測の参照画像を有さないフレーム内のみでの符号化フレームに対しては、イントラ予測と変移予測より最適な予測モードが選択される。
 モード判定部724は、選択された予測モードに対する予測画像ブロックを減算器105及び加算器110に出力すると共に、エントロピー符号化部113に対して、付加情報としての予測モード情報と、予測モードに応じた符号化を要する情報を供給する。
 また、予測モードに応じた符号化を要する情報は、動きベクトル予測部723、イントラ予測モード予測部718及び変移ベクトル/モード予測部112にも供給され、続く符号化対象ブロックにおける、各種付加情報の予測信号が生成される。
 続いて、本発明の第2実施例である画像符号化装置により生成された符号化ビットストリームを復号する、画像復号化装置の形態について説明する。
 図8は、本発明の第2実施例である画像復号化装置の形態を示す構成図である。図8に示すように、本実施の形態の画像復号化装置は、第1実施例と同様の機能を有する、入力端子200、ストリームバッファ201、エントロピー復号部202、変移ベクトル/モード復号部203、逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208及び出力端子209と、第1実施例に対して追加の処理を有する、変移予測信号生成部804及び、追加された処理ブロックである、予測モード復号部810、予測信号選択部811、イントラ予測モード復号部812、イントラ予測部813、動きベクトル復号部814、デブロックフィルタ815、参照画像メモリ816及び動き補償予測部817から構成される。
 追加された処理ブロックの内、イントラ予測モード復号部812、イントラ予測部813、動きベクトル復号部814、デブロックフィルタ815、参照画像メモリ816及び動き補償予測部817に関しては、図7での第2実施例における画像符号化装置の説明と同様に、MPEG4-AVC標準におけるイントラ予測及び動き補償予測を復号するための構成であり、本発明の特徴を有する処理ブロックではないため、説明を割愛する。
 続いて、本発明の第2実施例における特徴を示す動作を行う処理ブロックである、予測モード復号部810、予測信号選択部811、及び変移予測信号生成部804の動作を説明する。
 エントロピー復号部202より可変復号された予測モード情報は、予測モード復号部810に格納され、復号対象ブロックにおける予測信号生成方法を示す情報として取得する。予測モード情報は、予測モード復号部810より予測信号選択部811に入力されると共に、予測信号生成方法に応じて、動き補償予測部817、イントラ予測部813、及び変移予測信号生成部804の何れかから、予測画像ブロックが予測信号選択部811に入力される。
 予測信号選択部811は、入力された予測画像ブロックを加算器207に出力し、予測画像ブロックは逆直交変換部206より加算器207に出力された復号差分信号と加算され、復号画像信号が生成される。
 図8の復号化装置における変移予測信号生成部804の構成は、図7の符号化装置における変移予測信号生成部704の構成と同一であるため、合わせて詳細動作の説明を行う。
 先ず、変移ベクトル検出部703の詳細動作を図9の構成図及び図10の検出フローチャートを用いて説明する。
 図9に示す変移ベクトル検出部703の構成図は、第1実施例における変移ベクトル検出部103に対して、同じ機能を有する処理ブロックである、シーケンス部400、対象画像バッファ401、モード予測値・変移ベクトル予測値バッファ402、メモリアクセス部403、変移参照画像バッファ404、最適変移ベクトル更新部409、モード差分・変移ベクトル差分算出器410、最適ベクトル/評価値格納部411と、処理ブロック内において追加の機能を有する、反転無しモード誤差算出器905、左右反転モード誤差算出器906、上下反転モード誤差算出器907、上下左右反転モード誤差算出器908、及び追加の処理ブロックとなる、変移参照DC算出部913、イントラ予測DC算出部914より構成される。
 第2実施例においては、第1実施例における変移予測処理に対して、従来技術の予測手法であるイントラ予測及び動き補償予測を、予測誤差評価値を基準に選択する事でより効率の良い符号化処理を実現する点に加えて、変移予測処理に対してブロックの平均値に相当するDC成分を補正して、符号化対象ブロック内での変動分であるテクスチャ成分を直接するモードを具備することにより、更なる予測効率の向上を実現する。
 具体的には、付加情報を用いずにDC成分に相当する成分を補正するために、イントラ予測の予測モードにより構成される予測ブロックのDC成分を計算し、変移ベクトルだけ離れた位置から取得する参照ブロックのDC成分との誤差分を補正する機能を有する。
 イントラ予測モード予測部718より入力された、イントラ予測の予測モードはイントラ予測DC算出部914に格納される。イントラ予測DC算出部914は、上記予測モードに従ってフレーム内復号画像メモリ111より対象ブロックに隣接する復号画像信号より、イントラ予測ブロックのDC成分を算出する。
 また、変移参照DC算出部913は、変移参照画像バッファ404より参照画像ブロックが供給され、参照画像ブロックのDC成分を算出する。
 算出されたDC成分は、イントラ予測DC算出部914及び変移参照DC算出部913から、反転無しモード誤差算出器905、左右反転モード誤差算出器906、上下反転モード誤差算出器907、上下左右反転モード誤差算出器908に供給され、DC補正モードの誤差評価値生成に用いられる。
 反転無しモード誤差算出器905、左右反転モード誤差算出器906、上下反転モード誤差算出器907、及び上下左右反転モード誤差算出器908は、第1実施例における反転無しモード誤差算出器405、左右反転モード誤差算出器406、上下反転モード誤差算出器407、及び上下左右反転モード誤差算出器408に対して、DC補正モードを用いた場合の予測誤差値を算出する機能が追加されており、DC補正モードを用いない場合の誤差評価値とDC補正モードを用いた場合の誤差評価値が、最適変移ベクトル更新部409に供給される。
 次に、上記検出処理の演算処理としての手順を図10のフローチャートを用いて、シーケンス部400において管理される処理手順として説明する。
 対象となる符号化ブロックに対して、最初に最小誤差値MinErrを最大値(例えば、格納領域が32ビットの場合には0xffffffff)に設定する(S1000)。続いて、対象となる符号化ブロックを入力する(S1001)。続いて、イントラ予測モードの予測値を基準に、対象ブロックを予測した場合のDC成分DCIpredを算出する(S1002)。次に、符号化ブロックの画面内位置に応じて変移ベクトルの検出範囲を設定する(S1003)。設定した制限された検出範囲を元に、変移ベクトルの初期値DVSearchを設定する(S1004)。設定されたDVSearchに対して、符号化ブロックからDVSearch移動した位置の復号画像メモリより参照画像ブロックを入力する(S1005)。
 続いて、入力された参照画像ブロックのDC成分DCRefを算出する(S1006)。
 次に、参照画像ブロックと符号化対象ブロックを用いて、変移ベクトルDVSearchに対する、DC補正を施さない場合の符号化ブロックと、参照画像ブロックの画素毎の誤差値を積算して、反転無しモードに対する誤差値ErrNorm(DVSearch)、左右反転モードに対する誤差値ErrLRinv(DVSearch)、上下反転モードに対する誤差値ErrULinv(DVSearch)及び上下左右反転モードに対する誤差値ErrULLRinv(DVSearch)を算出する(S1007)。
 続いて、反転モードの予測値ModePredと変移ベクトルの予測値DVPredと、各モード値及びDVSearchとの差分値DiffMode、DiffDVを計算し、符号化時の想定符号量InfoBitsを計算する。それぞれの反転モードに対して計算されたInfoBitsをErrNorm(DVSearch)、ErrLRinv(DVSearch)、ErrULinv(DVSearch)、ErrULLRinv(DVSearch)に加算する(S1008)。
 次に、DC補正を施した場合の誤差値を算出するために、変移ベクトルDVsearchに対する符号化ブロックの各画素からDCIpredを減算した信号と、参照画像ブロックの各画素からDCRefを減算した信号の間での画素毎の誤差値を積算し、反転無しモードの誤差値ErrNormCor(DVsearch)、左右反転モードの誤差値ErrLRinvCor(DVsearch)、上下反転モードの誤差値ErrULCor(DVsearch)、上下左右反転モードの誤差値ErrULLRCor(DVsearch)を算出する(S1009)。
 これらの誤差値に対しては、反転モードの予測値ModePred、変移ベクトルの予測値DVPredと、各モード値及びDVsearchとの差分値に加えてDC補正を行った事を示す情報に要する符号量を加味して、符号化時の想定符号量InfoBitsを計算して、ErrNormCor(DVsearch)、ErrLRinvCor(DVsearch)、ErrULinvCor(DVsearch)、ErrULLRinvCor(DVsearch)に加算する(S1010)。
 続いて、生成されたErrNorm(DVSearch)、ErrLRinv(DVSearch)、ErrULinv(DVSearch)、ErrULLRinv(DVSearch)、ErrNormCor(DVsearch)、ErrLRinvCor(DVsearch)、ErrULinvCor(DVsearch)、ErrULLRinvCor(DVsearch)の最小値と格納されているMinErrを比較する(S1011)。最小値がMinErrよりも小さい場合(S1012:YES)、MinErrに最小値を設定し、最小値を持つ反転モード値をModeResult、その際の変移ベクトル値DVSearchをDVResultに、またDC補正の有無を示す信号をCorBitに設定して格納する(S1013)。最小値がMinErrよりも小さくない場合(S1012:NO)は、そのままS1014に進む。
 上記誤差値算出を行った変移ベクトル値が検出範囲最後のベクトルである場合には(S1014:YES)、誤差評価値MinErr、ModeResult、DVResult及びこれらのModePred、DVPredとの差分値である、DiffMode、DiffDV及びCorBitを出力し(S1015)、終了する。最後のベクトルでない場合には(S1014:NO)、変移ベクトル値DVSearchを次の検出位置に更新し(S1016)、S1005に移動する。
 続いて、上記予測アルゴリズムにおいて生成された変移予測画像ブロックを復号する処理に対する説明を、図11のフローチャートを用いて行う。
 図11のフローチャートは、図8における変移ベクトル/モード復号部203及び変移予測信号生成部804の動作を処理手順にしたものであり、ここで動作する変移予測信号生成処理機能を、図7における変移予測信号生成部704も有している。
 最初に、反転モード予測差分値DiffModeと変移ベクトルの予測差分値DiffDV及び、DC補正を施したか否かを示す情報CorBitをストリームより復号する(S1100)。続いて、反転モードの予測値ModePredと変移ベクトルの予測値DVPredを算出する(S1101)。算出した結果を用いて、予測差分値と予測値を加算することで、反転モードModeResult及び変移ベクトルDVResultを復号する(S1102)。
 次に、復号対象ブロックから変移ベクトルDVResult移動した位置の復号画像メモリより、参照画像を入力する(S1103)。参照画像に対して、反転モードModeResultに応じて、参照画像のスキャン順を変換して予測画像ブロックを構成する(S1104)。
 続いて、DC補正を施したか否かを示す情報CorBitが1である場合(S1105:YES)、イントラ予測モードの予測値を、図8におけるフレーム内復号画像メモリ208を経由して取得し、復号対象ブロックをイントラ予測した場合のDC成分であるDCIpredを算出する(S1106)。続けて、参照画像ブロックのDC成分であるDCRefを算出する(S1107)。予測画像より(DCIpred-DCRef)を減算し、DC補正を施した予測画像を生成する(S1108)。
 一方、CorBitが1でない場合(S1105:NO)には、DC補正を施さずS1109に進む。
 最後に、予測画像ブロックを出力し、後続ブロックに対する予測値を算出するために、ModeResult及びDVResultを格納して、終了する(S1109)。
 第2実施例においては、第1実施例における参照画像に対する上下・左右の反転変換を用いた変移予測処理に対する効果に加えて、変移予測処理に対してブロックの平均値に相当するDC成分を補正して、符号化対象ブロック内での変動分であるテクスチャ成分を直接するモードを具備することにより、更なる予測効率の向上を実現しており、画面内において同一テクスチャを有する成分が、光の当り具合や影などの影響で輝度値がずれている場合の、変移予測精度を向上する事を可能としている。
 第2実施例においては、イントラ予測モードの予測モード情報を元に、符号化対象ブロックのDC成分を推定し補正を行っているが、固定のアルゴリズムで隣接する復号画像よりDC成分を推定する事も可能であり、その場合には第1実施例の構成に対して、追加することも可能である。
 また、符号化対象ブロックのDC成分を別伝送する事により正確なDC成分を補正することも、上記構成の意図する範囲内での構成となり、DC成分を伝送しても伝送符号量を削減できる予測効率の向上を示す、符号化対象ブロックに対しては有効な機能となる。
 続いて、本発明の第3実施例である画像符号化装置、画像復号化装置の形態について説明する。第3実施例は第2実施例の構成に対して、特許文献2において提示されている、符号化対象ブロックの隣接画像をテンプレートにして変移ベクトルを算出する機能を追加すると共に、その変移ベクトル算出機能に対して、本発明のポイントである、参照画像を上下・左右等に反転させたブロックを予測対象信号として具備した実施例である。
 図12に第3の実施例における画像符号化装置の構成図、図13に第3の実施例における画像復号化装置の構成図を示し、動作の説明を行う。
 図12に示すように、本実施例の形態の画像符号化装置は、第2実施例と同様の機能を有する処理ブロックに加えて、周辺復号参照変移ベクトル推定部1225及び周辺復号参照変移予測信号生成部1226が追加された構成となっており、図13に示すように、本実施例の形態の画像復号化装置は、第2実施例と同様の機能を有する処理ブロックに加えて、周辺復号参照変移ベクトル推定部1318及び周辺復号参照変移予測信号生成部1319が追加された構成となっている。
 これら追加された処理ブロックは、符号化対象ブロックの隣接画像をテンプレートにして変移ベクトルを算出する機能であるため、符号化装置内の処理ブロックと復号装置内の処理ブロックは同一機能を有するため、合わせて詳細動作を説明する。
 先ず、図14を用いて本発明の周辺復号参照変移ベクトル推定の手法を説明する。第3実施例における本発明のポイントは、従来手法に比べてより画像信号が有する自己相似性やテクスチャの相似性を十分に活用するために、参照画像を上下・左右等に反転させたブロックを予測対象信号として追加し、反転モードと変移ベクトルを合わせて、符号化対象ブロックの周辺復号画像よりテンプレートマッチングの手法で推定することで、より符号化ブロックとの相関性の高い予測ブロックを付加情報の追加を必要とせずに生成している点である。
 図14の上部における、反転無しテンプレートが従来の周辺復号参照変移ベクトル推定を用いた予測において使用される参照画像(符号化済み復号画像)である。
 符号化対象ブロックに対して上部左部に斜線で示しているエリアの画像情報を対象に、符号化済み復号画像を変移ベクトル分移動した位置に存在する、予測信号として用いる参照ブロックの上部左部に斜線で示しているエリアの画像情報(以降、参照テンプレートと記す)との誤差を評価し、最小の誤差値を有する変移ベクトル値を推定変移ベクトルEDVとして算出し、EDVで示された変移ベクトル分、符号化対象ブロックに対して移動した位置の参照画像を予測画像とする。
 本発明のポイントである反転したテンプレートを用いた予測処理を、周辺復号参照変移ベクトル推定において機能させるために、反転モードに応じて同一変移ベクトルに対する参照テンプレートの位置を変化させる。
 具体的には、図14の中央に示しているように、参照ブロックを上下・左右・上下左右に反転した際に、符号化対象ブロックの上部左部に位置する部分の画像信号は、参照ブロックに対して上下反転モードの場合には下部左部、左右反転モードの場合には上部右部、上下左右反転モード予測ブロックの場合には下部右部の復号画像が用いられる。
 図12及び図13における、周辺復号参照変移ベクトル推定部1225、1318では、ある変移ベクトル値に対する誤差評価を行う場合に、図14の下部に示すように、変移ベクトル基準に取得できる参照画像ブロックの周辺画像を全て取得する事により、4つの反転モードに対する周辺復号を参照した変移ベクトル推定及び反転モード推定が可能となる。
 続いて、周辺復号参照変移ベクトル推定部1225の構成図を図15に示し、動作の説明を行う。
 周辺復号参照変移ベクトル推定部1225は、図15に示されるように、シーケンス部1500、メモリアクセス部1501、周辺復号画像バッファ1502、変移参照画像バッファ1503、反転無しモード誤差算出器1504、左右反転モード誤差算出器1505、上下反転モード誤差算出器1506、上下左右反転モード誤差算出器1507、最適推定変移ベクトル更新部1508、最適推定ベクトル/評価値格納部1509より構成される。
 メモリアクセス部1501は、符号化対象ブロックの位置に隣接した周辺画像情報をフレーム内復号画像メモリ111より取得し、周辺復号画像バッファ1502に供給する。また、メモリアクセス部1501は、フレーム内復号画像メモリ111からシーケンス部1500が管理する、変移ベクトル値に合わせて参照ブロックを取得し、変移参照画像バッファ1503に格納する。
 周辺復号画像バッファ1502からは、反転無しモード誤差算出器1504、左右反転モード誤差算出器1505、上下反転モード誤差算出器1506及び上下左右反転モード誤差算出器1507に、同じ周辺復号画像信号が供給される。
 一方、変移参照画像バッファ1503からは、図14において示したように反転無しモード誤差算出器1504に対しては、参照画像ブロックの上部左部、左右反転モード誤差算出器1505に対しては、参照画像ブロックの上部右部、上下反転モード誤差算出器1506に対しては、参照画像ブロックの下部左部、上下左右反転モード誤差算出器1507に対しては、参照画像ブロックの下部右部の参照画像信号が周辺参照画像として供給される。
 反転無しモード誤差算出器1504、左右反転モード誤差算出器1505、上下反転モード誤差算出器1506及び上下左右反転モード誤差算出器1507は、入力された周辺復号画像及び周辺参照画像の各画素において二乗差分を計算し、その総和を格納する機能を有する。
 これらにより、図14に示した反転無しモード予測ブロック、上下反転モード予測ブロック、左右反転モード予測ブロック、上下左右反転モード予測ブロックの、予測誤差評価値が生成される。
 反転無しモード誤差算出器1504、左右反転モード誤差算出器1505、上下反転モード誤差算出器1506及び上下左右反転モード誤差算出器1507は、それぞれ算出した二乗誤差値のブロック総和を、最適推定変移ベクトル更新部1508に出力する。
 最適推定変移ベクトル更新部1508は、シーケンス部1500で管理される変移ベクトル値における各反転モードの誤差評価値(二乗誤差総和)と、同一符号化対象ブロックに対する最小の誤差評価値を比較し、最も小さい評価値を有する反転モード及び変移ベクトルを、最適推定反転モード及び最適推定変移ベクトルとして更新し評価値と共に、最適推定ベクトル/評価値格納部1509に出力する。
 最適推定ベクトル/評価値格納部1509は、シーケンス部1500が管理する探索範囲の変移ベクトル値に対する誤差評価終了後に、格納された推定反転モード及び推定変移ベクトルを、周辺復号参照変移予測信号生成部1226及び、変移ベクトル検出部703に出力する。
 上記検出処理の演算処理としての手順を、図16にフローチャートとして示し、シーケンス部1500において管理される処理手順を説明する。
 対象となる符号化ブロックに対して、最初に最小誤差値MinErrを最大値に設定する(S1600)。続いて、対象となる符号化ブロックに対して上側左側にX画素の隣接した位置の復号画像信号を入力する(S1601)。次に、符号化ブロックの画面内位置に応じて変移ベクトルの検出範囲を設定する(S1602)。制限された検出範囲を元に、変移ベクトルの初期値DVSearchを設定する(S1603)。続いて、設定されたDVSearchに対して、符号化ブロックからDVsearch移動した位置を基準に上下左右X画素のエリアにある画像を復号画像メモリより入力する(S1604)。
 変移ベクトルDVsearchに対する符号化ブロック隣接画像と参照画像ブロック隣接画像の画素毎の誤差値を積算し、反転無しモードの誤差値ErrNorm(DVsearch)、左右反転モードの誤差値ErrLRinv(DVsearch)、上下反転モードの誤差値ErrULinv(DVsearch)、上下左右反転モードの誤差値ErrULLRinv(DVsearch)を算出する(S1605)。
 続いて、生成されたErrNorm(DVsearch)、ErrLRinv(DVsearch)、ErrULinv(DVsearch)、ErrULLRinv(DVsearch)の最小値と、格納されているMinErrを比較する(S1606)。最小値がMinErrよりも小さい場合(S1607:YES)、MinErrに最小値を設定し、最小値を持つ推定反転モード値をModeResult、その際の推定変移ベクトル値DVSearchをDVResultに格納する(S1608)。最小値がMinErrよりも小さくない場合(S1607:NO)は、そのままS1609に進む。
 上記誤差値算出を行った変移ベクトル値が検出範囲最後のベクトルである場合には(S1609:YES)、ModeResult、DVResultを出力し(S1610)、終了する。最後のベクトルでない場合には(S1609:NO)、変移ベクトル値DVSearchを次の検出位置に更新し(S1611)、S1604に移動する。
 上記処理手順に従って、図12における周辺復号参照変移ベクトル推定部1225及び図13における周辺復号参照変移ベクトル推定部1318は、推定された変移ベクトル値DVResultと、推定反転モード値ModeResultを生成する。
 これらの値は、変移ベクトル検出部703における予測変移ベクトル値及び予測反転モード値としても用いる事が可能であり、隣接画像からの推定が有効に機能している場合には変移ベクトル検出を用いた変移予測に必要となる付加情報を削減する事が可能である。
 図12における、周辺復号参照変移予測信号生成部1226及び図13における、周辺復号参照変移予測信号生成部1319は、周辺復号参照変移ベクトル推定部1225及び1318から入力された変移ベクトル値DVResultと、推定反転モード値ModeResultを元に、フレーム内復号画像メモリ111及び208より変移ベクトル値だけ符号化対象ブロックより移動した位置の、符号化済み復号画像を参照画像として取得する。取得した参照画像は、反転モードに応じて水平・垂直の並び順を入れ替えて、予測画像ブロックを構成する。構成された予測画像ブロックは、図12におけるモード判定部724、図13における予測信号選択部811に供給され、予測モードとして選択された場合には、予測画像ブロックとして使用される。
 本発明の第3実施例においては、符号化対象ブロックに隣接する符号化済みの復号画像を用いて、変移ベクトルで参照される画像の隣接部分の誤差評価を行う、周辺復号参照変移ベクトル推定に対して、復号画像を上下・左右に反転させた場合の隣接部分の誤差評価を行う事で、変移ベクトルと反転モードを推定する。これら推定された情報を用いて予測信号を生成する事で、従来の周辺復号参照変移ベクトル推定に対して予測精度の向上を、付加情報を必要としないで実現出来る。
 続いて、本発明の第4実施例である画像符号化装置、画像復号化装置の形態について説明する。第4実施例は第2実施例の構成に対して、符号化対象ブロックの隣接画像をテンプレートにした評価を行う事で、符号を伝送せずに反転モードを算出する構成を取る実施例である。
 図17に第4の実施例における画像符号化装置の構成図、図18に第4の実施例における画像復号化装置の構成図を示し、動作の説明を行う。
 図17に示すように、本実施例の形態の画像符号化装置は、第2実施例と同様の機能を有する処理ブロックに加えて、テンプレート反転モード推定部1727が追加された構成となっており、図18に示すように、本実施例の形態の画像復号化装置は、第2実施例と同様の機能を有する処理ブロックに加えて、テンプレート反転モード推定部1820が追加された構成となっている。
 テンプレート反転モード推定部1820においては、設定された変移ベクトルに対して、最適な反転モードを符号化対象ブロックの隣接画像をテンプレートにして算出する構成をとる。符号化装置内の処理ブロックと復号装置内の処理ブロックは同一機能を有するため、合わせて詳細動作を説明する。
 符号化装置の場合には、テンプレート反転モード推定部1727に、変移ベクトル検出部703より対象となる変移ベクトルが入力され、復号化装置の場合には、テンプレート反転モード推定部1820には、変移予測信号生成部804より復号された変移ベクトルが入力される。
 テンプレート反転モード推定部1727、1820は、変移ベクトルとフレーム内復号画像メモリ111、208より入力する復号画像を用いて、反転モードを選択する機能を有する。反転モード推定処理の流れを、図19のフローチャートを用いて説明する。
 最初に対象となる符号化ブロックに対して上側左側にX画素の隣接した位置の復号画像信号を入力する(S1900)。次に、反転モードを求める対象となる変移ベクトル値DVを設定する(S1901)。続いて、設定されたDVに対して、符号化ブロックからDV移動した位置を基準に上下左右X画素のエリアにある画像を復号画像メモリより入力する(S1902)。
 変移ベクトルDVに対する符号化ブロック隣接画像と参照画像ブロック隣接画像の画素毎の誤差値を積算し、反転無しモードの誤差値ErrNorm、左右反転モードの誤差値ErrLRinv、上下反転モードの誤差値ErrULinv、上下左右反転モードの誤差値ErrULLRinvを算出する(S1903)。
 続いて、生成されたErrNorm、ErrLRinv、ErrULinv、ErrULLRinvの中の最小値を算出する(S1904)。最小値がErrNormの場合には推定反転モード値をModeResultに0を、最小値がErrLRinvの場合には推定反転モード値をModeResultに1を、最小値がErrULinvの場合には推定反転モード値をModeResultに2を、最小値がErrULLRinvの場合には推定反転モード値をModeResultに3を設定する(S1905)。
 このようにして算出されたModeResultを出力し、符号化対象ブロックに対する反転モード値を算出する(S1906)。
 算出されたModeResultをそのまま反転モード値として、予測信号を生成する事で、付加情報無しに反転モードを確定する事が出来、復号化装置において同様の処理を行う事で、反転モード値が復元できる。
 算出されたModeResultは、符号化装置において変移ベクトル検出部703における予測反転モード値としても用いる事が可能であり、隣接画像からの推定が有効に機能している場合には変移ベクトル検出を用いた変移予測における反転モード情報を削減する事が可能である。
 本発明の第4実施例においては、符号化対象ブロックに隣接する符号化済みの復号画像を用いて、変移ベクトルで参照される復号画像の隣接部分の位置を、変移ベクトルで参照される復号画像を中心に上下・左右に反転させた位置の隣接部分の誤差評価を行う事で反転モードを推定し、推定結果である反転モードを用いて予測信号を生成する事で、付加情報を増加させることなく、テクスチャ成分の相関性を用いたフレーム内変移予測の予測効率を向上させ、符号化効率を向上させることが可能となる。
 尚、第1、第2、第3、第4の実施例として提示した、画像符号化装置、及び画像復号化装置は、物理的にはCPU(中央処理装置)、メモリなどの記録装置、ディスプレイ等の表示装置、及び伝送路への通信手段を具備したコンピュータで実現することが可能であり、提示した各々の機能を具備する手段を、コンピュータ上のプログラムとして実現し、実行することが可能である。
 100 入力端子
 101 入力画像バッファ
 102 ブロック分割部
 103 変移ベクトル検出部
 104 変移予測信号生成部
 105 減算器
 106 直交変換部
 107 量子化部
 108 逆量子化部
 109 逆直交変換部
 110 加算器
 111 フレーム内復号画像メモリ
 112 変移ベクトル/モード予測部
 113 エントロピー符号化部
 114 ストリームバッファ
 115 出力端子
 116 符号量制御部
 200 入力端子
 201 ストリームバッファ
 202 エントロピー復号部
 203 変移ベクトル/モード復号部
 204 変移予測信号生成部
 205 逆量子化部
 206 逆直交変換部
 207 加算器
 208 フレーム内復号画像メモリ
 209 出力端子
 400 シーケンス部
 401 対象画像バッファ
 402 モード予測値・変移ベクトル予測値バッファ
 403 メモリアクセス部
 404 変移参照画像バッファ
 405 反転無しモード誤差算出器
 406 左右反転モード誤差算出器
 407 上下反転モード誤差算出器
 408 上下左右反転モード誤差算出器
 409 最適変移ベクトル更新部
 410 モード差分・変移ベクトル差分算出器
 411 最適ベクトル/評価値格納部
 703 変移ベクトル検出部
 704 変移予測信号生成部
 717 イントラ予測部
 718 イントラ予測モード予測部
 719 デブロックフィルタ
 720 参照画像メモリ
 721 動きベクトル検出部
 722 動き補償予測部
 723 動きベクトル予測部
 724 モード判定部
 804 変移予測信号生成部
 810 予測モード復号部
 811 予測信号選択部
 812 イントラ予測モード復号部
 813 イントラ予測部
 814 動きベクトル復号部
 815 デブロックフィルタ
 816 参照画像メモリ
 817 動き補償予測部
 905 反転無しモード誤差算出器
 906 左右反転モード誤差算出器
 907 上下反転モード誤差算出器
 908 上下左右反転モード誤差算出器
 913 変移参照DC算出部
 914 イントラ予測DC算出部
1225 周辺復号参照変移ベクトル推定部
1226 周辺復号参照変移予測信号生成部
1318 周辺復号参照変移ベクトル推定部
1319 周辺復号参照変移予測信号生成部
1500 シーケンス部
1501 メモリアクセス部
1502 周辺復号画像バッファ
1503 変移参照画像バッファ
1504 反転無しモード誤差算出器
1505 左右反転モード誤差算出器
1506 上下反転モード誤差算出器
1507 上下左右反転モード誤差算出器
1508 最適推定変移ベクトル更新部
1509 最適推定ベクトル/評価値格納部
1727 テンプレート反転モード推定部
1820 テンプレート反転モード推定部
 本発明は、画像信号の符号化及び復号化技術に利用することができる。

Claims (16)

  1.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う、画像符号化装置であって、
     符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出部と、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成部とを有し、
     前記変移ベクトル検出部は、変移ベクトルにおいて指定される予測信号を水平及び垂直の少なくとも一方の並びを反転させた信号を算出し、反転された予測信号を含めた予測信号の中より最適な予測信号と、予測信号を構成する為に必要な変移ベクトルと反転方向を示す情報を検出すると共に、
     前記変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、
     前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトル及び前記反転方向を示す情報を符号化する事を特徴とする、画像符号化装置。
  2.  前記変移ベクトル及び前記反転方向を示す情報に対して、前記符号化対象ブロックと隣接するブロックにおいて検出された変移ベクトル及び反転方向を示す情報を用いて、前記符号化対象ブロックに対する前記変移ベクトル及び前記反転方向を示す情報に対する予測情報を算出し、前記変移ベクトル及び前記反転方向を示す情報と予測情報との差異を符号化する事を特徴とする、請求項1に記載の画像符号化装置。
  3.  前記変移ベクトル検出部は、符号化対象ブロックの画像信号の直流成分を、周辺復号画像より予測するDC算出部と、前記変移ベクトルで示される予測信号の直流成分を算出する変異参照DC算出部とを含み、
     前記周辺復号画像より予測された直流成分と、前記予測信号の直流成分の差分を補正し、補正した予測信号を前記符号化対象ブロックの予測信号の選択候補として評価すると共に、直流成分の補正を行うか否かを示す情報と共に符号化する事を特徴とする、請求項1に記載の画像符号化装置。
  4.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う、画像符号化装置であって、
     符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと前記局部復号画像より生成される予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定部と、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成部とを有し、
     前記周辺復号参照変移ベクトル推定部は、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、
     符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、
     前記周辺復号参照変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、
     前記予測信号と前記符号化対象ブロックとの差分信号を符号化する事を特徴とする、画像符号化装置。
  5.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う、画像符号化装置であって、
     符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出部と、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成部と、予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定部とを有し、
     前記テンプレート反転モード推定部は、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成し、
     前記変移ベクトル検出部は、前記反転方向を示す情報に応じて、変移ベクトルにおいて指定される予測信号を反転させた信号を算出し、変移ベクトル毎に予測信号と符号化対象ブロックとの誤差評価を行う事で変移ベクトルを検出すると共に、
     前記変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、
     前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトルを符号化する事を特徴とする、画像符号化装置。
  6.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する、画像復号化装置であって、
     前記符号化ストリームより、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトル及び、前記変移ベクトルにおいて指定される前記復号画像を水平及び垂直の少なくとも一方に反転させる、反転方向を示す情報を復号する、変移ベクトル/モード復号部と、
     前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成部とを有し、
     前記予測信号と、復号された残差信号を加算することで復号画像を算出することを特徴とする、画像復号化装置。
  7.  前記変移ベクトル及び前記反転方向を示す情報に対して、前記復号対象ブロックと隣接するブロックにおいて検出された変移ベクトル及び反転方向を示す情報を用いて、前記復号対象ブロックに対する前記変移ベクトル及び前記反転方向を示す情報に対する予測情報を算出し、前記変移ベクトル及び前記反転方向を示す情報と予測情報との差異を復号して加える事で、前記変移ベクトル及び前記反転方向を示す情報を復号する事を特徴とする、請求項6に記載の画像復号化装置。
  8.  前記変移予測信号生成部は、復号対象ブロックの画像信号の直流成分を、周辺復号画像より予測するDC算出部と、前記変移ベクトルで示される予測信号の直流成分を算出する変移参照DC算出部とを含み、
     直流成分の補正を行うか否かを示す情報を復号し、復号した情報を元に、補正が行われた条件の場合に、前記周辺復号画像より予測された直流成分と、前記予測信号の直流成分の差分を補正し、補正した予測信号を用いて、復号された残差信号と加算することで復号画像を算出することを特徴とする、請求項6に記載の画像復号化装置。
  9.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する、画像復号化装置であって、
     復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像を用いて、復号対象ブロックと前記復号画像より生成した予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定部と、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成部とを有し、
     前記周辺復号参照変移ベクトル推定部は、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、
     復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、
     前記周辺復号参照変移予測信号生成部は、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成し、
     前記予測信号と復号された残差信号を加算することで復号画像を算出することを特徴とする、画像復号化装置。
  10.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する、画像復号化装置であって、
     復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトルを復号する、変移ベクトル/モード復号部と、
     予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定部とを有し、
     前記テンプレート反転モード推定部は、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成すると共に、
     前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成部を有し、
     前記予測信号と、復号された残差信号を加算することで復号画像を算出することを特徴とする、画像復号化装置。
  11.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う、画像符号化方法であって、
     符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出ステップと、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成ステップとを含み、
     前記変移ベクトル検出ステップでは、変移ベクトルにおいて指定される予測信号を水平及び垂直の少なくとも一方の並びを反転させた信号を算出し、反転された予測信号を含めた予測信号の中より最適な予測信号と、予測信号を構成する為に必要な変移ベクトルと反転方向を示す情報を検出すると共に、
     前記変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、
     前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトル及び前記反転方向を示す情報を符号化する事を特徴とする、画像符号化方法。
  12.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う、画像符号化方法であって、
     符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと前記局部復号画像より生成される予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定ステップと、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成ステップとを含み、
     前記周辺復号参照変移ベクトル推定ステップでは、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、
     符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、
     前記周辺復号参照変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、
     前記予測信号と前記符号化対象ブロックとの差分信号を符号化する事を特徴とする、画像符号化方法。
  13.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化を行う、画像符号化方法であって、
     符号化対象ブロックに対して、既に符号化された同一画像信号内のブロックの局部復号画像を用いて、符号化対象ブロックと相関性の高い信号を探索し、前記相関性の高い信号と前記符号化対象ブロックの画面内の変移である変移ベクトルを求める、変移ベクトル検出ステップと、前記変移ベクトルに従い予測信号を生成する、変移予測信号生成ステップと、予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定ステップとを含み、
     前記テンプレート反転モード推定ステップでは、符号化対象ブロックに隣接する局部復号画像と、前記変移ベクトルで参照される局部復号画像の隣接部分の位置を、前記変移ベクトルで参照される局部復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成し、
     前記変移ベクトル検出ステップでは、前記反転方向を示す情報に応じて、変移ベクトルにおいて指定される予測信号を反転させた信号を算出し、変移ベクトル毎に予測信号と符号化対象ブロックとの誤差評価を行う事で変移ベクトルを検出すると共に、
     前記変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記局部復号画像より予測信号を生成し、
     前記予測信号と前記符号化対象ブロックとの差分信号と、前記変移ベクトルを符号化する事を特徴とする、画像符号化方法。
  14.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する、画像復号化方法であって、
     前記符号化ストリームより、復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトル及び、前記変移ベクトルにおいて指定される前記復号画像を水平及び垂直の少なくとも一方に反転させる、反転方向を示す情報を復号する、変移ベクトル/モード復号ステップと、
     前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成ステップとを含み、
     前記予測信号と、復号された残差信号を加算することで復号画像を算出することを特徴とする、画像復号化方法。
  15.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する、画像復号化方法であって、
     復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像を用いて、復号対象ブロックと前記復号画像より生成した予測信号との画面内の変移である変移ベクトルを求める、周辺復号参照変移ベクトル推定ステップと、前記変移ベクトルに従い予測信号を生成する、周辺復号参照変移予測信号生成ステップとを含み、
     前記周辺復号参照変移ベクトル推定ステップでは、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の信号との誤差評価を行う事で、前記予測信号と前記変移ベクトルを生成すると共に、
     復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で、反転方向を示す情報を生成し、
     前記周辺復号参照変移予測信号生成ステップでは、前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成し、
     前記予測信号と復号された残差信号を加算することで復号画像を算出することを特徴とする、画像復号化方法。
  16.  画像信号を、複数の画素で構成されるブロック単位に分割を行い、分割されたブロック単位で符号化が施された符号化ストリームを受信し復号する、画像復号化方法であって、
     復号対象ブロックに対して、既に復号された同一画像信号内のブロックの復号画像より生成される予測信号と、前記復号対象ブロックとの画面内の変移である変移ベクトルを復号する、変移ベクトル/モード復号ステップと、
     予測信号を水平及び垂直の少なくとも一方の並びを反転させる為の、反転方向を示す情報を推定する、テンプレート反転モード推定ステップとを含み、
     前記テンプレート反転モード推定ステップでは、復号対象ブロックに隣接する復号画像と、前記変移ベクトルで参照される復号画像の隣接部分の位置を、前記変移ベクトルで参照される復号画像を中心に水平及び垂直の少なくとも一方の並びを反転させた位置の信号との誤差評価を行う事で反転方向を示す情報を生成すると共に、
     前記変移ベクトル及び前記反転方向を示す情報に従って、前記復号画像より予測信号を生成する、変移予測信号生成ステップを含み、
     前記予測信号と、復号された残差信号を加算することで復号画像を算出することを特徴とする、画像復号化方法。
PCT/JP2010/006853 2009-11-26 2010-11-24 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法 WO2011064990A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE201011004586 DE112010004586T5 (de) 2009-11-26 2010-11-24 Bildkodierungsgerät, bilddekodierungsgerät, bildkodierungsmethode und bilddekodierungsmethode
CN201080053749.2A CN102640496B (zh) 2009-11-26 2010-11-24 图像编码装置、图像解码装置、图像编码方法及图像解码方法
US13/481,440 US9100664B2 (en) 2009-11-26 2012-05-25 Image encoding device, image decoding device, image encoding method, and image decoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-268988 2009-11-26
JP2009268988A JP5321426B2 (ja) 2009-11-26 2009-11-26 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/481,440 Continuation US9100664B2 (en) 2009-11-26 2012-05-25 Image encoding device, image decoding device, image encoding method, and image decoding method

Publications (1)

Publication Number Publication Date
WO2011064990A1 true WO2011064990A1 (ja) 2011-06-03

Family

ID=44066099

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/006853 WO2011064990A1 (ja) 2009-11-26 2010-11-24 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法

Country Status (5)

Country Link
US (1) US9100664B2 (ja)
JP (1) JP5321426B2 (ja)
CN (1) CN102640496B (ja)
DE (1) DE112010004586T5 (ja)
WO (1) WO2011064990A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8743967B2 (en) * 2011-03-09 2014-06-03 Vixs Systems, Inc. Multi-format video decoder with vector processing instructions and methods for use therewith
US9948939B2 (en) 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
EP3058739B1 (en) 2013-10-14 2019-08-07 Microsoft Technology Licensing, LLC Features of intra block copy prediction mode for video and image coding and decoding
CN105659602B (zh) 2013-10-14 2019-10-08 微软技术许可有限责任公司 用于视频和图像编码的帧内块复制预测模式的编码器侧选项
CN105659606B (zh) 2013-10-14 2019-06-18 微软技术许可有限责任公司 用于视频和图像编码和解码的方法、系统和介质
MX360926B (es) 2014-01-03 2018-11-22 Microsoft Technology Licensing Llc Prediccion de vector de bloque en codificacion/descodificacion de video e imagen.
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
MX361228B (es) * 2014-03-04 2018-11-29 Microsoft Technology Licensing Llc Inversión de bloque y modo de omisión en predicción de intracopia de bloque.
CN105493505B (zh) 2014-06-19 2019-08-06 微软技术许可有限责任公司 统一的帧内块复制和帧间预测模式
CN105874795B (zh) 2014-09-30 2019-11-29 微软技术许可有限责任公司 在波前并行处理被启用时对图片内预测模式的规则
EP3308540B1 (en) 2015-06-09 2020-04-15 Microsoft Technology Licensing, LLC Robust encoding/decoding of escape-coded pixels in palette mode
WO2017073362A1 (ja) * 2015-10-30 2017-05-04 ソニー株式会社 画像処理装置および方法
CN108337513B (zh) * 2017-01-20 2021-07-23 浙江大学 一种帧内预测像素生成方法和装置
US10009832B1 (en) 2017-08-11 2018-06-26 At&T Intellectual Property I, L.P. Facilitating compact signaling design for reserved resource configuration in wireless communication systems
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CA3112324A1 (en) * 2018-09-19 2020-03-26 Fujitsu Limited Video coding and decoding method and apparatus which change the prediction mode according to the combination of the shape of a coding target block and the shape of a block adjacent to the coding target block
US11412260B2 (en) * 2018-10-29 2022-08-09 Google Llc Geometric transforms for image compression

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113291A (ja) * 1992-09-25 1994-04-22 Olympus Optical Co Ltd 画像符号化及び復号化装置
JPH09182082A (ja) * 1995-12-25 1997-07-11 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法とその装置
JP2005159947A (ja) * 2003-11-28 2005-06-16 Matsushita Electric Ind Co Ltd 予測画像生成方法、画像符号化方法および画像復号化方法
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020095A (ja) * 2004-07-01 2006-01-19 Sharp Corp 動きベクトル検出回路、画像符号化回路、動きベクトル検出方法および画像符号化方法
JP2006148615A (ja) * 2004-11-22 2006-06-08 Hitachi Ltd 復号化装置および符号化方法をコンピュータに実行させるためのプログラム
CN101218829A (zh) * 2005-07-05 2008-07-09 株式会社Ntt都科摩 动态图像编码装置、动态图像编码方法、动态图像编码程序、动态图像解码装置、动态图像解码方法以及动态图像解码程序
KR101211665B1 (ko) * 2005-08-12 2012-12-12 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP2007110348A (ja) * 2005-10-12 2007-04-26 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム、および動画像復号化プログラム
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
WO2008084996A1 (en) * 2007-01-11 2008-07-17 Samsung Electronics Co, . Ltd. Method and apparatus for deblocking-filtering video data
KR101365574B1 (ko) * 2007-01-29 2014-02-20 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113291A (ja) * 1992-09-25 1994-04-22 Olympus Optical Co Ltd 画像符号化及び復号化装置
JPH09182082A (ja) * 1995-12-25 1997-07-11 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法とその装置
JP2005159947A (ja) * 2003-11-28 2005-06-16 Matsushita Electric Ind Co Ltd 予測画像生成方法、画像符号化方法および画像復号化方法
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SIU-LEONG YU ET AL.: "New Intra Prediction using Intra-Macroblock Motion Compensation", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q.6), JVT-C151, 3RD MEETING, 6 May 2002 (2002-05-06), FAIRFAX, VIRGINIA, USA, pages 1 - 3, XP008158737 *

Also Published As

Publication number Publication date
CN102640496B (zh) 2015-08-19
CN102640496A (zh) 2012-08-15
US9100664B2 (en) 2015-08-04
US20120300840A1 (en) 2012-11-29
DE112010004586T5 (de) 2012-11-22
JP5321426B2 (ja) 2013-10-23
JP2011114572A (ja) 2011-06-09

Similar Documents

Publication Publication Date Title
JP5321426B2 (ja) 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
EP3632104B1 (en) Motion vector refinement for multi-reference prediction
RU2530318C2 (ru) Способ выполнения локализованного многогипотезного прогнозирования во время видеокодирования элемента кодирования и соответствующее устройство
AU2015213340B2 (en) Video decoder, video encoder, video decoding method, and video encoding method
EP2627091B1 (en) Video coding using template matching
JP5277257B2 (ja) 動画像復号化方法および動画像符号化方法
KR100619377B1 (ko) 움직임 추정 방법 및 장치
CN110741640B (zh) 用于视频代码化中的运动补偿预测的光流估计
CN101326550A (zh) 利用预测指导的抽取搜索的运动估计
KR100878536B1 (ko) 영상 보간 방법 및 장치
JP2011199362A (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP2019041165A (ja) 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム
KR102568199B1 (ko) 디코더 측 모션 벡터 정제를 위한 에러 표면 기반 서브 픽셀 정밀 정제 방법
KR100727988B1 (ko) 변환 영역에서의 dc 계수 예측 방법 및 장치
WO2017010073A1 (ja) 動画像符号化装置、動画像符号化方法および動画像符号化プログラムを記憶する記録媒体
AU2016228181A1 (en) Method for inducing a merge candidate block and device using same
JP6341756B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2011182167A (ja) 画像符号化装置
JP5194039B2 (ja) イントラ予測装置、符号化器、復号器、及びプログラム
NZ760521B2 (en) Motion vector refinement for multi-reference prediction

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080053749.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10832841

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112010004586

Country of ref document: DE

Ref document number: 1120100045860

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10832841

Country of ref document: EP

Kind code of ref document: A1