WO2012090425A1 - Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program - Google Patents

Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program Download PDF

Info

Publication number
WO2012090425A1
WO2012090425A1 PCT/JP2011/007065 JP2011007065W WO2012090425A1 WO 2012090425 A1 WO2012090425 A1 WO 2012090425A1 JP 2011007065 W JP2011007065 W JP 2011007065W WO 2012090425 A1 WO2012090425 A1 WO 2012090425A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
reference image
prediction
unit
synthesis
Prior art date
Application number
PCT/JP2011/007065
Other languages
French (fr)
Japanese (ja)
Inventor
上田 基晴
英樹 竹原
博哉 中村
和美 荒蔭
智 坂爪
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010290985A external-priority patent/JP2012138837A/en
Priority claimed from JP2010290986A external-priority patent/JP2012138838A/en
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2012090425A1 publication Critical patent/WO2012090425A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Definitions

  • the present invention relates to a video signal encoding and decoding technique.
  • High-efficiency coding of moving images includes the correlation between pixels that are spatially adjacent in the same frame of a moving image signal, and the correlation between temporally adjacent frames and fields, as represented by MPEG4-AVC. A method of compressing information using it is used.
  • a local decoded image of an already encoded frame is used as a reference image for a target image that is a target frame to be encoded, and a two-dimensional block having a predetermined size is used.
  • a motion amount (hereinafter referred to as “motion vector”) between the target image and the reference image is detected in units (hereinafter referred to as “target block”), and a predicted image based on the target block and the motion vector is detected.
  • the generated motion compensated prediction is used.
  • the size of a target block in a 16 ⁇ 16 pixel two-dimensional block (hereinafter referred to as “macroblock”), which is a unit of encoding processing, is made variable, and a motion vector for each target block is obtained.
  • motion compensated prediction it is necessary to encode and transmit the generated motion vector, and in order to prevent an increase in the amount of information due to the motion vector, a predicted motion vector predicted from the motion vector for a decoded block around the target block By encoding using values, it is possible to use motion compensated prediction called direct mode in which no motion vector is transmitted.
  • both the encoding side and the decoding side detect a motion vector between reference images, and the motion vector is A method of generating a predicted motion vector of a target block and assuming a direct mode on the assumption that it is continuous in time is also presented.
  • the first problem is the degradation of the quality of the motion compensated predicted image due to the degradation of the quality of the decoded image used as the reference image, especially the degradation mixed in the motion compensated predicted image when high-compression encoding is performed. While the component deteriorates the prediction accuracy, it is necessary to encode information for restoring the deteriorated component as a prediction difference, and the amount of information is increasing.
  • the second problem is that the motion vector prediction is not accurate enough for image signals with little temporal and spatial motion continuity, and the predicted image quality when using the direct mode is effective. It is a point not to do. This degradation occurs when adjacent blocks have different motions across the target object, and the motion vector used for prediction when the motion is large in time has moved corresponding to the motion of the original target block This degradation occurs because a block of positions is assumed. Similarly, when the motion changes with time, the prediction is not successful and deterioration occurs.
  • the third problem is an increase in the amount of code required for motion vector transmission when using prediction using two reference images or motion compensated prediction in units of fine blocks.
  • prediction deterioration is smoothed by adding the reference images, and the influence of the deterioration component can be reduced.
  • To increase Also, in motion compensation in fine block units, it is possible to obtain appropriate motion according to the boundary of the object, and the accuracy of the predicted image is improved, but it is necessary to transmit motion vectors in fine units.
  • the amount of code increases.
  • Patent Document 1 is a technique presented to solve the second problem described above.
  • a motion vector obtained between reference images is a target block.
  • the motion vector prediction accuracy is improved because the motion passes through the position, but if the motion is not spatially uniform, it is the predicted motion vector obtained without using the target block information Therefore, the motion is different from that of the target block, and the prediction is not sufficient.
  • motion vector detection processing over a wide range between reference images is required for both the encoding device and the decoding device, which causes a problem that the amount of calculation increases.
  • the present invention provides a technique for improving the efficiency of motion compensated prediction by improving the quality of a predicted image while suppressing an increase in the amount of calculation in the encoding device and decoding device without increasing the motion vector to be transmitted.
  • the purpose is to do.
  • a moving image encoding device includes a motion vector detection unit (117) that detects a motion vector from a first reference image for an encoding target block; A first reference image synthesizing unit that generates a first synthesized reference block by synthesizing a first reference block extracted from the first reference image using a motion vector and a predetermined region of at least one other reference image; 121), a reference image synthesis parameter storage unit (122) for storing information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit, and an encoding stored in the reference image synthesis parameter storage unit Based on the information necessary for generating the synthesized reference block of the completed region, the second synthesized reference block synthesized by specifying the predetermined region of the reference image used for synthesis with the second reference block is generated.
  • the encoding part which encodes the prediction difference block which subtracted from the encoding object block is provided.
  • a highly efficient prediction block using inter-reference image motion vector detection can be generated without performing additional motion vector transmission, and the second reference image synthesis motion compensation prediction can be performed.
  • the apparatus includes a motion vector detection unit (117) that detects a motion vector from a first reference image with respect to an encoding target block, and a first extracted from the first reference image using the motion vector.
  • the first reference image synthesizing unit (121) that generates a first synthesized reference block obtained by synthesizing the reference block and a predetermined region of at least one other reference image, and the synthesized reference block calculated by the first reference image synthesizing unit.
  • a reference image synthesis parameter storage unit (122) that stores information necessary for generation, and a second reference based on information necessary for generating a synthesized reference block of an encoded region stored in the reference image synthesis parameter storage unit.
  • a second reference image synthesizing unit (123) for generating a second synthesized reference block obtained by identifying and synthesizing a predetermined region of the reference image used for synthesis with the block;
  • a reference image synthesis selection unit (1224) for inputting information necessary for generating a synthesized reference block of the encoded region stored in the meter storage unit and determining a synthesis method for the second reference image synthesis unit;
  • a reference image synthesis selection unit needs a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block and the synthesized reference block for the encoded region.
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated.
  • the first prediction image and the motion compensated prediction image are output as the motion compensated prediction image, so that the reference image synthesis motion compensation can be appropriately performed only when the continuity is maintained.
  • Prediction can be made to function, and a more accurate motion compensated prediction image can be generated and encoding efficiency can be improved without giving additional information.
  • the apparatus includes a motion vector detection unit (117) that detects a motion vector from a first reference image with respect to an encoding target block, and a first extracted from the first reference image using the motion vector.
  • a first reference image synthesizing unit (121) that generates a first synthesized reference block by synthesizing a predetermined area of the reference block and at least one other reference image, and a synthesized reference block generation calculated by the first reference image synthesizing unit
  • a reference image synthesis parameter storage unit (122) for storing information necessary for the second reference block, and a second reference block based on information necessary for generating a synthesized reference block for the encoded region stored in the reference image synthesis parameter storage unit.
  • a second reference image synthesis unit (123) that generates a second synthesized reference block that is synthesized by specifying a predetermined area of the reference image and a reference image synthesis parameter storage unit.
  • a reference image synthesis selection unit (1224) that inputs the information necessary for generating the synthesized reference block of the encoded region and determines a synthesis method for the second reference image synthesis unit, and includes a second reference image synthesis Or a first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image, and the reference image synthesis selection unit A correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block, and a plurality generated using information necessary for generating the synthesized reference block for the encoded region And comparing the correlation values between the reference blocks and outputting the second synthesized reference block from the second reference image synthesizer, or from the second reference image
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. If there is no continuity, a third predicted image is generated by calculating inter-reference image motion vector information between the first predicted image and the second reference image.
  • the moving image decoding apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, and a first extracted from the first reference image using the motion vector.
  • the first reference image composition unit (215) that generates a first synthesized reference block obtained by synthesizing the reference block and the predetermined region of at least one other reference image, and the synthesized reference calculated by the first reference image synthesis unit
  • the reference image synthesis parameter storage unit (216) that stores information necessary for block generation and the information necessary for generating the synthesized reference block of the decoded area stored in the reference image synthesis parameter storage unit are used as the second reference.
  • a second reference image synthesis unit (217) that generates a second synthesized reference block obtained by identifying and synthesizing a predetermined area of the reference image used for synthesis with the block.
  • a prediction mode decoding unit (203) that decodes prediction mode selection information selected from a plurality of prediction blocks including at least a first combined reference block and a second combined reference block as a decoding target block from the encoded stream.
  • a decoding unit that generates a decoded image by adding the prediction block selected by the prediction mode selection information and the prediction difference block decoded from the decoding target block.
  • a highly efficient prediction block using inter-reference image motion vector detection can be generated without performing additional motion vector transmission, and the second reference image synthesis motion compensation prediction can be performed.
  • This apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, a first reference block extracted from a first reference image using a motion vector, and at least one other
  • a first reference image synthesis unit (215) that generates a first synthesized reference block obtained by synthesizing predetermined areas of two reference images, and information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit is stored.
  • the reference image used for combining with the second reference block based on the information necessary for generating the combined reference block of the decoded area stored in the reference image combining parameter storage unit (216) and the reference image combining parameter storage unit The second reference image synthesis unit (217) that generates a second synthesized reference block that is synthesized by specifying a predetermined area of A prediction mode decoding unit (203) for decoding prediction mode selection information selected from a plurality of prediction blocks in which the target block includes at least a first synthesized reference block and a second synthesized reference block; and reference image synthesis parameter storage
  • a reference image synthesis selection unit (1318) that inputs information necessary for generating a synthesized reference block of a decoded area stored in the unit and determines a synthesis method for the second reference image synthesis unit, and includes a reference image synthesis Generated using a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the decoding target block and information necessary for generating the synthesized reference block
  • a function for selecting at least one of a plurality of blocks including at least a first combined reference block and a second combined reference block or a second reference block as a prediction block based on prediction mode selection information.
  • a decoding unit is provided that generates a decoded image by adding a prediction block selected from the prediction blocks and a prediction difference block decoded from the decoding target block.
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated.
  • the first prediction image and the motion compensated prediction image are output as the motion compensated prediction image, so that the reference image synthesis motion compensation can be appropriately performed only when the continuity is maintained.
  • Prediction can be made to function, and a more accurate motion compensated prediction image can be generated and encoding efficiency can be improved without giving additional information.
  • the apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, a first reference block extracted from the first reference image using a motion vector, A first reference image synthesis unit (215) that generates a first synthesized reference block obtained by synthesizing a predetermined region of at least one reference image, and information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit.
  • the reference image synthesis parameter storage unit (216) to be stored and the information necessary for generating the synthesized reference block of the decoded area stored in the reference image synthesis parameter storage unit are used for synthesis with the second reference block.
  • a second reference image synthesis unit (217) that generates a second synthesized reference block that is synthesized by specifying a predetermined region of the reference image, and an encoded stream.
  • a prediction mode decoding unit (203) that decodes prediction mode selection information in which a decoding target block is selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block; and reference image synthesis
  • a reference image synthesis selection unit (1318) for inputting information necessary for generating a synthesized reference block of the decoded area stored in the parameter storage unit and determining a synthesis method for the second reference image synthesis unit;
  • a second reference image synthesis unit or the first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image; Correlation values between a plurality of reference blocks generated by the image synthesis selection unit using information necessary for generating a synthesis reference block for the decoding target
  • An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. If there is no continuity, a third predicted image is generated by calculating inter-reference image motion vector information between the first predicted image and the second reference image.
  • the present invention it is possible to improve the quality of motion-compensated prediction by improving the quality of a predicted image while suppressing an increase in the amount of calculation in the encoding device / decoding device.
  • FIG. 1 is a configuration diagram showing the configuration of the moving picture encoding apparatus according to the first embodiment.
  • the moving picture coding apparatus includes an input terminal 100, an input picture buffer 101, a block division unit 102, a subtractor 103, an orthogonal transformation unit 104, a quantization unit 105, and an inverse quantization.
  • Unit 106 inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, decoded reference image memory 110, entropy encoding unit 111, stream buffer 112, output terminal 113, code amount control unit 114, prediction mode determination unit 115, intra-frame prediction unit 116, motion vector detection unit 117, motion compensation prediction unit 118, motion vector prediction unit 119, inter-reference image motion vector detection unit 120, first reference image synthesis motion compensation prediction unit 121, reference image synthesis parameter
  • the storage unit 122 and the second reference image synthesis motion compensation prediction unit 123 are configured.
  • the digital image signal input from the input terminal 100 is stored in the input image buffer 101.
  • the digital image signal stored in the input image buffer 101 is supplied to the block dividing unit 102, and is cut out as an encoding target block in units of blocks composed of horizontal N pixels ⁇ vertical M pixels.
  • the block dividing unit 102 extracts the encoded target block from the intra-frame prediction unit 116, the motion vector detection unit 117, the motion compensation prediction unit 118, the first reference image synthesis motion compensation prediction unit 121, and the second reference image synthesis motion compensation. This is supplied to the prediction unit 123 and the subtracter 103.
  • the subtractor 103 calculates a difference between the encoding target block supplied from the block dividing unit 102 and the predicted image block supplied from the prediction mode determining unit 115, and supplies the result to the orthogonal transform unit 104 as a difference block. .
  • the operation of the prediction mode determination unit 115 will be described later.
  • the orthogonal transform unit 104 generates DCT coefficients corresponding to the orthogonally transformed frequency component signal by performing DCT transform on the difference block in a predetermined unit.
  • the unit for performing DCT conversion is a 4 ⁇ 4 pixel unit or an 8 ⁇ 8 pixel unit. Further, the orthogonal transform unit 104 collects the generated DCT coefficients in units of encoding target blocks and outputs them to the quantization unit 105.
  • the quantization unit 105 performs quantization processing by dividing the DCT coefficient by a different value for each frequency component.
  • the quantization unit 105 supplies the quantized DCT coefficient to the inverse quantization unit 106 and the entropy coding unit 111.
  • the inverse quantization unit 106 performs inverse quantization by multiplying the quantized DCT coefficient input from the quantization unit 105 by a value divided at the time of quantization, and the result of the inverse quantization is obtained.
  • the decoded DCT coefficient is output to the inverse orthogonal transform unit 107.
  • the inverse orthogonal transform unit 107 performs inverse DCT processing to generate a decoded difference block.
  • the inverse orthogonal transform unit 107 supplies the decoded difference block to the adder 108.
  • the adder 108 adds the prediction image block supplied from the prediction mode determination unit 115 and the decoded difference block supplied from the inverse orthogonal transform unit 107 to generate a local decoding block.
  • the local decoded block generated by the adder 108 is stored in the intra-frame decoded image memory 109 and the decoded reference image memory 110 in a form subjected to inverse block conversion.
  • adaptive filtering is applied to block boundaries where coding distortion for each block tends to appear as a boundary. In some cases, processing to be performed is performed.
  • the entropy encoding unit 111 receives the quantized DCT coefficient supplied from the quantization unit 105, the prediction mode information supplied from the prediction mode determination unit 115, and additional information that needs to be transmitted according to the prediction mode. In contrast, variable-length coding of each piece of information is performed. Specifically, in the case of intra-frame prediction, the intra prediction mode and the prediction block size information are used. In the case of motion compensated prediction and reference image synthesized image motion compensated prediction, the prediction block size, reference image designation information, and motion are used. The difference value between the vector and the predicted motion vector value is information that requires encoding. The information subjected to variable length coding is output as a coded bit stream from the entropy coding unit 111 to the stream buffer 112.
  • the encoded bit stream stored in the stream buffer 112 is output to a recording medium or a transmission path via an output terminal 113.
  • the code amount control unit 114 is supplied with the code amount of the encoded bit stream stored in the stream buffer 112 and compared with the target code amount. In order to approach the target code amount, the fineness of quantization (quantization scale) of the quantization unit 105 is controlled.
  • the prediction mode determination unit 115 is a prediction mode for each prediction method input from the intra-frame prediction unit 116, the motion compensation prediction unit 118, the first reference image synthesis motion compensation prediction unit 121, and the second reference image synthesis motion compensation prediction unit 123. From the prediction block, the prediction signal with the least difference information to be encoded is selected for the encoding target block input from the block dividing unit 102, and the subtraction unit 103 adds the prediction image block for the selected prediction method. To the entropy coding unit 111, the motion vector prediction unit 119, and the reference image synthesis parameter storage unit 122, the prediction mode information as additional information and the information that needs to be transmitted according to the prediction mode. Output. Regarding the motion vector value, difference information from the prediction vector value calculated by the motion vector prediction unit 119 described later is sent to the entropy encoding unit 111 and encoded.
  • the intra-frame prediction unit 116 the decoding target image input from the block division unit 102 and the decoded image of the area that has been encoded with respect to the periphery of the encoding target block, stored in the intra-frame decoding image memory 109. Is input, and prediction using correlation within the frame is performed.
  • pixel values are predicted in a plurality of predetermined directions in units of 4 ⁇ 4 pixels, 8 ⁇ 8 pixels, and 16 ⁇ 16 pixels for the encoding target block, and prediction processing is performed.
  • the prediction using the correlation between adjacent pixels in the screen is performed using a method called intra prediction that generates a prediction block together with information indicating the unit and the selected direction (intra prediction mode).
  • the predicted image block and the selected intra prediction mode are output from the intra-frame prediction unit 116 to the prediction mode determination unit 115.
  • an encoding target block input from the block division unit 102 and a decoded image of a frame that has been encoded on the entire screen and stored in the decoded reference image memory 110 are input as a reference image. Then, motion estimation is performed between the encoding target block and the reference image.
  • a reference image at a position moved by a predetermined movement amount from the same position on the screen is cut out, and the movement amount that minimizes the prediction error when the image is used as a prediction block is determined as a motion vector.
  • a block matching process that is obtained while changing the movement amount is used.
  • an absolute value sum of errors (SAD), a sum of squares of error (SSE), or the like is used, and further evaluation is performed by taking into account the amount of code of additional information such as a motion vector.
  • SAD absolute value sum of errors
  • SSE sum of squares of error
  • the detected motion vector value is output to the motion compensation prediction unit 118 and the inter-reference image motion vector detection unit 120.
  • the motion compensation prediction unit 118 receives the motion vector value obtained by the motion vector detection unit 117, and obtains motion compensation prediction images for a plurality of block sizes and a plurality of reference images that are equal to or less than the encoding target block, and the motion vector detection unit 117.
  • the prediction block with the least difference information to be encoded is selected and the difference information to be encoded is the least with respect to the encoding target block acquired from the decoded reference image memory 110 via and input from the block dividing unit 102 Select a prediction block.
  • the motion compensation prediction unit 118 outputs the selected motion compensation prediction mode, the motion vector value, and the prediction block to the prediction mode determination unit 115.
  • the motion vector prediction unit 119 calculates a predicted motion vector value using the motion vectors of the surrounding encoded blocks, and sends the motion vector detection unit 117, the motion compensation prediction unit 118, and the first reference image synthesis motion compensation prediction unit 121 to each other. Supply.
  • the motion vector detection unit 117 uses the predicted motion vector value to detect an optimal motion vector value in consideration of the code amount necessary for encoding the difference between the motion vector predicted value and the motion vector value. To do.
  • the motion compensation prediction unit 118 takes into account the amount of code required when encoding the difference between the motion vector prediction value and the transmitted motion vector value, and is used as a block unit for optimal motion compensation prediction. Select image and motion vector values.
  • the inter-reference image motion vector detection unit 120 extracts the first reference block from the reference image corresponding to the motion vector, from the motion vector input from the motion vector detection unit 117.
  • the inter-reference image motion vector detection unit 120 calculates an error value by block matching or the like for the motion vector between the extracted first reference block and another reference image, and uses the motion vector having the small value as the inter-reference image motion. Calculate as a vector.
  • the inter-reference image motion vector detection unit 120 calculates a motion vector value for generating the first reference block and a motion vector value between the other reference image and the encoding target block calculated based on the inter-reference image motion vector. It outputs to the 1st reference image synthetic
  • the first reference image synthesis motion compensation prediction unit 121 includes a motion vector value input from the inter-reference image motion vector detection unit 120, and another reference image calculated based on the inter-reference image motion vector and an encoding target block.
  • the first prediction block and the second prediction block are acquired from the decoded reference image memory 110 based on the motion vector values of the two, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks.
  • the first reference image synthesis motion compensation prediction unit 121 also calculates the difference between the motion vector prediction value and the motion vector value to be transmitted for the encoding target block input from the block division unit 102.
  • a motion vector value to be used as a block unit for optimal reference image synthesis motion compensation prediction is selected in consideration of a code amount necessary for encoding.
  • the first reference image synthesis motion compensation prediction unit 121 outputs the selected motion compensation prediction mode, the motion vector value, and the prediction block to the prediction mode determination unit 115, and other reference images calculated from the inter-reference image motion vector. And a motion vector value between the encoding target block and the encoding target block are output to the reference image synthesis parameter storage unit 122. Details of the operation of the first reference image synthesis motion compensation prediction unit 121 will be described later.
  • the reference image synthesis parameter storage unit 122 is input from the first reference image synthesis motion compensation prediction unit 121, and a motion vector value between another reference image calculated from the inter-reference image motion vector and the encoding target block.
  • Prediction mode information as additional information input from the prediction mode determination unit 115, information that needs to be transmitted according to the prediction mode, and second reference image synthesis input from the second reference image synthesis motion compensation prediction unit 123
  • Parameters necessary for reference image synthesis prediction for motion compensated prediction are stored, and necessary for reference image synthesis prediction in the encoded peripheral blocks of the target block for the second reference image synthesis motion compensation prediction unit 123.
  • Output parameters are stored, and necessary for reference image synthesis prediction in the encoded peripheral blocks of the target block for the second reference image synthesis motion compensation prediction unit 123.
  • the second reference image synthesis motion compensation prediction unit 123 performs the encoding in the peripheral blocks that have been encoded of the encoding target block input from the reference image synthesis parameter storage unit 122 with respect to the encoding target block input from the block division unit 102.
  • the first prediction block and the second prediction block are obtained from the decoded reference image memory 110 using the parameters used for the reference image synthesis, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks. To do.
  • the second reference image synthesis motion compensation prediction unit 123 outputs the selected motion compensation prediction mode and the prediction block to the prediction mode determination unit 115. Since the prediction block generated by the second reference image synthesis motion compensation prediction unit 123 is generated from the peripheral information of the decoded block, a motion vector is not transmitted as additional information.
  • the second reference image synthesis motion compensation prediction unit 123 outputs a parameter used for reference image synthesis used in the selected motion compensation prediction mode to the reference image synthesis parameter storage unit 122. Details of the operation of the second reference image synthesis motion compensation prediction unit 123 will be described later.
  • FIG. 2 is a configuration diagram of the moving picture decoding apparatus according to the first embodiment.
  • the moving picture decoding apparatus includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a prediction mode decoding unit 203, a prediction image selection unit 204, an inverse quantization unit 205, and an inverse.
  • the detection unit 214 includes a first reference image synthesis motion compensation prediction unit 215, a reference image synthesis parameter storage unit 216, and a second reference image synthesis motion compensation prediction unit 217.
  • the reference inter-motion vector detection unit 214, the first reference image synthesis motion compensation prediction unit 215, the reference image synthesis parameter storage unit 216, and the second reference image synthesis motion compensation prediction unit 217 are provided, and in these processing blocks
  • the operation is a feature of the decoding apparatus according to the first embodiment of the present invention. These operations are paired with the same functional block of the moving picture coding apparatus shown in FIG. 1 to generate a motion compensated prediction block with reduced transmission of additional information.
  • the same processing as the processing blocks constituting the decoding processing in the moving image decoding apparatus such as MPEG4-AVC can be applied.
  • the encoded bit stream input from the input terminal 200 is supplied to the stream buffer 201, and the stream buffer 201 absorbs the code amount variation of the encoded bit stream and is supplied to the entropy decoding unit 202 in a predetermined unit such as a frame.
  • the entropy decoding unit 202 performs variable-length decoding on the encoded prediction mode information, the additional information corresponding to the prediction mode, and the quantized DCT coefficient from the encoded bitstream input via the stream buffer 201. Then, the quantized DCT coefficient is output to the inverse quantization unit 205, and the prediction mode information and additional information corresponding to the prediction mode are output to the prediction mode decoding unit 203.
  • the inverse quantization unit 205 the inverse orthogonal transform unit 206, the adder 207, the intra-frame decoded image memory 208, and the decoded reference image memory 209
  • the local decoding process of the moving image coding apparatus Processing similar to that of a certain inverse quantization unit 106, inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, and decoded reference image memory 110 is performed.
  • the decoded image stored in the decoded reference image memory 209 is displayed as a decoded image signal on the display device via the output terminal 210.
  • the motion vector prediction decoding part 212 when motion compensation prediction is selected as a prediction mode from the prediction mode information input from the entropy decoding part 202 and the additional information corresponding to the prediction mode, the motion vector prediction decoding part 212 The information indicating the predicted block unit, the information indicating the motion compensation prediction mode, the first reference image synthesis motion compensation prediction mode, the second reference image synthesis motion compensation prediction mode, and the decoded difference vector value are output and predicted. Prediction mode information is output to the image selection unit 204 and the reference image synthesis parameter storage unit 216.
  • the prediction mode decoding unit 203 also determines the intra-frame prediction unit 211, the motion compensation prediction unit 213, the first reference image synthesis motion compensation prediction unit 215, and the second reference image synthesis motion compensation prediction according to the decoded prediction mode information. Information indicating the selection and additional information according to the prediction mode are output to the unit 217.
  • the prediction image selection unit 204 according to the prediction mode information input from the prediction mode decoding unit 203, the intra-frame prediction unit 211, the motion compensation prediction unit 213, the first reference image synthesis motion compensation prediction unit 215, and the second reference
  • the predicted image for the decoding target block output from any of the image synthesis motion compensation prediction unit 217 is selected and output to the adder 207.
  • the intra-frame prediction unit 211 receives the intra prediction mode as additional information according to the prediction mode from the prediction mode decoding unit 203, and according to the intra prediction mode.
  • the decoded image of the region where decoding is completed is input to the periphery of the decoding target block stored in the intra-frame decoded image memory 208, and prediction using the intra-frame correlation is performed in the same intra prediction mode as the encoding device. Done.
  • the intra-frame prediction unit 211 outputs the intra-frame prediction block generated by the prediction to the predicted image selection unit 204.
  • the motion vector predictive decoding unit 212 uses the motion vector of the neighboring decoded block for the decoded difference vector value input from the prediction mode decoding unit 203, and performs the motion prediction using the same method as that performed by the encoding device.
  • a value obtained by calculating a vector value and adding the difference vector value and the predicted motion vector value is used as a motion vector value of the decoding target block, as a motion compensated prediction unit 213, a reference image motion vector detection unit 214, and a reference image synthesis parameter storage unit.
  • the motion vectors are decoded by the number encoded according to the block unit of the prediction process indicated in the motion compensation prediction mode or the first reference image synthesized image motion compensation prediction mode.
  • the motion compensated prediction unit 213 generates a motion compensated prediction block from the decoded reference image memory 209 from the motion vector value input from the motion vector predictive decoding unit 212, and sends the generated motion compensated prediction block to the predicted image selection unit 204. Output.
  • the inter-reference image motion vector detection unit 214 extracts a first reference block used for motion compensated prediction from the decoded reference image memory 209 from the motion vector value input from the motion vector prediction decoding unit 212. Subsequently, an error value is calculated by block matching or the like for the motion vector between the extracted first reference block and another reference image, and a motion vector having a small value is calculated as a motion vector between reference images.
  • the inter-reference image motion vector detection unit 214 generates a motion vector value between the motion vector value for generating the first reference block and another reference image calculated from the inter-reference image motion vector and the encoding target block. The value is output to the first reference image synthesis motion compensation prediction unit 215.
  • the first reference image synthesis motion compensation prediction unit 215 includes a motion vector value input from the inter-reference image motion vector detection unit 214 and between another reference image calculated based on the inter-reference image motion vector and the encoding target block.
  • the first prediction block and the second prediction block are obtained from the decoded reference image memory 209 based on the motion vector values of the two, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks.
  • the generated reference image synthesis motion compensation prediction block is output to the prediction image selection unit 204.
  • the first reference image synthesis motion compensation prediction unit 215 outputs a motion vector value between another reference image and a decoding target block calculated by the inter-reference image motion vector to the reference image synthesis parameter storage unit 216. . Details of the operation of the first reference image synthesis motion compensation prediction unit 215 will be described later.
  • the reference image synthesis parameter storage unit 216 receives a motion vector value between another reference image calculated from the inter-reference image motion vector and the decoding target block, which is input from the first reference image synthesis motion compensation prediction unit 215, Prediction mode information as additional information input from the prediction mode decoding unit 203, motion vector information input from the motion vector prediction decoding unit 212, and a second reference input from the second reference image synthesis motion compensation prediction unit 217 Parameters necessary for the reference image synthesis prediction for the image synthesis motion compensation prediction are stored, and the second reference image synthesis motion compensation prediction unit 217 stores the parameters necessary for the reference image synthesis prediction in the decoded peripheral block of the decoding target block. Output parameters.
  • the second reference image synthesis motion compensation prediction unit 217 uses the parameters used for reference image synthesis in the decoded peripheral blocks of the decoding target block input from the reference image synthesis parameter storage unit 216, and uses the parameters used for reference image synthesis from the decoded reference image memory 209. 1 prediction block and 2nd prediction block are acquired, and a reference image synthetic
  • the generated reference image synthesis motion compensation prediction block is output to the prediction image selection unit 204.
  • the second reference image synthesis motion compensation prediction unit 217 outputs a parameter used for reference image synthesis used in the selected motion compensation prediction mode to the reference image synthesis parameter storage unit 216. Details of the operation of the second reference image synthesis motion compensation prediction unit 217 will be described later.
  • FIGS. 3b) and 3c) are conceptual diagrams showing reference image synthesis motion compensation prediction in the invention.
  • FIG. 3a) is a conceptual diagram of bidirectional motion compensated prediction using two reference images used in MPEG4-AVC.
  • FIG. 3a detects a motion vector between two reference images with a target block, transmits a motion vector for each reference image, and averages the reference blocks indicated by the two motion vectors.
  • a prediction image having a function of removing an encoding degradation component as a motion adaptive filter in the time direction by synthesizing two reference images and a function of following a minute luminance change component of an encoding object by averaging. can be generated.
  • a plurality of decoded reference images are stored, and a reference image number and a motion vector used for prediction are transmitted in a predetermined block unit to adaptively select the reference image.
  • a reference image number and a motion vector used for prediction are transmitted in a predetermined block unit to adaptively select the reference image.
  • four decoded images are secured as reference images, and two prediction images are acquired using the reference image 1 and the reference image 3, and bidirectional prediction is performed.
  • mvL0 and mvL1 are transmitted after taking a difference value from the predicted motion vector.
  • a reference image serving as a reference is specified, a motion vector is detected, and a reference image between the first reference block acquired using the motion vector mvL0 and another reference image
  • mvInterRef a method of generating the motion mvL1 between the encoding target image and another reference image without transmitting the motion vector is adopted.
  • mvL1 can be generated by performing similar processing using the transmitted motion vector mvL0.
  • Patent Document 1 evaluates an error value of a block that is symmetrical with an encoding target block between two reference images when the motion of an object in an adjacent image across the encoding target image is uniform. By doing so, it is a method to generate mvL0 and mvL1 without transmitting motion vectors, but it is effective when mvL0 and mvL1 are generated with a limited motion and there is little continuity in time Therefore, it is impossible to generate a prediction block with a sufficiently small prediction error. Also, a large motion search range is required to generate an appropriate motion for an image with a large motion, and the amount of calculation required for motion search processing in the encoding device / decoding device increases.
  • the parameters necessary for the reference image synthesis motion compensation prediction used in the encoded / decoded block are used on the decoding side.
  • a second reference image synthesis motion compensation prediction process that calculates a motion vector between reference pictures without using a motion vector detection process and performs a reference image synthesis motion compensation prediction, motion continuity is spatially reduced.
  • a motion vector generated using motion vector detection between reference images in a small area can be applied in a wider range, greatly increasing the amount of computation required for motion vector detection in a decoding device.
  • intra-frame prediction is performed (S400), and in a frame for which inter-frame prediction is performed, a first motion vector is detected between the encoding target block and the decoded reference image (S401).
  • One-way and two-way motion compensation prediction which is a conventional motion compensation prediction, is performed using a motion vector (S402).
  • a second motion vector is calculated between the first prediction block generated using the first motion vector and a plurality of reference images (S403).
  • the first reference image synthesis motion compensation prediction is performed using the first motion vector and the calculated second motion vector (S404). Subsequently, the second reference image synthesis motion compensation prediction is performed using the first motion vector and the second motion vector calculated in the decoded peripheral block (S405).
  • Information to be recorded includes information indicating an optimal prediction block, reference image information used for motion compensation prediction, and a motion vector.
  • the prediction mode information is decoded, and when the prediction mode is the intra-frame prediction mode (S410: YES), intra-frame prediction is performed (S411). If not (S410: NO), if the prediction mode is the second reference image synthesis motion compensation prediction mode (S412: YES), decoding is performed with the decoded peripheral blocks recorded in the reference image synthesis parameter storage unit. The second reference image synthesis motion compensation prediction is performed using the first motion vector and the second motion vector (S413).
  • the prediction mode is not the second reference image synthesis motion compensation prediction mode (S412: NO)
  • the prediction mode is not the first reference image synthesis motion compensation prediction mode (S414: NO)
  • the conventional motion compensation prediction process is performed. Is performed, and motion compensation prediction of one-way or bidirectional prediction is performed using the decoded first motion vector (S415).
  • the prediction mode is the first reference image synthesis motion compensation prediction mode (S414: YES)
  • the second prediction is performed between the first prediction block generated using the decoded first motion vector and the plurality of reference images.
  • a motion vector is calculated (S416).
  • the calculated second motion vector and first motion vector first reference image synthesis motion compensation prediction is performed (S417).
  • the prediction block generated by these prediction processes is output as the prediction image information at the time of decoding (S418), and the parameters necessary for generating the selected prediction block are used for the decoding process of the subsequent decoding block. It is recorded in the reference image synthesis parameter storage unit (S419).
  • an inter-reference image motion vector detection unit 120 in FIG. 1, 214 in FIG. 2
  • a first reference image synthesis motion compensation prediction unit 121 in FIG. 1, 215 in FIG. 2
  • the encoding side first determines a standard reference image for the encoding target block (S500). Since the reference image can be selectively specified by transmitting information indicating the reference image to the predictable reference image at the time of encoding, all the reference images are set as the standard reference image and the subsequent processing is performed. It is possible to generate an optimal prediction block.
  • the first motion vector value mvL0 base for the standard reference image detected by the motion vector detection unit (117 in FIG. 1) is input (S501).
  • a motion vector value used for normal motion compensation prediction is input, but it is also possible to input a motion vector value specified by another method.
  • a prediction block using mvL0 rounded which is a value obtained by rounding mvL0 base to integer pixel precision, is generated (S502).
  • the inter-reference image motion vector value mvInterRef is calculated between the prediction block generated in this way and another reference image (S503). Details of this processing will be described in the description of the inter-reference image motion vector detection unit (120 in FIG. 1 and 214 in FIG. 2). Here, by adding the generated mvL0edrounded and mvInterRef, mvL1 base serving as a reference for the second motion vector is calculated (S504).
  • the information for the accuracy of the motion vector transmitted at the time of encoding can be used as information for increasing the accuracy of the multi-reference image prediction block.
  • the motion in the range that becomes 0 when rounded to integer pixel precision as a phase shift vector phase vector
  • a prediction error value with respect to the encoding target block is calculated as a prediction block that is generated and the average of which is a candidate (S505).
  • both horizontal and vertical can be transmitted in addition to the motion vector value within the range of -1 / 2 ⁇ phase vector ⁇ 1/2.
  • each prediction error value is calculated.
  • the phase vector can be reproduced as the difference between the transmitted mvL0 and the mvL0 rounded rounded to integer pixel precision.
  • the first motion vector value mvL0 and the second motion vector value mvL1 in the first reference image synthesis motion compensated prediction block are obtained by adding the motion vector value obtained by adding the phase vector that takes the minimum prediction error value to mvL0 rounded and mvL1 base.
  • the first reference image synthesis motion compensated prediction only the output mvL0 information is transmitted as a motion vector value, the mvL1 information is not transmitted, and is generated by detecting the inter-reference image motion vector on the decoding side. It becomes the composition to do.
  • a reference reference image for the encoding target block is determined (S510).
  • the decoded prediction mode is the first reference image synthesis motion compensated prediction
  • information specifying the reference image is decoded as information indicating the unidirectional prediction of the normal motion compensated prediction. Can be confirmed.
  • the first motion vector value mvL0 decoded for the standard reference image is input from the motion vector prediction decoding unit (212 in FIG. 2) (S511), and the value mvL0vrounded by rounding mvL0 to integer pixel precision. Is used to generate a prediction block (S512).
  • the inter-reference image motion vector value mvInterRef is calculated between the prediction block generated in this way and another reference image (S513). This process is the same as the motion vector detection between reference images on the encoding side.
  • mvL0 rounded and mvInterRef mvL1 base serving as a reference for the second motion vector is calculated (S514).
  • mvL0 rounded which is a reference for obtaining the inter-reference image motion vector value
  • mvL0 rounded is an integer pixel. It is possible to perform image synthesis motion compensated prediction, and when using a motion vector value with the same accuracy as that of the finally transmitted motion vector as mvL0 rounded, the phase vector is fixed to 0. The motion vector value cannot be detected in consideration of the error evaluation at the time of synthesizing the reference image on the encoding side, but the inter-reference image motion vector detection is performed based on the prediction block with high accuracy. Is called.
  • mvL0 rounded is an integer pixel, it is not necessary to perform a filtering process for generating a prediction block with a small pixel precision on the first prediction block when detecting a motion vector between reference images.
  • a motion vector value can be generated in consideration of an error evaluation at the time of synthesizing a reference image on the encoding side.
  • the inter-reference image motion vector detection unit (120 in FIG. 1 and 214 in FIG. 2) includes a standard reference image acquisition unit 600, a motion vector detection range setting unit 601, a standard reference image memory 602, a reference image acquisition unit 603, and block matching.
  • the evaluation unit 604 is configured.
  • MvL0 rounded is calculated from the decoded reference image memory (110 in FIG. 1, 209 in FIG. 2), and the image block at the position moved mvL0 rounded from the encoding target block of the standard reference image is cut out, and the first reference block is extracted.
  • the acquired reference block is stored in the standard reference image memory 602.
  • the motion vector detection range setting unit 601 determines the reference ID of the second reference image, and sets a detection range of the inter-reference image motion vector that is detected between the standard reference image and the second reference image ( S801).
  • the other reference ID for the reference reference image it is possible to adopt a configuration in which information is transmitted in units similar to the slice header in MPEG4-AVC as information in units of screens.
  • a configuration is adopted in which the reference ID of the second reference image is implicitly determined for each reference ID of the reference image.
  • the detection range it is also possible to take the entire area of the second reference image as the motion vector detection range for the first reference block, and by performing detection processing with the same definition as the encoding device and the decoding device. Although functioning, in order to reduce the amount of calculation in detecting a motion vector between reference images, a detection range as shown in FIG. 7 is set.
  • FIG. 7 is an example of a motion vector detection range between reference images in the first embodiment.
  • the input time of the encoding target image is Poc Cur
  • the input time of the standard reference image is Poc Ref1
  • the input time of the second reference image is Poc Ref2
  • the motion vector prediction value between the encoding target block and the second reference image when it is assumed that the motion is temporally continuous is set.
  • an appropriate reference block of the second reference image can be obtained by searching for a motion vector for a specific region with the search position as the center. To be able to get In the example shown in FIG. 7, an area of ⁇ 8 pixels is specified as the specific area.
  • the reference image acquisition unit 603 obtains the reference block of the second reference image in the motion vector detection range designated by the motion vector detection range setting unit 601 from the decoded reference image memory (110 in FIG. 1, 209 in FIG. 2). Obtain (S802) and output to the block matching evaluation unit 604.
  • the block matching evaluation unit 604 calculates an error sum for each pixel between the first reference block stored in the standard reference image memory 602 and the reference block of the second reference image input from the reference image acquisition unit 603. Then, a reference block having a smaller total sum and a motion vector value when the reference block is acquired are stored (S803).
  • evaluation is performed using evaluation values such as SAD and SSE as in the case of a normal motion vector detection unit. However, since a motion vector value derived by detecting a motion vector between reference images is not transmitted during encoding. The evaluation is made without considering the code amount of the motion vector.
  • the stored reference block is set as the second reference block, and the motion vector value is set as the inter-reference image motion vector.
  • the value is mvInterRef (S805).
  • the calculated inter-reference image motion vector value mvInterRef is sent to the first reference image synthesis motion compensation prediction unit (121 in FIG. 1, 215 in FIG. 2) together with mvL0, mvL0 rounded, the first reference block, and the second reference block. It is output (S806).
  • Embodiment 1 Next, the operation of the second reference image synthesis motion compensated prediction in Embodiment 1 will be described using the flowchart of FIG. As a block of the encoding / decoding device, a reference image synthesis parameter storage unit (122 in FIG. 1, 216 in FIG. 2) and a second reference image synthesis motion compensation prediction unit (123 in FIG. 1, 217 in FIG. 2) are used. The detailed operation will be described.
  • reference image synthesis parameters for the decoded block above the encoding target block are acquired (S900).
  • the decoded block adjacent to the encoding target block has a relationship as shown in FIG. 10a), and the parameter at the position B is acquired as the upper block.
  • Information as shown in FIG. 10b) is stored as parameters.
  • basic prediction mode / reference image synthesis mode / motion vector information (two) and synthesis mode motion vector information are stored.
  • a prediction mode indicating the number of motion vectors predicted and transmitted by a prediction motion vector as intra prediction or motion compensated prediction is stored.
  • a flag indicating whether or not the reference image synthesis motion compensation prediction is used is stored.
  • unidirectional prediction is set as the basic prediction mode. (To transmit only one motion vector)
  • a reference image ID for specifying the used reference image and a motion vector value are stored, and as the synthesis mode motion vector information, a motion vector generated in the reference image synthesis motion compensation and not transmitted as encoded information is stored. Stores the value.
  • the reference image synthesis motion compensation is configured to use motion vectors for two reference images, one motion vector is stored for each target block as synthesis mode motion vector information. However, when three or more reference images are used, two or more motion vectors are stored.
  • the prediction mode of the acquired decoded image synthesis parameter is the intra-frame prediction mode (S901: YES)
  • the second reference image synthesis motion compensation prediction referring to the upper decoded block is invalid, and the prediction block is Not generated.
  • the prediction mode is not the intra-frame prediction mode (S901: NO)
  • the parameter reference image synthesis mode is not On (S902: NO)
  • the motion vector is used as the parameter prediction mode to perform one-way or two-way.
  • a motion compensated prediction block is generated (S903).
  • a bi-directional motion compensated prediction block is generated using the stored motion vector and synthesis mode motion vector information (S904).
  • a prediction block having the same condition as the result obtained by applying the same process as the multiple composite image motion compensation calculated in the upper part to the encoding target block is generated.
  • the prediction error evaluation value extended above is calculated between the prediction block generated by these and the encoding target block (S905).
  • the reference image synthesis parameter for the decoded block at the left of the encoding target block is acquired (S906).
  • the parameter at position A is acquired as the left block.
  • the prediction block generation using the information on the left part is also performed by the same process.
  • the prediction mode of the acquired decoded image synthesis parameter is the intra-frame prediction mode (S907: YES)
  • the upper decoded block is referred to.
  • the second reference image synthesis motion compensated prediction is invalid and a prediction block is not generated.
  • the prediction mode is not the intra-frame prediction mode (S907: NO)
  • the parameter reference image synthesis mode is not On (S908: NO)
  • a motion compensated prediction block is generated using a motion vector as the parameter prediction mode.
  • the parameter reference image synthesis mode is On (S908: YES)
  • a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesis mode motion vector information (S910). .
  • a prediction error evaluation value extended ⁇ left is calculated with respect to the prediction block generated as described above with respect to the encoding target block (S911).
  • both prediction error evaluation values extended above and extended left are compared, a prediction block with a smaller evaluation value is selected, and output along with information indicating the direction left flag (S912).
  • the prediction block in the generated direction is output.
  • the second decoded image synthesis motion compensated prediction is , Not used in the encoding target block.
  • a motion compensated prediction block is generated using a motion vector as the parameter prediction mode (S922), and the parameter reference image synthesis mode is On. If there is (S921: YES), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesized mode motion vector information (S923). The selected prediction block is output (S924), and the reference image synthesis parameter in the selected direction is output to the reference image synthesis parameter storage unit (S925), and the second reference image synthesis motion compensation prediction process for the decoding target block is performed. finish.
  • the selectable adjacent decoded blocks are two points, the upper part and the left part. However, it is also possible to select by adding a direction, and the upper left part (D) or FIG. It is also possible to perform the second reference image synthesis motion compensation prediction by selecting when the upper right part (C) or the like is a decoded block.
  • Intra prediction, motion compensation prediction, first reference image synthesis motion compensation prediction, and second reference image synthesis motion compensation prediction generated according to the first embodiment take into account additional information necessary for decoding a prediction block in the encoding device. Then, the prediction mode determination unit 115 performs selection based on the code amount and the distortion amount due to encoding.
  • information indicating the second reference image synthesis motion compensated prediction is encoded as On / Off bit information, and in the case of On, information indicating the direction in which the reference image synthesis parameter of the decoded block is taken over. The left flag is encoded when there are multiple candidates.
  • information indicating the second reference image synthesis motion compensation prediction is encoded as Off, and information indicating intra prediction / unidirectional prediction / bidirectional prediction is encoded as the basic prediction mode.
  • On / Off information is sent as reference image synthesis mode information.
  • the reference image synthesis mode information is On, the first reference image synthesis motion compensation prediction is performed, and when it is Off, the conventional motion compensation prediction is performed.
  • one motion vector is encoded together with information indicating a reference image in the case of unidirectional prediction and two motion vectors in the case of bidirectional prediction.
  • compensation prediction only one reference motion vector is encoded together with information indicating a reference image.
  • FIG. 11 shows a conceptual diagram of the selection results of the first and second reference image synthesis motion compensation predictions generated by the encoding device / decoding device of Embodiment 1, and the effects thereof will be described.
  • the prediction part that has multiple reference images for the background part has the target prediction area.
  • the motion vector detection between the reference images can be acquired without transmitting an effective motion vector by the first reference image synthesis motion compensation prediction and an effective prediction block can be generated, the first reference image synthesis motion compensation prediction is performed. Selected.
  • the parameter generated in the first reference image synthesis motion compensated prediction functions effectively in an adjacent block, and therefore indicates that the parameter is extended.
  • the second reference image synthesized motion compensated prediction that can generate the reference image synthesized motion compensated prediction block is selected by transmitting only the information indicating the direction.
  • a prediction block is configured by the first reference image synthesis motion compensation prediction and the second reference image synthesis motion compensation prediction of the remaining region.
  • a highly efficient prediction block can be generated, and by using the second reference image synthesized motion compensated prediction, a highly efficient predicted block can be extended with less information and decoded.
  • the apparatus it is possible to drastically reduce a region in which the inter-reference image motion vector detection necessary for performing the reference image synthesis motion compensation prediction is performed, and it is possible to greatly reduce the amount of calculation.
  • FIG. 12 is a configuration diagram showing the configuration of the video encoding device according to the second embodiment
  • FIG. 13 is a configuration diagram showing the configuration of the video decoding device according to the second embodiment.
  • the moving picture coding apparatus includes an input terminal 100, an input picture buffer 101, a block division unit 102, a subtractor 103, an orthogonal transformation unit 104, a quantization unit 105, and an inverse quantization.
  • Unit 106 inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, decoded reference image memory 110, entropy encoding unit 111, stream buffer 112, output terminal 113, code amount control unit 114, prediction mode determination unit 115, intra-frame prediction unit 116, motion vector detection unit 117, motion compensation prediction unit 118, motion vector prediction unit 119, inter-reference image motion vector detection unit 120, first reference image synthesis motion compensation prediction unit 121, reference image synthesis parameter Storage unit 122, second reference image synthesis motion compensation prediction unit 123, and reference image synthesis selection unit 122 It consists of.
  • the moving picture decoding apparatus includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a prediction mode decoding unit 203, a prediction image selection unit 204, and an inverse quantization unit.
  • inter-frame motion detection unit 214 the first reference image synthesis motion compensation prediction unit 215, the reference image synthesis parameter storage unit 216, the second reference image synthesis motion compensation prediction unit 217, and the reference image synthesis selection unit 1318 are configured.
  • the point that the reference image composition selection unit 1318 is provided and the operation in this processing block are the characteristics of the decoding apparatus according to the second embodiment of the present invention.
  • the other processing blocks perform the same operation as in the first embodiment. Is called. Whether the reference image synthesis selection unit (1224, 1318) has the same function in encoding / decoding, and generates a prediction block using a reference image synthesis parameter from an adjacent block without transmission of additional information when paired It has a function of determining whether or not.
  • FIGS. 14A and 14B show a flowchart of the reference image composition selection process in Embodiment 2, and the operation will be described.
  • the operation of S1414 to S1421 performed by the reference image composition selection unit 1224 is added.
  • the prediction block from the two reference images is generated using the stored motion vector and the synthesis mode motion vector, and the two prediction blocks generated The error value between them is calculated as extended interref error (S1414).
  • the evaluation value in this case the sum of errors such as SAD and SSE is used as in the evaluation in the inter-reference image motion vector detection unit.
  • a bidirectional motion compensated prediction block is generated using the vector and the composite mode motion vector information (S904).
  • the threshold value ⁇ for example, when the error evaluation is SAD, a value such that the average error is 4 (4 ⁇ the number of pixels of the block) can be taken, but the quantization value at the time of encoding, interref, By switching ⁇ according to the magnitude of error, it is possible to more effectively determine continuity with adjacent blocks.
  • the prediction block from the two reference images is generated using the stored motion vector and the synthesis mode motion vector, and the two prediction blocks generated are generated.
  • An extended interref error is calculated as an error value between them (S1426), prediction blocks from two reference images are generated for adjacent blocks, and an error evaluation value interref error between the two reference images is calculated (S1427).
  • extended interref error> interref error + ⁇ (threshold) S1428: YES
  • a one-way motion compensated prediction block is generated (S1429). Otherwise (S1428: NO), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesized mode motion vector information ( S923).
  • Embodiment 2 by using the first and second reference image synthesis motion compensated prediction in Embodiment 1, a highly efficient prediction block is encoded with a small amount of information, and the inter-reference image motion vector in the decoding apparatus is used.
  • an error value between the first predicted image and the second predicted image in the referenced decoded adjacent block In addition to the effect of greatly reducing the calculation amount of detection, in the second reference image synthesis motion compensated prediction, an error value between the first predicted image and the second predicted image in the referenced decoded adjacent block, and encoding
  • the error value of the first prediction image and the second prediction image for the decoding target block is calculated and the error value for the encoding / decoding target block is sufficiently larger than the error value of the referenced decoded block.
  • To generate a motion compensated prediction image composed of only the first prediction image for the encoding / decoding target block Determines the continuity of the motion compensation prediction image to generate a more accurate motion compensated prediction image without using the additional information it is possible to improve the coding
  • FIG. 15A and FIG. 15B show a flowchart of the reference image composition selection process in Embodiment 3, and the operation will be described.
  • the operation of S1522-S1525 is added to the operation of the flowchart (S900-S913, S1414-S1421) in the second embodiment instead of S1417, S1421. Become.
  • the operations of S1530-S1531 are added to the operations of the flowcharts (S920-S925, S1426-S1429) in the second embodiment instead of S1429.
  • the second motion vector is detected between reference images from the first prediction block generated from the motion vector (S1522), and the first A reference image synthesis motion compensation prediction block is generated using the prediction block and the second prediction block (S1523).
  • the reference image synthesis selection unit 1224 may be provided, but the first reference image synthesis motion compensation prediction unit 121 has a function, and by giving an instruction from the reference image synthesis selection unit 1224, It is also possible to calculate a reference image synthesis motion compensation prediction block.
  • Embodiment 3 by using the first and second reference image synthesized motion compensated prediction in Embodiment 1, a highly efficient prediction block is encoded with a small amount of information, and the inter-reference image motion vector in the decoding device
  • the error value between the first predicted image and the second predicted image in the referenced decoded adjacent block When the error value of the first prediction image and the second prediction image for the decoding target block is calculated and the error value for the encoding / decoding target block is sufficiently larger than the error value in the referenced decoded block, It is determined that there is no continuity, and motion vector information between the first predicted image and the second reference image for the encoding / decoding target block is calculated.
  • the moving picture encoding apparatus and moving picture decoding apparatus presented as the first, second, and third embodiments are physically a CPU (central processing unit), a recording device such as a memory, and a display device such as a display.
  • a computer having a communication means for a transmission path, and the means having each of the presented functions can be realized as a program on the computer and executed.
  • the program can be provided by being recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as data broadcasting of terrestrial or satellite digital broadcasting. is there.
  • DESCRIPTION OF SYMBOLS 100 Input terminal 101 Input image buffer 102 Block division part 103 Subtractor 104 Orthogonal transformation part 105 Quantization part 106 Inverse quantization part 107 Inverse orthogonal transformation part 108 Adder 109 In-frame decoded image memory 110 Decoded reference image memory 111 Entropy encoding Unit 112 stream buffer 113 output terminal 114 code amount control unit 115 prediction mode determination unit 116 intra-frame prediction unit 117 motion vector detection unit 118 motion compensation prediction unit 119 motion vector prediction unit 120 inter-picture motion vector detection unit 121 first reference image Synthetic motion compensation prediction unit 122 Reference image synthesis parameter storage unit 123 Second reference image synthesis motion compensation prediction unit 200 Input terminal 201 Stream buffer 202 Entropy decoding unit 203 Prediction mode decoding unit 204 Predicted image selection unit 205 Inverse amount Conversion unit 206 Inverse orthogonal transform unit 207 Adder 208 Intra-frame decoded image memory 209 Decoded reference image memory 210 Output terminal 211 Intra
  • the present invention can be used for a video signal encoding technique.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

A motion vector detection unit of the present invention detects a motion vector from a first reference image with respect to a block to be encoded. A first reference image combination unit generates a first combined reference block, in which a first reference block which has been extracted from the first reference image using the motion vector and a predetermined area of another at least one reference image, have been combined. A second reference image combination unit generates a second combined reference block in which, by way of information required for generation of the combined reference block of the areas which have been coded, a second reference block and a predetermined area of the reference image used for the combination are identified and combined. An encoding unit encodes a predicted difference block in which a predicted block, which has been selected from a plurality of predicted blocks which include at least the first combined reference block and the second combined reference block, has been subtracted from the block to be encoded.

Description

動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラムMoving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
 本発明は、動画像信号の符号化及び復号技術に関する。 The present invention relates to a video signal encoding and decoding technique.
 近年、デジタル化された画像及び音のコンテンツを、衛星や地上波等の放送波やネットワークを介して配信するサービスが実用化されており、膨大な情報量を持つコンテンツを効率的に記録及び伝送するための高能率符号化技術が必要となっている。動画像の高能率符号化としては、MPEG4-AVCに代表される、動画像信号の同一フレーム内で空間的に隣接する画素間の相関、及び時間的に隣接するフレーム間やフィールド間の相関を利用して情報を圧縮する方法が用いられる。 In recent years, services that deliver digital image and sound content via broadcast waves such as satellite and terrestrial waves and networks have been put into practical use, and content with a huge amount of information can be efficiently recorded and transmitted. In order to do so, a high-efficiency encoding technique is required. High-efficiency coding of moving images includes the correlation between pixels that are spatially adjacent in the same frame of a moving image signal, and the correlation between temporally adjacent frames and fields, as represented by MPEG4-AVC. A method of compressing information using it is used.
 MPEG4-AVCでは、時間的相関を利用した圧縮として、符号化対象フレームである対象画像に対して、既に符号化済みのフレームの局部復号画像を参照画像として用い、所定の大きさの2次元ブロック(以降、「対象ブロック」と記す)単位で、対象画像と参照画像との間での動き量(以降、「動きベクトル」と記す)を検出し、対象ブロックと動きベクトルに基づいた予測画像を生成する動き補償予測が用いられる。 In MPEG4-AVC, as a compression using temporal correlation, a local decoded image of an already encoded frame is used as a reference image for a target image that is a target frame to be encoded, and a two-dimensional block having a predetermined size is used. A motion amount (hereinafter referred to as “motion vector”) between the target image and the reference image is detected in units (hereinafter referred to as “target block”), and a predicted image based on the target block and the motion vector is detected. The generated motion compensated prediction is used.
MPEG4-AVCでは、符号化処理の単位となる16×16画素の2次元ブロック(以降、「マクロブロック」と記す)内での、対象ブロックの大きさを可変にして対象ブロック毎の動きベクトルを用いて予測する手法、複数の参照画像を格納し予測に用いる参照画像を選択する手法、2つの参照画像と対象ブロックの間の動きベクトルを求めて動き予測画像を生成する手法を用いる事で、動き補償予測の予測精度を向上させる事が可能であり、それにより情報量の削減を実現している。 In MPEG4-AVC, the size of a target block in a 16 × 16 pixel two-dimensional block (hereinafter referred to as “macroblock”), which is a unit of encoding processing, is made variable, and a motion vector for each target block is obtained. By using a method of predicting using, a method of storing a plurality of reference images and selecting a reference image used for prediction, and a method of generating a motion predicted image by obtaining a motion vector between two reference images and a target block, It is possible to improve the prediction accuracy of motion compensated prediction, thereby reducing the amount of information.
 また、動き補償予測においては生成した動きベクトルを符号化伝送する必要があり、動きベクトルによる情報量の増加を防ぐために、対象ブロック周辺の復号済みのブロックに対する動きベクトルから予測される、予測動きベクトル値を用いて符号化する事で、動きベクトルを伝送しないダイレクトモードと呼ばれる動き補償予測を用いる事が可能となっている。 Also, in motion compensated prediction, it is necessary to encode and transmit the generated motion vector, and in order to prevent an increase in the amount of information due to the motion vector, a predicted motion vector predicted from the motion vector for a decoded block around the target block By encoding using values, it is possible to use motion compensated prediction called direct mode in which no motion vector is transmitted.
 しかしながら、上記動きベクトルの予測は必ずしも精度良く求める事が出来ないため、特許文献1に示されるように、符号化側と復号側が共に、参照画像間で動きベクトルの検出を行い、その動きベクトルが時間的に連続している事を想定して、対象ブロックの予測動きベクトルを生成し、ダイレクトモードを構成する手法も提示されている。 However, since the prediction of the motion vector cannot always be obtained with high accuracy, as shown in Patent Document 1, both the encoding side and the decoding side detect a motion vector between reference images, and the motion vector is A method of generating a predicted motion vector of a target block and assuming a direct mode on the assumption that it is continuous in time is also presented.
特開2008-154015号公報JP 2008-154015 A
 MPEG4-AVCに代表される従来の動画像符号化における動き補償予測は、以下のような課題が解決できていないために、符号化効率の向上が妨げられている。 In the motion compensated prediction in the conventional moving picture coding represented by MPEG4-AVC, the following problems cannot be solved, so that the improvement of the coding efficiency is hindered.
 一つ目の課題は、参照画像として用いる復号画像の品質が劣化することによる、動き補償予測画像の品質低下であり、特に高圧縮な符号化を施した場合に動き補償予測画像に混入した劣化成分が予測精度を悪化させると共に、劣化成分を復元するための情報を予測差分として符号化する必要があり、情報量が増加している。 The first problem is the degradation of the quality of the motion compensated predicted image due to the degradation of the quality of the decoded image used as the reference image, especially the degradation mixed in the motion compensated predicted image when high-compression encoding is performed. While the component deteriorates the prediction accuracy, it is necessary to encode information for restoring the deteriorated component as a prediction difference, and the amount of information is increasing.
 二つ目の課題は、時間的・空間的に動きの連続性が少ない画像信号において、動きベクトルの予測が十分な精度でなく、ダイレクトモードを用いた際の予測画像の品質が悪く有効に機能しない点である。対象となる物体を跨いで隣接するブロックでは異なる動きを有する際にこの劣化が生じ、時間的には動きが大きい場合に予測に用いる動きベクトルが本来の対象ブロックとは動きに相当して移動した位置のブロックを想定しているためにこの劣化が生じる。また時間的に動きが変化する場合にも、同様に予測が当らず劣化が生じる。 The second problem is that the motion vector prediction is not accurate enough for image signals with little temporal and spatial motion continuity, and the predicted image quality when using the direct mode is effective. It is a point not to do. This degradation occurs when adjacent blocks have different motions across the target object, and the motion vector used for prediction when the motion is large in time has moved corresponding to the motion of the original target block This degradation occurs because a block of positions is assumed. Similarly, when the motion changes with time, the prediction is not successful and deterioration occurs.
 三つ目の課題は、2つの参照画像を用いた予測や細かいブロック単位での動き補償予測を用いた際の、動きベクトル伝送に要する符号量の増加である。2つの参照画像を用いる場合に、参照画像を加算する事による予測劣化の平滑化が行われ、劣化成分の影響を少なくする事が出来るが、それに応じた動きベクトルの伝送が必要となり符号量が増加する。
 また、細かいブロック単位での動き補償においても、物体の境界に応じて適切な動きを求める事が可能となり、予測画像の精度は向上するが、細かい単位での動きベクトルの伝送が必要となって符号量が増大する。
The third problem is an increase in the amount of code required for motion vector transmission when using prediction using two reference images or motion compensated prediction in units of fine blocks. When two reference images are used, prediction deterioration is smoothed by adding the reference images, and the influence of the deterioration component can be reduced. To increase.
Also, in motion compensation in fine block units, it is possible to obtain appropriate motion according to the boundary of the object, and the accuracy of the predicted image is improved, but it is necessary to transmit motion vectors in fine units. The amount of code increases.
 特許文献1は、上記二つ目の課題を解決するために提示された手法であるが、空間的に一様な動きをしている場合には、参照画像間で求めた動きベクトルが対象ブロックの位置を通過する動きとなる為、動きベクトルの予測精度は向上するが、空間的に一様な動きをしていない場合には、対象ブロックの情報を用いずに求めた予測動きベクトルであるために、対象ブロックと異なる動きとなり予測が十分に当らない。また、大きな動きを捉えるためには、参照画像間で広い範囲に渡る動きベクトルの検出処理が符号化装置、復号化装置の両方に必要となり、演算量が大きくなる課題が生じる。 Patent Document 1 is a technique presented to solve the second problem described above. When a spatially uniform motion is present, a motion vector obtained between reference images is a target block. The motion vector prediction accuracy is improved because the motion passes through the position, but if the motion is not spatially uniform, it is the predicted motion vector obtained without using the target block information Therefore, the motion is different from that of the target block, and the prediction is not sufficient. In addition, in order to capture a large motion, motion vector detection processing over a wide range between reference images is required for both the encoding device and the decoding device, which causes a problem that the amount of calculation increases.
 そこで、本発明は、伝送する動きベクトルを増加させず、符号化装置および復号化装置における演算量の増加を抑えつつ、予測画像の品質を向上させて動き補償予測の効率を向上させる技術を提供することを目的とする。 Therefore, the present invention provides a technique for improving the efficiency of motion compensated prediction by improving the quality of a predicted image while suppressing an increase in the amount of calculation in the encoding device and decoding device without increasing the motion vector to be transmitted. The purpose is to do.
 上記課題を解決するために、本発明のある態様の動画像符号化装置は、符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部(117)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する、第1参照画像合成部(121)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(122)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(123)を具備し、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、符号化対象ブロックに対する予測ブロックを選択し、予測ブロックを符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備える。 In order to solve the above-described problem, a moving image encoding device according to an aspect of the present invention includes a motion vector detection unit (117) that detects a motion vector from a first reference image for an encoding target block; A first reference image synthesizing unit that generates a first synthesized reference block by synthesizing a first reference block extracted from the first reference image using a motion vector and a predetermined region of at least one other reference image; 121), a reference image synthesis parameter storage unit (122) for storing information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit, and an encoding stored in the reference image synthesis parameter storage unit Based on the information necessary for generating the synthesized reference block of the completed region, the second synthesized reference block synthesized by specifying the predetermined region of the reference image used for synthesis with the second reference block is generated. A second reference image synthesizing unit (123), selecting a prediction block for the encoding target block from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block, and a prediction block The encoding part which encodes the prediction difference block which subtracted from the encoding object block is provided.
 第1参照画像合成動き補償予測を用いることにより、参照画像間動きベクトル検出を用いた高効率な予測ブロックを、追加の動きベクトル伝送を行わずに生成できると共に、第2参照画像合成動き補償予測を用いることにより、少ない情報で高効率な予測ブロックを延長できると共に、復号装置において参照画像合成動き補償予測を行うために必要な参照画像間動きベクトル検出を機能させる領域を大幅に小さくすることが出来、演算量を大きく削減できる効果も有する。 By using the first reference image synthesis motion compensation prediction, a highly efficient prediction block using inter-reference image motion vector detection can be generated without performing additional motion vector transmission, and the second reference image synthesis motion compensation prediction can be performed. By using, it is possible to extend a highly efficient prediction block with a small amount of information, and to significantly reduce a region for performing inter-reference image motion vector detection necessary for performing reference image synthesis motion compensation prediction in a decoding device. And has the effect of greatly reducing the amount of computation.
 本発明の別の態様もまた、動画像符号化装置である。この装置は、符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部(117)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する、第1参照画像合成部(121)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(122)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(123)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1224)を具備し、参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部からの出力を、第2の合成参照ブロックと第2の参照ブロックで選択する機能(S1414-S1417、S1418-S1421)を有し、少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備える。 Another aspect of the present invention is also a moving picture coding apparatus. The apparatus includes a motion vector detection unit (117) that detects a motion vector from a first reference image with respect to an encoding target block, and a first extracted from the first reference image using the motion vector. The first reference image synthesizing unit (121) that generates a first synthesized reference block obtained by synthesizing the reference block and a predetermined region of at least one other reference image, and the synthesized reference block calculated by the first reference image synthesizing unit. A reference image synthesis parameter storage unit (122) that stores information necessary for generation, and a second reference based on information necessary for generating a synthesized reference block of an encoded region stored in the reference image synthesis parameter storage unit. A second reference image synthesizing unit (123) for generating a second synthesized reference block obtained by identifying and synthesizing a predetermined region of the reference image used for synthesis with the block; A reference image synthesis selection unit (1224) for inputting information necessary for generating a synthesized reference block of the encoded region stored in the meter storage unit and determining a synthesis method for the second reference image synthesis unit; A reference image synthesis selection unit needs a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block and the synthesized reference block for the encoded region. A function of comparing correlation values between a plurality of reference blocks generated using information, and selecting an output from the second reference image combining unit between the second combined reference block and the second reference block (S1414 to S1417) , S1418-S1421), and a plurality of prediction blocks including at least a first synthesized reference block and a second synthesized reference block or a second reference block. More, select a prediction block for said current block comprises a coding unit configured to code a prediction difference block a prediction block is subtracted from the encoding target block.
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像とを動き補償予測画像として出力することで、連続性が保たれている場合にのみ適切に参照画像合成動き補償予測を機能させることができ、付加情報を与えずに、より正しい動き補償予測画像を生成し符号化効率を向上させることができる。 An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. When the continuity is lost, the first prediction image and the motion compensated prediction image are output as the motion compensated prediction image, so that the reference image synthesis motion compensation can be appropriately performed only when the continuity is maintained. Prediction can be made to function, and a more accurate motion compensated prediction image can be generated and encoding efficiency can be improved without giving additional information.
 本発明の別の態様もまた、動画像符号化装置である。この装置は、符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部(117)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(121)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(122)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(123)と、参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1224)を具備し、第2参照画像合成部もしくは第1参照画像合成部が、第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部から第2の合成参照ブロックを出力するか、第2参照画像合成部もしくは第1参照画像合成部から、第3の合成参照ブロックを出力するかを選択する機能(S1414-S1416、S1522-S1523、S1418-S1420、S1524-S1525)を有することを特徴とし、少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより、符号化対象ブロックに対する予測ブロックを選択し、予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備える。 Another aspect of the present invention is also a moving picture coding apparatus. The apparatus includes a motion vector detection unit (117) that detects a motion vector from a first reference image with respect to an encoding target block, and a first extracted from the first reference image using the motion vector. A first reference image synthesizing unit (121) that generates a first synthesized reference block by synthesizing a predetermined area of the reference block and at least one other reference image, and a synthesized reference block generation calculated by the first reference image synthesizing unit A reference image synthesis parameter storage unit (122) for storing information necessary for the second reference block, and a second reference block based on information necessary for generating a synthesized reference block for the encoded region stored in the reference image synthesis parameter storage unit. And a second reference image synthesis unit (123) that generates a second synthesized reference block that is synthesized by specifying a predetermined area of the reference image and a reference image synthesis parameter storage unit. A reference image synthesis selection unit (1224) that inputs the information necessary for generating the synthesized reference block of the encoded region and determines a synthesis method for the second reference image synthesis unit, and includes a second reference image synthesis Or a first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image, and the reference image synthesis selection unit A correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block, and a plurality generated using information necessary for generating the synthesized reference block for the encoded region And comparing the correlation values between the reference blocks and outputting the second synthesized reference block from the second reference image synthesizer, or from the second reference image synthesizer or the first reference image synthesizer, 3 synthesis reference blocks to be output (S1414-S1416, S1522-S1523, S1418-S1420, S1524-S1525), and at least the first synthesis reference block and the second synthesis reference block An encoding unit is provided that selects a prediction block for an encoding target block from a plurality of prediction blocks including a block or a third synthesis reference block, and encodes a prediction difference block obtained by subtracting the prediction block from the encoding target block. .
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像と第2の参照画像の間での参照画像間動きベクトル情報を算出することで第3の予測画像を生成し、第1の予測画像と第3の予測画像を合成することにより、合成動き補償予測画像を生成することで、必要な場合にのみ再度復号側動きベクトル算出型の動き補償予測をおこなうことができ、演算量の増加を抑えつつ、付加情報を用いずに符号化効率をより向上させることができる。 An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. If there is no continuity, a third predicted image is generated by calculating inter-reference image motion vector information between the first predicted image and the second reference image. By generating the synthesized motion compensated predicted image by synthesizing the first predicted image and the third predicted image, the motion compensated prediction of the decoding side motion vector calculation type can be performed again only when necessary. Thus, it is possible to further improve the coding efficiency without using additional information while suppressing an increase in the amount of calculation.
 本発明のある態様の動画像復号装置は、符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部(212)と、動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(215)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(216)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報により、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(217)と、符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部(203)を具備し、予測モード選択情報により選択された予測ブロックと、復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備える。 The moving image decoding apparatus according to an aspect of the present invention includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, and a first extracted from the first reference image using the motion vector. The first reference image composition unit (215) that generates a first synthesized reference block obtained by synthesizing the reference block and the predetermined region of at least one other reference image, and the synthesized reference calculated by the first reference image synthesis unit The reference image synthesis parameter storage unit (216) that stores information necessary for block generation and the information necessary for generating the synthesized reference block of the decoded area stored in the reference image synthesis parameter storage unit are used as the second reference. A second reference image synthesis unit (217) that generates a second synthesized reference block obtained by identifying and synthesizing a predetermined area of the reference image used for synthesis with the block. And a prediction mode decoding unit (203) that decodes prediction mode selection information selected from a plurality of prediction blocks including at least a first combined reference block and a second combined reference block as a decoding target block from the encoded stream. ), And a decoding unit that generates a decoded image by adding the prediction block selected by the prediction mode selection information and the prediction difference block decoded from the decoding target block.
 第1参照画像合成動き補償予測を用いることにより、参照画像間動きベクトル検出を用いた高効率な予測ブロックを、追加の動きベクトル伝送を行わずに生成できると共に、第2参照画像合成動き補償予測を用いることにより、少ない情報で高効率な予測ブロックを延長できると共に、復号装置において参照画像合成動き補償予測を行うために必要な参照画像間動きベクトル検出を機能させる領域を大幅に小さくすることが出来、演算量を大きく削減できる効果も有する。 By using the first reference image synthesis motion compensation prediction, a highly efficient prediction block using inter-reference image motion vector detection can be generated without performing additional motion vector transmission, and the second reference image synthesis motion compensation prediction can be performed. By using, it is possible to extend a highly efficient prediction block with a small amount of information, and to significantly reduce a region for performing inter-reference image motion vector detection necessary for performing reference image synthesis motion compensation prediction in a decoding device. And has the effect of greatly reducing the amount of computation.
 本発明の別の態様もまた、動画像復号装置である。この装置は、符号化ストリームより復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部(212)と、動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(215)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(216)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(217)と、符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部(203)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1318)を具備し、参照画像合成選択部が、復号対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部からの出力を、第2の合成参照ブロックと第2の参照ブロックで選択する機能(S1426-S1429)を有することを特徴とし、予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備える。 Another aspect of the present invention is also a video decoding device. This apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, a first reference block extracted from a first reference image using a motion vector, and at least one other A first reference image synthesis unit (215) that generates a first synthesized reference block obtained by synthesizing predetermined areas of two reference images, and information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit is stored. The reference image used for combining with the second reference block based on the information necessary for generating the combined reference block of the decoded area stored in the reference image combining parameter storage unit (216) and the reference image combining parameter storage unit The second reference image synthesis unit (217) that generates a second synthesized reference block that is synthesized by specifying a predetermined area of A prediction mode decoding unit (203) for decoding prediction mode selection information selected from a plurality of prediction blocks in which the target block includes at least a first synthesized reference block and a second synthesized reference block; and reference image synthesis parameter storage A reference image synthesis selection unit (1318) that inputs information necessary for generating a synthesized reference block of a decoded area stored in the unit and determines a synthesis method for the second reference image synthesis unit, and includes a reference image synthesis Generated using a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the decoding target block and information necessary for generating the synthesized reference block for the decoded region The correlation values between the plurality of reference blocks thus obtained are compared, and the output from the second reference image synthesizing unit is converted into the second synthesized reference block and the second reference block. A function (S1426 to S1429) for selecting at least one of a plurality of blocks including at least a first combined reference block and a second combined reference block or a second reference block as a prediction block based on prediction mode selection information. A decoding unit is provided that generates a decoded image by adding a prediction block selected from the prediction blocks and a prediction difference block decoded from the decoding target block.
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像とを動き補償予測画像として出力することで、連続性が保たれている場合にのみ適切に参照画像合成動き補償予測を機能させることができ、付加情報を与えずに、より正しい動き補償予測画像を生成し符号化効率を向上させることができる。 An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. When the continuity is lost, the first prediction image and the motion compensated prediction image are output as the motion compensated prediction image, so that the reference image synthesis motion compensation can be appropriately performed only when the continuity is maintained. Prediction can be made to function, and a more accurate motion compensated prediction image can be generated and encoding efficiency can be improved without giving additional information.
 本発明の別の態様もまた、動画像復号装置である。この装置は、符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部(212)と、動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部(215)と、第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部(216)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部(217)と、符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部(203)と、参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部(1318)を具備し、第2参照画像合成部もしくは前記第1参照画像合成部が、前記第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、参照画像合成選択部が、復号対象ブロックに対する合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、第2参照画像合成部から第2の合成参照ブロックを出力するか、第2参照画像合成部もしくは第1参照画像合成部から、第3の合成参照ブロックを出力するかを選択する機能(S1426-S1428、S1530-S1531)を有することを特徴とし、予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備える。 Another aspect of the present invention is also a video decoding device. The apparatus includes a motion vector decoding unit (212) that decodes a motion vector for a decoding target block from an encoded stream, a first reference block extracted from the first reference image using a motion vector, A first reference image synthesis unit (215) that generates a first synthesized reference block obtained by synthesizing a predetermined region of at least one reference image, and information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit. The reference image synthesis parameter storage unit (216) to be stored and the information necessary for generating the synthesized reference block of the decoded area stored in the reference image synthesis parameter storage unit are used for synthesis with the second reference block. A second reference image synthesis unit (217) that generates a second synthesized reference block that is synthesized by specifying a predetermined region of the reference image, and an encoded stream. A prediction mode decoding unit (203) that decodes prediction mode selection information in which a decoding target block is selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block; and reference image synthesis A reference image synthesis selection unit (1318) for inputting information necessary for generating a synthesized reference block of the decoded area stored in the parameter storage unit and determining a synthesis method for the second reference image synthesis unit; A second reference image synthesis unit or the first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image; Correlation values between a plurality of reference blocks generated by the image synthesis selection unit using information necessary for generating a synthesis reference block for the decoding target block, and a decoded area A correlation value between a plurality of reference blocks generated using information necessary for generating a synthesized reference block is compared, and a second synthesized reference block is output from the second reference image synthesizer, or a second reference image synthesized Or the first reference image synthesis unit has a function (S1426-S1428, S1530-S1531) for selecting whether to output the third synthesis reference block, and at least as a prediction block from the prediction mode selection information A decoded image by adding a prediction block selected from a plurality of prediction blocks including the first synthesis reference block and the second synthesis reference block or the third synthesis reference block and a prediction difference block decoded from the decoding target block The decoding part which produces | generates is provided.
 参照した隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、参照画像間の連続性の有無を判断し、連続性がなくなった場合には、第1の予測画像と第2の参照画像の間での参照画像間動きベクトル情報を算出することで第3の予測画像を生成し、第1の予測画像と第3の予測画像を合成することにより、合成動き補償予測画像を生成することで、必要な場合にのみ再度復号側動きベクトル算出型の動き補償予測をおこなうことができ、演算量の増加を抑えつつ、付加情報を用いずに符号化効率をより向上させることができる。 An error value between the first predicted image and the second predicted image in the adjacent block referred to, and an error value between the first predicted image and the second predicted image with respect to the encoding target block are calculated, and the continuity between the reference images is calculated. If there is no continuity, a third predicted image is generated by calculating inter-reference image motion vector information between the first predicted image and the second reference image. By generating the synthesized motion compensated predicted image by synthesizing the first predicted image and the third predicted image, the motion compensated prediction of the decoding side motion vector calculation type can be performed again only when necessary. Thus, it is possible to further improve the coding efficiency without using additional information while suppressing an increase in the amount of calculation.
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that an arbitrary combination of the above-described components and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.
 本発明によれば、符号化装置・復号化装置における演算量の増加を抑えつつ、予測画像の品質を高めて動き補償予測の効率を向上させることができる。 According to the present invention, it is possible to improve the quality of motion-compensated prediction by improving the quality of a predicted image while suppressing an increase in the amount of calculation in the encoding device / decoding device.
本発明の実施の形態1における動画像符号化装置の構成図である。It is a block diagram of the moving image encoder in Embodiment 1 of this invention. 本発明の実施の形態1における動画像復号装置の構成図である。It is a block diagram of the moving image decoding apparatus in Embodiment 1 of this invention. 本発明における参照画像合成動き補償予測の動作を示す概念図である。It is a conceptual diagram which shows the operation | movement of the reference image synthetic | combination motion compensation prediction in this invention. 本発明の実施の形態1における予測ブロック生成処理のフローチャートである。It is a flowchart of the prediction block production | generation process in Embodiment 1 of this invention. 本発明の実施の形態1における第1参照画像合成動き補償予測の処理フローチャートである。It is a process flowchart of the 1st reference picture synthetic | combination motion compensation prediction in Embodiment 1 of this invention. 本発明の実施の形態1における参照画像間動きベクトル検出部の構成図である。It is a block diagram of the motion vector detection part between reference images in Embodiment 1 of this invention. 本発明の実施の形態1における参照画像間の動きベクトル検出範囲の一例を示す図である。It is a figure which shows an example of the motion vector detection range between the reference images in Embodiment 1 of this invention. 本発明の実施の形態1における参照画像間動きベクトル検出部の処理フローチャートである。It is a process flowchart of the motion vector detection part between reference images in Embodiment 1 of this invention. 本発明の実施の形態1における第2参照画像合成動き補償予測の処理フローチャートである。It is a process flowchart of the 2nd reference picture synthetic | combination motion compensation prediction in Embodiment 1 of this invention. 本発明の実施の形態1における参照画像合成パラメータ格納部の管理形態を示す図である。It is a figure which shows the management form of the reference image synthetic | combination parameter storage part in Embodiment 1 of this invention. 本発明の実施の形態1における第1、第2参照画像合成動き補償の選択結果の概念図である。It is a conceptual diagram of the selection result of the 1st, 2nd reference image synthetic | combination motion compensation in Embodiment 1 of this invention. 本発明の実施の形態2における動画像符号化装置の構成図である。It is a block diagram of the moving image encoder in Embodiment 2 of this invention. 本発明の実施の形態2における動画像復号装置の構成図である。It is a block diagram of the moving image decoding apparatus in Embodiment 2 of this invention. 本発明の実施の形態2における符号化側の参照画像合成選択処理のフローチャートである。It is a flowchart of the reference image synthetic | combination selection process by the side of an encoding in Embodiment 2 of this invention. 本発明の実施の形態2における復号側の参照画像合成選択処理のフローチャートである。It is a flowchart of the reference image synthetic | combination selection process by the side of decoding in Embodiment 2 of this invention. 本発明の実施の形態3における符号化側の参照画像合成選択処理のフローチャートである。It is a flowchart of the reference image synthetic | combination selection process by the side of an encoding in Embodiment 3 of this invention. 本発明の実施の形態3における復号側の参照画像合成選択処理のフローチャートである。It is a flowchart of the reference image synthetic | combination selection process by the side of decoding in Embodiment 3 of this invention.
 以下に、発明を実施するための形態について図面を参照して説明する。
 (実施の形態1)
 まず、実施の形態1の動画像符号化装置を説明する。図1は、実施の形態1の動画像符号化装置の構成を示す構成図である。
EMBODIMENT OF THE INVENTION Below, the form for inventing is demonstrated with reference to drawings.
(Embodiment 1)
First, the moving picture coding apparatus according to the first embodiment will be described. FIG. 1 is a configuration diagram showing the configuration of the moving picture encoding apparatus according to the first embodiment.
 図1に示すように、実施の形態1の動画像符号化装置は、入力端子100、入力画像バッファ101、ブロック分割部102、減算器103、直交変換部104、量子化部105、逆量子化部106、逆直交変換部107、加算器108、フレーム内復号画像メモリ109、復号参照画像メモリ110、エントロピー符号化部111、ストリームバッファ112、出力端子113、符号量制御部114、予測モード判定部115、フレーム内予測部116、動きベクトル検出部117、動き補償予測部118、動きベクトル予測部119、参照画像間動きベクトル検出部120、第1参照画像合成動き補償予測部121、参照画像合成パラメータ格納部122、および第2参照画像合成動き補償予測部123から構成される。 As shown in FIG. 1, the moving picture coding apparatus according to Embodiment 1 includes an input terminal 100, an input picture buffer 101, a block division unit 102, a subtractor 103, an orthogonal transformation unit 104, a quantization unit 105, and an inverse quantization. Unit 106, inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, decoded reference image memory 110, entropy encoding unit 111, stream buffer 112, output terminal 113, code amount control unit 114, prediction mode determination unit 115, intra-frame prediction unit 116, motion vector detection unit 117, motion compensation prediction unit 118, motion vector prediction unit 119, inter-reference image motion vector detection unit 120, first reference image synthesis motion compensation prediction unit 121, reference image synthesis parameter The storage unit 122 and the second reference image synthesis motion compensation prediction unit 123 are configured.
 参照画像間動きベクトル検出部120、第1参照画像合成動き補償予測部121、参照画像合成パラメータ格納部122、および第2参照画像合成動き補償予測部123を設けた点と、この処理ブロックにおける動作が、本発明の実施の形態1における特徴であり、他の処理ブロックに関してはMPEG4-AVC等の動画像符号化装置における符号化処理を構成する処理ブロックと同一処理が適用できる。 Operation of this processing block in that an inter-reference image motion vector detection unit 120, a first reference image synthesis motion compensation prediction unit 121, a reference image synthesis parameter storage unit 122, and a second reference image synthesis motion compensation prediction unit 123 are provided. However, this is a feature of the first embodiment of the present invention, and the same processing as the processing blocks constituting the encoding processing in the moving image encoding apparatus such as MPEG4-AVC can be applied to the other processing blocks.
 入力端子100より入力されたデジタル画像信号は、入力画像バッファ101に格納される。入力画像バッファ101に格納されたデジタル画像信号は、ブロック分割部102に供給され、水平N画素×垂直M画素で構成されるブロック単位で符号化対象ブロックとして切り出される。NおよびMの値は、複数の予め設定可能な画素数より選択的に構成することも可能であるが、実施の形態1における説明ではN=16、M=16で固定であるとする。ブロック分割部102は、切り出した符号化対象ブロックを、フレーム内予測部116、動きベクトル検出部117、動き補償予測部118、第1参照画像合成動き補償予測部121、第2参照画像合成動き補償予測部123、および減算器103に供給する。 The digital image signal input from the input terminal 100 is stored in the input image buffer 101. The digital image signal stored in the input image buffer 101 is supplied to the block dividing unit 102, and is cut out as an encoding target block in units of blocks composed of horizontal N pixels × vertical M pixels. The values of N and M can be selectively configured from a plurality of pixels that can be set in advance. However, in the description of the first embodiment, it is assumed that N = 16 and M = 16 are fixed. The block dividing unit 102 extracts the encoded target block from the intra-frame prediction unit 116, the motion vector detection unit 117, the motion compensation prediction unit 118, the first reference image synthesis motion compensation prediction unit 121, and the second reference image synthesis motion compensation. This is supplied to the prediction unit 123 and the subtracter 103.
 減算器103は、ブロック分割部102から供給された符号化対象ブロックと、予測モード判定部115より供給された予測画像ブロックとの差分を演算し、結果を差分ブロックとして直交変換部104に供給する。予測モード判定部115の動作に関しては後述する。 The subtractor 103 calculates a difference between the encoding target block supplied from the block dividing unit 102 and the predicted image block supplied from the prediction mode determining unit 115, and supplies the result to the orthogonal transform unit 104 as a difference block. . The operation of the prediction mode determination unit 115 will be described later.
 直交変換部104では、差分ブロックに対して所定単位でDCT変換を行うことで、直交変換された周波数成分信号に相当するDCT係数を生成する。実施の形態1における説明では、DCT変換を施す単位は4×4画素もしくは8×8画素単位であるとする。また、直交変換部104では、生成したDCT係数を符号化対象ブロック単位に纏めて、量子化部105に出力する。 The orthogonal transform unit 104 generates DCT coefficients corresponding to the orthogonally transformed frequency component signal by performing DCT transform on the difference block in a predetermined unit. In the description of the first embodiment, it is assumed that the unit for performing DCT conversion is a 4 × 4 pixel unit or an 8 × 8 pixel unit. Further, the orthogonal transform unit 104 collects the generated DCT coefficients in units of encoding target blocks and outputs them to the quantization unit 105.
 量子化部105においては、DCT係数を周波数成分毎に異なった値で除算することにより量子化処理を施す。量子化部105は、量子化処理されたDCT係数を、逆量子化部106及びエントロピー符号化部111に供給する。 The quantization unit 105 performs quantization processing by dividing the DCT coefficient by a different value for each frequency component. The quantization unit 105 supplies the quantized DCT coefficient to the inverse quantization unit 106 and the entropy coding unit 111.
 逆量子化部106は、量子化部105より入力した量子化処理されたDCT係数に対して、量子化時に除算された値を乗算することで逆量子化を行い、逆量子化された結果を復号されたDCT係数として、逆直交変換部107に出力する。 The inverse quantization unit 106 performs inverse quantization by multiplying the quantized DCT coefficient input from the quantization unit 105 by a value divided at the time of quantization, and the result of the inverse quantization is obtained. The decoded DCT coefficient is output to the inverse orthogonal transform unit 107.
 逆直交変換部107においては逆DCT処理が行われ、復号された差分ブロックを生成する。逆直交変換部107は、復号された差分ブロックを加算器108に供給する。 The inverse orthogonal transform unit 107 performs inverse DCT processing to generate a decoded difference block. The inverse orthogonal transform unit 107 supplies the decoded difference block to the adder 108.
 加算器108は、予測モード判定部115より供給された予測画像ブロックと、逆直交変換部107より供給される復号された差分ブロックを加算し、局部復号ブロックを生成する。加算器108で生成された局部復号ブロックは、フレーム内復号画像メモリ109及び復号参照画像メモリ110に逆ブロック変換された形で格納される。MPEG-4 AVCの場合には、局部復号ブロックが復号参照画像メモリ110に入力される手前で、ブロック毎での符号化歪が境界となって現れやすいブロック境界に対して、適応的にフィルタリングを行う処理が施される場合もある。 The adder 108 adds the prediction image block supplied from the prediction mode determination unit 115 and the decoded difference block supplied from the inverse orthogonal transform unit 107 to generate a local decoding block. The local decoded block generated by the adder 108 is stored in the intra-frame decoded image memory 109 and the decoded reference image memory 110 in a form subjected to inverse block conversion. In the case of MPEG-4 AVC, before local decoding blocks are input to the decoded reference image memory 110, adaptive filtering is applied to block boundaries where coding distortion for each block tends to appear as a boundary. In some cases, processing to be performed is performed.
 エントロピー符号化部111は、量子化部105より供給された量子化処理されたDCT係数と、予測モード判定部115より供給された、予測モード情報と、予測モードに応じて伝送が必要な付加情報に対して、それぞれの情報の可変長符号化を行う。具体的には、フレーム内予測の場合にはイントラ予測モードと予測ブロックサイズ情報が、動き補償予測及び参照画像合成画像動き補償予測の場合には、予測ブロックサイズ、参照画像の指定情報、及び動きベクトルと予測動きベクトル値との差分値が、符号化を要する情報となる。可変長符号化を施した情報は符号化ビットストリームとして、エントロピー符号化部111よりストリームバッファ112に出力される。 The entropy encoding unit 111 receives the quantized DCT coefficient supplied from the quantization unit 105, the prediction mode information supplied from the prediction mode determination unit 115, and additional information that needs to be transmitted according to the prediction mode. In contrast, variable-length coding of each piece of information is performed. Specifically, in the case of intra-frame prediction, the intra prediction mode and the prediction block size information are used. In the case of motion compensated prediction and reference image synthesized image motion compensated prediction, the prediction block size, reference image designation information, and motion are used. The difference value between the vector and the predicted motion vector value is information that requires encoding. The information subjected to variable length coding is output as a coded bit stream from the entropy coding unit 111 to the stream buffer 112.
 ストリームバッファ112に蓄えられた符号化ビットストリームは、出力端子113を介して、記録媒体もしくは伝送路に出力される。符号化ビットストリームの符号量制御に関しては、符号量制御部114に、ストリームバッファ112に蓄えられている符号化ビットストリームの符号量が供給され、目標とする符号量との間で比較がとられ、目標符号量に近づけるために量子化部105の量子化の細かさ(量子化スケール)が制御される。 The encoded bit stream stored in the stream buffer 112 is output to a recording medium or a transmission path via an output terminal 113. Regarding the code amount control of the encoded bit stream, the code amount control unit 114 is supplied with the code amount of the encoded bit stream stored in the stream buffer 112 and compared with the target code amount. In order to approach the target code amount, the fineness of quantization (quantization scale) of the quantization unit 105 is controlled.
 予測モード判定部115は、フレーム内予測部116、動き補償予測部118、第1参照画像合成動き補償予測部121、第2参照画像合成動き補償予測部123より入力された各予測手法に対する予測モードと予測ブロックより、ブロック分割部102より入力された符号化対象ブロックに対して、最も符号化する差分情報が少ない予測信号を選択し、選択された予測手法に対する予測画像ブロックを減算器103及び加算器108に出力すると共に、エントロピー符号化部111、動きベクトル予測部119および参照画像合成パラメータ格納部122に対して、付加情報としての予測モード情報と、予測モードに応じて伝送が必要な情報を出力する。動きベクトル値に関しては、後述する動きベクトル予測部119で算出された予測ベクトル値との差分情報がエントロピー符号化部111に送られ符号化される。 The prediction mode determination unit 115 is a prediction mode for each prediction method input from the intra-frame prediction unit 116, the motion compensation prediction unit 118, the first reference image synthesis motion compensation prediction unit 121, and the second reference image synthesis motion compensation prediction unit 123. From the prediction block, the prediction signal with the least difference information to be encoded is selected for the encoding target block input from the block dividing unit 102, and the subtraction unit 103 adds the prediction image block for the selected prediction method. To the entropy coding unit 111, the motion vector prediction unit 119, and the reference image synthesis parameter storage unit 122, the prediction mode information as additional information and the information that needs to be transmitted according to the prediction mode. Output. Regarding the motion vector value, difference information from the prediction vector value calculated by the motion vector prediction unit 119 described later is sent to the entropy encoding unit 111 and encoded.
 フレーム内予測部116では、ブロック分割部102より入力された符号化対象ブロックと、フレーム内復号画像メモリ109に格納された、符号化対象ブロックの周辺に対して符号化が完了した領域の復号画像が入力され、フレーム内の相関性を用いた予測が行われる。MPEG4-AVCの場合には符号化対象ブロックに対して、4×4画素単位、8×8画素単位、16×16画素単位で、複数の所定の方向に対して画素値を予測し、予測処理の単位と選択した方向を示す情報(イントラ予測モード)と共に予測ブロックを生成するイントラ予測という手法を用いて、画面内の隣接画素の相関を用いた予測を行う。予測画ブロック及び選択したイントラ予測モードは、フレーム内予測部116より予測モード判定部115に出力される。 In the intra-frame prediction unit 116, the decoding target image input from the block division unit 102 and the decoded image of the area that has been encoded with respect to the periphery of the encoding target block, stored in the intra-frame decoding image memory 109. Is input, and prediction using correlation within the frame is performed. In the case of MPEG4-AVC, pixel values are predicted in a plurality of predetermined directions in units of 4 × 4 pixels, 8 × 8 pixels, and 16 × 16 pixels for the encoding target block, and prediction processing is performed. The prediction using the correlation between adjacent pixels in the screen is performed using a method called intra prediction that generates a prediction block together with information indicating the unit and the selected direction (intra prediction mode). The predicted image block and the selected intra prediction mode are output from the intra-frame prediction unit 116 to the prediction mode determination unit 115.
 動きベクトル検出部117では、ブロック分割部102より入力された符号化対象ブロックと、復号参照画像メモリ110に格納された、画面全体の符号化が完了したフレームの復号画像が参照画像として入力されて、符号化対象ブロックと参照画像との間での動き推定を行う。一般的な動き推定処理としては、画面内の同一位置より所定の移動量だけ移動させた位置の参照画像を切り出し、その画像を予測ブロックとした際の予測誤差が最も少なくなる移動量を動きベクトル値として、移動量を変化させながら求めるブロックマッチング処理が用いられる。予測誤差の評価値としては、誤差の絶対値総和(SAD)や誤差の二乗総和(SSE)等が用いられ、更に動きベクトル等の付加情報の符号量と加味して評価することで、より符号化された場合に効率に良い動きベクトルを算出できる。検出された動きベクトル値は、動き補償予測部118および参照画像間動きベクトル検出部120に出力される。 In the motion vector detection unit 117, an encoding target block input from the block division unit 102 and a decoded image of a frame that has been encoded on the entire screen and stored in the decoded reference image memory 110 are input as a reference image. Then, motion estimation is performed between the encoding target block and the reference image. As a general motion estimation process, a reference image at a position moved by a predetermined movement amount from the same position on the screen is cut out, and the movement amount that minimizes the prediction error when the image is used as a prediction block is determined as a motion vector. As a value, a block matching process that is obtained while changing the movement amount is used. As the evaluation value of the prediction error, an absolute value sum of errors (SAD), a sum of squares of error (SSE), or the like is used, and further evaluation is performed by taking into account the amount of code of additional information such as a motion vector. When it is converted into a motion vector, it is possible to calculate an efficient motion vector. The detected motion vector value is output to the motion compensation prediction unit 118 and the inter-reference image motion vector detection unit 120.
 動き補償予測部118は、動きベクトル検出部117によって求められた動きベクトル値を入力し、符号化対象ブロック以下の複数のブロックサイズ及び複数の参照画像に対する動き補償予測画像を、動きベクトル検出部117経由で復号参照画像メモリ110より取得し、ブロック分割部102より入力された符号化対象ブロックに対して、最も符号化する差分情報が少ない予測ブロックを選択すると共に、最も符号化する差分情報が少ない予測ブロックを選択する。動き補償予測部118は、選択された動き補償予測モード、動きベクトル値と予測ブロックを予測モード判定部115に出力する。 The motion compensation prediction unit 118 receives the motion vector value obtained by the motion vector detection unit 117, and obtains motion compensation prediction images for a plurality of block sizes and a plurality of reference images that are equal to or less than the encoding target block, and the motion vector detection unit 117. The prediction block with the least difference information to be encoded is selected and the difference information to be encoded is the least with respect to the encoding target block acquired from the decoded reference image memory 110 via and input from the block dividing unit 102 Select a prediction block. The motion compensation prediction unit 118 outputs the selected motion compensation prediction mode, the motion vector value, and the prediction block to the prediction mode determination unit 115.
 動きベクトル予測部119は、周辺の符号化済みブロックの動きベクトルを用いて予測動きベクトル値を算出し、動きベクトル検出部117、動き補償予測部118および第1参照画像合成動き補償予測部121に供給する。 The motion vector prediction unit 119 calculates a predicted motion vector value using the motion vectors of the surrounding encoded blocks, and sends the motion vector detection unit 117, the motion compensation prediction unit 118, and the first reference image synthesis motion compensation prediction unit 121 to each other. Supply.
 前記予測動きベクトル値を用いて、動きベクトル検出部117は、動きベクトル予測値と動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な動きベクトル値を検出する。同様に、動き補償予測部118は、動きベクトル予測値と伝送する動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な動き補償予測のブロック単位と用いる参照画像及び動きベクトル値を選択する。 Using the predicted motion vector value, the motion vector detection unit 117 detects an optimal motion vector value in consideration of the code amount necessary for encoding the difference between the motion vector predicted value and the motion vector value. To do. Similarly, the motion compensation prediction unit 118 takes into account the amount of code required when encoding the difference between the motion vector prediction value and the transmitted motion vector value, and is used as a block unit for optimal motion compensation prediction. Select image and motion vector values.
 参照画像間動きベクトル検出部120は、動きベクトル検出部117より入力された動きベクトルより、動きベクトルと対応する参照画像から第1の参照ブロックを抽出する。参照画像間動きベクトル検出部120は、抽出した第1の参照ブロックと他の参照画像との間における動きベクトルをブロックマッチング等で誤差値を算出し、その値が小さな動きベクトルを参照画像間動きベクトルとして算出する。参照画像間動きベクトル検出部120は、第1の参照ブロックを生成する動きベクトル値と、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を、第1参照画像合成動き補償予測部121に出力する。 The inter-reference image motion vector detection unit 120 extracts the first reference block from the reference image corresponding to the motion vector, from the motion vector input from the motion vector detection unit 117. The inter-reference image motion vector detection unit 120 calculates an error value by block matching or the like for the motion vector between the extracted first reference block and another reference image, and uses the motion vector having the small value as the inter-reference image motion. Calculate as a vector. The inter-reference image motion vector detection unit 120 calculates a motion vector value for generating the first reference block and a motion vector value between the other reference image and the encoding target block calculated based on the inter-reference image motion vector. It outputs to the 1st reference image synthetic | combination motion compensation prediction part 121. FIG.
 第1参照画像合成動き補償予測部121は、参照画像間動きベクトル検出部120より入力された動きベクトル値および、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を元に、復号参照画像メモリ110より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。第1参照画像合成動き補償予測部121も動き補償予測部118と同様に、ブロック分割部102より入力された符号化対象ブロックに対して、動きベクトル予測値と伝送する動きベクトル値との差分を符号化する際に必要となる符号量を加味して、最適な参照画像合成動き補償予測のブロック単位と用いる動きベクトル値を選択する。 The first reference image synthesis motion compensation prediction unit 121 includes a motion vector value input from the inter-reference image motion vector detection unit 120, and another reference image calculated based on the inter-reference image motion vector and an encoding target block. The first prediction block and the second prediction block are acquired from the decoded reference image memory 110 based on the motion vector values of the two, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks. Similarly to the motion compensation prediction unit 118, the first reference image synthesis motion compensation prediction unit 121 also calculates the difference between the motion vector prediction value and the motion vector value to be transmitted for the encoding target block input from the block division unit 102. A motion vector value to be used as a block unit for optimal reference image synthesis motion compensation prediction is selected in consideration of a code amount necessary for encoding.
 第1参照画像合成動き補償予測部121は、選択された動き補償予測モード、動きベクトル値と予測ブロックを予測モード判定部115に出力するとともに、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を、参照画像合成パラメータ格納部122に出力する。第1参照画像合成動き補償予測部121の動作の詳細に関しては後述する。 The first reference image synthesis motion compensation prediction unit 121 outputs the selected motion compensation prediction mode, the motion vector value, and the prediction block to the prediction mode determination unit 115, and other reference images calculated from the inter-reference image motion vector. And a motion vector value between the encoding target block and the encoding target block are output to the reference image synthesis parameter storage unit 122. Details of the operation of the first reference image synthesis motion compensation prediction unit 121 will be described later.
 参照画像合成パラメータ格納部122は、第1参照画像合成動き補償予測部121より入力された、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値と、予測モード判定部115より入力された付加情報としての予測モード情報と、予測モードに応じて伝送が必要な情報、および第2参照画像合成動き補償予測部123より入力される第2参照画像合成動き補償予測に対する参照画像合成予測に必要なパラメータを格納すると共に、第2参照画像合成動き補償予測部123に対して、符号化対象ブロックの符号化済周辺ブロックにおける、参照画像合成予測に必要なパラメータを出力する。 The reference image synthesis parameter storage unit 122 is input from the first reference image synthesis motion compensation prediction unit 121, and a motion vector value between another reference image calculated from the inter-reference image motion vector and the encoding target block. Prediction mode information as additional information input from the prediction mode determination unit 115, information that needs to be transmitted according to the prediction mode, and second reference image synthesis input from the second reference image synthesis motion compensation prediction unit 123 Parameters necessary for reference image synthesis prediction for motion compensated prediction are stored, and necessary for reference image synthesis prediction in the encoded peripheral blocks of the target block for the second reference image synthesis motion compensation prediction unit 123. Output parameters.
 第2参照画像合成動き補償予測部123は、ブロック分割部102より入力された符号化対象ブロックに対して、参照画像合成パラメータ格納部122より入力される符号化対象ブロックの符号化済周辺ブロックにおける、参照画像合成に用いるパラメータを用いて、復号参照画像メモリ110より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。 The second reference image synthesis motion compensation prediction unit 123 performs the encoding in the peripheral blocks that have been encoded of the encoding target block input from the reference image synthesis parameter storage unit 122 with respect to the encoding target block input from the block division unit 102. The first prediction block and the second prediction block are obtained from the decoded reference image memory 110 using the parameters used for the reference image synthesis, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks. To do.
 第2参照画像合成動き補償予測部123は、選択された動き補償予測モードと予測ブロックを予測モード判定部115に出力する。第2参照画像合成動き補償予測部123で生成される予測ブロックに対しては、復号済のブロックの周辺情報より生成されるため、付加情報として動きベクトルは伝送されない。 The second reference image synthesis motion compensation prediction unit 123 outputs the selected motion compensation prediction mode and the prediction block to the prediction mode determination unit 115. Since the prediction block generated by the second reference image synthesis motion compensation prediction unit 123 is generated from the peripheral information of the decoded block, a motion vector is not transmitted as additional information.
 また、第2参照画像合成動き補償予測部123は、選択された動き補償予測モードにおいて用いられる参照画像合成に用いるパラメータを参照画像合成パラメータ格納部122に出力する。第2参照画像合成動き補償予測部123の動作の詳細に関しては後述する。 Also, the second reference image synthesis motion compensation prediction unit 123 outputs a parameter used for reference image synthesis used in the selected motion compensation prediction mode to the reference image synthesis parameter storage unit 122. Details of the operation of the second reference image synthesis motion compensation prediction unit 123 will be described later.
 続いて、実施の形態1の動画像符号化装置により生成された符号化ビットストリームを復号する、動画像復号装置を説明する。図2は、実施の形態1の動画像復号装置の構成図である。 Subsequently, a moving picture decoding apparatus that decodes the encoded bitstream generated by the moving picture encoding apparatus according to Embodiment 1 will be described. FIG. 2 is a configuration diagram of the moving picture decoding apparatus according to the first embodiment.
 図2に示すように、実施の形態1の動画像復号装置は、入力端子200、ストリームバッファ201、エントロピー復号部202、予測モード復号部203、予測画像選択部204、逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、復号参照画像メモリ209、出力端子210、フレーム内予測部211、動きベクトル予測復号部212、動き補償予測部213、参照画像間動きベクトル検出部214、第1参照画像合成動き補償予測部215、参照画像合成パラメータ格納部216、および第2参照画像合成動き補償予測部217から構成される。 As shown in FIG. 2, the moving picture decoding apparatus according to Embodiment 1 includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a prediction mode decoding unit 203, a prediction image selection unit 204, an inverse quantization unit 205, and an inverse. Orthogonal transformation unit 206, adder 207, intra-frame decoded image memory 208, decoded reference image memory 209, output terminal 210, intra-frame prediction unit 211, motion vector prediction decoding unit 212, motion compensation prediction unit 213, inter-reference image motion vector The detection unit 214 includes a first reference image synthesis motion compensation prediction unit 215, a reference image synthesis parameter storage unit 216, and a second reference image synthesis motion compensation prediction unit 217.
 参照画像間動きベクトル検出部214、第1参照画像合成動き補償予測部215、参照画像合成パラメータ格納部216、および第2参照画像合成動き補償予測部217を設けた点と、これらの処理ブロックにおける動作が、本発明の実施の形態1の復号装置における特徴である。これらの動作は図1に示した動画像符号化装置の同じ機能ブロックと対になることで、付加情報の伝送を削減させた動き補償予測ブロックを生成する。他の処理ブロックに関してはMPEG4-AVC等の動画像復号装置における復号処理を構成する処理ブロックと同一処理が適用できる。 The reference inter-motion vector detection unit 214, the first reference image synthesis motion compensation prediction unit 215, the reference image synthesis parameter storage unit 216, and the second reference image synthesis motion compensation prediction unit 217 are provided, and in these processing blocks The operation is a feature of the decoding apparatus according to the first embodiment of the present invention. These operations are paired with the same functional block of the moving picture coding apparatus shown in FIG. 1 to generate a motion compensated prediction block with reduced transmission of additional information. For the other processing blocks, the same processing as the processing blocks constituting the decoding processing in the moving image decoding apparatus such as MPEG4-AVC can be applied.
 入力端子200より入力された符号化ビットストリームは、ストリームバッファ201に供給され、ストリームバッファ201で符号化ビットストリームの符号量変動を吸収して、フレーム等の所定単位でエントロピー復号部202に供給される。エントロピー復号部202は、ストリームバッファ201を介して入力された符号化ビットストリームより、符号化された予測モード情報と予測モードに応じた付加情報、及び量子化されたDCT係数に関して可変長復号を行い、逆量子化部205に量子化されたDCT係数を、予測モード復号部203に予測モード情報と予測モードに応じた付加情報を出力する。 The encoded bit stream input from the input terminal 200 is supplied to the stream buffer 201, and the stream buffer 201 absorbs the code amount variation of the encoded bit stream and is supplied to the entropy decoding unit 202 in a predetermined unit such as a frame. The The entropy decoding unit 202 performs variable-length decoding on the encoded prediction mode information, the additional information corresponding to the prediction mode, and the quantized DCT coefficient from the encoded bitstream input via the stream buffer 201. Then, the quantized DCT coefficient is output to the inverse quantization unit 205, and the prediction mode information and additional information corresponding to the prediction mode are output to the prediction mode decoding unit 203.
 逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、及び復号参照画像メモリ209に関しては、本発明の実施の形態1の動画像符号化装置の局部復号処理である逆量子化部106、逆直交変換部107、加算器108、フレーム内復号画像メモリ109、復号参照画像メモリ110と同様の処理が行われる。復号参照画像メモリ209に蓄えられた復号画像は、出力端子210を介して、表示装置に復号画像信号として表示される。 Regarding the inverse quantization unit 205, the inverse orthogonal transform unit 206, the adder 207, the intra-frame decoded image memory 208, and the decoded reference image memory 209, the local decoding process of the moving image coding apparatus according to the first embodiment of the present invention. Processing similar to that of a certain inverse quantization unit 106, inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, and decoded reference image memory 110 is performed. The decoded image stored in the decoded reference image memory 209 is displayed as a decoded image signal on the display device via the output terminal 210.
 予測モード復号部203では、エントロピー復号部202より入力された予測モード情報と予測モードに応じた付加情報より、予測モードとして動き補償予測が選択された場合に、動きベクトル予測復号部212に対して、予測したブロック単位を示す情報である動き補償予測モード、第1参照画像合成動き補償予測モード、第2参照画像合成動き補償予測モードを示す情報と、復号した差分ベクトル値を出力すると共に、予測画像選択部204、および参照画像合成パラメータ格納部216に対して予測モード情報を出力する。また、予測モード復号部203は、復号した予測モード情報に応じて、フレーム内予測部211、動き補償予測部213、第1参照画像合成動き補償予測部215、および第2参照画像合成動き補償予測部217に対して、選択されたことを示す情報及び予測モードに応じた付加情報を出力する。 In the prediction mode decoding part 203, when motion compensation prediction is selected as a prediction mode from the prediction mode information input from the entropy decoding part 202 and the additional information corresponding to the prediction mode, the motion vector prediction decoding part 212 The information indicating the predicted block unit, the information indicating the motion compensation prediction mode, the first reference image synthesis motion compensation prediction mode, the second reference image synthesis motion compensation prediction mode, and the decoded difference vector value are output and predicted. Prediction mode information is output to the image selection unit 204 and the reference image synthesis parameter storage unit 216. The prediction mode decoding unit 203 also determines the intra-frame prediction unit 211, the motion compensation prediction unit 213, the first reference image synthesis motion compensation prediction unit 215, and the second reference image synthesis motion compensation prediction according to the decoded prediction mode information. Information indicating the selection and additional information according to the prediction mode are output to the unit 217.
 予測画像選択部204は、予測モード復号部203より入力された予測モード情報に応じて、フレーム内予測部211、動き補償予測部213、第1参照画像合成動き補償予測部215、および第2参照画像合成動き補償予測部217の何れかより出力された、復号対象ブロックに対する予測画像を選択し、加算器207に出力する。 The prediction image selection unit 204, according to the prediction mode information input from the prediction mode decoding unit 203, the intra-frame prediction unit 211, the motion compensation prediction unit 213, the first reference image synthesis motion compensation prediction unit 215, and the second reference The predicted image for the decoding target block output from any of the image synthesis motion compensation prediction unit 217 is selected and output to the adder 207.
 フレーム内予測部211は、復号した予測モードがフレーム内予測を示している場合に、予測モード復号部203より予測モードに応じた付加情報として、イントラ予測モードが入力され、イントラ予測モードに応じてフレーム内復号画像メモリ208に格納された、復号対象ブロックの周辺に対して復号が完了した領域の復号画像が入力され、符号化装置と同じイントラ予測モードでフレーム内の相関性を用いた予測が行なわれる。フレーム内予測部211は、予測により生成したフレーム内予測ブロックを、予測画像選択部204に出力する。 When the decoded prediction mode indicates intra-frame prediction, the intra-frame prediction unit 211 receives the intra prediction mode as additional information according to the prediction mode from the prediction mode decoding unit 203, and according to the intra prediction mode. The decoded image of the region where decoding is completed is input to the periphery of the decoding target block stored in the intra-frame decoded image memory 208, and prediction using the intra-frame correlation is performed in the same intra prediction mode as the encoding device. Done. The intra-frame prediction unit 211 outputs the intra-frame prediction block generated by the prediction to the predicted image selection unit 204.
 動きベクトル予測復号部212は、予測モード復号部203より入力された復号した差分ベクトル値に対して、周辺の復号済みブロックの動きベクトルを用いて、符号化装置で行う方式と同じ方法で予測動きベクトル値を算出し、差分ベクトル値と予測動きベクトル値を加算した値を、復号対象ブロックの動きベクトル値として動き補償予測部213、参照画像間動きベクトル検出部214、および参照画像合成パラメータ格納部216に出力する。動きベクトルは、動き補償予測モードもしくは第1参照画像合成画像動き補償予測モードで示される、予測処理のブロック単位に従って符号化された数だけ復号される。 The motion vector predictive decoding unit 212 uses the motion vector of the neighboring decoded block for the decoded difference vector value input from the prediction mode decoding unit 203, and performs the motion prediction using the same method as that performed by the encoding device. A value obtained by calculating a vector value and adding the difference vector value and the predicted motion vector value is used as a motion vector value of the decoding target block, as a motion compensated prediction unit 213, a reference image motion vector detection unit 214, and a reference image synthesis parameter storage unit. To 216. The motion vectors are decoded by the number encoded according to the block unit of the prediction process indicated in the motion compensation prediction mode or the first reference image synthesized image motion compensation prediction mode.
 動き補償予測部213は、動きベクトル予測復号部212より入力された動きベクトル値より、復号参照画像メモリ209より動き補償予測ブロックを生成し、生成した動き補償予測ブロックを、予測画像選択部204に出力する。 The motion compensated prediction unit 213 generates a motion compensated prediction block from the decoded reference image memory 209 from the motion vector value input from the motion vector predictive decoding unit 212, and sends the generated motion compensated prediction block to the predicted image selection unit 204. Output.
 参照画像間動きベクトル検出部214は、動きベクトル予測復号部212より入力された動きベクトル値より、復号参照画像メモリ209より動き補償予測に用いる第1の参照ブロックを抽出する。続いて、抽出した第1の参照ブロックと他の参照画像との間における動きベクトルをブロックマッチング等で誤差値を算出し、その値が小さな動きベクトルを参照画像間動きベクトルとして算出する。 The inter-reference image motion vector detection unit 214 extracts a first reference block used for motion compensated prediction from the decoded reference image memory 209 from the motion vector value input from the motion vector prediction decoding unit 212. Subsequently, an error value is calculated by block matching or the like for the motion vector between the extracted first reference block and another reference image, and a motion vector having a small value is calculated as a motion vector between reference images.
 続いて、参照画像間動きベクトル検出部214は、第1の参照ブロックを生成する動きベクトル値と、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を、第1参照画像合成動き補償予測部215に出力する。 Subsequently, the inter-reference image motion vector detection unit 214 generates a motion vector value between the motion vector value for generating the first reference block and another reference image calculated from the inter-reference image motion vector and the encoding target block. The value is output to the first reference image synthesis motion compensation prediction unit 215.
 第1参照画像合成動き補償予測部215は、参照画像間動きベクトル検出部214より入力された動きベクトル値および、参照画像間動きベクトルにより算出された他の参照画像と符号化対象ブロックとの間の動きベクトル値を元に、復号参照画像メモリ209より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。生成した参照画像合成動き補償予測ブロックは、予測画像選択部204に出力される。 The first reference image synthesis motion compensation prediction unit 215 includes a motion vector value input from the inter-reference image motion vector detection unit 214 and between another reference image calculated based on the inter-reference image motion vector and the encoding target block. The first prediction block and the second prediction block are obtained from the decoded reference image memory 209 based on the motion vector values of the two, and a reference image synthesis motion compensation prediction block is generated by synthesizing these prediction blocks. The generated reference image synthesis motion compensation prediction block is output to the prediction image selection unit 204.
 また、第1参照画像合成動き補償予測部215は、参照画像間動きベクトルにより算出された他の参照画像と復号対象ブロックとの間の動きベクトル値を、参照画像合成パラメータ格納部216に出力する。第1参照画像合成動き補償予測部215の動作の詳細に関しては後述する。 In addition, the first reference image synthesis motion compensation prediction unit 215 outputs a motion vector value between another reference image and a decoding target block calculated by the inter-reference image motion vector to the reference image synthesis parameter storage unit 216. . Details of the operation of the first reference image synthesis motion compensation prediction unit 215 will be described later.
 参照画像合成パラメータ格納部216は、第1参照画像合成動き補償予測部215より入力された、参照画像間動きベクトルにより算出された他の参照画像と復号対象ブロックとの間の動きベクトル値と、予測モード復号部203より入力された付加情報としての予測モード情報と、動きベクトル予測復号部212より入力された動きベクトル情報、および第2参照画像合成動き補償予測部217より入力される第2参照画像合成動き補償予測に対する参照画像合成予測に必要なパラメータを格納すると共に、第2参照画像合成動き補償予測部217に対して、復号対象ブロックの復号済周辺ブロックにおける、参照画像合成予測に必要なパラメータを出力する。 The reference image synthesis parameter storage unit 216 receives a motion vector value between another reference image calculated from the inter-reference image motion vector and the decoding target block, which is input from the first reference image synthesis motion compensation prediction unit 215, Prediction mode information as additional information input from the prediction mode decoding unit 203, motion vector information input from the motion vector prediction decoding unit 212, and a second reference input from the second reference image synthesis motion compensation prediction unit 217 Parameters necessary for the reference image synthesis prediction for the image synthesis motion compensation prediction are stored, and the second reference image synthesis motion compensation prediction unit 217 stores the parameters necessary for the reference image synthesis prediction in the decoded peripheral block of the decoding target block. Output parameters.
 第2参照画像合成動き補償予測部217は、参照画像合成パラメータ格納部216より入力される復号対象ブロックの復号済周辺ブロックにおける、参照画像合成に用いるパラメータを用いて、復号参照画像メモリ209より第1の予測ブロックおよび第2の予測ブロックを取得し、これらの予測ブロックを合成することで参照画像合成動き補償予測ブロックを生成する。生成した参照画像合成動き補償予測ブロックは、予測画像選択部204に出力される。 The second reference image synthesis motion compensation prediction unit 217 uses the parameters used for reference image synthesis in the decoded peripheral blocks of the decoding target block input from the reference image synthesis parameter storage unit 216, and uses the parameters used for reference image synthesis from the decoded reference image memory 209. 1 prediction block and 2nd prediction block are acquired, and a reference image synthetic | combination motion compensation prediction block is produced | generated by synthesize | combining these prediction blocks. The generated reference image synthesis motion compensation prediction block is output to the prediction image selection unit 204.
 また、第2参照画像合成動き補償予測部217は、選択された動き補償予測モードにおいて用いられる参照画像合成に用いるパラメータを参照画像合成パラメータ格納部216に出力する。第2参照画像合成動き補償予測部217の動作の詳細に関しては後述する。 Also, the second reference image synthesis motion compensation prediction unit 217 outputs a parameter used for reference image synthesis used in the selected motion compensation prediction mode to the reference image synthesis parameter storage unit 216. Details of the operation of the second reference image synthesis motion compensation prediction unit 217 will be described later.
 以下、実施の形態1の動画像符号化装置と動画像復号装置において動作する、参照画像合成動き補償予測の予測画像生成動作を、図3の概念図を用いて説明を行う。 Hereinafter, the prediction image generation operation of the reference image synthesis motion compensation prediction that operates in the moving image encoding device and the moving image decoding device of Embodiment 1 will be described using the conceptual diagram of FIG.
 図3b)および図3c)が、発明における参照画像合成動き補償予測を示す概念図である。図3a)は、MPEG4-AVCにおいて用いられている2つの参照画像を用いた双方向動き補償予測の概念図となる。 FIGS. 3b) and 3c) are conceptual diagrams showing reference image synthesis motion compensation prediction in the invention. FIG. 3a) is a conceptual diagram of bidirectional motion compensated prediction using two reference images used in MPEG4-AVC.
 図3a)は、2つの参照画像に対して符号化対象ブロックとの間で動きベクトルを検出し、それぞれの参照画像に対する動きベクトルを伝送すると共に、2つの動きベクトルで示される参照ブロックの平均値を予測画像とする手法である。2つの参照画像を合成することで、時間方向の動き適応フィルタとしての符号化劣化成分の除去機能と、符号化対象物の微少な輝度変化成分を平均化により追従する機能とを持った予測画像を生成できる。 FIG. 3a) detects a motion vector between two reference images with a target block, transmits a motion vector for each reference image, and averages the reference blocks indicated by the two motion vectors. Is a prediction image. A prediction image having a function of removing an encoding degradation component as a motion adaptive filter in the time direction by synthesizing two reference images and a function of following a minute luminance change component of an encoding object by averaging. Can be generated.
 MPEG4―AVCにおいては、複数毎の復号された参照画像を格納しておき、所定のブロック単位に予測に用いる参照画像の番号と動きベクトルを伝送することで、適応的に参照画像を選択している。図3a)の場合には、参照画像として4枚の復号画像が確保されており、参照画像1と参照画像3を用いて2つの予測画像を取得し、双方向予測を行う場合を示している。
動きベクトルとしては、mvL0及びmvL1が予測動きベクトルとの差分値を取られ伝送される。
In MPEG4-AVC, a plurality of decoded reference images are stored, and a reference image number and a motion vector used for prediction are transmitted in a predetermined block unit to adaptively select the reference image. Yes. In the case of FIG. 3 a), four decoded images are secured as reference images, and two prediction images are acquired using the reference image 1 and the reference image 3, and bidirectional prediction is performed. .
As the motion vectors, mvL0 and mvL1 are transmitted after taking a difference value from the predicted motion vector.
 これに対して、図3b)では、基準となる参照画像を特定し動きベクトルを検出し、その動きベクトルmvL0を用いて取得した第1の参照ブロックと、他の参照画像との間の参照画像間動きベクトルmvInterRefを求めることにより、符号化対象画像と他の参照画像の間の動きmvL1を動きベクトルの伝送無しに生成する手法をとる。復号側では、伝送された動きベクトルmvL0を用いて同様の処理を行うことで、mvL1を生成出来る。 In contrast, in FIG. 3b), a reference image serving as a reference is specified, a motion vector is detected, and a reference image between the first reference block acquired using the motion vector mvL0 and another reference image By obtaining the inter-motion vector mvInterRef, a method of generating the motion mvL1 between the encoding target image and another reference image without transmitting the motion vector is adopted. On the decoding side, mvL1 can be generated by performing similar processing using the transmitted motion vector mvL0.
 特許文献1に示される方法は、符号化対象画像を跨ぐ隣接画像における物体の動きが一様である場合に、2つの参照画像間で符号化対象ブロックと対称位置になるブロックの誤差値を評価することで、動きベクトルを伝送せずにmvL0とmvL1を生成する手法であるが、動きが一様である限定でmvL0、mvL1が生成され、時間的に連続性の少ない場合には有効に機能しないため、十分に予測誤差の少ない予測ブロックを生成することが出来ない。また、動きの大きな画像に対して、適切な動きを生成するためには大きな動き探索範囲が必要となり、符号化装置・復号装置における動き探索処理に要する演算量が増大する。 The method disclosed in Patent Document 1 evaluates an error value of a block that is symmetrical with an encoding target block between two reference images when the motion of an object in an adjacent image across the encoding target image is uniform. By doing so, it is a method to generate mvL0 and mvL1 without transmitting motion vectors, but it is effective when mvL0 and mvL1 are generated with a limited motion and there is little continuity in time Therefore, it is impossible to generate a prediction block with a sufficiently small prediction error. Also, a large motion search range is required to generate an appropriate motion for an image with a large motion, and the amount of calculation required for motion search processing in the encoding device / decoding device increases.
 図3b)の構成においては、符号化対象ブロックの予測ブロックとして適切な参照ブロックを伝送するmvL0より取得し、生成された予測画像ブロックに対して、符号化・復号の双方で、他の参照画像の同一領域を参照画像間の動きベクトルを検出することで追跡し、他方の動きベクトル値を暗黙的に算出させることで、符号化対象ブロックの予測に適した動きベクトルを少ない探索範囲で取得することが可能となり、これにより空間的・時間的な連続性の少ない動画像信号においても、適切な双方向予測を動きベクトルの伝送を伴うことなく実現し、符号化効率を大幅に向上可能である。 In the configuration of FIG. 3b), other reference images are obtained from mvL0 that transmits an appropriate reference block as a prediction block of an encoding target block, and the generated prediction image block is both encoded and decoded. Are detected by detecting a motion vector between reference images, and the other motion vector value is implicitly calculated, thereby obtaining a motion vector suitable for prediction of a coding target block with a small search range. This makes it possible to achieve appropriate bi-directional prediction without involving motion vectors even in moving image signals with little spatial and temporal continuity, and greatly improve coding efficiency. .
 また、図3c)の構成のように、予測画像を生成するための参照画像を3枚以上にして、それぞれの動きベクトルmvL1,mvL2を参照画像間の動きベクトルを検出することで生成することも可能であり、多くの参照画像を用いて合成することで、符号化歪や変形を伴った動きによる予測画像の効率低下を低減した予測を、図3b)と同様に、1つの動きベクトルの伝送により実現でき、さらに符号化効率を向上させることが可能である。 In addition, as in the configuration of FIG. 3c), it is also possible to generate three or more reference images for generating a predicted image and detect each of the motion vectors mvL1 and mvL2 by detecting a motion vector between the reference images. It is possible to transmit a single motion vector in the same way as in FIG. 3b) by reducing the efficiency reduction of the predicted image due to motion accompanied by coding distortion and deformation by combining with many reference images. The encoding efficiency can be further improved.
 本発明においては、上記参照画像合成動き補償予測による符号化効率の向上に加えて、符号化・復号済ブロックにおいて用いられた参照画像合成動き補償予測に必要なパラメータを用いて、復号側での参照画像間動きベクトルを動きベクトル検出処理を用いずに算出して参照画像合成動き補償予測を行う、第2の参照画像合成動き補償予測処理を導入することにより、空間的に動きの連続性がある画像に対して、小さい領域で参照画像間の動きベクトル検出を用いて生成された動きベクトルを、より広い範囲で適応されることができ、復号装置における動きベクトル検出に必要な演算量を大幅に削減すると共に、より少ない動きベクトルの伝送で、予測画像の効率を向上させた符号化を実現することが可能となる。 In the present invention, in addition to the improvement of the encoding efficiency by the reference image synthesis motion compensation prediction, the parameters necessary for the reference image synthesis motion compensation prediction used in the encoded / decoded block are used on the decoding side. By introducing a second reference image synthesis motion compensation prediction process that calculates a motion vector between reference pictures without using a motion vector detection process and performs a reference image synthesis motion compensation prediction, motion continuity is spatially reduced. For a certain image, a motion vector generated using motion vector detection between reference images in a small area can be applied in a wider range, greatly increasing the amount of computation required for motion vector detection in a decoding device. In addition, it is possible to realize encoding with improved efficiency of a predicted image by transmitting fewer motion vectors.
 次に、実施の形態1における予測ブロック生成処理の動作を図4のフローチャートを用いて説明する。 Next, the operation of the prediction block generation process in Embodiment 1 will be described using the flowchart of FIG.
 符号化側においては、フレーム内予測を行う(S400)と共に、フレーム間予測を行うフレームにおいては、符号化対象ブロックと復号参照画像間で第1の動きベクトルを検出し(S401)、第1の動きベクトルを用いて従来の動き補償予測である、片方向および双方向の動き補償予測を行う(S402)。続いて、第1の動きベクトルを用いて生成した第1の予測ブロックと複数参照画像間で第2の動きベクトルを算出する(S403)。 On the encoding side, intra-frame prediction is performed (S400), and in a frame for which inter-frame prediction is performed, a first motion vector is detected between the encoding target block and the decoded reference image (S401). One-way and two-way motion compensation prediction, which is a conventional motion compensation prediction, is performed using a motion vector (S402). Subsequently, a second motion vector is calculated between the first prediction block generated using the first motion vector and a plurality of reference images (S403).
 第1の動くベクトルと算出した第2の動きベクトルを用いて、第1の参照画像合成動き補償予測を行う(S404)。続いて、復号済周辺ブロックで算出された第1の動きベクトルと第2の動きベクトルを用いて、第2の参照画像合成動き補償予測を行う(S405)。 The first reference image synthesis motion compensation prediction is performed using the first motion vector and the calculated second motion vector (S404). Subsequently, the second reference image synthesis motion compensation prediction is performed using the first motion vector and the second motion vector calculated in the decoded peripheral block (S405).
 これらの処理により求められた、フレーム内予測/片方向・双方向動き補償予測/第1の参照画像合成動き補償予測/第2の参照画像合成動き補償予測より、それぞれの予測に必要な付加情報を加味した符号量と、符号化歪より算出した誤差評価値を元に、最適な予測ブロックを選択して、出力する(S406)。 Additional information necessary for each prediction from intra-frame prediction / one-way / bidirectional motion compensation prediction / first reference image synthesis motion compensation prediction / second reference image synthesis motion compensation prediction obtained by these processes. Is selected and output based on the error amount calculated from the encoding amount and the encoding distortion (S406).
 最後に、選択された予測ブロックの生成に必要なパラメータを参照画像合成パラメータ格納部に記録する(S407)。記録すべき情報としては、最適な予測ブロックを示す情報と動き補償予測に用いられる参照画像情報、および動きベクトルとなる。 Finally, parameters necessary for generating the selected prediction block are recorded in the reference image synthesis parameter storage unit (S407). Information to be recorded includes information indicating an optimal prediction block, reference image information used for motion compensation prediction, and a motion vector.
 復号側においては予測モード情報を復号し、予測モードがフレーム内予測モードである場合(S410:YES)には、フレーム内予測を行う(S411)。そうでない場合に(S410:NO)予測モードが第2の参照画像合成動き補償予測モードである場合(S412:YES)には、参照画像合成パラメータ格納部に記録された復号済周辺ブロックで復号された第1の動きベクトルと第2の動きベクトルを用いて、第2の参照画像合成動き補償予測を行う(S413)。 On the decoding side, the prediction mode information is decoded, and when the prediction mode is the intra-frame prediction mode (S410: YES), intra-frame prediction is performed (S411). If not (S410: NO), if the prediction mode is the second reference image synthesis motion compensation prediction mode (S412: YES), decoding is performed with the decoded peripheral blocks recorded in the reference image synthesis parameter storage unit. The second reference image synthesis motion compensation prediction is performed using the first motion vector and the second motion vector (S413).
 予測モードが第2の参照画像合成動き補償予測モードでない場合(S412:NO)、予測モードが第1の参照画像合成動き補償予測モードでない場合(S414:NO)には、従来の動き補償予測処理がおこなわれ、復号した第1の動きベクトルを用いて片方向もしくは双方向予測の動き補償予測が行われる(S415)。予測モードが第1の参照画像合成動き補償予測モードである場合(S414:YES)には、復号した第1の動きベクトルを用いて生成した第1の予測ブロックと複数参照画像間で第2の動きベクトルを算出する(S416)。そして、算出された第2の動きベクトルと第1の動きベクトルを用いて、第1の参照画像合成動き補償予測が行われる(S417)。 When the prediction mode is not the second reference image synthesis motion compensation prediction mode (S412: NO), and when the prediction mode is not the first reference image synthesis motion compensation prediction mode (S414: NO), the conventional motion compensation prediction process is performed. Is performed, and motion compensation prediction of one-way or bidirectional prediction is performed using the decoded first motion vector (S415). When the prediction mode is the first reference image synthesis motion compensation prediction mode (S414: YES), the second prediction is performed between the first prediction block generated using the decoded first motion vector and the plurality of reference images. A motion vector is calculated (S416). Then, using the calculated second motion vector and first motion vector, first reference image synthesis motion compensation prediction is performed (S417).
 これらの予測処理により生成された予測ブロックが復号時の予測画像情報として出力される(S418)と共に、後続する復号ブロックの復号処理に用いるために、選択された予測ブロックの生成に必要なパラメータを参照画像合成パラメータ格納部に記録する(S419)。 The prediction block generated by these prediction processes is output as the prediction image information at the time of decoding (S418), and the parameters necessary for generating the selected prediction block are used for the decoding process of the subsequent decoding block. It is recorded in the reference image synthesis parameter storage unit (S419).
 次に、実施の形態1における第1参照画像合成動き補償予測処理の動作を図5のフローチャートを用いて説明する。符号化・復号装置のブロックとしては、参照画像間動きベクトル検出部(図1の120、図2の214)および第1参照画像合成動き補償予測部(図1の121、図2の215)によって行われる詳細動作の説明となる。 Next, the operation of the first reference image synthesis motion compensation prediction process in Embodiment 1 will be described using the flowchart of FIG. As a block of the encoding / decoding device, an inter-reference image motion vector detection unit (120 in FIG. 1, 214 in FIG. 2) and a first reference image synthesis motion compensation prediction unit (121 in FIG. 1, 215 in FIG. 2) are used. This is a description of the detailed operations performed.
 符号化側では、最初に符号化対象ブロックに対する基準参照画像を確定する(S500)。符号化時には予測可能な参照画像に対して、参照画像を示す情報を伝送することで選択的に参照画像を指定できるため、すべての参照画像を基準参照画像に設定して、以降の処理を動作させ最適な予測ブロックを生成することが可能である。 The encoding side first determines a standard reference image for the encoding target block (S500). Since the reference image can be selectively specified by transmitting information indicating the reference image to the predictable reference image at the time of encoding, all the reference images are set as the standard reference image and the subsequent processing is performed. It is possible to generate an optimal prediction block.
 続いて、動きベクトル検出部(図1の117)により検出された基準参照画像に対する第1の動きベクトル値mvL0 baseを入力する(S501)。実施例としては、通常の動き補償予測に用いられる動きベクトル値を入力させているが、別途他の手法で特定された動きベクトル値を入力することも可能である。 Subsequently, the first motion vector value mvL0 base for the standard reference image detected by the motion vector detection unit (117 in FIG. 1) is input (S501). As an embodiment, a motion vector value used for normal motion compensation prediction is input, but it is also possible to input a motion vector value specified by another method.
 次に、mvL0 baseを整数画素精度に丸めこんだ値である、mvL0 roundedを用いた予測ブロックを生成する(S502)。例えば、入力された動きベクトル値mvL0 baseが1/4画素精度であった場合には、mvL0 roundedを以下のように計算で求める。
mvL0 rounded=(mvL0 base +2)>>2 (水平・垂直別々に演算)
Next, a prediction block using mvL0 rounded, which is a value obtained by rounding mvL0 base to integer pixel precision, is generated (S502). For example, when the input motion vector value mvL0 base has a 1/4 pixel accuracy, mvL0 rounded is obtained by calculation as follows.
mvL0 rounded = (mvL0 base +2) >> 2 (calculated separately for horizontal and vertical)
 このようにして生成された予測ブロックと、他の参照画像との間で参照画像間動きベクトル値mvInterRefを算出する(S503)。この処理の詳細は、参照画像間動きベクトル検出部(図1の120、図2の214)に対する説明で行う。ここで、生成されたmvL0 roundedとmvInterRefを加算することで、第2の動きベクトルの基準となるmvL1 baseを算出する(S504)。 The inter-reference image motion vector value mvInterRef is calculated between the prediction block generated in this way and another reference image (S503). Details of this processing will be described in the description of the inter-reference image motion vector detection unit (120 in FIG. 1 and 214 in FIG. 2). Here, by adding the generated mvL0edrounded and mvInterRef, mvL1 base serving as a reference for the second motion vector is calculated (S504).
 S502によりmvL0 baseを整数画素精度に丸めこんだため、符号化時に伝送する動きベクトルの精度分の情報が複数参照画像予測ブロックの精度を高くするための情報として用いることが可能となる。整数画素精度に丸めこむと0になる範囲の動きを位相シフトベクトルphase vectorとして定義し、phase vectorをmvL0 roundedとmvL1 baseそれぞれに加算した動きベクトル値を用いて、2つの参照画像より予測ブロックを生成し、その加算平均を候補とする予測ブロックとして、符号化対象ブロックとの予測誤差値を算出する(S505)。 Since mvL0 base is rounded to integer pixel accuracy in S502, the information for the accuracy of the motion vector transmitted at the time of encoding can be used as information for increasing the accuracy of the multi-reference image prediction block. Define the motion in the range that becomes 0 when rounded to integer pixel precision as a phase shift vector phase vector, and use the motion vector value obtained by adding phase vector to mvL0 rounded and mvL1 base respectively, to predict a prediction block from two reference images A prediction error value with respect to the encoding target block is calculated as a prediction block that is generated and the average of which is a candidate (S505).
 具体的には、phase vectorは1/4画素精度である場合には、水平・垂直共に-1/2≦phase vector<1/2の範囲内で、動きベクトル値と加算して伝送できるため、この範囲内でphase vectorを移動させて、それぞれの予測誤差値を算出する。復号時にはphase vectorは伝送されたmvL0と整数画素精度に丸めこまれたmvL0 roundedの差分として再現できる。 Specifically, when the phase vector is 1/4 pixel precision, both horizontal and vertical can be transmitted in addition to the motion vector value within the range of -1 / 2 ≦ phase vector <1/2. By moving the phase vector within this range, each prediction error value is calculated. During decoding, the phase vector can be reproduced as the difference between the transmitted mvL0 and the mvL0 rounded rounded to integer pixel precision.
 最後に、最小の予測誤差値をとるphase vectorをmvL0 roundedおよびmvL1 baseに加算した動きベクトル値を第1参照画像合成動き補償予測ブロックにおける第1の動きベクトル値mvL0および第2の動きベクトル値mvL1として、mvL0,mvL1より双方向予測された予測ブロックと共に出力する(S506)。第1参照画像合成動き補償予測の場合には、出力されたmvL0の情報のみが動きベクトル値として伝送され、mvL1の情報は伝送されず、復号側で参照画像間動きベクトル検出を行うことで生成する構成となる。 Finally, the first motion vector value mvL0 and the second motion vector value mvL1 in the first reference image synthesis motion compensated prediction block are obtained by adding the motion vector value obtained by adding the phase vector that takes the minimum prediction error value to mvL0 rounded and mvL1 base. Are output together with the prediction block bidirectionally predicted from mvL0 and mvL1 (S506). In the case of the first reference image synthesis motion compensated prediction, only the output mvL0 information is transmitted as a motion vector value, the mvL1 information is not transmitted, and is generated by detecting the inter-reference image motion vector on the decoding side. It becomes the composition to do.
 復号側における第1参照画像合成動き補償予測の動作は、最初に符号化対象ブロックに対する基準参照画像を確定する(S510)。これは復号された予測モードが第1参照画像合成動き補償予測の場合には、通常の動き補償予測の片方向予測を示す情報として参照画像を指定する情報が復号され、その情報により基準参照画像を確定できる。 In the operation of the first reference image synthesis motion compensation prediction on the decoding side, first, a reference reference image for the encoding target block is determined (S510). In this case, when the decoded prediction mode is the first reference image synthesis motion compensated prediction, information specifying the reference image is decoded as information indicating the unidirectional prediction of the normal motion compensated prediction. Can be confirmed.
 続いて、基準参照画像に対して復号された第1の動きベクトル値mvL0を動きベクトル予測復号部(図2の212)より入力し(S511)、mvL0を整数画素精度に丸めこんだ値mvL0 roundedを用いて予測ブロックを生成する(S512)。 Subsequently, the first motion vector value mvL0 decoded for the standard reference image is input from the motion vector prediction decoding unit (212 in FIG. 2) (S511), and the value mvL0vrounded by rounding mvL0 to integer pixel precision. Is used to generate a prediction block (S512).
 このようにして生成された予測ブロックと、他の参照画像との間で参照画像間動きベクトル値mvInterRefを算出する(S513)。この処理は符号化側における参照画像間動きベクトル検出と同じ動作となる。ここで、生成されたmvL0 roundedとmvInterRefを加算することで、第2の動きベクトルの基準となるmvL1 baseを算出する(S514)。 The inter-reference image motion vector value mvInterRef is calculated between the prediction block generated in this way and another reference image (S513). This process is the same as the motion vector detection between reference images on the encoding side. Here, by adding the generated mvL0 rounded and mvInterRef, mvL1 base serving as a reference for the second motion vector is calculated (S514).
 次に、mvL0とmvL0 roundedの差分をphase vectorとして算出する(S515)。算出したphase vectorをmvL1 baseに加算することでmvL1が算出される(S516)。最後に、算出されたmvL0とmvL1を用いて、双方向予測された予測ブロックをmvL0,mvL1と共に出力する(S517)。 Next, the difference between mvL0 and mvL0 rounded is calculated as a phase vector (S515). MvL1 is calculated by adding the calculated phase vector to mvL1 base (S516). Finally, using the calculated mvL0 and mvL1, bi-predicted prediction blocks are output together with mvL0 and mvL1 (S517).
 実施の形態1における第1参照画像合成動き補償予測において、参照画像間動きベクトル値を求める基準となるmvL0 roundedに関しては整数画素としているが、最終的に伝送される精度以下であれば同様の参照画像合成動き補償予測を施すことは可能であり、最終的に伝送される動きベクトルの精度と同じ精度の動きベクトル値をmvL0 roundedとして用いる場合には、phase vectorが0に固定になるため、符号化側におけるS505の処理が施されなくなり、符号化側での参照画像合成時の誤差評価を加味した動きベクトル値検出ができないが、精度の良い予測ブロックを元に参照画像間動きベクトル検出が行われる。 In the first reference image synthesis motion compensated prediction in the first embodiment, mvL0 rounded, which is a reference for obtaining the inter-reference image motion vector value, is an integer pixel. It is possible to perform image synthesis motion compensated prediction, and when using a motion vector value with the same accuracy as that of the finally transmitted motion vector as mvL0 rounded, the phase vector is fixed to 0. The motion vector value cannot be detected in consideration of the error evaluation at the time of synthesizing the reference image on the encoding side, but the inter-reference image motion vector detection is performed based on the prediction block with high accuracy. Is called.
 実施の形態1においては、mvL0 roundedは整数画素としているため、参照画像間動きベクトル検出時に第1の予測ブロックに対して、少数画素精度の予測ブロックを生成するためのフィルタリング処理を行わなくて良い利点と、符号化側での参照画像合成時の誤差評価を加味した動きベクトル値が生成できる利点がある。 In the first embodiment, since mvL0 rounded is an integer pixel, it is not necessary to perform a filtering process for generating a prediction block with a small pixel precision on the first prediction block when detecting a motion vector between reference images. There is an advantage that a motion vector value can be generated in consideration of an error evaluation at the time of synthesizing a reference image on the encoding side.
 続いて、符号化・復号における第1参照画像合成動き補償予測処理に用いられる、参照画像間動きベクトル検出部(図1の120、図2の214)の説明を、図6に示す構成図および図8に示す処理フローチャートを用いて行う。 Next, the description of the inter-reference image motion vector detection unit (120 in FIG. 1, 214 in FIG. 2) used in the first reference image synthesis motion compensation prediction process in encoding / decoding will be described with reference to the configuration diagram and FIG. This is performed using the processing flowchart shown in FIG.
 参照画像間動きベクトル検出部(図1の120、図2の214)は、基準参照画像取得部600、動きベクトル検出範囲設定部601、基準参照画像メモリ602、参照画像取得部603、及びブロックマッチング評価部604から構成される。 The inter-reference image motion vector detection unit (120 in FIG. 1 and 214 in FIG. 2) includes a standard reference image acquisition unit 600, a motion vector detection range setting unit 601, a standard reference image memory 602, a reference image acquisition unit 603, and block matching. The evaluation unit 604 is configured.
 最初に、基準参照画像取得部600が動きベクトル検出部(図1の117)もしくは動きベクトル予測復号部(図2の212)より入力された、基準参照画像の参照ID及び動きベクトル値mvL0を元にmvL0 roundedを算出し、復号参照画像メモリ(図1の110、図2の209)より、基準参照画像の符号化対象ブロックからmvL0 rounded移動した位置の画像ブロックを切り出し、第1の参照ブロックを取得する(S800)。取得した参照ブロックは、基準参照画像メモリ602に格納される。 First, based on the reference ID and motion vector value mvL0 of the reference reference image input from the reference vector acquisition unit 600 from the motion vector detection unit (117 in FIG. 1) or the motion vector prediction decoding unit (212 in FIG. 2). MvL0 rounded is calculated from the decoded reference image memory (110 in FIG. 1, 209 in FIG. 2), and the image block at the position moved mvL0 rounded from the encoding target block of the standard reference image is cut out, and the first reference block is extracted. Obtain (S800). The acquired reference block is stored in the standard reference image memory 602.
 続いて、動きベクトル検出範囲設定部601は、第2参照画像の参照IDを確定して、基準参照画像と第2参照画像の間で検出する、参照画像間動きベクトルの検出範囲を設定する(S801)。基準参照画像に対する他方の参照IDに対しては、画面単位の情報としてMPEG4-AVCにおけるスライスヘッダと同様の単位で伝送する構成を取ることも可能であるが、実施の形態1においては、第1参照画像の参照ID毎に暗黙で第2参照画像の参照IDを確定する構成をとる。 Subsequently, the motion vector detection range setting unit 601 determines the reference ID of the second reference image, and sets a detection range of the inter-reference image motion vector that is detected between the standard reference image and the second reference image ( S801). With respect to the other reference ID for the reference reference image, it is possible to adopt a configuration in which information is transmitted in units similar to the slice header in MPEG4-AVC as information in units of screens. A configuration is adopted in which the reference ID of the second reference image is implicitly determined for each reference ID of the reference image.
 検出範囲に関しては、第1の参照ブロックに対して、第2参照画像の全領域を動きベクトル検出範囲にとることも可能であり、符号化装置と復号装置と同じ定義で検出処理を行うことで機能するが、参照画像間の動きベクトル検出における演算量を減らすために、図7で示すような検出範囲の設定を行う。 Regarding the detection range, it is also possible to take the entire area of the second reference image as the motion vector detection range for the first reference block, and by performing detection processing with the same definition as the encoding device and the decoding device. Although functioning, in order to reduce the amount of calculation in detecting a motion vector between reference images, a detection range as shown in FIG. 7 is set.
 図7は、実施の形態1における参照画像間の動きベクトル検出範囲の一例である。符号化対象画像の入力時刻をPoc Cur、基準参照画像の入力時刻をPoc Ref1、第2参照画像の入力時刻をPoc Ref2とすると、符号化対象ブロックに対する基準参照画像からの動きベクトルmvL0 roundedに対して、第2参照画像の探索範囲を符号化対象ブロックの位置を基準にすると、探索中心位置を
α=mvL0 rounded×(Poc Cur - Poc Ref2)/(Poc Cur - Poc Ref1)で表されるように、時間的に動きが連続していることを想定した場合の符号化対象ブロックと第2参照画像の間の動きベクトル予測値に設定する。
FIG. 7 is an example of a motion vector detection range between reference images in the first embodiment. When the input time of the encoding target image is Poc Cur, the input time of the standard reference image is Poc Ref1, and the input time of the second reference image is Poc Ref2, the motion vector mvL0 rounded from the standard reference image for the encoding target block is If the search range of the second reference image is based on the position of the encoding target block, the search center position is expressed as α = mvL0 rounded × (Poc Cur−Poc Ref2) / (Poc Cur−Poc Ref1). In addition, the motion vector prediction value between the encoding target block and the second reference image when it is assumed that the motion is temporally continuous is set.
 しかしながら、カメラの動きや物体の動き等、時間的に連続な変化ではない状況も多いため、探索位置を中心として特定の領域に関して動きベクトルを探索することで、適切な第2参照画像の参照ブロックを取得できるようにする。図7に示した一例においては、特定の領域として、±8画素の領域を指定している。 However, since there are many situations that are not temporally continuous changes, such as camera movements and object movements, an appropriate reference block of the second reference image can be obtained by searching for a motion vector for a specific region with the search position as the center. To be able to get In the example shown in FIG. 7, an area of ± 8 pixels is specified as the specific area.
 参照画像取得部603は、動きベクトル検出範囲設定部601より指定された、動きベクトルの検出範囲における第2参照画像の参照ブロックを、復号参照画像メモリ(図1の110、図2の209)より取得し(S802)、ブロックマッチング評価部604に出力する。 The reference image acquisition unit 603 obtains the reference block of the second reference image in the motion vector detection range designated by the motion vector detection range setting unit 601 from the decoded reference image memory (110 in FIG. 1, 209 in FIG. 2). Obtain (S802) and output to the block matching evaluation unit 604.
 ブロックマッチング評価部604では、基準参照画像メモリ602に格納された第1の参照ブロックと、参照画像取得部603より入力された第2参照画像の参照ブロックとの間で画素毎の誤差総和を算出し、より総和が少ない参照ブロックと参照ブロックを取得した際の動きベクトル値を格納する(S803)。ブロックマッチング手法としては、通常の動きベクトル検出部と同様に、SADやSSE等の評価値で評価されるが、参照画像間動きベクトル検出で導出される動きベクトル値は、符号化時に伝送されないため、動きベクトルの符号量は考慮しないで評価する。 The block matching evaluation unit 604 calculates an error sum for each pixel between the first reference block stored in the standard reference image memory 602 and the reference block of the second reference image input from the reference image acquisition unit 603. Then, a reference block having a smaller total sum and a motion vector value when the reference block is acquired are stored (S803). As a block matching method, evaluation is performed using evaluation values such as SAD and SSE as in the case of a normal motion vector detection unit. However, since a motion vector value derived by detecting a motion vector between reference images is not transmitted during encoding. The evaluation is made without considering the code amount of the motion vector.
 すべての動きベクトルの検出範囲に対して、画素毎の誤差総和を算出した(S804:YES)後で、保存されている参照ブロックを第2の参照ブロックとし、動きベクトル値を参照画像間動きベクトル値mvInterRefとする(S805)。 After calculating the error sum for each pixel for all the motion vector detection ranges (S804: YES), the stored reference block is set as the second reference block, and the motion vector value is set as the inter-reference image motion vector. The value is mvInterRef (S805).
 参照画像間動きベクトルの検出精度に関しても、符号化装置と復号装置において同じ検出精度の動きベクトル検出を暗黙に行う手法を適用可能であるが、フレーム単位や用いられる参照画像毎に動きベクトルの検出精度を符号化情報として伝送する手法を用いることも可能である。ここでは、暗黙の設定として1/4画素精度の検出精度とする。算出した参照画像間動きベクトル値mvInterRefは、mvL0、mvL0 rounded、第1の参照ブロック及び第2の参照ブロックと共に、第1参照画像合成動き補償予測部(図1の121、図2の215)に出力される(S806)。 Regarding the detection accuracy of motion vectors between reference images, it is possible to apply a method of implicitly detecting motion vectors with the same detection accuracy in the encoding device and the decoding device, but detection of motion vectors for each frame or reference image used. It is also possible to use a technique of transmitting accuracy as encoded information. Here, as an implicit setting, the detection accuracy is 1/4 pixel accuracy. The calculated inter-reference image motion vector value mvInterRef is sent to the first reference image synthesis motion compensation prediction unit (121 in FIG. 1, 215 in FIG. 2) together with mvL0, mvL0 rounded, the first reference block, and the second reference block. It is output (S806).
 次に、実施の形態1における第2参照画像合成動き補償予測の動作を図9のフローチャートを用いて説明する。符号化・復号装置のブロックとしては、参照画像合成パラメータ格納部(図1の122、図2の216)および第2参照画像合成動き補償予測部(図1の123、図2の217)によって行われる詳細動作の説明となる。 Next, the operation of the second reference image synthesis motion compensated prediction in Embodiment 1 will be described using the flowchart of FIG. As a block of the encoding / decoding device, a reference image synthesis parameter storage unit (122 in FIG. 1, 216 in FIG. 2) and a second reference image synthesis motion compensation prediction unit (123 in FIG. 1, 217 in FIG. 2) are used. The detailed operation will be described.
 符号化側においては、最初に符号化対象ブロックの上部の復号済ブロックに対する参照画像合成パラメータを取得する(S900)。符号化対象ブロックと隣接する復号済ブロックは、図10a)に示されるような関係にあり、上部のブロックとしてはBの位置のパラメータを取得することになる。パラメータとしては、図10b)にあるような情報が格納される。実施の形態1においては、基本予測モード/参照画像合成モード/動きベクトル情報(2本)、合成モード動きベクトル情報が格納される。 On the encoding side, first, reference image synthesis parameters for the decoded block above the encoding target block are acquired (S900). The decoded block adjacent to the encoding target block has a relationship as shown in FIG. 10a), and the parameter at the position B is acquired as the upper block. Information as shown in FIG. 10b) is stored as parameters. In the first embodiment, basic prediction mode / reference image synthesis mode / motion vector information (two) and synthesis mode motion vector information are stored.
 基本予測モードとしては、イントラ予測もしくは、動き補償予測として予測動きベクトルにより予測され伝送される動きベクトルの数を示す予測モードが格納される。参照画像合成モードとしては、参照画像合成動き補償予測を用いたか否かを示すフラグが格納される。参照画像合成モードがOnの場合には、基本予測モードとしては片方向予測が設定される。(1本の動きベクトルのみを伝送する為) As the basic prediction mode, a prediction mode indicating the number of motion vectors predicted and transmitted by a prediction motion vector as intra prediction or motion compensated prediction is stored. As the reference image synthesis mode, a flag indicating whether or not the reference image synthesis motion compensation prediction is used is stored. When the reference image synthesis mode is On, unidirectional prediction is set as the basic prediction mode. (To transmit only one motion vector)
 動きベクトル情報としては、用いた参照画像を特定する参照画像IDと動きベクトル値が格納され、合成モード動きベクトル情報としては、参照画像合成動き補償において生成された、符号化情報として伝送されない動きベクトル値が格納される。実施の形態1においては、参照画像合成動き補償では2つの参照画像に対する動きベクトルを用いる構成になっているので、合成モード動きベクトル情報としては、対象ブロック単位に1本の動きベクトルが格納されるが、3つ以上の参照画像を用いる場合には、2本以上の動きベクトルが格納される。 As the motion vector information, a reference image ID for specifying the used reference image and a motion vector value are stored, and as the synthesis mode motion vector information, a motion vector generated in the reference image synthesis motion compensation and not transmitted as encoded information is stored. Stores the value. In the first embodiment, since the reference image synthesis motion compensation is configured to use motion vectors for two reference images, one motion vector is stored for each target block as synthesis mode motion vector information. However, when three or more reference images are used, two or more motion vectors are stored.
 次に、取得した復号画像合成パラメータの予測モードがフレーム内予測モードである場合(S901:YES)は、上部の復号済ブロックを参照した第2参照画像合成動き補償予測は無効となり、予測ブロックは生成されない。予測モードがフレーム内予測モードでない場合(S901:NO)に、パラメータの参照画像合成モードがOnでない場合(S902:NO)には、パラメータの予測モードとして動きベクトルを用いて片方向もしくは双方向の動き補償予測ブロックを生成する(S903)。 Next, when the prediction mode of the acquired decoded image synthesis parameter is the intra-frame prediction mode (S901: YES), the second reference image synthesis motion compensation prediction referring to the upper decoded block is invalid, and the prediction block is Not generated. When the prediction mode is not the intra-frame prediction mode (S901: NO), and when the parameter reference image synthesis mode is not On (S902: NO), the motion vector is used as the parameter prediction mode to perform one-way or two-way. A motion compensated prediction block is generated (S903).
 パラメータの参照画像合成モードがOnである場合(S902:YES)は、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S904)。この結果は、上部で算出された複数合成画像動き補償と同じ処理が、符号化対象ブロックにおいて施された結果と同じ条件の予測ブロックを生成することになる。 If the parameter reference image synthesis mode is On (S902: YES), a bi-directional motion compensated prediction block is generated using the stored motion vector and synthesis mode motion vector information (S904). As a result, a prediction block having the same condition as the result obtained by applying the same process as the multiple composite image motion compensation calculated in the upper part to the encoding target block is generated.
 これらにより生成された予測ブロックに対して、符号化対象ブロックとの間で予測誤差評価値extended aboveが計算される(S905)。 The prediction error evaluation value extended above is calculated between the prediction block generated by these and the encoding target block (S905).
 続いて、符号化対象ブロックの左部の復号済ブロックに対する参照画像合成パラメータを取得する(S906)。図10a)において、左部のブロックとしてはAの位置のパラメータを取得することになる。 Subsequently, the reference image synthesis parameter for the decoded block at the left of the encoding target block is acquired (S906). In FIG. 10a), the parameter at position A is acquired as the left block.
 左部の情報を用いた予測ブロック生成も同様の処理で行われ、取得した復号画像合成パラメータの予測モードがフレーム内予測モードである場合(S907:YES)は、上部の復号済ブロックを参照した第2参照画像合成動き補償予測は無効となり、予測ブロックは生成されない。予測モードがフレーム内予測モードでない場合(S907:NO)に、パラメータの参照画像合成モードがOnでない場合(S908:NO)には、パラメータの予測モードとして動きベクトルを用いて動き補償予測ブロックを生成し(S909)、パラメータの参照画像合成モードがOnである場合(S908:YES)は、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S910)。 The prediction block generation using the information on the left part is also performed by the same process. When the prediction mode of the acquired decoded image synthesis parameter is the intra-frame prediction mode (S907: YES), the upper decoded block is referred to. The second reference image synthesis motion compensated prediction is invalid and a prediction block is not generated. When the prediction mode is not the intra-frame prediction mode (S907: NO), and when the parameter reference image synthesis mode is not On (S908: NO), a motion compensated prediction block is generated using a motion vector as the parameter prediction mode. If the parameter reference image synthesis mode is On (S908: YES), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesis mode motion vector information (S910). .
これらにより生成された予測ブロックに対して、符号化対象ブロックとの間で予測誤差評価値extended leftが算出される(S911)。 A prediction error evaluation value extended 生成 left is calculated with respect to the prediction block generated as described above with respect to the encoding target block (S911).
上部・左部の予測ブロックが生成される場合には、双方の予測誤差評価値extended aboveとextended leftを比較し、評価値の小さな方向の予測ブロックを選択し、方向を示す情報left flagと共に出力する(S912)。どちらか片方の予測ブロックのみが生成された場合には、生成された方向の予測ブロックが出力され、どちらの方向の予測ブロックも生成されなかった場合には、第2復号画像合成動き補償予測は、その符号化対象ブロックでは用いられない。 When upper and left prediction blocks are generated, both prediction error evaluation values extended above and extended left are compared, a prediction block with a smaller evaluation value is selected, and output along with information indicating the direction left flag (S912). When only one of the prediction blocks is generated, the prediction block in the generated direction is output. When the prediction block in either direction is not generated, the second decoded image synthesis motion compensated prediction is , Not used in the encoding target block.
次に、復号側の処理を説明する。復号側では、上部・左部の予測モードの両方がイントラ予測の場合には、第2参照画像合成動き補償予測処理を機能させない為、上部・左部のいずれかイントラ予測でないブロックである場合に、有効なブロックが1つの場合にはこの方向を示す情報が、有効なブロックが2つの場合には符号化された方向を示す情報としてleft flagが復号され、それにより指定された方向の参照画像合成パラメータを取得する(S920)。 Next, processing on the decoding side will be described. On the decoding side, when both the upper and left prediction modes are intra prediction, the second reference image synthesis motion compensation prediction process is not allowed to function, and therefore, when the block is not one of the upper or left intra prediction. When there is one effective block, information indicating this direction is decoded. When there are two effective blocks, left flag is decoded as information indicating the encoded direction, and a reference image in the direction specified thereby. A synthesis parameter is acquired (S920).
取得したパラメータの参照画像合成モードがOnでない場合(S921:NO)には、パラメータの予測モードとして動きベクトルを用いて動き補償予測ブロックを生成し(S922)、パラメータの参照画像合成モードがOnである場合(S921:YES)は、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S923)。選択された予測ブロックを出力する(S924)と共に、選択された方向の参照画像合成パラメータを参照画像合成パラメータ格納部に出力し(S925)、復号対象ブロックに対する第2参照画像合成動き補償予測処理が終了する。 If the acquired parameter reference image synthesis mode is not On (S921: NO), a motion compensated prediction block is generated using a motion vector as the parameter prediction mode (S922), and the parameter reference image synthesis mode is On. If there is (S921: YES), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesized mode motion vector information (S923). The selected prediction block is output (S924), and the reference image synthesis parameter in the selected direction is output to the reference image synthesis parameter storage unit (S925), and the second reference image synthesis motion compensation prediction process for the decoding target block is performed. finish.
上記フローチャートにおいては、選択可能な隣接する復号済ブロックを上部と左部の2点としたが、方向を追加して選択することも可能であり、図10b)に示す、左上部(D)や右上部(C)等が復号済ブロックである場合に選択させて、第2参照画像合成動き補償予測を行うことも可能である。 In the above flowchart, the selectable adjacent decoded blocks are two points, the upper part and the left part. However, it is also possible to select by adding a direction, and the upper left part (D) or FIG. It is also possible to perform the second reference image synthesis motion compensation prediction by selecting when the upper right part (C) or the like is a decoded block.
 実施の形態1により生成された、イントラ予測、動き補償予測、第1参照画像合成動き補償予測、第2参照画像合成動き補償予測は、符号化装置において予測ブロックの復号に必要な付加情報を加味して、符号量と符号化による歪量による選択が予測モード判定部115で行われる。実施の形態1においては、第2参照画像合成動き補償予測を示す情報がOn/Offビットの情報として符号化され、Onの場合には復号済ブロックの参照画像合成パラメータを引き継いだ方向を示す情報であるleft flagが、複数の候補がある場合に符号化される。 Intra prediction, motion compensation prediction, first reference image synthesis motion compensation prediction, and second reference image synthesis motion compensation prediction generated according to the first embodiment take into account additional information necessary for decoding a prediction block in the encoding device. Then, the prediction mode determination unit 115 performs selection based on the code amount and the distortion amount due to encoding. In the first embodiment, information indicating the second reference image synthesis motion compensated prediction is encoded as On / Off bit information, and in the case of On, information indicating the direction in which the reference image synthesis parameter of the decoded block is taken over. The left flag is encoded when there are multiple candidates.
 第2参照画像合成動き補償予測でない場合には、第2参照画像合成動き補償予測を示す情報がOffとして符号化され、基本予測モードとしてイントラ予測/片方向予測/双方向予測を示す情報が符号化され、片方向予測の場合には参照画像合成モード情報としてOn/Off情報が送られる。参照画像合成モード情報がOnの場合は、第1参照画像合成動き補償予測が行われ、Offの場合には従来の動き補償予測が行われる。また、従来の動き補償予測の場合には片方向予測の場合には1本、双方向予測の場合には2本の動きベクトルが参照画像を示す情報と共に符号化され、第1参照画像合成動き補償予測の場合には、基準となる1本の動きベクトルのみが参照画像を示す情報と共に符号化される。 If it is not the second reference image synthesis motion compensation prediction, information indicating the second reference image synthesis motion compensation prediction is encoded as Off, and information indicating intra prediction / unidirectional prediction / bidirectional prediction is encoded as the basic prediction mode. In the case of unidirectional prediction, On / Off information is sent as reference image synthesis mode information. When the reference image synthesis mode information is On, the first reference image synthesis motion compensation prediction is performed, and when it is Off, the conventional motion compensation prediction is performed. In the case of conventional motion compensation prediction, one motion vector is encoded together with information indicating a reference image in the case of unidirectional prediction and two motion vectors in the case of bidirectional prediction. In the case of compensation prediction, only one reference motion vector is encoded together with information indicating a reference image.
 図11に、実施の形態1の符号化装置・復号装置により生成された第1および第2の参照画像合成動き補償予測の選択結果の概念図を示し、その効果を説明する。 FIG. 11 shows a conceptual diagram of the selection results of the first and second reference image synthesis motion compensation predictions generated by the encoding device / decoding device of Embodiment 1, and the effects thereof will be described.
 時間と共に物体が動いている場合に、背景部分に関しては複数の参照画像が対象となる予測領域を持っているため、符号化歪が微小部分の時間変化を平均化させる双方向予測が有効に機能するが、第1参照画像合成動き補償予測により参照画像間の動きベクトル検出により有効な動きベクトルを伝送することなく取得でき、有効な予測ブロックが生成できるため、第1参照画像合成動き補償予測が選択される。 When the object is moving with time, the prediction part that has multiple reference images for the background part has the target prediction area. However, since the motion vector detection between the reference images can be acquired without transmitting an effective motion vector by the first reference image synthesis motion compensation prediction and an effective prediction block can be generated, the first reference image synthesis motion compensation prediction is performed. Selected.
 また、動きが空間的に連続性を保っている場合には、第1参照画像合成動き補償予測において生成されたパラメータは、隣接するブロックにおいても有効に機能するため、延長することを示す情報と方向を示す情報のみの伝送で、参照画像合成動き補償予測ブロックを生成できる、第2参照画像合成動き補償予測が選択される。 In addition, when the motion is spatially continuous, the parameter generated in the first reference image synthesis motion compensated prediction functions effectively in an adjacent block, and therefore indicates that the parameter is extended. The second reference image synthesized motion compensated prediction that can generate the reference image synthesized motion compensated prediction block is selected by transmitting only the information indicating the direction.
 背景と動物体の重なり部分等で、複数の参照画像からの予測が十分に機能しない場合等に、通常の動き補償予測やフレーム内予測が適応的に選択されるが、大部分は小さな領域の第1参照画像合成動き補償予測と、残りの領域の第2参照画像合成動き補償予測で予測ブロックが構成される。 When the prediction from multiple reference images does not function sufficiently due to the overlap between the background and the moving object, etc., normal motion compensation prediction and intra-frame prediction are selected adaptively. A prediction block is configured by the first reference image synthesis motion compensation prediction and the second reference image synthesis motion compensation prediction of the remaining region.
 第1参照画像合成動き補償予測を用いることにより、高効率な予測ブロックを生成できると共に、第2参照画像合成動き補償予測を用いることにより、少ない情報で高効率な予測ブロックを延長できると共に、復号装置において参照画像合成動き補償予測を行うために必要な参照画像間動きベクトル検出を機能させる領域を大幅に小さくすることが出来、演算量を大きく削減できる効果も有する。 By using the first reference image synthesized motion compensated prediction, a highly efficient prediction block can be generated, and by using the second reference image synthesized motion compensated prediction, a highly efficient predicted block can be extended with less information and decoded. In the apparatus, it is possible to drastically reduce a region in which the inter-reference image motion vector detection necessary for performing the reference image synthesis motion compensation prediction is performed, and it is possible to greatly reduce the amount of calculation.
(実施の形態2)
 次に、実施の形態2の動画像符号化装置および動画像復号装置を説明する。図12は、実施の形態2の動画像符号化装置の構成を示す構成図、図13は実施の形態2の動画像復号装置の構成を示す構成図である。
(Embodiment 2)
Next, a video encoding device and a video decoding device according to Embodiment 2 will be described. FIG. 12 is a configuration diagram showing the configuration of the video encoding device according to the second embodiment, and FIG. 13 is a configuration diagram showing the configuration of the video decoding device according to the second embodiment.
 図12に示すように、実施の形態2の動画像符号化装置は、入力端子100、入力画像バッファ101、ブロック分割部102、減算器103、直交変換部104、量子化部105、逆量子化部106、逆直交変換部107、加算器108、フレーム内復号画像メモリ109、復号参照画像メモリ110、エントロピー符号化部111、ストリームバッファ112、出力端子113、符号量制御部114、予測モード判定部115、フレーム内予測部116、動きベクトル検出部117、動き補償予測部118、動きベクトル予測部119、参照画像間動きベクトル検出部120、第1参照画像合成動き補償予測部121、参照画像合成パラメータ格納部122、第2参照画像合成動き補償予測部123、および参照画像合成選択部1224から構成される。 As shown in FIG. 12, the moving picture coding apparatus according to Embodiment 2 includes an input terminal 100, an input picture buffer 101, a block division unit 102, a subtractor 103, an orthogonal transformation unit 104, a quantization unit 105, and an inverse quantization. Unit 106, inverse orthogonal transform unit 107, adder 108, intra-frame decoded image memory 109, decoded reference image memory 110, entropy encoding unit 111, stream buffer 112, output terminal 113, code amount control unit 114, prediction mode determination unit 115, intra-frame prediction unit 116, motion vector detection unit 117, motion compensation prediction unit 118, motion vector prediction unit 119, inter-reference image motion vector detection unit 120, first reference image synthesis motion compensation prediction unit 121, reference image synthesis parameter Storage unit 122, second reference image synthesis motion compensation prediction unit 123, and reference image synthesis selection unit 122 It consists of.
 参照画像合成選択部1224を設けた点と、この処理ブロックにおける動作が、本発明の実施の形態2における特徴であり、他の処理ブロックに関しては実施の形態1と同様の動作が行われる。 The point that the reference image composition selection unit 1224 is provided and the operation in this processing block are the features in the second embodiment of the present invention, and the same operation as in the first embodiment is performed for the other processing blocks.
 同様に、図13に示すように、実施の形態2の動画像復号装置は、入力端子200、ストリームバッファ201、エントロピー復号部202、予測モード復号部203、予測画像選択部204、逆量子化部205、逆直交変換部206、加算器207、フレーム内復号画像メモリ208、復号参照画像メモリ209、出力端子210、フレーム内予測部211、動きベクトル予測復号部212、動き補償予測部213、参照画像間動きベクトル検出部214、第1参照画像合成動き補償予測部215、参照画像合成パラメータ格納部216、第2参照画像合成動き補償予測部217、および参照画像合成選択部1318から構成される。 Similarly, as illustrated in FIG. 13, the moving picture decoding apparatus according to Embodiment 2 includes an input terminal 200, a stream buffer 201, an entropy decoding unit 202, a prediction mode decoding unit 203, a prediction image selection unit 204, and an inverse quantization unit. 205, inverse orthogonal transform unit 206, adder 207, intra-frame decoded image memory 208, decoded reference image memory 209, output terminal 210, intra-frame prediction unit 211, motion vector prediction decoding unit 212, motion compensation prediction unit 213, reference image The inter-frame motion detection unit 214, the first reference image synthesis motion compensation prediction unit 215, the reference image synthesis parameter storage unit 216, the second reference image synthesis motion compensation prediction unit 217, and the reference image synthesis selection unit 1318 are configured.
 参照画像合成選択部1318を設けた点と、この処理ブロックにおける動作が、本発明の実施の形態2の復号装置における特徴であり、他の処理ブロックに関しては実施の形態1と同様の動作が行われる。参照画像合成選択部(1224、1318)は符号化・復号で同じ機能を有し、対になることで付加情報の伝送なく、隣接ブロックからの参照画像合成パラメータを用いて予測ブロックを生成するか否かの判断を行う機能を有する。 The point that the reference image composition selection unit 1318 is provided and the operation in this processing block are the characteristics of the decoding apparatus according to the second embodiment of the present invention. The other processing blocks perform the same operation as in the first embodiment. Is called. Whether the reference image synthesis selection unit (1224, 1318) has the same function in encoding / decoding, and generates a prediction block using a reference image synthesis parameter from an adjacent block without transmission of additional information when paired It has a function of determining whether or not.
 続いて、図14A、図14Bに実施の形態2における参照画像合成選択処理のフローチャートを示し、その動作を説明する。符号化側においては、実施の形態1におけるフローチャート(S900-S913)の動作に加えて、参照画像合成選択部1224で行われる、S1414-S1421の動作が追加される。 Subsequently, FIGS. 14A and 14B show a flowchart of the reference image composition selection process in Embodiment 2, and the operation will be described. On the encoding side, in addition to the operation of the flowchart (S900 to S913) in the first embodiment, the operation of S1414 to S1421 performed by the reference image composition selection unit 1224 is added.
 参照画像合成モードがOnである場合(S902:YES)、格納された動きベクトルと合成モード動きベクトルを用いて、2つの参照画像からの予測ブロックをそれぞれ生成すし、生成された2つの予測ブロックの間の誤差値をextended interref errorを算出する(S1414)。この場合の評価値としては、参照画像間動きベクトル検出部における評価と同様にSADやSSE等の誤差総和を用いる。 When the reference image synthesis mode is On (S902: YES), the prediction block from the two reference images is generated using the stored motion vector and the synthesis mode motion vector, and the two prediction blocks generated The error value between them is calculated as extended interref error (S1414). As the evaluation value in this case, the sum of errors such as SAD and SSE is used as in the evaluation in the inter-reference image motion vector detection unit.
 続いて、上隣接ブロックに対して、2つの参照画像からの予測ブロックを生成し、2つの参照画像間の誤差評価値interref errorを算出する(S1415)。この誤差評価値に関しては、上隣接ブロックの予測ブロックを生成する際に、interref errorを算出し、参照画像合成パラメータとして格納しておくことも可能であるが、実施の形態2においては、隣接ブロックとして用いられる際に算出する処理構成にしている。 Subsequently, a prediction block from two reference images is generated for the upper adjacent block, and an error evaluation value interref error between the two reference images is calculated (S1415). With regard to this error evaluation value, it is possible to calculate interref 、 error when generating a prediction block of the upper adjacent block and store it as a reference image synthesis parameter. The processing configuration is calculated when used as
 そして、extended interref errorとinterref errorを比較することで、隣接ブロックとの特性変化を評価する。具体的には、
extended interref error > interref error + α(閾値)の場合には(S1416:YES)、隣接ブロックで生成された参照画像間動きベクトルに関しての連続性が少ないとして、格納された動きベクトル値のみを用いて、片方向動き補償予測ブロックを生成する(S1417)。
Then, by comparing the extended interref error and the interref error, the characteristic change with the adjacent block is evaluated. In particular,
If extended interref error> interref error + α (threshold) (S1416: YES), it is assumed that there is little continuity with respect to the motion vector between reference images generated in adjacent blocks, and only the stored motion vector value is used. A one-way motion compensation prediction block is generated (S1417).
 一方、上記条件を満たさない場合(S1416:NO)は、隣接ブロックで生成された参照画像間動きベクトルに関する連続性は保たれているとして、実施の形態1の場合と同様に、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S904)。閾値αに関しては、一例としては誤差評価がSADの場合に平均誤差が4であるような値(4×ブロックの画素数)をとることが出来るが、符号化する際の量子化値や、interref errorの大きさでαを切り替えることで、より効果的に隣接ブロックとの連続性を判断することが可能となる。 On the other hand, if the above condition is not satisfied (S1416: NO), it is assumed that the continuity with respect to the inter-reference image motion vector generated in the adjacent block is maintained, and the stored motion is the same as in the first embodiment. A bidirectional motion compensated prediction block is generated using the vector and the composite mode motion vector information (S904). Regarding the threshold value α, for example, when the error evaluation is SAD, a value such that the average error is 4 (4 × the number of pixels of the block) can be taken, but the quantization value at the time of encoding, interref, By switching α according to the magnitude of error, it is possible to more effectively determine continuity with adjacent blocks.
 符号化側においては、左側の隣接ブロックに対しても同様に、参照画像合成モードがOnである場合(S908:YES)、格納された動きベクトルと合成モード動きベクトルを用いて、2つの参照画像からの予測ブロックをそれぞれ生成し、生成された2つの予測ブロックの間の誤差値をextended interref errorを算出し(S1418)、隣接ブロックに対して2つの参照画像からの予測ブロックを生成し、2つの参照画像間の誤差評価値interref errorを算出し(S1419)、
extended interref error > interref error + α(閾値)の場合には(S1420:YES)、隣接ブロックで生成された参照画像間動きベクトルに関しての連続性が少ないとして、格納された動きベクトル値のみを用いて、片方向動き補償予測ブロックを生成し(S1421)、そうでない場合(S1420:NO)には、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S910)。
On the encoding side, for the adjacent block on the left side as well, when the reference image synthesis mode is On (S908: YES), two reference images are used using the stored motion vector and synthesis mode motion vector. Each of the prediction blocks is generated, an extended interref error is calculated as an error value between the two generated prediction blocks (S1418), and prediction blocks from two reference images are generated for the adjacent blocks. An error evaluation value interref error between two reference images is calculated (S1419),
If extended interref error> interref error + α (threshold) (S1420: YES), it is assumed that there is little continuity with respect to the inter-reference image motion vector generated in the adjacent block, and only the stored motion vector value is used. Then, a one-way motion compensated prediction block is generated (S1421). Otherwise (S1420: NO), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesized mode motion vector information ( S910).
 復号側においても、実施の形態1に対して、同様の判断が参照画像合成選択処理に加わる構成となる。復号側においては、実施の形態1におけるフローチャート(S920-S925)の動作に加えて、参照画像合成選択部1318で行われる、S1426-S1429の動作が追加される。 On the decoding side, the same determination as that of the first embodiment is added to the reference image composition selection process. On the decoding side, in addition to the operation of the flowchart (S920 to S925) in the first embodiment, the operation of S1426 to S1429 performed by the reference image composition selection unit 1318 is added.
 参照画像合成モードがOnである場合(S921:YES)、格納された動きベクトルと合成モード動きベクトルを用いて、2つの参照画像からの予測ブロックをそれぞれ生成し、生成された2つの予測ブロックの間の誤差値をextended interref errorを算出し(S1426)、隣接ブロックに対して2つの参照画像からの予測ブロックを生成し、2つの参照画像間の誤差評価値interref errorを算出し(S1427)、
extended interref error > interref error + α(閾値)の場合には(S1428:YES)、隣接ブロックで生成された参照画像間動きベクトルに関しての連続性が少ないとして、格納された動きベクトル値のみを用いて、片方向動き補償予測ブロックを生成し(S1429)、そうでない場合(S1428:NO)には、格納された動きベクトルと合成モード動きベクトル情報を用いて、双方向動き補償予測ブロックを生成する(S923)。
When the reference image synthesis mode is On (S921: YES), the prediction block from the two reference images is generated using the stored motion vector and the synthesis mode motion vector, and the two prediction blocks generated are generated. An extended interref error is calculated as an error value between them (S1426), prediction blocks from two reference images are generated for adjacent blocks, and an error evaluation value interref error between the two reference images is calculated (S1427).
When extended interref error> interref error + α (threshold) (S1428: YES), it is assumed that there is little continuity with respect to the inter-reference image motion vector generated in the adjacent block, and only the stored motion vector value is used. Then, a one-way motion compensated prediction block is generated (S1429). Otherwise (S1428: NO), a bidirectional motion compensated prediction block is generated using the stored motion vector and synthesized mode motion vector information ( S923).
 実施の形態2においては、実施の形態1における第1および第2の参照画像合成動き補償予測を用いることによる、高効率な予測ブロックを少ない情報で符号化しつつ、復号装置における参照画像間動きベクトル検出の演算量を大きく削減できる効果に加えて、第2参照画像合成動き補償予測において、参照した復号済隣接ブロックにおける第1の予測画像と第2の予測画像の間の誤差値と、符号化/復号対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、符号化/復号対象ブロックに対する誤差値が参照した復号済ブロックにおける誤差値より十分大きな場合には参照画像間の連続性がなくなったと判断し、符号化/復号対象ブロックに対して第1の予測画像のみで構成される動き補償予測画像を生成することで、動き補償予測画像の連続性を判定し、付加情報を用いずにより正しい動き補償予測画像を生成し符号化効率を向上させることが可能となる。 In Embodiment 2, by using the first and second reference image synthesis motion compensated prediction in Embodiment 1, a highly efficient prediction block is encoded with a small amount of information, and the inter-reference image motion vector in the decoding apparatus is used. In addition to the effect of greatly reducing the calculation amount of detection, in the second reference image synthesis motion compensated prediction, an error value between the first predicted image and the second predicted image in the referenced decoded adjacent block, and encoding When the error value of the first prediction image and the second prediction image for the decoding target block is calculated and the error value for the encoding / decoding target block is sufficiently larger than the error value of the referenced decoded block, To generate a motion compensated prediction image composed of only the first prediction image for the encoding / decoding target block. Determines the continuity of the motion compensation prediction image to generate a more accurate motion compensated prediction image without using the additional information it is possible to improve the coding efficiency.
(実施の形態3)
 次に、実施の形態3の動画像符号化装置および動画像復号装置を説明する。実施の形態3においては、動画像符号化装置の構成および動画像復号装置の構成は、実施の形態2と同じであり、参照画像合成選択部(図12:1224、図13:1318)の動作が異なる形態となっている。図15A、図15Bに実施の形態3における参照画像合成選択処理のフローチャートを示し、その動作を説明する。
(Embodiment 3)
Next, a video encoding device and a video decoding device according to Embodiment 3 will be described. In the third embodiment, the configuration of the video encoding device and the configuration of the video decoding device are the same as those in the second embodiment, and the operation of the reference image synthesis selection unit (FIG. 12: 1224, FIG. 13: 1318). Are in different forms. FIG. 15A and FIG. 15B show a flowchart of the reference image composition selection process in Embodiment 3, and the operation will be described.
 実施の形態3における、符号化側においては、実施の形態2におけるフローチャート(S900-S913、S1414-S1421)の動作に対して、S1417、S1421の代わりに、S1522-S1525の動作が加わった構成となる。復号側においては、実施の形態2におけるフローチャート(S920-S925、S1426-S1429)の動作に対して、S1429の代わりにS1530-S1531の動作が追加される。 On the encoding side in the third embodiment, the operation of S1522-S1525 is added to the operation of the flowchart (S900-S913, S1414-S1421) in the second embodiment instead of S1417, S1421. Become. On the decoding side, the operations of S1530-S1531 are added to the operations of the flowcharts (S920-S925, S1426-S1429) in the second embodiment instead of S1429.
 符号化側においては、上隣接ブロックに対して、
extended interref error > interref error + α(閾値)の場合には(S1416:YES)、動きベクトルより生成した第1の予測ブロックより参照画像間で第2の動きベクトルを検出し(S1522)、第1の予測ブロックと第2の予測ブロックを用いて、参照画像合成動き補償予測ブロックを生成する(S1523)。
On the encoding side, for the upper adjacent block,
If extended interref error> interref error + α (threshold) (S1416: YES), the second motion vector is detected between reference images from the first prediction block generated from the motion vector (S1522), and the first A reference image synthesis motion compensation prediction block is generated using the prediction block and the second prediction block (S1523).
 これらの処理は、第1の参照画像合成動き補償予測と同等の処理であるが、符号化側においても復号側と同じ処理を施すことで、特定された第1の動きベクトルから第2の動きベクトルを算出することになり、図5b)の処理フローチャートにおいて説明されている処理が施される。 These processes are equivalent to the first reference image synthesis motion compensated prediction, but the same process as that on the decoding side is performed on the encoding side, so that the second motion is determined from the identified first motion vector. The vector is calculated, and the processing described in the processing flowchart of FIG.
 上記処理に関しては、参照画像合成選択部1224に具備する事も可能であるが、第1参照画像合成動き補償予測部121に機能を有し、参照画像合成選択部1224より指示をあたえることで、参照画像合成動き補償予測ブロックを算出させることも可能である。 With regard to the above processing, the reference image synthesis selection unit 1224 may be provided, but the first reference image synthesis motion compensation prediction unit 121 has a function, and by giving an instruction from the reference image synthesis selection unit 1224, It is also possible to calculate a reference image synthesis motion compensation prediction block.
 符号化側においては、左側の隣接ブロックに対しても同様に、
extended interref error > interref error + α(閾値)の場合には(S1420:YES)、動きベクトルより生成した第1の予測ブロックより参照画像間で第2の動きベクトルを検出し(S1524)、第1の予測ブロックと第2の予測ブロックを用いて、参照画像合成動き補償予測ブロックを生成する(S1525)。
On the encoding side, for the left adjacent block,
If extended interref error> interref error + α (threshold) (S1420: YES), a second motion vector is detected between reference images from the first prediction block generated from the motion vector (S1524), and the first A reference image synthesis motion compensated prediction block is generated using the prediction block and the second prediction block (S1525).
 復号側においても、同様の処理が実施の形態2に対して追加され、拡張された方向の隣接ブロックに対して、
extended interref error > interref error + α(閾値)の場合には(S1428:YES)、動きベクトルより生成した第1の予測ブロックより参照画像間で第2の動きベクトルを検出し(S1530)、第1の予測ブロックと第2の予測ブロックを用いて、参照画像合成動き補償予測ブロックを生成する(S1531)。
On the decoding side, similar processing is added to the second embodiment, and the adjacent blocks in the extended direction are
If extended interref error> interref error + α (threshold) (S1428: YES), the second motion vector is detected between the reference images from the first prediction block generated from the motion vector (S1530), and the first A reference image synthesis motion compensation prediction block is generated using the prediction block and the second prediction block (S1531).
 実施の形態3においては、実施の形態1における第1および第2の参照画像合成動き補償予測を用いることによる、高効率な予測ブロックを少ない情報で符号化しつつ、復号装置における参照画像間動きベクトル検出の演算量を大きく削減できる効果に加えて、第2参照画像合成動き補償予測において、参照した復号済隣接ブロックにおける第1の予測画像と第2の予測画像間の誤差値と、符号化/復号対象ブロックに対する第1の予測画像及び第2の予測画像の誤差値を算出し、符号化/復号対象ブロックに対する誤差値が参照した復号済ブロックにおける誤差値より十分大きな場合には参照画像間の連続性がなくなったと判断し、符号化/復号対象ブロックに対する第1の予測画像と第2の参照画像の間での動きベクトル情報を算出し、第3の予測画像を生成し、第1の予測画像と第3の予測画像を合成することにより、動き補償予測画像を生成することで、動き補償予測画像の連続性を適応的に判断し必要な場合にのみ再度復号側動きベクトル算出型の動き補償予測をおこなうことが出来、演算量の増加を抑えつつ、付加情報を用いずにより適切な動き補償予測画像を生成し符号化効率を向上させることを可能とする。 In Embodiment 3, by using the first and second reference image synthesized motion compensated prediction in Embodiment 1, a highly efficient prediction block is encoded with a small amount of information, and the inter-reference image motion vector in the decoding device In addition to the effect of greatly reducing the calculation amount of detection, in the second reference image synthesis motion compensated prediction, the error value between the first predicted image and the second predicted image in the referenced decoded adjacent block, When the error value of the first prediction image and the second prediction image for the decoding target block is calculated and the error value for the encoding / decoding target block is sufficiently larger than the error value in the referenced decoded block, It is determined that there is no continuity, and motion vector information between the first predicted image and the second reference image for the encoding / decoding target block is calculated. It is necessary to adaptively determine the continuity of the motion-compensated predicted image by generating the third predicted image and generating the motion-compensated predicted image by synthesizing the first predicted image and the third predicted image. Only when this is the case, it is possible to perform the motion compensation prediction of the decoding side motion vector calculation type again, while suppressing an increase in the amount of computation and generating a more appropriate motion compensation prediction image without using additional information, thereby improving the encoding efficiency. Make it possible.
 尚、実施の形態1、2、3として提示した、動画像符号化装置、及び動画像復号化装置は、物理的にはCPU(中央処理装置)、メモリなどの記録装置、ディスプレイ等の表示装置、及び伝送路への通信手段を具備したコンピュータで実現することが可能であり、提示した各々の機能を具備する手段を、コンピュータ上のプログラムとして実現し、実行することが可能である。また、プログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星デジタル放送のデータ放送として提供することも可能である。 The moving picture encoding apparatus and moving picture decoding apparatus presented as the first, second, and third embodiments are physically a CPU (central processing unit), a recording device such as a memory, and a display device such as a display. , And a computer having a communication means for a transmission path, and the means having each of the presented functions can be realized as a program on the computer and executed. In addition, the program can be provided by being recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as data broadcasting of terrestrial or satellite digital broadcasting. is there.
 以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .
100 入力端子
101 入力画像バッファ
102 ブロック分割部
103 減算器
104 直交変換部
105 量子化部
106 逆量子化部
107 逆直交変換部
108 加算器
109 フレーム内復号画像メモリ
110 復号参照画像メモリ
111 エントロピー符号化部
112 ストリームバッファ
113 出力端子
114 符号量制御部
115 予測モード判定部
116 フレーム内予測部
117 動きベクトル検出部
118 動き補償予測部
119 動きベクトル予測部
120 参照画像間動きベクトル検出部
121 第1参照画像合成動き補償予測部
122 参照画像合成パラメータ格納部
123 第2参照画像合成動き補償予測部
200 入力端子
201 ストリームバッファ
202 エントロピー復号部
203 予測モード復号部
204 予測画像選択部
205 逆量子化部
206 逆直交変換部
207 加算器
208 フレーム内復号画像メモリ
209 復号参照画像メモリ
210 出力端子
211 フレーム内予測部
212 動きベクトル予測復号部
213 動き補償予測部
214 参照画像間動きベクトル検出部
215 第1参照画像合成動き補償予測部
216 参照画像合成パラメータ格納部
217 第2参照画像合成動き補償予測部
600 基準参照画像取得部
601 動きベクトル検出範囲設定部
602 基準参照画像メモリ
603 参照画像取得部
604 ブロックマッチング評価部
1224 参照画像合成選択部
1318 参照画像合成選択部
DESCRIPTION OF SYMBOLS 100 Input terminal 101 Input image buffer 102 Block division part 103 Subtractor 104 Orthogonal transformation part 105 Quantization part 106 Inverse quantization part 107 Inverse orthogonal transformation part 108 Adder 109 In-frame decoded image memory 110 Decoded reference image memory 111 Entropy encoding Unit 112 stream buffer 113 output terminal 114 code amount control unit 115 prediction mode determination unit 116 intra-frame prediction unit 117 motion vector detection unit 118 motion compensation prediction unit 119 motion vector prediction unit 120 inter-picture motion vector detection unit 121 first reference image Synthetic motion compensation prediction unit 122 Reference image synthesis parameter storage unit 123 Second reference image synthesis motion compensation prediction unit 200 Input terminal 201 Stream buffer 202 Entropy decoding unit 203 Prediction mode decoding unit 204 Predicted image selection unit 205 Inverse amount Conversion unit 206 Inverse orthogonal transform unit 207 Adder 208 Intra-frame decoded image memory 209 Decoded reference image memory 210 Output terminal 211 Intra-frame prediction unit 212 Motion vector prediction decoding unit 213 Motion compensation prediction unit 214 Inter-reference image motion vector detection unit 215 1 reference image synthesis motion compensation prediction unit 216 reference image synthesis parameter storage unit 217 second reference image synthesis motion compensation prediction unit 600 standard reference image acquisition unit 601 motion vector detection range setting unit 602 standard reference image memory 603 reference image acquisition unit 604 block Matching evaluation unit 1224 Reference image composition selection unit 1318 Reference image composition selection unit
 本発明は、動画像信号の符号化技術に利用できる。 The present invention can be used for a video signal encoding technique.

Claims (10)

  1.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部を具備し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備えることを特徴とする動画像符号化装置。
    A motion vector detection unit that detects a motion vector from the first reference image with respect to the encoding target block;
    A first reference image synthesizing unit that generates a first synthesized reference block obtained by synthesizing a first reference block extracted from the first reference image using the motion vector and a predetermined region of at least one other reference image. When,
    A reference image synthesis parameter storage unit that stores information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit;
    A second reference block and a predetermined region of the reference image used for the synthesis are identified and synthesized based on information necessary for generating the synthesized reference block of the encoded region stored in the reference image synthesis parameter storage unit. A second reference image synthesis unit for generating two synthesized reference blocks;
    Selecting a prediction block for the encoding target block from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block;
    A moving picture encoding apparatus comprising: an encoding unit that encodes a prediction difference block obtained by subtracting the prediction block from the encoding target block.
  2.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     前記参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部からの出力を、前記第2の合成参照ブロックと前記第2の参照ブロックで選択する機能を有し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備えることを特徴とする動画像符号化装置。
    A motion vector detection unit that detects a motion vector from the first reference image with respect to the encoding target block;
    A first reference image synthesizing unit that generates a first synthesized reference block obtained by synthesizing a first reference block extracted from the first reference image using the motion vector and a predetermined region of at least one other reference image. When,
    A reference image synthesis parameter storage unit that stores information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit;
    A second reference block and a predetermined region of the reference image used for the synthesis are identified and synthesized based on information necessary for generating the synthesized reference block of the encoded region stored in the reference image synthesis parameter storage unit. A second reference image synthesis unit for generating two synthesized reference blocks;
    A reference image synthesis selection unit configured to input information necessary for generating a synthesized reference block of an encoded region stored in the reference image synthesis parameter storage unit, and to determine a synthesis method for the second reference image synthesis unit; ,
    Necessary for the reference image synthesis selection unit to generate a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block and the synthesized reference block for the encoded region. A function of comparing correlation values between a plurality of reference blocks generated using various information and selecting an output from the second reference image combining unit between the second combined reference block and the second reference block Have
    Selecting a prediction block for the encoding target block from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block or a second reference block;
    A moving picture encoding apparatus comprising: an encoding unit that encodes a prediction difference block obtained by subtracting the prediction block from the encoding target block.
  3.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     前記参照画像合成パラメータ格納部に格納された、符号化済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     第2参照画像合成部もしくは第1参照画像合成部が、前記第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、
     前記参照画像合成選択部が、符号化対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、符号化済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部から前記第2の合成参照ブロックを出力するか、前記第2参照画像合成部もしくは前記第1参照画像合成部から、前記第3の合成参照ブロックを出力するかを選択する機能を有し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する符号化部を備えることを特徴とする動画像符号化装置。
    A motion vector detection unit that detects a motion vector from the first reference image with respect to the encoding target block;
    A first reference image synthesizing unit that generates a first synthesized reference block obtained by synthesizing a first reference block extracted from the first reference image using the motion vector and a predetermined region of at least one other reference image. When,
    A reference image synthesis parameter storage unit that stores information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit;
    The second synthesized reference block synthesized by specifying the second reference block and the predetermined area of the reference image based on the information necessary for generating the synthesized reference block of the encoded area stored in the reference picture synthesis parameter storage unit A second reference image composition unit for generating
    A reference image synthesis selection unit configured to input information necessary for generating a synthesized reference block of an encoded region stored in the reference image synthesis parameter storage unit, and to determine a synthesis method for the second reference image synthesis unit; ,
    The second reference image synthesis unit or the first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image;
    Necessary for the reference image synthesis selection unit to generate a correlation value between a plurality of reference blocks generated using information necessary for generating the synthesized reference block for the encoding target block and the synthesized reference block for the encoded region. A correlation value between a plurality of reference blocks generated using various information is compared, and the second reference image synthesis unit outputs the second synthesis reference block, or the second reference image synthesis unit or the second reference block A function to select whether to output the third synthesized reference block from one reference image synthesis unit;
    Selecting a prediction block for the encoding target block from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block or a third synthesis reference block;
    A moving picture encoding apparatus comprising: an encoding unit that encodes a prediction difference block obtained by subtracting the prediction block from the encoding target block.
  4.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出するステップと、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成するステップと、
     前記合成参照ブロック生成に必要な情報を格納するステップと、
     格納された符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成するステップを具備し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化するステップを備えることを特徴とする動画像符号化方法。
    Detecting a motion vector from the first reference image for the encoding target block;
    Generating a first reference block obtained by combining the first reference block extracted from the first reference image using the motion vector and a predetermined region of at least one other reference image;
    Storing information necessary for generating the synthesized reference block;
    A step of generating a second synthesized reference block obtained by identifying and synthesizing a predetermined area of the reference image used for synthesis with the second reference block from information necessary for generating a synthesized reference block of the stored encoded area Comprising
    Selecting a prediction block for the encoding target block from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block;
    A video encoding method comprising: encoding a prediction difference block obtained by subtracting the prediction block from the encoding target block.
  5.  符号化対象ブロックに対して、第1の参照画像からの動きベクトルを検出する機能と、
     前記動きベクトルを用いて前記第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する機能と、
     前記合成参照ブロック生成に必要な情報を格納する機能と、
     格納された符号化済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する機能を具備し、
     少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックより、前記符号化対象ブロックに対する予測ブロックを選択し、
     前記予測ブロックを前記符号化対象ブロックより減算した予測差分ブロックを符号化する機能を備えることを特徴とする動画像符号化プログラム。
    A function of detecting a motion vector from the first reference image for the encoding target block;
    A first reference block extracted from the first reference image using the motion vector and a first synthesized reference block obtained by synthesizing a predetermined region of at least one other reference image;
    A function for storing information necessary for generating the synthetic reference block;
    A function for generating a second synthesized reference block obtained by identifying and synthesizing a predetermined area of a reference image used for synthesis with the second reference block from information necessary for generating a synthesized reference block of the stored encoded area Comprising
    Selecting a prediction block for the encoding target block from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block;
    A moving picture encoding program comprising a function of encoding a prediction difference block obtained by subtracting the prediction block from the encoding target block.
  6.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部を具備し、
     前記予測モード選択情報により選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備えることを特徴とする動画像復号装置。
    A motion vector decoding unit for decoding a motion vector for a decoding target block from the encoded stream;
    A first reference image synthesizing unit that generates a first reference block extracted from a first reference image using the motion vector, and a first synthesized reference block obtained by synthesizing a predetermined region of at least one other reference image; ,
    A reference image synthesis parameter storage unit that stores information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit;
    A second region obtained by specifying and synthesizing a predetermined region of the reference image used for the synthesis with the second reference block based on the information necessary for generating the synthesized reference block of the decoded region stored in the reference image synthesis parameter storage unit; A second reference image synthesis unit for generating a synthesized reference block of
    A decoding mode decoding unit that decodes prediction mode selection information selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block from a coded stream;
    A moving picture decoding apparatus comprising: a decoding unit that generates a decoded image by adding a prediction block selected by the prediction mode selection information and a prediction difference block decoded from the decoding target block.
  7.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     前記参照画像合成選択部が、復号対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部からの出力を、前記第2の合成参照ブロックと前記第2の参照ブロックで選択する機能を有し、
     前記予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第2の参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備えることを特徴とする動画像復号装置。
    A motion vector decoding unit for decoding a motion vector for a decoding target block from the encoded stream;
    A first reference image synthesizing unit that generates a first reference block extracted from a first reference image using the motion vector, and a first synthesized reference block obtained by synthesizing a predetermined region of at least one other reference image; ,
    A reference image synthesis parameter storage unit that stores information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit;
    A second region obtained by specifying and synthesizing a predetermined region of the reference image used for the synthesis with the second reference block based on the information necessary for generating the synthesized reference block of the decoded region stored in the reference image synthesis parameter storage unit; A second reference image synthesis unit for generating a synthesized reference block of
    A prediction mode decoding unit that decodes prediction mode selection information selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block as a decoding target block from an encoded stream;
    A reference image synthesis selection unit configured to input information necessary for generating a synthesized reference block of a decoded area stored in the reference image synthesis parameter storage unit, and to determine a synthesis method for the second reference image synthesis unit;
    Correlation values between a plurality of reference blocks generated using the information necessary for generating the synthesized reference block for the decoding target block by the reference image synthesis selecting unit, and information necessary for generating the synthesized reference block for the decoded region A function of comparing correlation values between a plurality of reference blocks generated by using and selecting an output from the second reference image synthesis unit between the second synthesized reference block and the second reference block. And
    A prediction block selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block or a second reference block as a prediction block based on the prediction mode selection information, and decoding from the decoding target block A moving image decoding apparatus comprising: a decoding unit that generates a decoded image by adding the predicted difference blocks.
  8.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する動きベクトル復号部と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する第1参照画像合成部と、
     前記第1参照画像合成部において算出した、合成参照ブロック生成に必要な情報を格納する、参照画像合成パラメータ格納部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する、第2参照画像合成部と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する、予測モード復号部と、
     前記参照画像合成パラメータ格納部に格納された、復号済領域の合成参照ブロック生成に必要な情報を入力し、第2参照画像合成部に対する合成方法を確定する、参照画像合成選択部を具備し、
     前記第2参照画像合成部もしくは前記第1参照画像合成部が、前記第2の参照ブロックと他の少なくとも1つの参照画像の所定領域を合成した第3の合成参照ブロックを生成する機能を有し、
     前記参照画像合成選択部が、復号対象ブロックに対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値と、復号済領域に対する前記合成参照ブロック生成に必要な情報を用いて生成した複数の参照ブロックの間の相関値を比較し、前記第2参照画像合成部から前記第2の合成参照ブロックを出力するか、前記第2参照画像合成部もしくは前記第1参照画像合成部から、前記第3の合成参照ブロックを出力するかを選択する機能を有し、
     前記予測モード選択情報より、予測ブロックとして少なくとも第1の合成参照ブロックと第2の合成参照ブロックもしくは第3の合成参照ブロックを含む複数の予測ブロックより選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する復号部を備えることを特徴とする動画像復号装置。
    A motion vector decoding unit for decoding a motion vector for a decoding target block from the encoded stream;
    A first reference image synthesizing unit that generates a first reference block extracted from a first reference image using the motion vector, and a first synthesized reference block obtained by synthesizing a predetermined region of at least one other reference image; ,
    A reference image synthesis parameter storage unit that stores information necessary for generating a synthesized reference block calculated by the first reference image synthesis unit;
    A second region obtained by specifying and synthesizing a predetermined region of the reference image used for the synthesis with the second reference block based on the information necessary for generating the synthesized reference block of the decoded region stored in the reference image synthesis parameter storage unit; A second reference image synthesis unit for generating a synthesized reference block of
    A prediction mode decoding unit that decodes prediction mode selection information selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block as a decoding target block from an encoded stream;
    A reference image synthesis selection unit configured to input information necessary for generating a synthesized reference block of a decoded area stored in the reference image synthesis parameter storage unit, and to determine a synthesis method for the second reference image synthesis unit;
    The second reference image synthesis unit or the first reference image synthesis unit has a function of generating a third synthesized reference block obtained by synthesizing the second reference block and a predetermined region of at least one other reference image. ,
    Correlation values between a plurality of reference blocks generated using the information necessary for generating the synthesized reference block for the decoding target block by the reference image synthesis selecting unit, and information necessary for generating the synthesized reference block for the decoded region Are used to compare correlation values between a plurality of reference blocks generated by using the second reference image combining unit and output the second combined reference block from the second reference image combining unit or the second reference image combining unit or the first reference A function of selecting whether to output the third synthesis reference block from the image synthesis unit;
    From the prediction mode selection information, a prediction block selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block or a third synthesis reference block as a prediction block, and the decoding target block A moving picture decoding apparatus comprising: a decoding unit that generates a decoded image by adding the decoded prediction difference blocks.
  9.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号するステップと、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成するステップと、
     前記合成参照ブロック生成に必要な情報を格納するステップと、
     格納された復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成するステップと、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号するステップを具備し、
     前記予測モード選択情報により選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成するステップを備えることを特徴とする動画像復号方法。
    Decoding a motion vector for a decoding target block from an encoded stream;
    Generating a first reference block extracted from a first reference image using the motion vector and a first reference block obtained by combining predetermined regions of at least one other reference image;
    Storing information necessary for generating the synthesized reference block;
    Generating a second synthesized reference block obtained by identifying and synthesizing a predetermined area of the reference image used for synthesis with the second reference block from information necessary for generating a synthesized reference block of the stored decoded area; ,
    Decoding a prediction mode selection information selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block as a decoding target block from an encoded stream;
    A moving picture decoding method comprising: generating a decoded image by adding a prediction block selected by the prediction mode selection information and a prediction difference block decoded from the decoding target block.
  10.  符号化ストリームより、復号対象ブロックに対する動きベクトルを復号する機能と、
     前記動きベクトルを用いて第1の参照画像より抽出した第1の参照ブロックと、他の少なくとも1つの参照画像の所定領域を合成した第1の合成参照ブロックを生成する機能と、
     前記合成参照ブロック生成に必要な情報を格納する機能と、
     格納された復号済領域の合成参照ブロック生成に必要な情報より、第2の参照ブロックと合成に用いられた参照画像の所定領域を特定して合成した第2の合成参照ブロックを生成する機能と、
     符号化ストリームより、復号対象ブロックが、少なくとも第1の合成参照ブロックと第2の合成参照ブロックを含む複数の予測ブロックから選択した、予測モード選択情報を復号する機能を具備し、
     前記予測モード選択情報により選択された予測ブロックと、前記復号対象ブロックから復号した予測差分ブロックを加算することにより復号画像を生成する機能を備えることを特徴とする動画像復号プログラム。
    A function of decoding a motion vector for a decoding target block from an encoded stream;
    A function of generating a first reference block extracted from a first reference image using the motion vector and a first synthesized reference block obtained by synthesizing a predetermined region of at least one other reference image;
    A function for storing information necessary for generating the synthetic reference block;
    A function for generating a second synthesized reference block obtained by identifying and synthesizing a predetermined area of the reference image used for synthesis with the second reference block from information necessary for generating a synthesized reference block of the stored decoded area; ,
    The decoding target block has a function of decoding prediction mode selection information selected from a plurality of prediction blocks including at least a first synthesis reference block and a second synthesis reference block from an encoded stream,
    A moving picture decoding program comprising a function of generating a decoded image by adding a prediction block selected by the prediction mode selection information and a prediction difference block decoded from the decoding target block.
PCT/JP2011/007065 2010-12-27 2011-12-19 Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program WO2012090425A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010-290985 2010-12-27
JP2010290985A JP2012138837A (en) 2010-12-27 2010-12-27 Moving image encoding apparatus, moving image encoding method and moving image encoding program
JP2010-290986 2010-12-27
JP2010290986A JP2012138838A (en) 2010-12-27 2010-12-27 Moving image decoding apparatus, moving image decoding method and moving image decoding program

Publications (1)

Publication Number Publication Date
WO2012090425A1 true WO2012090425A1 (en) 2012-07-05

Family

ID=46382566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/007065 WO2012090425A1 (en) 2010-12-27 2011-12-19 Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program

Country Status (1)

Country Link
WO (1) WO2012090425A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104301700A (en) * 2013-07-20 2015-01-21 浙江大学 Image block boundary position determining method and image block boundary position determining device
CN111050177A (en) * 2018-10-15 2020-04-21 腾讯科技(深圳)有限公司 Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092352A (en) * 2006-10-03 2008-04-17 Ntt Docomo Inc Image predictive coder, image predictive coding method, image predictive coding program, image prediction decoder, image predictive decoding method, and image predictive decoding program
JP2008154015A (en) * 2006-12-19 2008-07-03 Hitachi Ltd Decoding method and coding method
WO2009110672A1 (en) * 2008-03-04 2009-09-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding an image by using consecutive motion estimation
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
WO2010095559A1 (en) * 2009-02-20 2010-08-26 ソニー株式会社 Image processing device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092352A (en) * 2006-10-03 2008-04-17 Ntt Docomo Inc Image predictive coder, image predictive coding method, image predictive coding program, image prediction decoder, image predictive decoding method, and image predictive decoding program
JP2008154015A (en) * 2006-12-19 2008-07-03 Hitachi Ltd Decoding method and coding method
WO2009110672A1 (en) * 2008-03-04 2009-09-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding an image by using consecutive motion estimation
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
WO2010095559A1 (en) * 2009-02-20 2010-08-26 ソニー株式会社 Image processing device and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOTOHARU UEDA: "TEl.a: Implementation report of Refinement Motion Compensation using DMVD on TMuC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/ SC29/WG11 3RD MEETING, 7 October 2010 (2010-10-07), GUANGZHOU, CN *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104301700A (en) * 2013-07-20 2015-01-21 浙江大学 Image block boundary position determining method and image block boundary position determining device
CN104301700B (en) * 2013-07-20 2017-12-01 浙江大学 Image block boundaries location determining method and device
CN111050177A (en) * 2018-10-15 2020-04-21 腾讯科技(深圳)有限公司 Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium
WO2020078211A1 (en) * 2018-10-15 2020-04-23 腾讯科技(深圳)有限公司 Video encoding and video decoding methods, apparatus, computer device, and storage medium
CN111050177B (en) * 2018-10-15 2021-07-20 腾讯科技(深圳)有限公司 Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium
US11445205B2 (en) 2018-10-15 2022-09-13 Tencent Technology (Shenzhen) Company Limited Video encoding method and apparatus, video decoding method and apparatus, computer device, and storage medium

Similar Documents

Publication Publication Date Title
JP5081305B2 (en) Method and apparatus for interframe predictive coding
JP5368631B2 (en) Image encoding method, apparatus, and program
TWI571108B (en) Video encoding device, video decoding device, video encoding method and video decoding method
TWI551123B (en) A motion picture predictive coding apparatus, a motion picture prediction decoding method, a motion picture prediction coding method, a motion picture prediction decoding method, a motion picture prediction coding program, and a motion picture prediction decoding program
JP2004048552A (en) Image encoder, image encoding method, image decoder, image decoding method and communication equipment
WO2011121942A1 (en) Video encoding apparatus, video encoding method, video encoding program, video decoding apparatus, video decoding method, and video decoding program
WO2012098845A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
JP5560009B2 (en) Video encoding device
CN114208169A (en) Image decoding method for chrominance component and apparatus thereof
WO2012090425A1 (en) Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program
JP2009049969A (en) Device and method of coding moving image and device and method of decoding moving image
JP5479648B1 (en) Image encoding method and image decoding method
JP5444497B2 (en) Image encoding method and image decoding method
JP2012138838A (en) Moving image decoding apparatus, moving image decoding method and moving image decoding program
JP5304708B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP2012138837A (en) Moving image encoding apparatus, moving image encoding method and moving image encoding program
JP5571262B2 (en) Image encoding method and image decoding method
JP5304709B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP2011091498A (en) Moving image coder, moving image decoder, moving image coding method, and moving image decoding method
JP5946980B1 (en) Image decoding method
JP6181242B2 (en) Image decoding method
JP5951915B2 (en) Image decoding method
JP5750191B2 (en) Image decoding method
JP6549516B2 (en) Video coding apparatus, video coding method and video coding program
JP5911982B2 (en) Image decoding method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11852803

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11852803

Country of ref document: EP

Kind code of ref document: A1