WO2012056924A1 - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
WO2012056924A1
WO2012056924A1 PCT/JP2011/073809 JP2011073809W WO2012056924A1 WO 2012056924 A1 WO2012056924 A1 WO 2012056924A1 JP 2011073809 W JP2011073809 W JP 2011073809W WO 2012056924 A1 WO2012056924 A1 WO 2012056924A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
block
vector information
unit
motion compensation
Prior art date
Application number
PCT/JP2011/073809
Other languages
English (en)
French (fr)
Inventor
佐藤 数史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN2011800502981A priority Critical patent/CN103168471A/zh
Priority to US13/880,256 priority patent/US20130208805A1/en
Publication of WO2012056924A1 publication Critical patent/WO2012056924A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • This technology relates to an image processing apparatus and an image processing method. More specifically, the present invention provides an image processing apparatus and an image processing method that can realize high coding efficiency even when macro blocks of expanded size are used.
  • a device that handles image information as digital and performs efficient transmission and storage of information at that time for example, a device conforming to a method such as MPEG that performs compression by orthogonal transformation such as discrete cosine transformation and motion compensation is a broadcasting station. And it is getting popular in general homes.
  • MPEG2 ISO / IEC 13818-2
  • MPEG2 ISO / IEC 13818-2
  • MPEG2 compression method for example, in the case of a standard resolution interlaced scanning image having 720 ⁇ 480 pixels, a code amount (bit rate) of 4 to 8 Mbps is allocated. Further, in the case of a high resolution interlaced scanning image having 1920 ⁇ 10 88 pixels, a code amount of 18 to 22 Mbps is allocated. By allocating such code amount, it is possible to realize a high compression rate and a good image quality.
  • H.264 Joint Model of Enhanced-Compression Video Coding
  • MPEG-4 Part 10 Advanced Video Coding
  • one macroblock composed of 16 ⁇ 16 pixels is set to one of 16 ⁇ 16, 16 ⁇ 8, 8 ⁇ 16 or 8 ⁇ 8 motion compensation block sizes. It is possible to divide and have independent motion vector information. Further, as shown in FIG. 1, the 8 ⁇ 8 pixel sub-macroblock is divided into any of 8 ⁇ 8, 8 ⁇ 4, 4 ⁇ 8, and 4 ⁇ 4 motion compensation block sizes, and they are independent of each other. It is possible to have motion vector information.
  • the unit of motion prediction / compensation processing is 16 ⁇ 16 pixels in the frame motion compensation mode, and 16 in each of the first field and the second field in the field motion compensation mode. Motion prediction / compensation processing is performed in units of ⁇ 8 pixels.
  • a block E is a motion compensation block to be encoded
  • blocks A to D are motion compensation blocks already encoded and adjacent to the motion compensation block E.
  • Predicted motion vector information pmv E for the motion compensation block E is generated by median prediction as shown in Expression (1) using motion vector information on the motion compensated blocks A, B, and C.
  • Data mvdE encoded as motion vector information for the motion compensation block E in the image compression information is generated using pmvE as shown in Equation (2).
  • mvdE mvE-pmvE (2)
  • processing is performed independently on each component in the horizontal direction and vertical direction of the motion vector information.
  • H. In H.264 / AVC a multi-reference frame system is defined. Referring to FIG. The multiple reference frame method defined in H.264 / AVC will be described.
  • Direct Mode motion vector information is not stored in image compression information, and the decoding apparatus extracts motion vector information of the block from motion vector information of a peripheral or anchor block (Co-Located Block).
  • the anchor block is a block whose xy coordinates are the same as the motion compensation block to be encoded in the reference image.
  • spatial Direct mode Spatial Direct Mode
  • temporal direct mode Temporal Direct Mode
  • motion vector information pmvE generated by median prediction is used as motion vector information mvE to be applied to the block, as shown in equation (3).
  • POC Picture Order Count
  • the direct mode can be defined in units of 16 ⁇ 16 pixel macroblocks or in units of 8 ⁇ 8 pixel sub-macroblocks.
  • Non-Patent Document 1 has been made to improve coding of motion vector using median prediction.
  • Non-Patent Document 1 in addition to spatially predicted motion vector information obtained by median prediction, it is possible to adaptively use any of temporally predicted motion vector information and spatio-temporally predicted motion vector information.
  • motion vector information mvcol is used as motion vector information for the anchor block for the motion compensation block.
  • Temporally predicted motion vector information mvtm is generated from five pieces of motion vector information using, for example, equation (6). Also, temporal motion vector predictor information mvtm may be generated from nine motion vectors using equation (7).
  • mvtm5 med (mvcol, mvt0, ... mvt3) (6)
  • mvtm9 med (mvcol, mvt0, ... mvt7) (7)
  • spatio-temporal predicted motion vector information mvspt is generated from five pieces of motion vector information using equation (8).
  • mvspt med (mvcol, mvcol, mvA, mvB, mvC) (8)
  • a cost function when each piece of predicted motion vector information is used is calculated for each block, and selection of optimal predicted motion vector information is performed.
  • a flag indicating information on which prediction motion vector information has been used is transmitted to each block.
  • Non-Patent Document 2 the size of the macroblock is set to MPEG2 or H.264.
  • An extended macroblock having a hierarchical structure expanded to a size larger than H.264 / AVC is used. That is, in the extended macroblock, H.264 and H.264 are used for the 16 ⁇ 16 pixel block and below.
  • a larger block for example, a macroblock of 32 pixels ⁇ 32 pixels is defined as a superset.
  • the motion compensation block to be encoded and the adjacent motion compensation block on the left side are 16 ⁇ 16 pixels and the adjacent motion compensation blocks on the upper and upper right sides are 4 ⁇ 4 pixels
  • the upper end is assumed to be a boundary between a random motion area and a still image area.
  • H. In H.264 / AVC discontinuities associated with motion boundaries are not taken into account when coding motion vector information. Therefore, median prediction is performed using motion vector information of adjacent motion compensation blocks in a random motion area and a still picture area, and it may not be possible to generate a predicted motion vector capable of obtaining high coding efficiency. .
  • the coding efficiency can be increased by reducing the motion compensation block size in a random motion area and increasing the motion compensation block size in a still image area. May be able to In such a case, in the motion compensation block to be encoded located at the motion boundary and the adjacent motion compensation block adjacent via the motion boundary, the difference in motion vector information becomes larger. For this reason, using a prediction motion vector generated by median prediction makes it more difficult to obtain high coding efficiency.
  • a block of a motion compensation block to be processed that performs the encoding or decoding
  • a motion vector information generation unit that generates motion vector information of a block selected by the block selection processing unit using motion vector information of a block selected by the block selection processing unit;
  • the processing target is selected according to the block size of the motion compensation block to be processed that performs encoding or decoding and the block size of the processed adjacent motion compensation block adjacent to the motion compensated block. Only the adjacent motion compensation block encoded with a block size in the same layer as the motion compensation block is selected. Furthermore, predicted motion vector information is generated based on the motion vector information of the selected adjacent motion compensation block.
  • the upper right adjacent motion compensation block is encoded with a block size of a different layer with respect to the motion compensation block to be processed
  • the upper left adjacent motion compensation block is used instead of the upper right adjacent motion compensation block.
  • the motion vector information of the three adjacent motion compensation blocks is Using this, median prediction is performed to generate predicted motion vector information.
  • motion vector information indicating an average value by calculating an average value of motion vectors indicated by motion vector information of two adjacent motion compensation blocks in the same layer
  • motion vector information of any one of two adjacent motion compensation blocks is used as prediction motion vector information.
  • motion vector information of one adjacent motion compensation block of the same layer is used as prediction motion vector information.
  • predicted motion vector information is assumed to indicate a zero vector.
  • the motion vector information of the adjacent motion compensation block in the temporal direction is regarded as temporal prediction motion vector information
  • Either one of temporal prediction motion vector information and spatial prediction motion vector information generated based on motion vector information of three adjacent motion compensation blocks used for median prediction is used as prediction motion vector information.
  • information that can be generated is used as prediction motion vector information.
  • information indicating a zero vector is used as prediction motion vector information.
  • a second aspect of this technique is an image processing method for performing encoding or decoding using a motion compensation block defined in a hierarchical structure in an image processing apparatus, the processing for performing the encoding or decoding Selecting a block from the adjacent motion compensation block according to the block size of the target motion compensation block and the block size of the processed adjacent motion compensation block adjacent to the motion compensated block, and the processing target And V. generating predicted motion vector information to be used in coding processing or decoding processing of motion vector information for the motion compensation block of the block B, using the motion vector information of the selected block.
  • adjacent motion compensation is performed according to the block size of a motion compensation block to be processed that performs encoding or decoding and the block size of a processed adjacent motion compensation block adjacent to the motion compensated block. From block to block selection is performed. In addition, motion vector information of the selected block is used to generate predicted motion vector information for the motion compensation block to be processed. Therefore, motion vector information of the adjacent motion compensation block is adaptively used according to the block size of the motion compensation block to be processed and the adjacent motion compensation block to generate predicted motion vector information. Therefore, it is possible to generate predicted motion vector information according to the detection result of the discontinuity accompanying the motion boundary, and high encoding efficiency can be realized.
  • H. 2 is a diagram illustrating a motion compensation block in H.264 / AVC. It is a figure for demonstrating median prediction. It is a figure for demonstrating a Multi-Reference Frame system. It is a figure for demonstrating time direct mode. It is a figure for demonstrating temporal prediction motion vector information and space-time prediction motion vector information. It is the figure which illustrated the size of the motion compensation block of encoding object, and the adjacent motion compensation block of encoding completed. It is a figure which shows the structure of an image coding apparatus. It is a figure which shows the structure of a motion estimation and compensation part and a prediction motion vector production
  • It shows the hierarchical structure when the size of the macro block is expanded. It is a flowchart which shows operation
  • FIG. 7 shows the configuration of an image processing apparatus that performs image coding (hereinafter referred to as "image coding apparatus").
  • the image coding apparatus 10 includes an analog / digital conversion unit (A / D conversion unit) 11, a screen rearrangement buffer 12, a subtraction unit 13, an orthogonal conversion unit 14, a quantization unit 15, a lossless encoding unit 16, and an accumulation buffer 17. , Rate control unit 18.
  • the image coding apparatus 10 includes an inverse quantization unit 21, an inverse orthogonal transformation unit 22, an addition unit 23, a deblocking filter 24, a frame memory 25, an intra prediction unit 31, a motion prediction / compensation unit 32, and a block selection processing unit A predicted motion vector information generation unit 34 and a predicted image / optimum mode selection unit 35 are provided.
  • the A / D conversion unit 11 converts an analog image signal into digital image data and outputs the digital image data to the screen rearrangement buffer 12.
  • the screen rearrangement buffer 12 rearranges frames of the image data output from the A / D converter 11.
  • the screen rearrangement buffer 12 rearranges the frames according to the GOP (Group of Pictures) structure related to the encoding process, and the image data after the rearrangement is subjected to the subtraction unit 13, the intra prediction unit 31, and the motion prediction / compensation unit Output to 32.
  • GOP Group of Pictures
  • the subtraction unit 13 is supplied with the image data output from the screen rearrangement buffer 12 and the prediction image data selected by the prediction image / optimum mode selection unit 35 described later.
  • the subtraction unit 13 calculates prediction error data, which is the difference between the image data output from the screen rearrangement buffer 12 and the prediction image data supplied from the prediction image / optimum mode selection unit 35, to the orthogonal transformation unit 14. Output.
  • the orthogonal transformation unit 14 performs orthogonal transformation processing such as discrete cosine transformation (DCT; Discrete Cosine Transform), Karhunen-Loeve transformation, or the like on the prediction error data output from the subtraction unit 13.
  • the orthogonal transform unit 14 outputs transform coefficient data obtained by performing orthogonal transform processing to the quantization unit 15.
  • the quantization unit 15 is supplied with the transform coefficient data output from the orthogonal transformation unit 14 and a rate control signal from a rate control unit 18 described later.
  • the quantization unit 15 quantizes the transform coefficient data, and outputs the quantized data to the lossless encoding unit 16 and the inverse quantization unit 21. Further, the quantization unit 15 switches the quantization parameter (quantization scale) based on the rate control signal from the rate control unit 18 to change the bit rate of the quantization data.
  • the lossless encoding unit 16 is supplied with the quantized data output from the quantization unit 15 and the prediction mode information from the intra prediction unit 31 described later, and the prediction mode information and the difference motion vector information from the motion prediction / compensation unit 32. Be done. Further, information indicating whether the optimal mode is intra prediction or inter prediction is supplied from the predicted image / optimum mode selection unit 35.
  • the prediction mode information includes, for example, prediction mode and block size information of a motion compensation block according to intra prediction or inter prediction.
  • the lossless encoding unit 16 performs lossless encoding processing on the quantized data by, for example, variable-length encoding or arithmetic encoding, generates image compression information, and outputs the image compression information to the accumulation buffer 17.
  • the lossless encoding unit 16 performs lossless encoding of prediction mode information supplied from the intra prediction unit 31.
  • the lossless encoding unit 16 performs lossless encoding of prediction mode information, difference motion vector information, and the like supplied from the motion prediction / compensation unit 32.
  • the lossless encoding unit 16 includes the information subjected to the lossless encoding in the image compression information. For example, the lossless encoding unit 16 adds the header information of the encoded stream, which is image compression information.
  • the accumulation buffer 17 accumulates the image compression information from the lossless encoding unit 16. Further, the accumulation buffer 17 outputs the accumulated image compression information at a transmission rate corresponding to the transmission path.
  • the rate control unit 18 monitors the free space of the accumulation buffer 17, generates a rate control signal according to the free space, and outputs the rate control signal to the quantization unit 15.
  • the rate control unit 18 acquires, for example, information indicating the free space from the accumulation buffer 17.
  • the rate control unit 18 reduces the bit rate of the quantized data by the rate control signal when the free space is reduced. Further, when the free space of the accumulation buffer 17 is sufficiently large, the rate control unit 18 increases the bit rate of the quantized data by the rate control signal.
  • the inverse quantization unit 21 performs inverse quantization processing of the quantized data supplied from the quantization unit 15.
  • the inverse quantization unit 21 outputs transform coefficient data obtained by performing the inverse quantization process to the inverse orthogonal transform unit 22.
  • the inverse orthogonal transformation unit 22 performs inverse orthogonal transformation processing of the transform coefficient data supplied from the inverse quantization unit 21, and outputs the obtained data to the addition unit 23.
  • the addition unit 23 adds the data supplied from the inverse orthogonal transformation unit 22 and the prediction image data supplied from the prediction image / optimum mode selection unit 35 to generate decoded image data, and the deblocking filter 24 and the frame memory Output to 25
  • the decoded image data is used as image data of a reference image.
  • the deblocking filter 24 performs a filtering process to reduce block distortion that occurs during image coding.
  • the deblocking filter 24 performs filter processing for removing block distortion from the decoded image data supplied from the addition unit 23, and outputs the decoded image data after filter processing to the frame memory 25.
  • the frame memory 25 holds the decoded image data before the filtering process supplied from the adding unit 23 and the decoded image data after the filtering process supplied from the deblocking filter 24.
  • the decoded image data held in the frame memory 25 is supplied as reference image data to the intra prediction unit 31 or the motion prediction / compensation unit 32 via the selector 26.
  • the selector 26 supplies the decoded image data before the deblocking filter processing held in the frame memory 25 to the intra prediction unit 31 as reference image data when the intra prediction unit 31 performs intra prediction.
  • the selector 26 supplies the decoded image data after deblocking filter processing held in the frame memory 25 to the motion prediction / compensation unit 32 as reference image data. .
  • the intra prediction unit 31 performs prediction in all the candidate intra prediction modes using the input image data of the image to be encoded supplied from the screen rearrangement buffer 12 and the reference image data supplied from the frame memory 25. , Determine the optimal intra prediction mode.
  • the intra prediction unit 31 calculates a cost function value in each intra prediction mode, for example, and sets the intra prediction mode in which the coding efficiency is the best based on the calculated cost function value as the optimal intra prediction mode.
  • the intra prediction unit 31 outputs the predicted image data generated in the optimal intra prediction mode and the cost function value in the optimal intra prediction mode to the predicted image / optimum mode selection unit 35. Furthermore, the intra prediction unit 31 outputs prediction mode information indicating the optimal intra prediction mode to the lossless encoding unit 16.
  • the motion prediction / compensation unit 32 predicts all candidate inter prediction modes using the input image data of the image to be encoded supplied from the screen rearrangement buffer 12 and the reference image data supplied from the frame memory 25. To determine the optimal inter prediction mode.
  • the motion prediction / compensation unit 32 calculates a cost function value in each inter prediction mode, for example, and sets the inter prediction mode in which the coding efficiency is the best based on the calculated cost function value as the optimum inter prediction mode.
  • the motion prediction / compensation unit 32 outputs the predicted image data generated in the optimal inter prediction mode and the cost function value in the optimal inter prediction mode to the predicted image / optimum mode selection unit 35. Furthermore, the motion prediction / compensation unit 32 outputs prediction mode information on the optimal inter prediction mode to the lossless encoding unit 16.
  • the motion prediction / compensation unit 32 generates difference motion vector information using predicted motion vector information generated by the predicted motion vector information generation unit 34, and coding efficiency is increased when difference motion vector information is used. Determine the best inter prediction mode.
  • the block selection processing unit 33 determines from the adjacent motion compensation block to the block according to the block size of the motion compensation block to be encoded and the block size of the encoded adjacent motion compensation block adjacent to the motion compensated block. Make a selection.
  • the block selection processing unit 33 selects only the adjacent motion compensation block encoded in the same layer size as the motion compensation block to be encoded, and outputs the block selection result to the motion vector predictor generating unit 34.
  • the predicted motion vector information generation unit 34 generates predicted motion vector information to be used in coding of motion vector information for a motion compensation block to be coded, using motion vector information of the block selected by the block selection processing unit 33. Do. Also, the predicted motion vector information generation unit 34 outputs the generated predicted motion vector information to the motion prediction / compensation unit 32.
  • FIG. 8 shows the configurations of the motion prediction / compensation unit 32 and the predicted motion vector information generation unit 34.
  • the motion prediction / compensation unit 32 includes a motion search unit 321, a cost function value calculation unit 322, a mode determination unit 323, a motion compensation processing unit 324, and a motion vector / block size information buffer 325.
  • the motion search unit 321 is supplied with the rearranged input image data supplied from the screen rearrangement buffer 12 and the reference image data read from the frame memory 25.
  • the motion search unit 321 performs a motion search in all candidate inter prediction modes to detect a motion vector.
  • the motion search unit 321 outputs motion vector information indicating the detected motion vector to the cost function value calculation unit 322 together with the input image data and the reference image data when the motion vector is detected.
  • the cost function value calculation unit 322 is supplied with motion vector information, input image data, reference image data from the motion search unit 321, and predicted motion vector information from the predicted motion vector information generation unit 34.
  • the cost function value calculation unit 322 calculates cost function values in all candidate inter prediction modes, using motion vector information, input image data, reference image data, and predicted motion vector information.
  • the calculation of the cost function value is, for example, H. As defined in JM (Joint Model), which is reference software in the H.264 / AVC system, this is performed based on either the High Complexity mode or the Low Complexity mode.
  • JM Joint Model
  • Cost (Mode ⁇ ⁇ ) D + ⁇ ⁇ R (9)
  • indicates the entire set of prediction modes to be candidates for encoding the image of the motion compensation block.
  • D indicates the difference energy (distortion) between the decoded image and the input image when encoding is performed in the prediction mode.
  • R is a generated code amount including orthogonal transform coefficients, prediction mode information and the like, and ⁇ is a Lagrange multiplier given as a function of the quantization parameter QP.
  • Cost (Mode ⁇ ) D + QP2Quant (QP) ⁇ Header_Bit (10)
  • indicates the entire set of prediction modes to be candidates for encoding the image of the motion compensation block.
  • D indicates the difference energy (distortion) between the decoded image and the input image when encoding is performed in the prediction mode.
  • Header_Bit is a header bit for the prediction mode, and QP2Quant is a function given as a function of the quantization parameter QP.
  • the cost function value calculation unit 322 also includes the difference motion vector information indicating the difference between the motion vector indicated by the motion vector information from the motion search unit 321 and the predicted motion vector indicated by the predicted motion vector information. And calculate the cost function value.
  • the cost function value calculation unit 322 outputs the calculated cost function value to the mode determination unit 323.
  • the mode determination unit 323 determines the mode with the smallest cost function value as the optimal inter prediction mode. Also, the mode determination unit 323 outputs prediction mode information indicating the determined optimal inter prediction mode to the motion compensation processing unit 324 together with motion vector information and differential motion vector information and the like related to the optimal inter prediction mode.
  • the prediction mode information includes block size information and the like of the motion compensation block.
  • the motion compensation processing unit 324 performs motion compensation on the reference image data read from the frame memory 25 based on the optimal inter prediction mode information and the motion vector information, generates predicted image data, and generates a predicted image / optimum mode. Output to the selection unit 35. Also, the motion compensation processing unit 324 outputs, to the lossless encoding unit 16, prediction mode information of optimal inter prediction, differential motion vector information in the mode, and the like.
  • the motion vector / block size information buffer 325 holds motion vector information related to the optimal inter prediction mode and block size information of the motion compensation block. Further, the motion vector / block size information buffer 325 includes motion vector information (hereinafter referred to as "adjacent motion vector information") and block size information (hereinafter referred to as “adjacent motion vector information”) of the encoded adjacent motion compensation block for the motion compensated block to be encoded. It outputs “the adjacent block size information” to the motion vector predictor generating unit.
  • FIG. 9 is a diagram for explaining motion prediction / compensation processing with 1 ⁇ 4 pixel accuracy.
  • the position "A” is the position of the integer precision pixel stored in the frame memory 25
  • the positions "b", “c” and “d” are the positions of the half pixel precision
  • Clip1 () is defined as equation (11).
  • the predicted motion vector information generation unit 34 includes an adjacent motion vector / block size information buffer 341 and a motion vector information processing unit 342.
  • the adjacent motion vector / block size information buffer 341 stores adjacent motion vector information and adjacent block size information supplied from the motion vector / block size information buffer 325 of the motion prediction / compensation unit 32. Further, the adjacent motion vector / block size information buffer 341 outputs the stored adjacent block size information to the block selection processing unit 33. Also, the adjacent motion vector / block size information buffer 341 outputs the stored adjacent motion vector information to the motion vector information processing unit 342.
  • the motion vector information processing unit 342 generates predicted motion vector information based on the motion vector information of the adjacent motion compensation block indicated by the block selection result supplied from the block selection processing unit 33.
  • the motion vector information processing unit 342 outputs the generated predicted motion vector information to the cost function value calculation unit 322 of the motion prediction / compensation unit 32.
  • the block selection processing unit 33 determines, based on the adjacent block size information supplied from the adjacent motion vector / block size information buffer 341, only the encoded adjacent motion compensation block of the same hierarchical size as the motion compensation block to be encoded. Choose The block selection processing unit 33 outputs the block selection result indicating the selected adjacent motion compensation block to the motion vector information processing unit 342 of the predicted motion vector information generation unit 34.
  • the predicted image / optimum mode selection unit 35 compares the cost function value supplied from the intra prediction unit 31 with the cost function value supplied from the motion prediction / compensation unit 32, and the cost function value is small. Is selected as the optimal mode in which the coding efficiency is the best. Further, the predicted image / optimum mode selection unit 35 outputs the predicted image data generated in the optimum mode to the subtraction unit 13 and the addition unit 23. Further, the predicted image / optimum mode selection unit 35 outputs information indicating whether the optimum mode is the intra prediction mode or the inter prediction mode to the lossless encoding unit 16. The predicted image / optimum mode selection unit 35 switches intra prediction or inter prediction on a slice basis.
  • H Operation of Image Coding Device>
  • the encoding process is performed by extending the size of the macro block compared to the H.264 / AVC method.
  • FIG. 10 shows the hierarchical structure when the size of the macroblock is expanded.
  • (C) and (D) in FIG. It shows a macro block of 16 ⁇ 16 pixels and a sub macro block of 8 ⁇ 8 pixels defined in the H.264 / AVC system.
  • H As a macro block of a size expanded than the H.264 / AVC system, a macro block of 64 ⁇ 64 pixels shown in (A) of FIG. 10 or a macro block of 32 ⁇ 32 pixels shown in (B) of FIG.
  • “Skip / direct” indicates that it is the block size when the skipped macro block or the direct mode is selected.
  • ME indicates that it is a motion compensation block size.
  • “P8 ⁇ 8” indicates that further division is possible in the lower hierarchy with the block size reduced.
  • block sizes of a plurality of motion compensation blocks are set including the size obtained by dividing a macroblock.
  • the sizes of 64 ⁇ 64 pixels, 64 ⁇ 32 pixels, 32 ⁇ 64 pixels, and 32 ⁇ 32 pixels in the hierarchy of the motion compensation block in the same hierarchy are It is set as the block size.
  • FIG. 11 is a flowchart showing the operation of the image coding apparatus.
  • the A / D conversion unit 11 A / D converts the input image signal.
  • step ST12 the screen rearrangement buffer 12 performs image rearrangement.
  • the screen rearrangement buffer 12 stores the image data supplied from the A / D converter 11, and performs rearrangement from the display order of each picture to the coding order.
  • step ST13 the subtraction unit 13 generates prediction error data.
  • the subtraction unit 13 generates a prediction error data by calculating the difference between the image data of the image rearranged in step ST12 and the prediction image data selected by the prediction image / optimum mode selection unit 35.
  • the prediction error data has a smaller amount of data than the original image data. Therefore, the amount of data can be compressed as compared to the case of encoding the image as it is.
  • the orthogonal transformation unit 14 performs orthogonal transformation processing.
  • the orthogonal transformation unit 14 orthogonally transforms the prediction error data supplied from the subtraction unit 13. Specifically, orthogonal transformation such as discrete cosine transformation and Karhunen-Loeve transformation is performed on the prediction error data to output transformation coefficient data.
  • step ST15 the quantization unit 15 performs quantization processing.
  • the quantization unit 15 quantizes transform coefficient data.
  • rate control is performed as described in the process of step ST25 described later.
  • step ST16 the inverse quantization unit 21 performs inverse quantization processing.
  • the inverse quantization unit 21 inversely quantizes the transform coefficient data quantized by the quantization unit 15 with a characteristic corresponding to the characteristic of the quantization unit 15.
  • the inverse orthogonal transform unit 22 performs inverse orthogonal transform processing.
  • the inverse orthogonal transformation unit 22 inversely orthogonally transforms the transform coefficient data inversely quantized by the inverse quantization unit 21 with the characteristic corresponding to the characteristic of the orthogonal transformation unit 14.
  • step ST18 the addition unit 23 generates reference image data.
  • the adding unit 23 adds the predicted image data supplied from the predicted image / optimum mode selecting unit 35 and the data after inverse orthogonal transformation of the position corresponding to the predicted image, and generates reference image data (decoded image data).
  • step ST19 the deblocking filter 24 performs filter processing.
  • the deblocking filter 24 filters the decoded image data output from the adding unit 23 to remove block distortion.
  • the frame memory 25 stores reference image data.
  • the frame memory 25 stores reference image data (decoded image data) after filter processing.
  • step ST21 the intra prediction unit 31 and the motion prediction / compensation unit 32 perform prediction processing. That is, the intra prediction unit 31 performs intra prediction processing in the intra prediction mode, and the motion prediction / compensation unit 32 performs motion prediction / compensation processing in the inter prediction mode.
  • the details of the prediction processing will be described later with reference to FIG. 12, but by this processing, prediction processing is performed in all candidate prediction modes, and the cost function values in all candidate prediction modes are respectively calculated. It is calculated. Then, based on the calculated cost function value, the optimal intra prediction mode and the optimal inter prediction mode are selected, and the predicted image generated in the selected prediction mode and its cost function and prediction mode information are predicted image / optimum mode The selection unit 35 is supplied.
  • the prediction image / optimum mode selection unit 35 selects prediction image data. Based on the cost function values output from the intra prediction unit 31 and the motion prediction / compensation unit 32, the predicted image / optimum mode selection unit 35 determines the optimal mode with the best coding efficiency. Further, the prediction image / optimum mode selection unit 35 selects prediction image data of the determined optimum mode, and outputs the selected prediction image data to the subtraction unit 13 and the addition unit 23. The predicted image data is used for the calculation of steps ST13 and ST18 as described above.
  • the lossless encoding unit 16 performs lossless encoding processing.
  • the lossless encoding unit 16 losslessly encodes the quantized data output from the quantization unit 15. That is, lossless coding such as variable-length coding or arithmetic coding is performed on the quantized data to perform data compression. Further, the lossless encoding unit 16 performs lossless encoding of prediction mode information and the like corresponding to the predicted image data selected in step ST22, and generates image compression information generated by lossless encoding of the quantized data as the prediction mode. Lossless encoded data such as information is included.
  • step ST24 the accumulation buffer 17 performs accumulation processing.
  • the accumulation buffer 17 accumulates the compressed image information output from the lossless encoding unit 16.
  • the compressed image information stored in the storage buffer 17 is appropriately read and transmitted to the decoding side through the transmission path.
  • step ST25 the rate control unit 18 performs rate control.
  • the rate control unit 18 controls the rate of the quantization operation of the quantization unit 15 so that overflow or underflow does not occur in the accumulation buffer 17 when the accumulation buffer 17 accumulates the image compression information.
  • step ST21 of FIG. 11 will be described with reference to the flowchart of FIG.
  • the intra prediction unit 31 performs an intra prediction process.
  • the intra prediction unit 31 performs intra prediction on the image of the motion compensation block to be encoded in all candidate intra prediction modes.
  • the decoded image data before the blocking filter process is performed by the deblocking filter 24 is used as the image data of the decoded image to be referenced in intra prediction.
  • intra prediction processing intra prediction is performed in all candidate intra prediction modes, and cost function values are calculated for all candidate intra prediction modes. Then, based on the calculated cost function value, one intra prediction mode with the best coding efficiency is selected from all the intra prediction modes.
  • step ST32 the motion prediction / compensation unit 32 performs inter prediction processing.
  • the motion prediction / compensation unit 32 performs the inter prediction process of the candidate inter prediction mode using the decoded image data after the deblocking filter process stored in the frame memory 25.
  • inter prediction processing prediction processing is performed in all candidate inter prediction modes, and cost function values are calculated for all candidate inter prediction modes. Then, based on the calculated cost function value, one inter prediction mode with the best coding efficiency is selected from all the inter prediction modes.
  • step ST41 the intra prediction unit 31 performs intra prediction in each prediction mode.
  • the intra prediction unit 31 generates predicted image data for each intra prediction mode, using the decoded image data before the blocking filter process.
  • step ST42 the intra prediction unit 31 calculates a cost function value in each prediction mode.
  • the calculation of the cost function value can be performed, for example, as described in H.264. As defined in JM (Joint Model), which is reference software in the H.264 / AVC system, this is performed based on either the High Complexity mode or the Low Complexity mode. That is, in the High Complexity mode, as the process of step ST42, all the candidate prediction modes are temporarily subjected to the lossless encoding process, and the cost function value represented by the equation (9) is Calculate.
  • the low complexity mode as processing of step ST42, generation of predicted images and header bits such as motion vector information and prediction mode information are generated for all candidate prediction modes, and the table is expressed by equation (10).
  • the cost function value to be calculated is calculated for each prediction mode.
  • the intra prediction unit 31 determines the optimal intra prediction mode.
  • the intra prediction unit 31 selects one intra prediction mode in which the cost function value is the minimum value among them based on the cost function value calculated in step ST42, and determines it as the optimal intra prediction mode.
  • step ST32 in FIG. 12 Next, the inter prediction processing in step ST32 in FIG. 12 will be described with reference to the flowchart in FIG.
  • step ST51 the motion prediction / compensation unit 32 performs motion prediction processing.
  • the motion prediction / compensation unit 32 performs motion prediction for each prediction mode to detect a motion vector, and proceeds to step ST52.
  • the prediction motion vector information generation unit 34 generates prediction motion vector information.
  • the prediction motion vector information generation unit 34 generates prediction motion vector information using motion vector information of an encoded adjacent motion compensation block whose block size is the same level as that of the motion compensation block to be encoded. For example, it is assumed that the motion compensation block to be encoded has any of block sizes (64 ⁇ 64 pixels, 64 ⁇ 32 pixels, 32 ⁇ 64 pixels, and 32 ⁇ 32 pixels) of the hierarchy shown in FIG. In this case, prediction motion vector information is generated using motion vector information of an adjacent motion compensation block which is a block size of the same layer.
  • FIG. 15 is a flowchart showing generation processing of predicted motion vector information.
  • the block selection processing unit 33 determines whether the upper right adjacent motion compensation block is in the same hierarchy.
  • the block selection processing unit 33 determines whether the adjacent motion compensation block located on the upper right of the motion compensation block to be encoded has the same block size as the motion compensation block to be encoded.
  • the block selection processing unit 33 determines whether the adjacent motion compensation block C has the block size of the same hierarchy as the block E when the motion compensation block to be encoded is the block E in FIG. If the block selection processing unit 33 determines that the block size is not in the same hierarchy, the process proceeds to step ST62. If the block selection processing unit 33 determines that the block size is in the same hierarchy, the process proceeds to step ST63.
  • step ST62 the block selection processing unit 33 proceeds to step ST63 using the upper left adjacent motion compensation block instead of the upper right adjacent motion compensation block.
  • the block selection processing unit 33 performs this processing, and for example, uses it in generation of prediction motion vector information when the motion compensation block is at the position of the image frame end and there is no upper right adjacent motion compensation block. It prevents adjacent motion compensation blocks from being reduced.
  • step ST63 the block selection processing unit 33 determines whether three adjacent motion compensation blocks are in the same hierarchy.
  • the block selection processing unit 33 is configured such that three adjacent motion compensation blocks positioned on the left, top, and upper right (or upper left) with respect to the motion compensation block to be encoded have the same block size as the motion compensation block to be encoded In the case of, the process proceeds to step ST64.
  • the block selection processing unit 33 proceeds to step ST65. For example, when the size of the block E in FIG. 2 is 64 ⁇ 32 pixels of the block size of the hierarchy shown in FIG.
  • the block selection processing unit 33 determines that the blocks A, B and C (or D) If it is the block size of the hierarchy shown in (A), the process proceeds to step ST64. If at least one of the blocks A, B and C (or D) is not the block size of the layer shown in FIG. 10A, the block selection processing unit 33 proceeds to step ST65.
  • the block selection processing unit 33 performs median prediction selection processing.
  • the block selection processing unit 33 outputs the block selection result of selecting three adjacent motion compensation blocks to the motion vector predictor generating unit 34, and causes the motion vector predictor generating unit 34 to perform median prediction.
  • the motion vector information processing unit 342 of the predicted motion vector information generation unit 34 detects motion vectors of three adjacent motion compensation blocks indicated by the block selection result when three adjacent motion compensation blocks are indicated by the block selection result. Make median prediction using.
  • step ST65 the block selection processing unit 33 determines whether two adjacent motion compensation blocks are in the same hierarchy.
  • the block selection processing unit 33 determines that two of the adjacent motion compensation blocks located on the left, upper and upper right (or upper left) with respect to the motion compensation block to be encoded are the same as the motion compensation block to be encoded If it is the block size of the hierarchy, the process proceeds to step ST66. In addition, when the two or three adjacent motion compensation blocks are not in the same hierarchical block size as the motion compensation block to be encoded, the block selection processing unit 33 proceeds to step ST67.
  • the block selection processing unit 33 performs average value selection processing or one block selection processing.
  • the block selection processing unit 33 outputs the block selection result in which two adjacent motion compensation blocks in the same layer are selected to the motion vector predictor generation unit 34. If two adjacent motion compensation blocks are indicated by the block selection result, the motion vector information processing unit 342 of the predicted motion vector information generation unit 34 detects the motion vector indicated by the motion vector information of the two adjacent motion compensation blocks. Calculate the average value. Also, the motion vector information processing unit 342 sets motion vector information indicating the calculated average value as predicted motion vector information.
  • the block selection processing unit 33 outputs, to the motion vector predictor generation unit 34, the block selection result of selecting any one of two adjacent motion compensation blocks in the same layer.
  • the motion vector information processing unit 342 of the predicted motion vector information generation unit 34 predicts motion vector information of the adjacent motion compensated block indicated by the block selection result, when one adjacent motion compensated block is indicated by the block selection result. It is assumed to be motion vector information.
  • step ST67 the block selection processing unit 33 determines whether one adjacent motion compensation block is in the same hierarchy.
  • the block selection processing unit 33 determines that only one of the adjacent motion compensation blocks located on the left, top, and upper right (or upper left) with respect to the motion compensation block to be encoded is the motion compensation block to be encoded. If the block size is in the same hierarchy, the process proceeds to step ST68. Further, when the three adjacent motion compensation blocks are not in the same hierarchical block size as the motion compensation block to be encoded, the block selection processing unit 33 proceeds to step ST69.
  • step ST68 the block selection processing unit 33 performs the same layer block selection process.
  • the block selection processing unit 33 outputs the block selection result obtained by selecting one adjacent motion compensation block in the same hierarchy to the motion vector predictor generation unit 34.
  • the motion vector information processing unit 342 of the predicted motion vector information generation unit 34 predicts motion vector information of the adjacent motion compensated block indicated by the block selection result, when one adjacent motion compensated block is indicated by the block selection result. It is assumed to be motion vector information.
  • step ST69 the block selection processing unit 33 performs block non-selection processing.
  • the block selection processing unit 33 outputs a block selection result indicating that there is no adjacent motion compensation block in the same layer to the predicted motion vector information generation unit 34.
  • the motion vector information processing unit 342 of the prediction motion vector information generation unit 34 generates prediction motion vector information indicating a zero vector when the block selection result indicates that there is no adjacent motion compensation block.
  • the block selection processing unit 33 selects the adjacent motion compensation block according to the block size of the motion compensation block to be encoded and the adjacent motion compensation block. Also, the predicted motion vector information generation unit 34 generates predicted motion vector information using the motion vector information of the selected adjacent motion compensation block, and outputs the predicted motion vector information to the motion prediction / compensation unit 32.
  • the prediction motion vector information generation unit 34 selects either the average value of the motion vectors indicated by the motion vector information of the two adjacent motion compensation blocks or any one of the two adjacent motion compensation blocks as the prediction motion vector information.
  • Image compression information includes identification information that makes it possible to identify the
  • predicted motion vector information is generated using an adjacent motion compensation block in the spatial direction.
  • prediction motion vector information is further generated using adjacent motion compensation blocks in the time direction, it is possible to generate prediction motion vector information that can further improve the coding efficiency.
  • FIG. 16 shows a process of generating predicted motion vector information using adjacent motion compensation blocks in the spatial direction and the temporal direction.
  • the prediction motion vector information generation unit 34 determines whether space and time prediction motion vector information has been generated based on a block in the same hierarchy as the motion compensation block to be encoded.
  • the prediction motion vector information generation unit 34 generates prediction motion vector information based on the motion vector information of the adjacent motion compensation block in the spatial direction, which is the block size of the same layer as the motion compensation block to be encoded, by the processing shown in FIG. In this case, it is determined that the spatially predicted motion vector information is generated based on a block in the same layer as the motion compensation block to be encoded.
  • the motion vector predictor generating unit 34 has a block size in the same hierarchy as the motion compensation block to be encoded, such as an adjacent motion compensation block adjacent in the time direction to the motion compensation block to be encoded.
  • a block size in the same hierarchy as the motion compensation block to be encoded such as an adjacent motion compensation block adjacent in the time direction to the motion compensation block to be encoded.
  • step ST72 the prediction motion vector information generation unit 34 determines whether the motion vectors match.
  • the predicted motion vector information generation unit 34 proceeds to step ST73 when the motion vector indicated by the spatial predicted motion vector information matches the motion vector indicated by the temporal predicted motion vector information, and proceeds to step ST74 when they do not match.
  • the prediction motion vector information generation unit 34 determines any one as prediction motion vector information. Because the motion vector is located, the prediction motion vector information generation unit 34 outputs either the spatial prediction motion vector information or the temporal prediction motion vector information to the motion prediction / compensation unit 32 as prediction motion vector information.
  • the prediction motion vector information generation unit 34 performs an optimal prediction motion vector selection process.
  • the predicted motion vector information generation unit 34 compares the cost function values when spatial motion vector information is selected and when temporal motion vector information is selected, and information with high coding efficiency is used as motion vector motion information. It is output to the prediction / compensation unit 32.
  • the cost function value calculation unit 322 of the motion prediction / compensation unit 32 may be used to calculate the cost function value.
  • step ST75 the prediction motion vector information generation unit 34 determines whether temporal prediction motion vector information has been generated based on a block in the same hierarchy as the motion compensation block to be encoded.
  • the prediction motion vector information generation unit 34 determines that the temporal motion vector information has been generated. Then, the process proceeds to step ST76.
  • the anchor block used in generation of temporal motion vector predictor information does not have the block size of the same layer, the prediction motion vector information generation unit 34 proceeds to step ST77.
  • the prediction motion vector information generation unit 34 determines temporal prediction motion vector information as prediction motion vector information.
  • the motion vector predictor generating unit 34 determines the time motion vector predictor information calculated as described with reference to FIG. 5 as motion vector predictor information, and outputs the motion vector predictor information to the motion prediction / compensation unit 32.
  • step ST77 the prediction motion vector information generation unit 34 determines whether or not space prediction motion vector information has been generated based on a block in the same hierarchy as the motion compensation block to be encoded. If the motion vector predictor generating unit 34 generates spatial prediction motion vector information using motion vector information of a coded adjacent motion compensated block having a block size of the same layer as the motion compensated block to be coded, Proceed to ST78. Also, if the motion vector predictor information generation unit 34 can not generate the space motion vector predictor information using the motion vector information of the encoded adjacent motion compensation block having the block size of the same layer, the motion vector predictor generating unit 34 proceeds to step ST79.
  • the prediction motion vector information generation unit 34 determines spatial prediction motion vector information as prediction motion vector information.
  • the motion vector predictor generating unit 34 determines the space motion vector predictor information generated as the processing of step ST61 to step ST68 in FIG. 15 as motion vector predictor information, and outputs it to the motion prediction / compensation unit 32.
  • the prediction motion vector information generation unit 34 determines zero vector information as prediction motion vector information.
  • the prediction motion vector information generation unit 34 generates motion vector information indicating a zero vector because generation of space and time prediction motion vector information is not performed based on the adjacent motion compensation block in the same layer as the motion compensation block to be encoded. Determined as predicted motion vector information.
  • the predicted motion vector information generation unit 34 outputs predicted motion vector information indicating a zero vector to the preliminary motion prediction / compensation unit 32.
  • the motion vector predictor information generation unit 34 generates, together with the motion vector predictor information, identification information that makes it possible to identify which one is selected. By doing this, it is possible to easily generate prediction motion vector information equal to coding at the time of decoding.
  • the motion prediction / compensation unit 32 performs motion vector coding processing.
  • the cost function value calculation unit 322 of the motion prediction / compensation unit 32 calculates a differential motion vector that is the difference between the motion vector detected by the motion search unit 321 and the predicted motion vector generated by the predicted motion vector information generation unit 34 To generate differential motion vector information.
  • the cost function value calculation unit 322 generates difference motion vector information for all prediction modes.
  • the motion prediction / compensation unit 32 calculates a cost function value in each prediction mode.
  • the motion prediction / compensation unit 32 calculates the cost function value using the above-described equation (9) or equation (10). Also, the motion prediction / compensation unit 32 calculates the generated code amount using the differential motion vector information. Note that the calculation of the cost function value for the inter prediction mode is based on H.264. Also included are evaluations of skipped macroblocks defined in the H.264 / AVC system and cost function values in the direct mode.
  • step ST55 the motion prediction / compensation unit 32 determines the optimal inter prediction mode.
  • the motion prediction / compensation unit 32 selects one prediction mode in which the cost function value is the minimum value among them based on the cost function value calculated in step ST54, and determines it as the optimal inter prediction mode.
  • the image coding apparatus 10 selects an adjacent motion compensation block in accordance with the block size of the encoded adjacent motion compensation block that is adjacent in the spatial or temporal direction to the motion compensation block to be encoded. Also, the image coding device 10 generates predicted motion vector information using the motion vector information of the selected adjacent motion compensation block. That is, motion vector information of the adjacent motion compensation block is adaptively used according to the block sizes of the motion compensation block to be processed and the adjacent motion compensation block to generate prediction motion vector information. Therefore, it is possible to generate predicted motion vector information according to the detection result of the discontinuity accompanying the motion boundary, and high encoding efficiency can be realized. For example, in the motion vector coding process of the still image area shown in FIG. 6, motion vector information is generated without using motion vector information of an adjacent motion compensation block having a small block size in a random motion area. The efficiency of the vector coding process can be improved.
  • Image decoding apparatus ⁇ 3. Configuration of Image Decoding Device> Next, an image decoding apparatus will be described. Image compression information generated by encoding an input image is supplied to an image decoding apparatus via a predetermined transmission path, a recording medium, and the like, and is decoded.
  • FIG. 17 shows the configuration of an image processing apparatus (hereinafter referred to as "image decoding apparatus") that decodes image compression information.
  • the image decoding apparatus 50 includes an accumulation buffer 51, a lossless decoding unit 52, an inverse quantization unit 53, an inverse orthogonal transformation unit 54, an addition unit 55, a deblocking filter 56, a screen rearrangement buffer 57, a digital / analog conversion unit A D / A conversion unit) 58 is provided.
  • the image decoding apparatus 50 further includes a frame memory 61, selectors 62 and 75, an intra prediction unit 71, a motion compensation unit 72, a block selection processing unit 73, and a motion vector predictor information generation unit 74.
  • the accumulation buffer 51 accumulates the transmitted image compression information.
  • the lossless decoding unit 52 decodes the image compression information supplied from the accumulation buffer 51 in a method corresponding to the coding method of the lossless coding unit 16 in FIG. 7.
  • the lossless decoding unit 52 outputs prediction mode information obtained by decoding the image compression information to the intra prediction unit 71 and the motion compensation unit 72.
  • the inverse quantization unit 53 inversely quantizes the quantized data decoded by the lossless decoding unit 52 by a method corresponding to the quantization method of the quantization unit 15 in FIG. 7.
  • the inverse orthogonal transform unit 54 performs inverse orthogonal transform on the output of the inverse quantization unit 53 according to a scheme corresponding to the orthogonal transform scheme of the orthogonal transform unit 14 in FIG.
  • the addition unit 55 adds the data after the inverse orthogonal transform and the predicted image data supplied from the selector 75 to generate decoded image data, and outputs the decoded image data to the deblocking filter 56 and the frame memory 61.
  • the deblocking filter 56 performs deblocking filter processing on the decoded image data supplied from the adding unit 55 to remove block distortion, and then supplies and stores the decoded image data to the frame memory 61 and outputs it to the screen rearrangement buffer 57. Do.
  • the screen rearranging buffer 57 rearranges the images. That is, the order of the frames rearranged for the encoding order in the screen rearrangement buffer 12 of FIG. 7 is rearranged in the original display order and output to the D / A conversion unit 58.
  • the D / A converter 58 D / A converts the image data supplied from the screen rearrangement buffer 57 and outputs the data to a display (not shown) to display the image.
  • the frame memory 61 stores the decoded image data before the filtering process is performed by the deblocking filter 24 and the decoded image data after the filtering process is performed by the deblocking filter 24.
  • the selector 62 supplies the decoded image data before the filtering process stored in the frame memory 61 to the intra prediction unit 71 in the case of decoding of the intra prediction image based on the prediction mode information supplied from the lossless decoding unit 52. Do. Further, the selector 62 supplies the decoded image data after filter processing stored in the frame memory 61 to the motion compensation unit 72 in the case of decoding of the inter predicted image.
  • the intra prediction unit 71 generates predicted image data based on the prediction mode information supplied from the lossless decoding unit 52 and the decoded image data supplied from the frame memory 61 via the selector 62, and the generated predicted image data Is output to the selector 75.
  • the motion compensation unit 72 adds the difference motion vector information supplied from the lossless decoding unit 52 and the prediction motion vector information supplied from the prediction motion vector information generation unit 74 to generate a motion vector of the motion compensation block to be decoded. Generate information. Also, the motion compensation unit 72 performs motion compensation using the decoded image data supplied from the frame memory 61 based on the generated motion vector information and the prediction mode information supplied from the lossless decoding unit 52, thereby generating predicted image data. Are generated and output to the selector 75.
  • the block selection processing unit 73 determines from the adjacent motion compensation block to the block according to the block size of the motion compensation block to be decoded and the block size of the encoded adjacent motion compensation block adjacent to the motion compensated block. Make a selection.
  • the block selection processing unit 73 selects only the adjacent motion compensation block encoded in the same layer size as the motion compensation block to be decoded, and outputs the block selection result to the predicted motion vector information generation unit 74.
  • the predicted motion vector information generation unit 74 generates predicted motion vector information to be used in decoding of motion vector information for a motion compensation block to be decoded using motion vector information of the block selected by the block selection processing unit 73. Do. Also, the predicted motion vector information generation unit 74 outputs the generated predicted motion vector information to the motion compensation unit 72.
  • FIG. 18 shows the configurations of the motion compensation unit 72 and the predicted motion vector information generation unit 74.
  • the motion compensation unit 72 includes a block size information buffer 721, a difference motion vector information buffer 722, a motion vector information combining unit 723, a motion compensation processing unit 724, and a motion vector information buffer 725.
  • the block size information buffer 721 stores information indicating the block size of the motion compensation block supplied from the lossless decoding unit 52. Also, the block size information buffer 721 outputs information indicating the size of the stored macro block to the motion compensation processing unit 724 and the predicted motion vector information generation unit 74.
  • the differential motion vector information buffer 722 stores differential motion vector information of the motion compensation block supplied from the lossless decoding unit 52. Also, the differential motion vector information buffer 722 outputs the stored differential motion vector information to the motion vector information combining unit 723.
  • the motion vector information combining unit 723 adds the difference motion vector information supplied from the difference motion vector information buffer 722 and the predicted motion vector information generated by the predicted motion vector information generation unit 74.
  • the motion vector information combining unit 723 outputs the motion vector information of the motion compensation block obtained by adding the differential motion vector information and the predicted motion vector information to the motion compensation processing unit 724 and the motion vector information buffer 725.
  • the motion compensation processing unit 724 reads the image data of the reference image from the frame memory 61 based on the prediction mode information supplied from the lossless decoding unit 52.
  • the motion compensation processing unit 724 uses the image data of the reference image, the block size of the motion compensation block supplied from the block size information buffer 721, and the motion vector information of the motion compensation block supplied from the motion vector information combining unit 723. Based on the motion compensation, predicted image data is generated.
  • the motion compensation processing unit 724 outputs the generated predicted image data to the selector 75.
  • the motion vector information buffer 725 stores the motion vector information supplied from the motion vector information combining unit 723. In addition, the motion vector information buffer 725 causes the motion vector predictor information generation unit 74 to output motion vector predictor information to the motion vector predictor generation unit 74.
  • the predicted motion vector information generation unit 74 includes a temporary block size information buffer 741, an adjacent motion vector information buffer 742, and a motion vector information processing unit 743.
  • the temporary block size information buffer 741 stores the adjacent motion compensation block size information supplied from the block size information buffer 721 of the motion compensation unit 72. Also, the temporary block size information buffer 741 outputs the stored adjacent motion compensation block size information to the block selection processing unit 73.
  • the adjacent motion vector information buffer 742 stores the adjacent motion vector information supplied from the motion vector information buffer 725 of the motion compensation unit 72. Further, the adjacent motion vector information buffer 742 outputs the stored adjacent motion vector information to the motion vector information processing unit 743.
  • the motion vector information processing unit 743 selects the motion vector information of the adjacent motion compensation block indicated by the block selection result based on the block selection result supplied from the block selection processing unit 73, and selects the selected adjacent motion vector information. Based on the prediction motion vector information.
  • the motion vector information processing unit 743 outputs the generated predicted motion vector information to the motion vector information combining unit 723 of the motion compensating unit 72.
  • the selector 75 selects the intra prediction unit 71 if intra prediction and the motion compensation unit 72 if inter prediction based on the prediction mode information supplied from the lossless decoding unit 52.
  • the selector 75 outputs the predicted image data generated by the selected intra prediction unit 71 or motion compensation unit 72 to the addition unit 55.
  • step ST81 the accumulation buffer 51 accumulates the transmitted image compression information.
  • step ST82 the lossless decoding unit 52 performs lossless decoding processing.
  • the lossless decoding unit 52 decodes the image compression information supplied from the accumulation buffer 51. That is, quantized data of each picture encoded by the lossless encoding unit 16 of FIG. 7 is obtained. Further, the lossless decoding unit 52 performs lossless decoding of prediction mode information included in the image compression information, and when the obtained prediction mode information is information related to the intra prediction mode, the prediction unit 71 Output to In addition, when the prediction mode information is information related to the inter prediction mode, the lossless decoding unit 52 outputs the prediction mode information to the motion compensation unit 72.
  • step ST83 the inverse quantization unit 53 performs inverse quantization processing.
  • the inverse quantization unit 53 inversely quantizes the quantized data decoded by the lossless decoding unit 52 with a characteristic corresponding to the characteristic of the quantization unit 15 in FIG. 7.
  • the inverse orthogonal transform unit 54 performs inverse orthogonal transform processing.
  • the inverse orthogonal transformation unit 54 performs inverse orthogonal transformation on the transform coefficient data inversely quantized by the inverse quantization unit 53 with a characteristic corresponding to the characteristic of the orthogonal transformation unit 14 in FIG. 7.
  • step ST85 the addition unit 55 generates decoded image data.
  • the addition unit 55 adds the data obtained by performing the inverse orthogonal transformation process and the predicted image data selected in step ST89 described later to generate decoded image data. The original image is thus decoded.
  • step ST86 the deblocking filter 56 performs filter processing.
  • the deblocking filter 56 performs deblocking filter processing on the decoded image data output from the adding unit 55, and removes block distortion included in the decoded image.
  • step ST87 the frame memory 61 stores the decoded image data.
  • step ST88 the intra prediction unit 71 and the motion compensation unit 72 perform predicted image generation processing.
  • the intra prediction unit 71 and the motion compensation unit 72 respectively perform predicted image generation processing corresponding to the prediction mode information supplied from the lossless decoding unit 52.
  • the intra prediction unit 71 when prediction mode information of intra prediction is supplied from the lossless decoding unit 52, the intra prediction unit 71 generates prediction image data based on the prediction mode information.
  • the motion compensation unit 72 performs motion compensation based on the prediction mode information to generate predicted image data.
  • step ST89 the selector 75 selects prediction image data.
  • the selector 75 selects the prediction image supplied from the intra prediction unit 71 and the prediction image data supplied from the motion compensation unit 72, supplies the selected prediction image data to the addition unit 55, and as described above,
  • step ST85 the output of the inverse orthogonal transform unit 54 is added.
  • step ST90 the screen rearrangement buffer 57 performs image rearrangement. That is, in the screen rearrangement buffer 57, the order of the frames rearranged for encoding by the screen rearrangement buffer 12 of the image encoding device 10 in FIG. 7 is rearranged in the original display order.
  • step ST91 the D / A conversion unit 58 D / A converts the image data from the screen rearrangement buffer 57. This image is output to a display not shown, and the image is displayed.
  • step ST88 of FIG. 19 will be described with reference to the flowchart of FIG.
  • step ST101 the lossless decoding unit 52 determines whether the target block is intra-coded.
  • the prediction mode information obtained by performing the lossless decoding is the prediction mode information of intra prediction
  • the lossless decoding unit 52 supplies the prediction mode information to the intra prediction unit 71, and proceeds to step ST102.
  • the prediction mode information is inter prediction prediction mode information
  • the lossless decoding unit 52 supplies the prediction mode information to the motion compensation unit 72, and proceeds to step ST103.
  • the intra prediction unit 71 performs intra predicted image generation processing.
  • the intra prediction unit 71 performs intra prediction using the decoded image data before deblock filter processing stored in the frame memory 61 and the prediction mode information to generate predicted image data.
  • step ST103 the motion compensation unit 72 performs inter prediction image generation processing.
  • the motion compensation unit 72 performs motion compensation of the reference image read from the frame memory 61 based on the prediction mode information and the differential motion vector information from the lossless decoding unit 52, and generates prediction image data.
  • FIG. 21 is a flowchart showing the inter predicted image generation process of step ST103.
  • the motion compensation unit 72 acquires prediction mode information.
  • the motion compensation unit 72 acquires prediction mode information from the lossless decoding unit 52, and proceeds to step ST112.
  • step ST112 the motion compensation unit 72 reconstructs motion vector information.
  • the motion compensation unit 72 reconstructs motion vector information from the predicted motion vector information generated by the predicted motion vector information generation unit 74 and the difference motion vector information indicated by the prediction mode information, and proceeds to step ST113.
  • the generation of predicted motion vector information is performed as described with reference to FIGS. That is, the block selection processing unit 73 performs the same processing as the block selection processing unit 33 of the image coding device 10, and the prediction motion vector information generation unit 74 corresponds to the prediction motion vector information generation unit 34 of the image coding device 10. Perform the same processing as the processing performed.
  • step ST113 the motion compensation unit 72 generates predicted image data.
  • the motion compensation unit 72 reads reference image data from the frame memory 61 based on the prediction mode information acquired in step ST111 and the motion vector information reconstructed in step ST112, performs motion compensation, and generates prediction image data. Output to 75.
  • the image decoding apparatus 50 selects the adjacent motion compensation block according to the block size of the encoded adjacent motion compensation block adjacent to the motion compensation block to be decoded in the spatial or temporal direction. Also, the image decoding apparatus 50 generates predicted motion vector information using the motion vector information of the selected adjacent motion compensation block. That is, the motion vector information of the adjacent motion compensation block is adaptively used according to the block size of the motion compensation block to be processed and the adjacent motion compensation block, and is equal to the predicted motion vector information generated by the image coding device 10 Predicted motion vector information is generated. Therefore, the image decoding apparatus 50 can correctly restore the motion vector information of the motion compensation block to be decoded, based on the generated predicted motion vector information and the differential motion vector information supplied from the image coding apparatus 10.
  • the identification information indicating the block using the motion vector information among the average value or the two adjacent motion compensation blocks is a prediction motion vector It is included in the image compression information as information necessary for generating information. Also, identification information indicating which of the spatially predicted motion vector information and the temporally predicted motion vector information is used as predicted motion vector information is included in the image compression information. Therefore, prediction motion vector information can be correctly generated using this identification information, and the total code amount of the image compression information does not increase significantly.
  • FIG. 22 is a diagram illustrating the configuration of a computer device that executes the above-described series of processes by a program.
  • the CPU 801 of the computer device 80 executes various processes in accordance with a program recorded in the ROM 802 or the recording unit 808.
  • Programs, data and the like executed by the CPU 801 are appropriately stored in the RAM 803.
  • the CPU 801, the ROM 802 and the RAM 803 are mutually connected by a bus 804.
  • An input / output interface 805 is also connected to the CPU 801 via the bus 804.
  • the input / output interface 805 is connected to an input unit 806 such as a touch panel, a keyboard, a mouse, and a microphone, and an output unit 807 including a display.
  • the CPU 801 executes various processes in response to an instruction input from the input unit 806. Then, the CPU 801 outputs the processing result to the output unit 807.
  • a recording unit 808 connected to the input / output interface 805 is, for example, a hard disk, and records programs executed by the CPU 801 and various data.
  • a communication unit 809 communicates with an external device via a wired or wireless communication medium such as a network such as the Internet or a local area network or digital broadcasting.
  • the computer apparatus 80 may acquire a program via the communication unit 809 and record the program in the ROM 802 or the recording unit 808.
  • the drive 810 drives them and acquires recorded programs and data.
  • the acquired program and data are transferred to the ROM 802, the RAM 803, or the recording unit 808 as necessary.
  • the CPU 801 reads out and executes a program for performing the above-described series of processing, and encodes or processes an image signal recorded in the recording unit 808 or the removable medium 85 or an image signal supplied via the communication unit 809. Decoding processing of compressed information is performed.
  • H.264 is used as the coding method / decoding method.
  • the present technology can also be applied to an image coding device / image decoding device that uses other coding method / decoding method for performing motion prediction / compensation processing.
  • the present technology is based on, for example, MPEG, H. Image information (bit stream) compressed by orthogonal transformation such as discrete cosine transformation and motion compensation as in 26x etc. via network media such as satellite broadcasting, cable TV (television), the Internet, and mobile phones Applicable when receiving.
  • the present invention can be applied to an image coding apparatus and an image decoding apparatus used when processing on storage media such as an optical disk, a magnetic disk, and a flash memory.
  • the image encoding device 10 and the image decoding device 50 described above can be applied to any electronic device.
  • the example will be described below.
  • FIG. 23 illustrates a schematic configuration of a television to which the present technology is applied.
  • the television device 90 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, and an external interface unit 909. Furthermore, the television apparatus 90 includes a control unit 910, a user interface unit 911 and the like.
  • the tuner 902 selects a desired channel from the broadcast wave signal received by the antenna 901 and demodulates it, and outputs the obtained stream to the demultiplexer 903.
  • the demultiplexer 903 extracts video and audio packets of a program to be viewed from the stream, and outputs data of the extracted packet to the decoder 904.
  • the demultiplexer 903 also outputs a packet of data such as an EPG (Electronic Program Guide) to the control unit 910.
  • EPG Electronic Program Guide
  • the decoder 904 decodes the packet, and outputs the video data generated by the decoding process to the video signal processing unit 905 and the audio data to the audio signal processing unit 907.
  • the video signal processing unit 905 performs noise removal, video processing and the like according to user settings on the video data.
  • the video signal processing unit 905 generates video data of a program to be displayed on the display unit 906, image data by processing based on an application supplied via a network, and the like. Further, the video signal processing unit 905 generates video data for displaying a menu screen or the like such as item selection, and superimposes the video data on video data of a program.
  • the video signal processing unit 905 generates a drive signal based on the video data generated in this manner, and drives the display unit 906.
  • the display unit 906 drives a display device (for example, a liquid crystal display element or the like) based on the drive signal from the video signal processing unit 905 to display a video of the program.
  • a display device for example, a liquid crystal display element or the like
  • the audio signal processing unit 907 performs predetermined processing such as noise removal on the audio data, performs D / A conversion processing and amplification processing of the processed audio data, and outputs the audio data by supplying to the speaker 908. .
  • An external interface unit 909 is an interface for connecting to an external device or a network, and transmits and receives data such as video data and audio data.
  • a user interface unit 911 is connected to the control unit 910.
  • the user interface unit 911 is configured of an operation switch, a remote control signal reception unit, and the like, and supplies an operation signal according to a user operation to the control unit 910.
  • the control unit 910 is configured using a CPU (Central Processing Unit), a memory, and the like.
  • the memory stores programs executed by the CPU, various data necessary for the CPU to perform processing, EPG data, data acquired via the network, and the like.
  • the program stored in the memory is read and executed by the CPU at a predetermined timing such as when the television device 90 is started.
  • the CPU executes the program to control each unit so that the television device 90 operates according to the user operation.
  • a bus 912 is provided to connect the tuner 902, the demultiplexer 903, the video signal processing unit 905, the audio signal processing unit 907, the external interface unit 909, and the like to the control unit 910.
  • the decoder 904 is provided with the function of the image decoding apparatus (image decoding method) of the present application. Therefore, the television apparatus can correctly restore the motion vector information of the motion compensation block to be decoded, based on the generated predicted motion vector information and the received differential motion vector information. Therefore, even if the broadcasting station performs motion vector encoding processing using predicted motion vector information generated according to the motion compensation block to be encoded and the block size of the encoded adjacent motion compensation block, The device can correctly decode.
  • FIG. 24 illustrates a schematic configuration of a mobile phone to which the present technology is applied.
  • the cellular phone 92 includes a communication unit 922, an audio codec 923, a camera unit 926, an image processing unit 927, a multiplexing and separating unit 928, a recording and reproducing unit 929, a display unit 930, and a control unit 931. These are connected to one another via a bus 933.
  • an antenna 921 is connected to the communication unit 922, and a speaker 924 and a microphone 925 are connected to the audio codec 923. Further, an operation unit 932 is connected to the control unit 931.
  • the mobile telephone 92 performs various operations such as transmission and reception of audio signals, transmission and reception of electronic mail and image data, image shooting, and data recording in various modes such as a voice call mode and a data communication mode.
  • an audio signal generated by the microphone 925 is converted into audio data and compressed by the audio codec 923 and supplied to the communication unit 922.
  • the communication unit 922 performs modulation processing of audio data, frequency conversion processing, and the like to generate a transmission signal. Further, the communication unit 922 supplies a transmission signal to the antenna 921 to transmit it to a base station (not shown). In addition, the communication unit 922 performs amplification, frequency conversion processing, demodulation processing, and the like of the reception signal received by the antenna 921, and supplies the obtained audio data to the audio codec 923.
  • the audio codec 923 performs data expansion of audio data and conversion to an analog audio signal, and outputs it to the speaker 924.
  • control unit 931 receives the character data input by the operation of operation unit 932, and displays the input character on display unit 930. Further, the control unit 931 generates mail data based on a user instruction or the like in the operation unit 932 and supplies the mail data to the communication unit 922.
  • the communication unit 922 performs modulation processing and frequency conversion processing of mail data, and transmits the obtained transmission signal from the antenna 921. Further, the communication unit 922 performs amplification, frequency conversion processing, demodulation processing and the like of the received signal received by the antenna 921 to restore mail data.
  • the mail data is supplied to the display unit 930 to display the contents of the mail.
  • the mobile telephone 92 can also store the received mail data in the storage medium by the recording / reproducing unit 929.
  • the storage medium is any rewritable storage medium.
  • the storage medium is a removable memory such as a RAM or a semiconductor memory such as a built-in flash memory, a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card.
  • the image data generated by the camera unit 926 is supplied to the image processing unit 927.
  • the image processing unit 927 performs encoding processing of image data to generate image compression information.
  • the demultiplexing unit 928 multiplexes the image compression information generated by the image processing unit 927 and the audio data supplied from the audio codec 923 according to a predetermined method, and supplies the multiplexed data to the communication unit 922.
  • the communication unit 922 performs modulation processing and frequency conversion processing of multiplexed data, and transmits the obtained transmission signal from the antenna 921.
  • the communication unit 922 performs amplification, frequency conversion processing, demodulation processing, and the like of the reception signal received by the antenna 921 to restore multiplexed data.
  • the multiplexed data is supplied to the demultiplexer 928.
  • the demultiplexing unit 928 demultiplexes the multiplexed data, and supplies the image compression information to the image processing unit 927 and the audio data to the audio codec 923.
  • the image processing unit 927 decodes image compression information to generate image data.
  • the image data is supplied to the display unit 930 to display the received image.
  • the audio codec 923 converts audio data into an analog audio signal, supplies the analog audio signal to the speaker 924, and outputs the received audio.
  • the image processing unit 927 is provided with the function of the image processing apparatus (image processing method) of the present application. Therefore, when transmitting an image, generation of predicted motion vector information is performed according to the result of detection of discontinuity associated with a motion boundary based on the motion compensation block to be encoded and the block size of the adjacent motion compensation block. Therefore, the coding efficiency of the motion vector coding process can be improved. In addition, the image compression information generated by the image encoding process can be correctly decoded.
  • FIG. 25 illustrates a schematic configuration of a recording and reproducing device to which the present technology is applied.
  • the recording and reproducing apparatus 94 records, for example, audio data and video data of the received broadcast program on a recording medium, and provides the recorded data to the user at a timing according to the user's instruction.
  • the recording and reproducing device 94 can also acquire audio data and video data from another device, for example, and record them on a recording medium.
  • the recording / reproducing device 94 decodes and outputs the audio data and the video data recorded on the recording medium, thereby enabling the monitor device or the like to perform the image display and the audio output.
  • the recording / reproducing apparatus 94 includes a tuner 941, an external interface unit 942, an encoder 943, a hard disk drive (HDD) unit 944, a disk drive 945, a selector 946, a decoder 947, an on-screen display (OSD) unit 948, and a control unit 949.
  • a user interface unit 950 is provided.
  • the tuner 941 selects a desired channel from a broadcast signal received by an antenna not shown.
  • the tuner 941 demodulates the received signal of the desired channel and outputs the image compression information obtained to the selector 946.
  • the external interface unit 942 is configured by at least one of an IEEE 1394 interface, a network interface unit, a USB interface, a flash memory interface, and the like.
  • the external interface unit 942 is an interface for connecting to an external device, a network, a memory card or the like, and receives data such as video data and audio data to be recorded.
  • the encoder 943 When the video data and audio data supplied from the external interface unit 942 are not encoded, the encoder 943 performs encoding according to a predetermined method, and outputs image compression information to the selector 946.
  • the HDD unit 944 records content data such as video and audio, various programs and other data on a built-in hard disk, and reads them from the hard disk during reproduction.
  • the disk drive 945 records and reproduces signals with respect to the mounted optical disk.
  • Optical disks such as DVD disks (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.), Blu-ray disks, etc.
  • the selector 946 selects one of the streams from the tuner 941 or the encoder 943 and supplies the selected stream to one of the HDD unit 944 and the disk drive 945 when recording video and audio. Further, the selector 946 supplies the stream output from the HDD unit 944 or the disk drive 945 to the decoder 947 at the time of video and audio reproduction.
  • the decoder 947 decodes the stream.
  • the decoder 947 supplies the video data generated by performing the decoding process to the OSD unit 948. Also, the decoder 947 outputs the audio data generated by performing the decoding process.
  • the OSD unit 948 generates video data for displaying a menu screen or the like such as item selection, and superimposes the video data on the video data output from the decoder 947 and outputs the video data.
  • a user interface unit 950 is connected to the control unit 949.
  • the user interface unit 950 includes an operation switch, a remote control signal reception unit, and the like, and supplies an operation signal corresponding to a user operation to the control unit 949.
  • the control unit 949 is configured using a CPU, a memory, and the like.
  • the memory stores programs executed by the CPU and various data necessary for the CPU to perform processing.
  • the program stored in the memory is read and executed by the CPU at a predetermined timing such as when the recording and reproducing apparatus 94 is started.
  • the CPU executes the program to control each unit so that the recording and reproducing apparatus 94 operates according to the user operation.
  • the encoder 943 is provided with the function of the image processing apparatus (image processing method) of the present application. Therefore, when recording an image on a recording medium, the generation of predicted motion vector information is performed according to the result of detection of non-continuity associated with the motion boundary based on the block size of the motion compensation block to be encoded and the adjacent motion compensation block. As it is performed, the efficiency of the motion vector encoding process can be improved. In addition, the image compression information generated by the image encoding process can be correctly decoded.
  • FIG. 26 illustrates a schematic configuration of an imaging device to which the present technology is applied.
  • the imaging device 96 captures an object, displays an image of the object on the display unit, or records the image as image data on a recording medium.
  • the imaging device 96 includes an optical block 961, an imaging unit 962, a camera signal processing unit 963, an image data processing unit 964, a display unit 965, an external interface unit 966, a memory unit 967, a media drive 968, an OSD unit 969, and a control unit 970.
  • a user interface unit 971 is connected to the control unit 970.
  • an image data processing unit 964, an external interface unit 966, a memory unit 967, a media drive 968, an OSD unit 969, a control unit 970 and the like are connected via a bus 972.
  • the optical block 961 is configured using a focus lens, an aperture mechanism, and the like.
  • the optical block 961 forms an optical image of a subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 is configured using a CCD or CMOS image sensor, generates an electrical signal corresponding to an optical image by photoelectric conversion, and supplies the electrical signal to the camera signal processing unit 963.
  • the camera signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the electric signal supplied from the imaging unit 962.
  • the camera signal processing unit 963 supplies the image data processing unit 964 with the image data after camera signal processing.
  • the image data processing unit 964 performs encoding processing of the image data supplied from the camera signal processing unit 963.
  • the image data processing unit 964 supplies the image compression information generated by performing the encoding process to the external interface unit 966 and the media drive 968. Further, the image data processing unit 964 performs a decoding process of the image compression information supplied from the external interface unit 966 or the media drive 968.
  • the image data processing unit 964 supplies the image data generated by performing the decoding process to the display unit 965. Further, the image data processing unit 964 performs a process of supplying image data supplied from the camera signal processing unit 963 to the display unit 965, and superimposes display data acquired from the OSD unit 969 on the image data. Supply to
  • the OSD unit 969 generates display data such as a menu screen or an icon including symbols, characters, or figures, and outputs the display data to the image data processing unit 964.
  • the external interface unit 966 is formed of, for example, a USB input / output terminal, and is connected to a printer when printing an image.
  • a drive is connected to the external interface unit 966 as necessary, removable media such as a magnetic disk and an optical disk are appropriately mounted, and programs read from them are installed as necessary.
  • the external interface unit 966 has a network interface connected to a predetermined network such as a LAN or the Internet.
  • the control unit 970 reads image compression information from the memory unit 967 according to an instruction from the user interface unit 971, for example, and causes the external interface unit 966 to supply it to another device connected via the network. it can.
  • the control unit 970 may obtain image compression information and image data supplied from another device via the network via the external interface unit 966 and supply the image data processing unit 964 to the same. it can.
  • any removable readable / writable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory is used.
  • the recording medium may be of any type as a removable medium, and may be a tape device, a disk, or a memory card. Of course, it may be a noncontact IC card or the like.
  • media drive 968 and the recording medium may be integrated, and may be configured of a non-portable storage medium, such as a built-in hard disk drive or a solid state drive (SSD).
  • SSD solid state drive
  • the control unit 970 is configured using a CPU, a memory, and the like.
  • the memory stores programs executed by the CPU, various data necessary for the CPU to perform processing, and the like.
  • the program stored in the memory is read and executed by the CPU at a predetermined timing such as when the imaging device 96 is started.
  • the CPU executes the program to control each unit so that the imaging device 96 operates according to the user operation.
  • the image data processing unit 964 is provided with the function of the image processing apparatus (image processing method) of the present application. Therefore, when the captured image is recorded in the memory unit 967 or a recording medium, prediction is performed according to the result of detection of discontinuities associated with motion boundaries based on the block size of the motion compensation block to be encoded and the adjacent motion compensation block. Since generation of motion vector information is performed, the efficiency of motion vector encoding processing can be improved. In addition, the image compression information generated by the image encoding process can be correctly decoded.
  • the block size of the motion compensation block to be processed which is to be encoded or decoded, and the block of the adjacent motion compensated block processed adjacent to the motion compensated block Depending on the size, block selection is performed from adjacent motion compensation blocks.
  • motion vector information of the selected block is used to generate predicted motion vector information for the motion compensation block to be processed. Therefore, motion vector information of the adjacent motion compensation block is adaptively used according to the block size of the motion compensation block to be processed and the adjacent motion compensation block to generate predicted motion vector information. Therefore, it becomes possible to generate predicted motion vector information according to the detection result of the discontinuity accompanying the motion boundary, and high encoding efficiency can be realized.
  • image compression information (bit stream), satellite broadcast, cable TV, Internet It is suitable for an apparatus that performs recording and reproduction of an image using a storage medium such as an optical disk, a magnetic disk, and a flash memory when transmitting and receiving via a network medium such as a mobile phone.
  • Image Decoding device 52: lossless decoding unit, 58: D / A conversion unit, 2 motion compensation unit 80 computer device 90 television device 92 mobile phone 94 recording / reproducing device 96 imaging device 321 motion Search unit 322: Cost function value calculation unit 323: Mode determination unit 324: Motion compensation processing unit 325: Motion vector / block size information buffer 341: Adjacent motion vector Block size information buffer 342, 743 ... motion vector information processing section 721 ... block size information buffer 722 ... differential motion vector information buffer 723 ... motion vector information combining section 724 ... Motion compensation processing unit, 725: motion vector information buffer, 741: temporary block size information buffer, 742: adjacent motion vector Broadcast buffer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 高い符号化効率を実現できるようにする。ブロック選択処理部33は、符号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する符号化済みの隣接動き補償ブロックのブロックサイズに応じて、隣接動き補償ブロックからブロックの選択を行う。予測動きベクトル情報生成部34は、選択されたブロックの動きベクトル情報を用いて、符号化対象の動き補償ブロックに対する予測動きベクトル情報の生成を行う。動き予測・補償部32は、予測動きベクトル情報生成部34で生成された予測動きベクトル情報を用いてインター予測を行い予測画像データを生成する。

Description

画像処理装置と画像処理方法
 この技術は、画像処理装置と画像処理方法に関する。詳しくは、拡張されたサイズのマクロブロックが用いられる場合でも、高い符号化効率を実現できる画像処理装置と画像処理方法を提供する。
 近年、画像情報をディジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を行う装置、例えば離散コサイン変換等の直交変換と動き補償により圧縮するMPEG等の方式に準拠した装置が、放送局や一般家庭において普及しつつある。
 特に、MPEG2(ISO/IEC13818-2)は、汎用画像符号化方式として定義されており、プロフェッショナル用途およびコンシューマー用途の広範なアプリケーションに現在広く用いられている。MPEG2圧縮方式を用いることで、例えば720×480画素を持つ標準解像度の飛び越し走査画像であれば4~8Mbpsの符号量(ビットレート)を割り当てる。また、1920×1088画素を持つ高解像度の飛び越し走査画像であれば18~22Mbpsの符号量を割り当てる。このような符号量を割り当てることで、高い圧縮率と良好な画質の実現が可能である。
 また、MPEG2等の従来の符号化方式に比べ、符号化や復号化で多くの演算量が要求されるものの、高い符号化効率を実現する標準化がJoint Model of Enhanced-Compression Video Codingとして行われて、H.264およびMPEG-4 Part10(以下「H.264/AVC(Advanced Video Coding)」と記す)として国際標準となった。
 H.264/AVCでは、図1に示すように、16×16画素で構成される1つのマクロブロックを、16×16、16×8、8×16または8×8のいずれかの動き補償ブロックサイズに分割して、それぞれ独立した動きベクトル情報を持つことが可能である。さらに、8×8画素のサブマクロブロックに関しては、図1に示されるとおり、8×8、8×4、4×8、4×4のいずれかの動き補償ブロックサイズに分割し、それぞれ独立した動きベクトル情報を持つことが可能である。なお、MPEG-2では、動き予測・補償処理の単位は、フレーム動き補償モードの場合には16×16画素、フィールド動き補償モードの場合には第一フィールド、第二フィールドのそれぞれに対し、16×8画素を単位として動き予測・補償処理が行われる。
 H.264/AVCにおいて、かかるような動き予測・補償処理が行われることで、膨大な動きベクトル情報が生成され、これをこのまま符号化することは、符号化効率の低下を招く。
 かかる問題を解決する手法として、H.264/AVCにおいては、以下のようなメディアン予測を用いて、動きベクトルの符号化情報の低減が実現されている。
 図2において、ブロックEはこれから符号化されようとしている動き補償ブロック、ブロックA~Dは、既に符号化済みであって動き補償ブロックEに隣接する動き補償ブロックである。
 今、X=A,B,C,D,Eとして、動き補償ブロックXに対する動きベクトル情報を、mvXで表すものとする。
 動き補償ブロックA,B,Cに関する動きベクトル情報を用い、動き補償ブロックEに対する予測動きベクトル情報pmvEを、メディアン予測により式(1)のように生成する。
  pmvE =med(mvA,mvB,mvC)  ・・・(1)
 隣接動き補償ブロックCに関する情報が、画枠の端である等の理由で得られない場合は、隣接動き補償ブロックDに関する情報で代用する。
 画像圧縮情報に、動き補償ブロックEに対する動きベクトル情報として符号化されるデータmvdEは、pmvEを用いて式(2)のように生成する。
  mvdE =mvE-pmvE    ・・・(2)
なお、実際の処理は、動きベクトル情報の水平方向、垂直方向のそれぞれの成分に対して、独立に処理が行われる。
 また、H.264/AVCにおいては、複数参照フレーム(Multi-Reference Frame)方式が規定されている。図3を用いて、H.264/AVCにおいて規定されている複数参照フレーム方式について説明する。
 MPEG2等においては、Pピクチャの場合、フレームメモリに格納された参照フレーム1枚のみを参照して、動き予測・補償処理を行っていた。しかし、H.264/AVCでは、図3に示したように、複数の参照フレームをメモリに格納して、ブロック毎に、異なるメモリを参照することが可能となっている。
 ところで、Bピクチャにおける動きベクトル情報における情報量は膨大であるが、H.264/AVCにおいては、ダイレクトモード(Direct Mode)と呼ばれるモードが用意されている。ダイレクトモードにおいて、動きベクトル情報は、画像圧縮情報中には格納されず、復号化装置において、周辺またはアンカーブロック(Co-Located Block)の動きベクトル情報から、当該ブロックの動きベクトル情報を抽出する。なお、アンカーブロックは、参照画像において、xy座標が符号化対象の動き補償ブロックと同じであるブロックである。
 ダイレクトモードは、空間ダイレクトモード(Spatial Direct Mode)と時間ダイレクトモード(Temporal Direct Mode)の2種類があり、どちらを用いるかは、スライス毎に切り替えることが可能である。
 空間ダイレクトモードにおいては、式(3)に示すように、メディアン予測で生成された動きベクトル情報pmvEを、当該ブロックに適用する動きベクトル情報mvEとする。
  mvE =pmvE   ・・・(3)
 次に図4を用いて、時間ダイレクトモード(Temporal Direct Mode)を説明する。図4において、L0参照ピクチャにおける、当該ブロックと、同じ空間上のアドレスにあるブロックを、アンカーブロックとし、アンカーブロックにおける動きベクトル情報を、動き「mvcol」とする。また、当該ピクチャとL0参照ピクチャの時間軸上の距離を「TDB」とし、L0参照ピクチャとL1参照ピクチャの時間軸上の距離を「TDD」とする。この場合、当該ピクチャにおける、L0動きベクトル情報mvL0およびL1動きベクトル情報mvL1を、式(4)(5)のように算出する。
 mvL0 =(TDB/TDD)mvcol        ・・・(4)
 mvL1 =((TDD-TDB)/TDD)mvcol  ・・・(5)
なお、画像圧縮情報においては、時間軸上の距離を表す情報が存在しないため、式(4)(5)では、POC (Picture Order Count)を用いて演算を行うものとする。
 また、AVC画像圧縮情報において、ダイレクトモードは、16×16画素マクロブロック単位、または8×8画素サブマクロブロック単位で定義することが可能である。
 ところで、図2に示されたような、メディアン予測を用いた動きベクトルの符号化を改善する非特許文献1の提案がなされている。非特許文献1では、メディアン予測で求められる空間予測動きベクトル情報に加え、時間予測動きベクトル情報及び時空間予測動きベクトル情報のどれかを適応的に用いることが可能とされている。
 すなわち、図5において、動きベクトル情報mvcolを、当該動き補償ブロックに対するアンカーブロックに対する動きベクトル情報とする。また、動きベクトル情報mvtk(k=0~8)をその周辺ブロックの動きベクトル情報であるとする。
 時間予測動きベクトル情報mvtmは、例えば式(6)を用いて5つの動きベクトル情報から生成する。また、時間予測動きベクトル情報mvtmは、式(7)を用いて9つの動きベクトルから生成してもよい。
  mvtm5 =med(mvcol,mvt0,・・・mvt3) ・・・(6)
  mvtm9 =med(mvcol,mvt0,・・・mvt7) ・・・(7)
 また、時空間予測動きベクトル情報mvsptは、式(8)を用いて5つの動きベクトル情報から生成する。
  mvspt =med(mvcol,mvcol,mvA,mvB,mvC)・・・(8)
 画像情報の符号化を行う画像処理装置においては、それぞれのブロックに関して、それぞれの予測動きベクトル情報を用いた場合のコスト関数が算出され、最適な予測動きベクトル情報の選択が行われる。なお、画像圧縮情報においては、それぞれのブロックに対し、どの予測動きベクトル情報が用いられたかに関する情報を示すフラグが伝送される。
 また、昨今、4000×2000画素程度の画像の圧縮やインターネットのような限られた伝送容量の環境においてハイビジョン画像の配信等といった、さらに高圧縮率符号化に対するニーズが高まっている。このため、非特許文献2では、マクロブロックの大きさをMPEG2やH.264/AVCよりも大きいサイズに拡張して階層構造とした拡張マクロブロックが用いられている。すなわち、拡張マクロブロックでは、16×16画素ブロック以下に関しては、H.264/AVCにおけるマクロブロックと互換性を保ち、そのスーパーセットとして、より大きなブロック例えば32画素×32画素のマクロブロックが定義されている。
"Motion Vector Coding with Optimal PMV Selection" (Video Coding Experts Group(VCEG), Study Group16, ITU,VCEG-AI22, 2008年7月) "Video Coding Using Extended Block Sizes"(Study Group16, Contribution 123, ITU,COM16-C123-E 2009年1月)
 ところで、図6のように、例えば符号化対象の動き補償ブロックと左側の隣接動き補償ブロックが16×16画素、上および右上の隣接動き補償ブロックが4×4画素の場合、当該動き補償ブロックの上端は、ランダムな動きの領域と静止画領域との境界と想定される。しかし、H.264/AVCにおいては、動きベクトル情報の符号化を行う際に、動き境界に伴う非連続性が考慮されていない。したがって、ランダムな動きの領域と静止画領域の隣接動き補償ブロックの動きベクトル情報を用いてメディアン予測が行われることになり、高い符号化効率を得ることができる予測動きベクトルを生成できないおそれがある。
 さらに、非特許文献2のように拡張マクロブロックが適用された場合、例えばランダムな動きの領域では動き補償ブロックサイズを小さくして、静止画領域では動き補償ブロックサイズを大きくすることで符号化効率を高めることが可能となる場合がある。このような場合、動き境界に位置した符号化対象の動き補償ブロックと動き境界を介して隣接する隣接動き補償ブロックでは、動きベクトル情報の相違がより大きくなる。このため、メディアン予測によって生成した予測動きベクトルを用いると、高い符号化効率を得ることがさらに困難となる。
 そこで、この技術では高い符号化効率を実現できる画像処理装置と画像処理方法を提供することを目的とする。
 この技術の第1の側面は、階層構造で定義されている動き補償ブロックを用いた符号化または復号化を行う画像処理装置において、前記符号化または復号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する処理済みの隣接動き補償ブロックのブロックサイズに応じて、前記隣接動き補償ブロックからブロックの選択を行うブロック選択処理部と、前記処理対象の動き補償ブロックについての動きベクトル情報の符号化処理または復号化処理で用いる予測動きベクトル情報を、前記ブロック選択処理部で選択されたブロックの動きベクトル情報を用いて生成する予測動きベクトル情報生成部とを有する画像処理装置にある。
 この技術においては、符号化または復号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する処理済みの隣接動き補償ブロックのブロックサイズに応じて、例えば処理対象の動き補償ブロックと同一階層のブロックサイズで符号化されている隣接動き補償ブロックのみが選択される。さらに、選択された隣接動き補償ブロックの動きベクトル情報に基づき、予測動きベクトル情報が生成される。
 ここで、処理対象の動き補償ブロックに対して右上隣接動き補償ブロックが異なる階層のブロックサイズで符号化されている場合、前記右上隣接動き補償ブロックに代えて左上隣接動き補償ブロックが用いられる。また、メディアン予測に用いる3つの隣接動き補償ブロックのうち、3つのブロックが処理対象の動き補償ブロックと同じ階層のブロックサイズで符号化されている場合、3つの隣接動き補償ブロックの動きベクトル情報を用いてメディアン予測が行われて予測動きベクトル情報が生成される。また、2ブロックが同じ階層のブロックサイズで符号化されている場合、同じ階層の2つの隣接動き補償ブロックの動きベクトル情報が示す動きベクトルの平均値を算出して平均値を示す動きベクトル情報、または2つの隣接動き補償ブロックのいずれか一方の動きベクトル情報が予測動きベクトル情報とされる。さらに、1ブロックが同じ階層のブロックサイズで符号化されている場合、同じ階層の1つの隣接動き補償ブロックの動きベクトル情報が予測動きベクトル情報とされる。また、同じ階層の隣接動き補償ブロックがない場合、予測動きベクトル情報はゼロベクトルを示すものとされる。
 さらに、処理対象の動き補償ブロックに対応する時間方向の隣接動き補償ブロックが同一解像のサイズである場合、時間方向の隣接動き補償ブロックの動きベクトル情報が時間予測動きベクトル情報とされて、該時間予測動きベクトル情報とメディアン予測に用いる3つの隣接動き補償ブロックの動きベクトル情報に基づいて生成された空間予測動きベクトル情報のいずれか一方が予測動きベクトル情報として用いられる。また、空間予測動きベクトル情報のみ生成することが可能である場合、または時間予測動きベクトル情報のみ生成することが可能である場合、生成可能な情報が予測動きベクトル情報として用いられる。さらに、空間予測動きベクトル情報と時間予測動きベクトル情報を生成できない場合、ゼロベクトルを示す情報が予測動きベクトル情報とされる。
 この技術の第2の側面は、画像処理装置において、階層構造で定義されている動き補償ブロックを用いた符号化または復号化を行う画像処理方法であって、前記符号化または復号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する処理済みの隣接動き補償ブロックのブロックサイズに応じて、前記隣接動き補償ブロックからブロックの選択を行う工程と、前記処理対象の動き補償ブロックについての動きベクトル情報の符号化処理または復号化処理で用いる予測動きベクトル情報を、前記選択されたブロックの動きベクトル情報を用いて生成する工程とを有する画像処理方法にある。
 この技術によれば、符号化または復号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する処理済みの隣接動き補償ブロックのブロックサイズに応じて、隣接動き補償ブロックからブロックの選択が行われる。また、選択されたブロックの動きベクトル情報を用いて、処理対象の動き補償ブロックに対する予測動きベクトル情報の生成が行われる。このため、処理対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに応じて適応的に隣接動き補償ブロックの動きベクトル情報が用いられて、予測動きベクトル情報が生成される。したがって、動き境界に伴う非連続性の検出結果に応じた予測動きベクトル情報の生成が可能となり、高い符号化効率を実現できる。
H.264/AVCにおける動き補償ブロックを示す図である。 メディアン予測を説明するための図である。 Multi-Reference Frame方式を説明するための図である。 時間ダイレクトモードを説明するための図である。 時間予測動きベクトル情報および時空間予測動きベクトル情報を説明するための図である。 符号化対象の動き補償ブロックと符号化済みの隣接動き補償ブロックのサイズを例示した図である。 画像符号化装置の構成を示す図である。 動き予測・補償部と予測動きベクトル生成部の構成を示す図である。 1/4画素精度の動き予測・補償処理を説明するための図である。 マクロブロックのサイズを拡張した場合の階層構造を示している。 画像符号化装置の動作を示すフローチャートである。 予測処理を示すフローチャートである。 イントラ予測処理を示すフローチャートである。 インター予測処理を示すフローチャートである。 予測動きベクトル情報の生成処理を示すフローチャートである。 空間方向だけでなく時間方向のブロックを利用した予測動きベクトル情報の生成処理を示すフローチャートである。 画像復号化装置の構成を示す図である。 動き補償部と予測動きベクトル生成部の構成を示す図である。 画像復号化装置の動作を示すフローチャートである。 予測画像生成処理を示すフローチャートである。 インター予測画像生成処理を示すフローチャートである。 コンピュータ装置の概略構成を例示した図である。 テレビジョン装置の概略構成を例示した図である。 携帯電話機の概略構成を例示した図である。 記録再生装置の概略構成を例示した図である。 撮像装置の概略構成を例示した図である。
 以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
 1.画像符号化装置の構成
 2.画像符号化装置の動作
 3.画像復号化装置の構成
 4.画像復号化装置の動作
 5.ソフトウェア処理の場合
 6.電子機器に適用した場合
 <1.画像符号化装置の構成>
 図7は画像符号化を行う画像処理装置(以下「画像符号化装置」という)の構成を示している。画像符号化装置10は、アナログ/ディジタル変換部(A/D変換部)11、画面並び替えバッファ12、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18を備えている。さらに、画像符号化装置10は、逆量子化部21、逆直交変換部22、加算部23、デブロッキングフィルタ24、フレームメモリ25、イントラ予測部31、動き予測・補償部32、ブロック選択処理部33、予測動きベクトル情報生成部34、予測画像・最適モード選択部35を備えている。
 A/D変換部11は、アナログの画像信号をディジタルの画像データに変換して画面並べ替えバッファ12に出力する。
 画面並べ替えバッファ12は、A/D変換部11から出力された画像データに対してフレームの並べ替えを行う。画面並べ替えバッファ12は、符号化処理に係るGOP(Group of Pictures)構造に応じてフレームの並べ替えを行い、並べ替え後の画像データを減算部13とイントラ予測部31と動き予測・補償部32に出力する。
 減算部13には、画面並べ替えバッファ12から出力された画像データと、後述する予測画像・最適モード選択部35で選択された予測画像データが供給される。減算部13は、画面並べ替えバッファ12から出力された画像データと予測画像・最適モード選択部35から供給された予測画像データとの差分である予測誤差データを算出して、直交変換部14に出力する。
 直交変換部14は、減算部13から出力された予測誤差データに対して、離散コサイン変換(DCT;Discrete Cosine Transform)、カルーネン・レーベ変換等の直交変換処理を行う。直交変換部14は、直交変換処理を行うことで得られた変換係数データを量子化部15に出力する。
 量子化部15には、直交変換部14から出力された変換係数データと、後述するレート制御部18からレート制御信号が供給されている。量子化部15は変換係数データの量子化を行い、量子化データを可逆符号化部16と逆量子化部21に出力する。また、量子化部15は、レート制御部18からのレート制御信号に基づき量子化パラメータ(量子化スケール)を切り替えて、量子化データのビットレートを変化させる。
 可逆符号化部16には、量子化部15から出力された量子化データと、後述するイントラ予測部31から予測モード情報や動き予測・補償部32から予測モード情報と差分動きベクトル情報等が供給される。また、予測画像・最適モード選択部35から最適モードがイントラ予測であるかインター予測であるかを示す情報が供給される。なお、予測モード情報には、イントラ予測またはインター予測に応じて、予測モードや動き補償ブロックのブロックサイズ情報等が含まれる。可逆符号化部16は、量子化データに対して例えば可変長符号化または算術符号化等で可逆符号化処理を行い、画像圧縮情報を生成して蓄積バッファ17に出力する。また、可逆符号化部16は、最適モードがイントラ予測である場合、イントラ予測部31から供給された予測モード情報の可逆符号化を行う。また、可逆符号化部16は、最適モードがインター予測である場合、動き予測・補償部32から供給された予測モード情報や差分動きベクトル情報等の可逆符号化を行う。さらに、可逆符号化部16は、可逆符号化が行われた情報を画像圧縮情報に含める。例えば可逆符号化部16は、画像圧縮情報である符号化ストリームのヘッダ情報に付加する。
 蓄積バッファ17は、可逆符号化部16からの画像圧縮情報を蓄積する。また、蓄積バッファ17は、蓄積した画像圧縮情報を伝送路に応じた伝送速度で出力する。
 レート制御部18は、蓄積バッファ17の空き容量の監視を行い、空き容量に応じてレート制御信号を生成して量子化部15に出力する。レート制御部18は、例えば蓄積バッファ17から空き容量を示す情報を取得する。レート制御部18は空き容量が少なくなっている場合、レート制御信号によって量子化データのビットレートを低下させる。また、レート制御部18は蓄積バッファ17の空き容量が十分大きい場合、レート制御信号によって量子化データのビットレートを高くする。
 逆量子化部21は、量子化部15から供給された量子化データの逆量子化処理を行う。逆量子化部21は、逆量子化処理を行うことで得られた変換係数データを逆直交変換部22に出力する。
 逆直交変換部22は、逆量子化部21から供給された変換係数データの逆直交変換処理を行い、得られたデータを加算部23に出力する。
 加算部23は、逆直交変換部22から供給されたデータと予測画像・最適モード選択部35から供給された予測画像データを加算して復号画像データを生成して、デブロッキングフィルタ24とフレームメモリ25に出力する。なお、復号画像データは参照画像の画像データとして用いられる。
 デブロッキングフィルタ24は、画像の符号化時に生じるブロック歪みを減少させるためのフィルタ処理を行う。デブロッキングフィルタ24は、加算部23から供給された復号画像データからブロック歪みを除去するフィルタ処理を行い、フィルタ処理後の復号画像データをフレームメモリ25に出力する。
 フレームメモリ25は、加算部23から供給されたフィルタ処理前の復号画像データと、デブロッキングフィルタ24から供給されたフィルタ処理後の復号画像データを保持する。フレームメモリ25に保持された復号画像データは、セレクタ26を介してイントラ予測部31または動き予測・補償部32に参照画像データとして供給される。
 セレクタ26は、イントラ予測部31でイントラ予測を行う場合、フレームメモリ25に保持されているデブロッキングフィルタ処理前の復号画像データを参照画像データとしてイントラ予測部31に供給する。また、セレクタ26は、動き予測・補償部32でインター予測を行う場合、フレームメモリ25に保持されているデブロッキングフィルタ処理後の復号画像データを参照画像データとして動き予測・補償部32に供給する。
 イントラ予測部31は、画面並べ替えバッファ12から供給された符号化対象画像の入力画像データとフレームメモリ25から供給された参照画像データを用いて、候補となる全てのイントラ予測モードで予測を行い、最適イントラ予測モードを決定する。イントラ予測部31は、例えば各イントラ予測モードでコスト関数値を算出して、算出したコスト関数値に基づき符号化効率が最良となるイントラ予測モードを最適イントラ予測モードとする。イントラ予測部31は、最適イントラ予測モードで生成された予測画像データと最適イントラ予測モードでのコスト関数値を予測画像・最適モード選択部35に出力する。さらに、イントラ予測部31は、最適イントラ予測モードを示す予測モード情報を可逆符号化部16に出力する。
 動き予測・補償部32は、画面並べ替えバッファ12から供給された符号化対象画像の入力画像データとフレームメモリ25から供給された参照画像データを用いて、候補となる全てのインター予測モードで予測を行い、最適インター予測モードを決定する。動き予測・補償部32は、例えば各インター予測モードでコスト関数値を算出して、算出したコスト関数値に基づき符号化効率が最良となるインター予測モードを最適インター予測モードとする。動き予測・補償部32は、最適インター予測モードで生成された予測画像データと最適インター予測モードでのコスト関数値を予測画像・最適モード選択部35に出力する。さらに、動き予測・補償部32は、最適インター予測モードに関する予測モード情報を可逆符号化部16に出力する。また、動き予測・補償部32は、予測動きベクトル情報生成部34で生成された予測動きベクトル情報を用いて差分動きベクトル情報の生成を行い、差分動きベクトル情報を用いた場合に符号化効率が最良となるインター予測モードを決定する。
 ブロック選択処理部33は、符号化対象の動き補償ブロックのブロックサイズと、この動き補償ブロックに対して隣接する符号化済みの隣接動き補償ブロックのブロックサイズに応じて、隣接動き補償ブロックからブロックの選択を行う。ブロック選択処理部33は、符号化対象の動き補償ブロックと同一階層のサイズで符号化されている隣接動き補償ブロックのみを選択して、ブロック選択結果を予測動きベクトル情報生成部34に出力する。
 予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックについての動きベクトル情報の符号化で用いる予測動きベクトル情報を、ブロック選択処理部33で選択されたブロックの動きベクトル情報を用いて生成する。また、予測動きベクトル情報生成部34は、生成した予測動きベクトル情報を動き予測・補償部32に出力する。
 図8は、動き予測・補償部32と予測動きベクトル情報生成部34の構成を示している。動き予測・補償部32は、動き探索部321、コスト関数値算出部322、モード判定部323、動き補償処理部324、動きベクトル・ブロックサイズ情報バッファ325を有している。
 動き探索部321には、画面並べ替えバッファ12から供給された並べ替え後の入力画像データと、フレームメモリ25から読み出された参照画像データが供給される。動き探索部321は、候補となる全てのインター予測モードで動き探索を行い動きベクトルを検出する。動き探索部321は、検出した動きベクトルを示す動きベクトル情報を、動きベクトルを検出した場合の入力画像データと参照画像データと共にコスト関数値算出部322に出力する。
 コスト関数値算出部322には、動き探索部321から動きベクトル情報と入力画像データと参照画像データおよび予測動きベクトル情報生成部34から予測動きベクトル情報が供給されている。コスト関数値算出部322は、動きベクトル情報と入力画像データと参照画像データおよび予測動きベクトル情報を用いて、候補となる全てのインター予測モードでコスト関数値を算出する。
 コスト関数値の算出は、例えばH.264/AVC方式における参照ソフトウェアであるJM(Joint Model)で定められているように、High Complexityモードか、Low Complexityモードのいずれかの手法に基づいて行う。
 すなわち、High Complexityモードでは、候補となる全ての予測モードに対して、仮に可逆符号化処理までを行い、次の式(9)で表されるコスト関数値を各予測モードに対して算出する。
  Cost(Mode∈Ω)=D+λ・R      ・・・(9)
 Ωは、当該動き補償ブロックの画像を符号化するための候補となる予測モードの全体集合を示している。Dは、予測モードで符号化を行った場合の復号画像と入力画像との差分エネルギー(歪み)を示している。Rは、直交変換係数や予測モード情報等を含んだ発生符号量、λは、量子化パラメータQPの関数として与えられるラグランジュ乗数である。
 つまり、High Complexityモードでの符号化を行うには、上記パラメータDおよびRを算出するため、候補となる全ての予測モードで、一度、仮エンコード処理を行う必要があり、より高い演算量を要する。
 一方、Low Complexityモードでは、候補となる全ての予測モードで、予測画像の生成、および差分動きベクトル情報や予測モード情報などを含むヘッダビットの生成等を行い、次の式(10)で表されるコスト関数値を算出する。
  Cost(Mode∈Ω)=D+QP2Quant(QP)・Header_Bit   ・・・(10)
 Ωは、当該動き補償ブロックの画像を符号化するための候補となる予測モードの全体集合を示している。Dは、予測モードで符号化を行った場合の復号画像と入力画像との差分エネルギー(歪み)を示している。Header_Bitは、予測モードに対するヘッダビット、QP2Quantは、量子化パラメータQPの関数として与えられる関数である。
 すなわち、Low Complexityモードにおいては、それぞれの予測モードに関して、予測処理を行う必要があるが、復号化画像までは必要ないため、High Complexityモードより低い演算量での実現が可能である。
 コスト関数値算出部322は、上述のように、動き探索部321からの動きベクトル情報で示された動きベクトルと予測動きベクトル情報で示された予測動きベクトルの差分を示す差分動きベクトル情報も含めて、コスト関数値の算出を行う。コスト関数値算出部322は、算出したコスト関数値をモード判定部323に出力する。
 モード判定部323は、コスト関数値が最小となるモードを最適インター予測モードと決定する。また、モード判定部323は、決定した最適インター予測モードを示す予測モード情報を、当該最適インター予測モードにかかわる動きベクトル情報と差分動きベクトル情報等とともに、動き補償処理部324に出力する。なお、予測モード情報には動き補償ブロックのブロックサイズ情報等が含まれる。
 動き補償処理部324は、最適インター予測モード情報と動きベクトル情報に基づき、フレームメモリ25から読み出された参照画像データに対して動き補償を行い、予測画像データを生成して予測画像・最適モード選択部35に出力する。また、動き補償処理部324は、最適インター予測の予測モード情報と当該モードにおける差分動きベクトル情報等を、可逆符号化部16に出力する。
 動きベクトル・ブロックサイズ情報バッファ325は、最適インター予測モードに関わる動きベクトル情報と動き補償ブロックのブロックサイズ情報を保持する。また、動きベクトル・ブロックサイズ情報バッファ325は、符号化を行う動き補償ブロックに対して符号化済みの隣接動き補償ブロックの動きベクトル情報(以下「隣接動きベクトル情報」という)とブロックサイズ情報(以下「隣接ブロックサイズ情報」という)を予測動きベクトル情報生成部34に出力する。
 なお、動き予測・補償部32では、例えばH.264/AVCにおいて規定されている、1/4画素精度の動き予測・補償処理を行う。図9は、1/4画素精度の動き予測・補償処理を説明するための図である。図9において位置「A」は、フレームメモリ25に格納されている整数精度画素の位置、位置「b」,「c」,「d」は1/2画素精度の位置、位置「e1」,「e2」,「e3」は1/4画素精度の位置である。
 以下では、Clip1()を式(11)のように定義する。
Figure JPOXMLDOC01-appb-M000001
 式(11)において、入力画像が8ビット精度である場合、max_pixの値は255となる。
 位置「b」「d」における画素値は、6タップのFIRフィルタを用いて、式(12)(13)のように生成される。
  F=A-2-5・A-1+20・A+20・A-5・A+A・・・(12)
  b,d=Clip1((F+16)>>5)          ・・・(13)
 位置「c」における画素値は、6タップのFIRフィルタを用いて、式(14)または式(15)のいずれかと式(16)のように生成される。
  F=b-2-5・b-1+20・b+20・b-5・b+b・・・(14)
  F=d-2-5・d-1+20・d+20・d-5・d+d・・・(15)
  c=Clip1((F+512)>>10)        ・・・(16)
なお、Clip1処理は、水平方向および垂直方向の積和処理の両方を行った後、最後に一度のみ行う。
 位置「e1」~「e3」における画素値は、線形内挿により式(17)~(19)のように生成される。
  e1=(A+b+1)>>1   ・・・(17)
  e2=(b+d+1)>>1   ・・・(18)
  e3=(b+c+1)>>1   ・・・(19)
このようにして、動き予測・補償部32は、1/4画素精度の動き予測・補償処理を行う。
 予測動きベクトル情報生成部34は、隣接動きベクトル・ブロックサイズ情報バッファ341と動きベクトル情報処理部342を有している。
 隣接動きベクトル・ブロックサイズ情報バッファ341は、動き予測・補償部32の動きベクトル・ブロックサイズ情報バッファ325から供給された隣接動きベクトル情報と隣接ブロックサイズ情報を記憶する。また、隣接動きベクトル・ブロックサイズ情報バッファ341は、記憶している隣接ブロックサイズ情報をブロック選択処理部33に出力する。また、隣接動きベクトル・ブロックサイズ情報バッファ341は、記憶している隣接動きベクトル情報を動きベクトル情報処理部342に出力する。
 動きベクトル情報処理部342は、ブロック選択処理部33から供給されたブロック選択結果で示された隣接動き補償ブロックの動きベクトル情報に基づいて予測動きベクトル情報を生成する。動きベクトル情報処理部342は、生成した予測動きベクトル情報を、動き予測・補償部32のコスト関数値算出部322に出力する。なお、ブロック選択処理部33は、隣接動きベクトル・ブロックサイズ情報バッファ341から供給された隣接ブロックサイズ情報に基づき、符号化対象の動き補償ブロックと同一階層のサイズの符号化済み隣接動き補償ブロックのみを選択する。ブロック選択処理部33は、選択した隣接動き補償ブロックを示すブロック選択結果を、予測動きベクトル情報生成部34の動きベクトル情報処理部342に出力する。
 図7に戻り、予測画像・最適モード選択部35は、イントラ予測部31から供給されたコスト関数値と動き予測・補償部32から供給されたコスト関数値を比較して、コスト関数値が少ない方を、符号化効率が最良となる最適モードとして選択する。また、予測画像・最適モード選択部35は、最適モードで生成した予測画像データを減算部13と加算部23に出力する。さらに、予測画像・最適モード選択部35は、最適モードがイントラ予測モードであるかインター予測モードであるかを示す情報を可逆符号化部16に出力する。なお、予測画像・最適モード選択部35は、スライス単位でイントラ予測またはインター予測の切り替えを行う。
 <2.画像符号化装置の動作>
 画像符号化装置では、H.264/AVC方式よりもマクロブロックの大きさを拡張して符号化処理を行う。
 図10は、マクロブロックのサイズを拡張した場合の階層構造を示している。図10において、図10の(C)(D)は、H.264/AVC方式で規定されている16×16画素のマクロブロックと8×8画素のサブマクロブロックを示している。また、H.264/AVC方式よりも拡張された大きさのマクロブロックとして、図10の(A)に示す64×64画素や図10の(B)に示す32×32画素のマクロブロックが規定される。なお、図10において、「Skip/direct」は、スキップドマクロブロックやダイレクトモードを選択した場合のブロックサイズであることを示している。また、「ME」は動き補償ブロックサイズであることを示している。また、「P8×8」は、ブロックサイズを小さくした下位の階層でさらに分割できることを示している。
 また、1つの階層では、マクロブロックを分割したサイズを含めて複数の動き補償ブロックのブロックサイズが設定されている。例えば、図10の(A)に示す64×64画素のマクロブロックの階層では、64×64画素,64×32画素,32×64画素,32×32画素のサイズが同一階層の動き補償ブロックのブロックサイズと設定されている。
 図11は画像符号化装置の動作を示すフローチャートである。ステップST11において、A/D変換部11は入力された画像信号をA/D変換する。
 ステップST12において画面並べ替えバッファ12は、画像並べ替えを行う。画面並べ替えバッファ12は、A/D変換部11より供給された画像データを記憶し、各ピクチャの表示する順番から符号化する順番への並べ替えを行う。
 ステップST13において減算部13は、予測誤差データの生成を行う。減算部13は、ステップST12で並び替えられた画像の画像データと予測画像・最適モード選択部35で選択された予測画像データとの差分を算出して予測誤差データを生成する。予測誤差データは、元の画像データに比べてデータ量が小さい。したがって、画像をそのまま符号化する場合に比べて、データ量を圧縮することができる。
 ステップST14において直交変換部14は、直交変換処理を行う。直交変換部14は、減算部13から供給された予測誤差データを直交変換する。具体的には、予測誤差データに対して離散コサイン変換、カルーネン・レーベ変換等の直交変換が行われ、変換係数データを出力する。
 ステップST15において量子化部15は、量子化処理を行う。量子化部15は、変換係数データを量子化する。量子化に際しては、後述するステップST25の処理で説明されるように、レート制御が行われる。
 ステップST16において逆量子化部21は、逆量子化処理を行う。逆量子化部21は、量子化部15で量子化された変換係数データを量子化部15の特性に対応する特性で逆量子化する。
 ステップST17において逆直交変換部22は、逆直交変換処理を行う。逆直交変換部22は、逆量子化部21で逆量子化された変換係数データを直交変換部14の特性に対応する特性で逆直交変換する。
 ステップST18において加算部23は、参照画像データの生成を行う。加算部23は、予測画像・最適モード選択部35から供給された予測画像データと、この予測画像と対応する位置の逆直交変換後のデータを加算して、参照画像データ(復号画像データ)を生成する。
 ステップST19においてデブロッキングフィルタ24は、フィルタ処理を行う。デブロッキングフィルタ24は、加算部23より出力された復号画像データをフィルタリングしてブロック歪みを除去する。
 ステップST20においてフレームメモリ25は、参照画像データを記憶する。フレームメモリ25はフィルタ処理後の参照画像データ(復号画像データ)を記憶する。
 ステップST21においてイントラ予測部31と動き予測・補償部32は、それぞれ予測処理を行う。すなわち、イントラ予測部31は、イントラ予測モードのイントラ予測処理を行い、動き予測・補償部32は、インター予測モードの動き予測・補償処理を行う。予測処理の詳細は、図12を参照して後述するが、この処理により、候補となる全ての予測モードでの予測処理がそれぞれ行われ、候補となる全ての予測モードでのコスト関数値がそれぞれ算出される。そして、算出されたコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードが選択され、選択された予測モードで生成された予測画像とそのコスト関数および予測モード情報が予測画像・最適モード選択部35に供給される。
 ステップST22において予測画像・最適モード選択部35は、予測画像データの選択を行う。予測画像・最適モード選択部35は、イントラ予測部31および動き予測・補償部32より出力された各コスト関数値に基づいて、符号化効率が最良となる最適モードに決定する。さらに、予測画像・最適モード選択部35は、決定した最適モードの予測画像データを選択して、減算部13と加算部23に出力する。この予測画像データが、上述したように、ステップST13,ST18の演算に利用される。
 ステップST23において可逆符号化部16は、可逆符号化処理を行う。可逆符号化部16は、量子化部15より出力された量子化データを可逆符号化する。すなわち、量子化データに対して可変長符号化や算術符号化等の可逆符号化が行われて、データ圧縮される。また、可逆符号化部16は、ステップST22で選択された予測画像データに対応する予測モード情報等の可逆符号化を行い、量子化データを可逆符号化して生成された画像圧縮情報に、予測モード情報等の可逆符号化データが含められる。
 ステップST24において蓄積バッファ17は、蓄積処理を行う。蓄積バッファ17は、可逆符号化部16から出力される画像圧縮情報を蓄積する。この蓄積バッファ17に蓄積された画像圧縮情報は、適宜読み出されて伝送路を介して復号側に伝送される。
 ステップST25においてレート制御部18は、レート制御を行う。レート制御部18は、蓄積バッファ17で画像圧縮情報を蓄積する場合、オーバーフローまたはアンダーフローが蓄積バッファ17で発生しないように、量子化部15の量子化動作のレートを制御する。
 次に、図12のフローチャートを参照して、図11のステップST21における予測処理を説明する。
 ステップST31において、イントラ予測部31はイントラ予測処理を行う。イントラ予測部31は符号化対象の動き補償ブロックの画像を、候補となる全てのイントラ予測モードでイントラ予測する。なお、イントラ予測において参照される復号画像の画像データは、デブロッキングフィルタ24でブロッキングフィルタ処理が行われる前の復号画像データが用いられる。このイントラ予測処理により、候補となる全てのイントラ予測モードでイントラ予測が行われ、候補となる全てのイントラ予測モードに対してコスト関数値が算出される。そして、算出されたコスト関数値に基づいて、全てのイントラ予測モードの中から、符号化効率が最良となる1つのイントラ予測モードが選択される。
 ステップST32において、動き予測・補償部32はインター予測処理を行う。動き予測・補償部32は、フレームメモリ25に記憶されているデブロッキングフィルタ処理後の復号画像データを用いて、候補となるインター予測モードのインター予測処理を行う。このインター予測処理により、候補となる全てのインター予測モードで予測処理が行われ、候補となる全てのインター予測モードに対してコスト関数値が算出される。そして、算出されたコスト関数値に基づいて、全てのインター予測モードの中から、符号化効率が最良となる1つのインター予測モードが選択される。
 次に、図13のフローチャートを参照して、図12におけるステップST31のイントラ予測処理について説明する。
 ステップST41でイントラ予測部31は、各予測モードのイントラ予測を行う。イントラ予測部31は、ブロッキングフィルタ処理前の復号画像データを用いて、イントラ予測モード毎に予測画像データを生成する。
 ステップST42でイントラ予測部31は、各予測モードでのコスト関数値を算出する。コスト関数値の算出は、上述のように例えばH.264/AVC方式における参照ソフトウェアであるJM(Joint Model)で定められているように、High Complexityモードか、Low Complexityモードのいずれかの手法に基づいて行う。すなわち、High Complexityモードでは、ステップST42の処理として、候補となる全ての予測モードに対して、仮に可逆符号化処理までを行い、式(9)で表されるコスト関数値を各予測モードに対して算出する。Low Complexityモードでは、ステップST42の処理として、候補となる全ての予測モードに対して、予測画像の生成と動きベクトル情報や予測モード情報などのヘッダビットまでを生成して、式(10)で表されるコスト関数値を各予測モードに対して算出する。
 ステップST43でイントラ予測部31は、最適イントラ予測モードを決定する。イントラ予測部31は、ステップST42において算出されたコスト関数値に基づいて、それらの中から、コスト関数値が最小値である1つのイントラ予測モードを選択して最適イントラ予測モードに決定する。
 次に、図14のフローチャートを参照して、図12におけるステップST32のインター予測処理について説明する。
 ステップST51で動き予測・補償部32は、動き予測処理を行う。動き予測・補償部32は、予測モード毎に動き予測を行って動きベクトルを検出してステップST52に進む。
 ステップST52で予測動きベクトル情報生成部34は、予測動きベクトル情報を生成ずる。予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックに対してブロックサイズが同一階層である符号化済みの隣接動き補償ブロックの動きベクトル情報を用いて予測動きベクトル情報を生成する。例えば符号化対象の動き補償ブロックが、図10の(A)に示す階層のブロックサイズ(64×64画素、64×32画素、32×64画素、32×32画素)のいずれかとする。この場合、同一階層のブロックサイズである隣接動き補償ブロックの動きベクトル情報を用いて予測動きベクトル情報の生成を行う。
 図15は、予測動きベクトル情報の生成処理を示すフローチャートである。ステップST61でブロック選択処理部33は、右上隣接動き補償ブロックが同一階層であるか判別する。ブロック選択処理部33は、符号化対象の動き補償ブロックに対して右上に位置する隣接動き補償ブロックが、符号化対象の動き補償ブロックと同一階層のブロックサイズであるか判別する。ブロック選択処理部33は、右上隣接動き補償ブロックすなわち図2において符号化対象の動き補償ブロックをブロックEとした場合、隣接動き補償ブロックCがブロックEと同一階層のブロックサイズであるか判別する。ブロック選択処理部33は、同一階層のブロックサイズでないと判別した場合はステップST62に進み、同一階層のブロックサイズであると判別した場合はステップST63に進む。
 ステップST62でブロック選択処理部33は、右上隣接動き補償ブロックに代えて左上隣接動き補償ブロックを利用してステップST63に進む。ブロック選択処理部33は、このような処理を行うことで、例えば当該動き補償ブロックが画枠端の位置であって右上隣接動き補償ブロックが存在しない場合に、予測動きベクトル情報の生成で利用する隣接動き補償ブロックが減少してしまうことを防止する。
 ステップST63でブロック選択処理部33は、3つの隣接動き補償ブロックが同一階層であるか判別する。ブロック選択処理部33は、符号化対象の動き補償ブロックに対して左と上と右上(または左上)に位置する3つの隣接動き補償ブロックが、符号化対象の動き補償ブロックと同一階層のブロックサイズの場合、ステップST64に進む。また、ブロック選択処理部33は、3つの隣接動き補償ブロックの少なくともいずれかが異なる階層のブロックサイズである場合ステップST65に進む。ブロック選択処理部33は、例えば図2においてブロックEのサイズが図10の(A)に示す階層のブロックサイズ64×32画素である場合、ブロックA,B,C(またはD)が図10の(A)に示す階層のブロックサイズである場合ステップST64に進む。また、ブロック選択処理部33は、ブロックA,B,C(またはD)の少なくともいずれかが図10の(A)に示す階層のブロックサイズでない場合ステップST65に進む。
 ステップST64でブロック選択処理部33は、メディアン予測選択処理を行う。ブロック選択処理部33は、3つの隣接動き補償ブロックを選択するブロック選択結果を予測動きベクトル情報生成部34に出力して、予測動きベクトル情報生成部34でメディアン予測を行わせる。予測動きベクトル情報生成部34の動きベクトル情報処理部342は、ブロック選択結果で3つの隣接動き補償ブロックが示されている場合、ブロック選択結果で示された3つの隣接動き補償ブロックの動きベクトル情報を用いてメディアン予測を行う。
 ステップST65でブロック選択処理部33は、2つの隣接動き補償ブロックが同一階層であるか判別する。ブロック選択処理部33は、符号化対象の動き補償ブロックに対して左と上と右上(または左上)に位置する隣接動き補償ブロックのうちで2つのブロックが、符号化対象の動き補償ブロックと同一階層のブロックサイズである場合、ステップST66に進む。また、ブロック選択処理部33は、2つまたは3つの隣接動き補償ブロックが、符号化対象の動き補償ブロックと同一階層のブロックサイズでない場合、ステップST67に進む。
 ステップST66でブロック選択処理部33は、平均値選択処理または1ブロック選択処理を行う。ブロック選択処理部33は、平均値選択処理を行う場合、同一階層である2つの隣接動き補償ブロックを選択したブロック選択結果を予測動きベクトル情報生成部34に出力する。予測動きベクトル情報生成部34の動きベクトル情報処理部342は、ブロック選択結果で2つの隣接動き補償ブロックが示された場合、この2つの隣接動き補償ブロックの動きベクトル情報で示された動きベクトルの平均値を算出する。また、動きベクトル情報処理部342は、算出した平均値を示す動きベクトル情報を予測動きベクトル情報とする。ブロック選択処理部33は、1ブロック選択処理を行う場合、同一階層である2つの隣接動き補償ブロックのいずれか選択したブロック選択結果を予測動きベクトル情報生成部34に出力する。予測動きベクトル情報生成部34の動きベクトル情報処理部342は、ブロック選択結果で1つの隣接動き補償ブロックが示されている場合、ブロック選択結果で示された隣接動き補償ブロックの動きベクトル情報を予測動きベクトル情報とする。
 ステップST67でブロック選択処理部33は、1つの隣接動き補償ブロックが同一階層であるか判別する。ブロック選択処理部33は、符号化対象の動き補償ブロックに対して左と上と右上(または左上)に位置する隣接動き補償ブロックのうちで1つのブロックのみが、符号化対象の動き補償ブロックと同一階層のブロックサイズである場合、ステップST68に進む。また、ブロック選択処理部33は、3つの隣接動き補償ブロックが、符号化対象の動き補償ブロックと同一階層のブロックサイズでない場合、ステップST69に進む。
 ステップST68でブロック選択処理部33は、同一階層ブロック選択処理を行う。ブロック選択処理部33は、同一階層である1つの隣接動き補償ブロックを選択したブロック選択結果を予測動きベクトル情報生成部34に出力する。予測動きベクトル情報生成部34の動きベクトル情報処理部342は、ブロック選択結果で1つの隣接動き補償ブロックが示されている場合、ブロック選択結果で示された隣接動き補償ブロックの動きベクトル情報を予測動きベクトル情報とする。
 ステップST69でブロック選択処理部33は、ブロック非選択処理を行う。ブロック選択処理部33は、同一階層の隣接動き補償ブロックがないことを示すブロック選択結果を予測動きベクトル情報生成部34に出力する。予測動きベクトル情報生成部34の動きベクトル情報処理部342は、ブロック選択結果で隣接動き補償ブロックがないことが示された場合、ゼロベクトルを示す予測動きベクトル情報を生成する。
 このように、ブロック選択処理部33は、符号化対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに応じて隣接動き補償ブロックの選択を行う。また、予測動きベクトル情報生成部34は、選択された隣接動き補償ブロックの動きベクトル情報を用いて予測動きベクトル情報を生成して、動き予測・補償部32に出力する。
 また、予測動きベクトル情報生成部34は、予測動きベクトル情報として、2つの隣接動き補償ブロックの動きベクトル情報で示された動きベクトルの平均値、または、2つの隣接動き補償ブロックのいずれが選択されているかを識別可能とする識別情報を画像圧縮情報に含めるように出力する。
 また、図15に示す予測動きベクトル情報の生成処理は、空間方向の隣接動き補償ブロックを利用して予測動きベクトル情報を生成している。ここで、さらに時間方向の隣接動き補償ブロックを利用して予測動きベクトル情報の生成を行えば、符号化効率をさらに高めることができる予測動きベクトル情報を生成することが可能となる。
 図16は、空間方向と時間方向の隣接動き補償ブロックを利用した予測動きベクトル情報の生成処理を示している。
 ステップST71で予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと同一階層のブロックに基づき空間および時間予測動きベクトル情報を生成したか判別する。予測動きベクトル情報生成部34は、図15に示す処理によって、符号化対象の動き補償ブロックと同一階層のブロックサイズである空間方向の隣接動き補償ブロックの動きベクトル情報に基づき予測動きベクトル情報を生成した場合、符号化対象の動き補償ブロックと同一階層のブロックに基づき空間予測動きベクトル情報が生成されたと判別する。また、予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックに対して時間方向に隣接する隣接動き補償ブロック例えばアンカーブロックが、符号化対象の動き補償ブロックと同一階層のブロックサイズであり、アンカーブロックの動きベクトル情報に基づき予測動きベクトル情報を生成した場合、符号化対象の動き補償ブロックと同一階層のブロックに基づき時間予測動きベクトル情報が生成されたと判別する。予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと同一階層のブロックに基づき空間および時間予測動きベクトル情報を生成した場合、ステップST72に進む。また、予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと同一階層のブロックに基づき空間および時間予測動きベクトル情報の少なくとも一方を生成できない場合、ステップST75に進む。
 ステップST72で予測動きベクトル情報生成部34は、動きベクトルが一致するか判別する。予測動きベクトル情報生成部34は、空間予測動きベクトル情報が示す動きベクトルと時間予測動きベクトル情報が示す動きベクトルが一致する場合ステップST73に進み、一致しない場合ステップST74に進む。
 ステップST73で予測動きベクトル情報生成部34は、いずれかを予測動きベクトル情報に決定する。予測動きベクトル情報生成部34は、動きベクトルが位置することから空間予測動きベクトル情報または時間予測動きベクトル情報のいずれかを予測動きベクトル情報として動き予測・補償部32に出力する。
 ステップST74で予測動きベクトル情報生成部34は、最適予測動きベクトル選択処理を行う。予測動きベクトル情報生成部34は、空間予測動きベクトル情報を選択した場合と時間予測動きベクトル情報を選択した場合のコスト関数値を比較して、符号化効率の高い情報を予測動きベクトル情報として動き予測・補償部32に出力する。なお、コスト関数値の算出は、動き予測・補償部32のコスト関数値算出部322を用いればよい。
 ステップST75で予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと同一階層のブロックに基づき時間予測動きベクトル情報を生成したか判別する。予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと時間予測動きベクトル情報の生成で用いたアンカーブロックが同一階層のブロックサイズである場合、時間予測動きベクトル情報を生成したと判別して、ステップST76に進む。また、予測動きベクトル情報生成部34は、時間予測動きベクトル情報の生成で用いるアンカーブロックが同一階層のブロックサイズでない場合、ステップST77に進む。
 ステップST76で予測動きベクトル情報生成部34は、時間予測動きベクトル情報を予測動きベクトル情報に決定する。予測動きベクトル情報生成部34は、図5を用いて説明したように算出された時間予測動きベクトル情報を予測動きベクトル情報に決定して、動き予測・補償部32に出力する。
 ステップST77で予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと同一階層のブロックに基づき空間予測動きベクトル情報を生成したか判別する。予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと同一階層のブロックサイズである符号化済みの隣接動き補償ブロックの動きベクトル情報を用いて空間予測動きベクトル情報を生成した場合、ステップST78に進む。また、予測動きベクトル情報生成部34は、同一階層のブロックサイズである符号化済みの隣接動き補償ブロックの動きベクトル情報を用いて空間予測動きベクトル情報を生成できない場合ステップST79に進む。
 ステップST78で予測動きベクトル情報生成部34は、空間予測動きベクトル情報を予測動きベクトル情報に決定する。予測動きベクトル情報生成部34は、図15のステップST61乃至ステップST68に示す処理によって、生成された空間予測動きベクトル情報を予測動きベクトル情報に決定して、動き予測・補償部32に出力する。
 ステップST79で予測動きベクトル情報生成部34は、ゼロベクトル情報を予測動きベクトル情報に決定する。予測動きベクトル情報生成部34は、符号化対象の動き補償ブロックと同一階層の隣接動き補償ブロックに基づき空間および時間予測動きベクトル情報の生成が行われていないため、ゼロベクトルを示す動きベクトル情報を予測動きベクトル情報に決定する。予測動きベクトル情報生成部34は、ゼロベクトルを示す予測動きベクトル情報を予動き予測・補償部32に出力する。
 このように、空間方向だけでなく時間方向のブロックを利用して予測動きベクトル情報の生成を行えば、空間方向の隣接動き補償ブロックのみを利用して予測動きベクトル情報を生成する場合に比べて、予測動きベクトル情報を最適化できる。また、予測動きベクトル情報生成部34は、空間予測動きベクトル情報と時間予測動きベクトル情報が生成可能であった場合、いずれかを選択したかを識別可能とする識別情報を予測動きベクトル情報とともに生成することで、復号化時に符号化と等しい予測動きベクトル情報を容易に生成できる。
 図14に戻り、ステップST53で動き予測・補償部32は、動きベクトル符号化処理を行う。動き予測・補償部32のコスト関数値算出部322は、動き探索部321で検出された動きベクトルと予測動きベクトル情報生成部34で生成された予測動きベクトルとの差分である差分動きベクトルを算出して、差分動きベクトル情報を生成する。また、コスト関数値算出部322は、差分動きベクトル情報を全ての予測モードについて生成する。
 ステップST54で動き予測・補償部32は、各予測モードでのコスト関数値を算出する。動き予測・補償部32は、上述した式(9)または式(10)を用いてコスト関数値の算出を行う。また、動き予測・補償部32は、差分動きベクトル情報を用いて発生符号量を算出する。なお、インター予測モードに対するコスト関数値の算出には、H.264/AVC方式において定められているスキップドマクロブロックやダイレクトモードのコスト関数値の評価も含まれる。
 ステップST55で動き予測・補償部32は、最適インター予測モードを決定する。動き予測・補償部32は、ステップST54において算出されたコスト関数値に基づいて、それらの中から、コスト関数値が最小値である1つの予測モードを選択して最適インター予測モードに決定する。
 このように、画像符号化装置10は、符号化対象の動き補償ブロックと空間方向や時間方向に隣接する符号化済みの隣接動き補償ブロックのブロックサイズに応じて、隣接動き補償ブロックを選択する。また、画像符号化装置10は、選択した隣接動き補償ブロックの動きベクトル情報を用いて、予測動きベクトル情報を生成する。すなわち、処理対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに応じて適応的に隣接動き補償ブロックの動きベクトル情報が用いられて、予測動きベクトル情報が生成される。したがって、動き境界に伴う非連続性の検出結果に応じた予測動きベクトル情報の生成が可能となり、高い符号化効率を実現できる。例えば、図6に示す静止画領域の動きベクトル符号化処理では、ランダムな動きの領域におけるブロックサイズの小さい隣接動き補償ブロックの動きベクトル情報を用いることなく予測動きベクトル情報が生成されるので、動きベクトル符号化処理の効率を向上させることができる。
 <3.画像復号化装置の構成>
 次に、画像復号化装置について説明する。入力画像を符号化して生成された画像圧縮情報は、所定の伝送路や記録媒体等を介して画像復号化装置に供給されて復号される。
 図17は、画像圧縮情報の復号化を行う画像処理装置(以下「画像復号化装置」という)の構成を示している。画像復号化装置50は、蓄積バッファ51、可逆復号化部52、逆量子化部53、逆直交変換部54、加算部55、デブロッキングフィルタ56、画面並べ替えバッファ57、ディジタル/アナログ変換部(D/A変換部)58を備えている。さらに、画像復号化装置50は、フレームメモリ61、セレクタ62,75、イントラ予測部71、動き補償部72、ブロック選択処理部73、予測動きベクトル情報生成部74を備えている。
 蓄積バッファ51は、伝送されてきた画像圧縮情報を蓄積する。可逆復号化部52は、蓄積バッファ51より供給された画像圧縮情報を、図7の可逆符号化部16の符号化方式に対応する方式で復号化する。
 可逆復号化部52は、画像圧縮情報を復号して得られた予測モード情報をイントラ予測部71や動き補償部72に出力する。
 逆量子化部53は、可逆復号化部52で復号された量子化データを、図7の量子化部15の量子化方式に対応する方式で逆量子化する。逆直交変換部54は、図7の直交変換部14の直交変換方式に対応する方式で逆量子化部53の出力を逆直交変換して加算部55に出力する。
 加算部55は、逆直交変換後のデータとセレクタ75から供給される予測画像データを加算して復号画像データを生成してデブロッキングフィルタ56とフレームメモリ61に出力する。
 デブロッキングフィルタ56は、加算部55から供給された復号画像データに対してデブロッキングフィルタ処理を行い、ブロック歪みを除去してからフレームメモリ61に供給し蓄積させるとともに、画面並べ替えバッファ57に出力する。
 画面並べ替えバッファ57は、画像の並べ替えを行う。すなわち、図7の画面並べ替えバッファ12で符号化の順番のために並べ替えられたフレームの順番が、元の表示の順番に並べ替えられて、D/A変換部58に出力される。
 D/A変換部58は、画面並べ替えバッファ57から供給された画像データをD/A変換し、図示せぬディスプレイに出力することで画像を表示させる。
 フレームメモリ61は、デブロッキングフィルタ24でフィルタ処理が行われる前の復号画像データと、デブロッキングフィルタ24でフィルタ処理が行われた後の復号画像データを記憶する。
 セレクタ62は、可逆復号化部52から供給された予測モード情報に基づき、イントラ予測画像の復号化の場合、フレームメモリ61に記憶されているフィルタ処理前の復号画像データをイントラ予測部71に供給する。また、セレクタ62は、インター予測画像の復号化の場合、フレームメモリ61に記憶されているフィルタ処理後の復号画像データを動き補償部72に供給する。
 イントラ予測部71は、可逆復号化部52から供給された予測モード情報とセレクタ62を介してフレームメモリ61から供給された復号画像データに基づいて予測画像データの生成を行い、生成した予測画像データをセレクタ75に出力する。
 動き補償部72は、可逆復号化部52から供給された差分動きベクトル情報と予測動きベクトル情報生成部74から供給された予測動きベクトル情報を加算して、復号化対象の動き補償ブロックの動きベクトル情報を生成する。また、動き補償部72は、生成した動きベクトル情報と可逆復号化部52から供給された予測モード情報に基づき、フレームメモリ61から供給された復号画像データを用いて動き補償を行い、予測画像データを生成してセレクタ75に出力する。
 ブロック選択処理部73は、復号化対象の動き補償ブロックのブロックサイズと、この動き補償ブロックに対して隣接する符号化済みの隣接動き補償ブロックのブロックサイズに応じて、隣接動き補償ブロックからブロックの選択を行う。ブロック選択処理部73は、復号化対象の動き補償ブロックと同一階層のサイズで符号化されている隣接動き補償ブロックのみを選択して、ブロック選択結果を予測動きベクトル情報生成部74に出力する。
 予測動きベクトル情報生成部74は、復号化対象の動き補償ブロックについての動きベクトル情報の復号化で用いる予測動きベクトル情報を、ブロック選択処理部73で選択されたブロックの動きベクトル情報を用いて生成する。また、予測動きベクトル情報生成部74は、生成した予測動きベクトル情報を動き補償部72に出力する。
 図18は、動き補償部72と予測動きベクトル情報生成部74の構成を示している。
 動き補償部72は、ブロックサイズ情報バッファ721、差分動きベクトル情報バッファ722、動きベクトル情報合成部723、動き補償処理部724、動きベクトル情報バッファ725を有している。
 ブロックサイズ情報バッファ721は、可逆復号化部52から供給された動き補償ブロックのブロックサイズを示す情報を記憶する。また、ブロックサイズ情報バッファ721は、記憶しているマクロブロックの大きさを示す情報を動き補償処理部724と予測動きベクトル情報生成部74に出力する。
 差分動きベクトル情報バッファ722は、可逆復号化部52から供給された動き補償ブロックの差分動きベクトル情報を記憶する。また、差分動きベクトル情報バッファ722は、記憶している差分動きベクトル情報を動きベクトル情報合成部723に出力する。
 動きベクトル情報合成部723は、差分動きベクトル情報バッファ722から供給された差分動きベクトル情報と予測動きベクトル情報生成部74で生成された予測動きベクトル情報を加算する。動きベクトル情報合成部723は、差分動きベクトル情報と予測動きベクトル情報を加算して得られた動き補償ブロックの動きベクトル情報を動き補償処理部724と動きベクトル情報バッファ725に出力する。
 動き補償処理部724は、可逆復号化部52から供給された予測モード情報に基づいてフレームメモリ61から参照画像の画像データを読み出す。動き補償処理部724は、参照画像の画像データと、ブロックサイズ情報バッファ721から供給された動き補償ブロックのブロックサイズと、動きベクトル情報合成部723から供給された動き補償ブロックの動きベクトル情報とに基づき動き補償を行い、予測画像データを生成する。動き補償処理部724は、生成した予測画像データをセレクタ75に出力する。
 動きベクトル情報バッファ725は、動きベクトル情報合成部723から供給された動きベクトル情報を記憶する。また、動きベクトル情報バッファ725は、予測動きベクトル情報生成部74で予測動きベクトル情報を予測動きベクトル情報生成部74に出力する。
 予測動きベクトル情報生成部74は、一時ブロックサイズ情報バッファ741と隣接動きベクトル情報バッファ742、動きベクトル情報処理部743を有している。
 一時ブロックサイズ情報バッファ741は、動き補償部72のブロックサイズ情報バッファ721から供給された隣接動き補償ブロックサイズ情報を記憶する。また、一時ブロックサイズ情報バッファ741は、記憶している隣接動き補償ブロックサイズ情報をブロック選択処理部73に出力する。
 隣接動きベクトル情報バッファ742は、動き補償部72の動きベクトル情報バッファ725から供給された隣接動きベクトル情報を記憶する。また、隣接動きベクトル情報バッファ742は、記憶している隣接動きベクトル情報を動きベクトル情報処理部743に出力する。
 動きベクトル情報処理部743は、ブロック選択処理部73から供給されたブロック選択結果に基づき、ブロック選択結果で示された隣接動き補償ブロックの動きベクトル情報を選択して、選択した隣接動きベクトル情報に基づいて予測動きベクトル情報を生成する。動きベクトル情報処理部743は、生成した予測動きベクトル情報を、動き補償部72の動きベクトル情報合成部723に出力する。
 図17に戻り、セレクタ75は、可逆復号化部52から供給された予測モード情報に基づき、イントラ予測である場合はイントラ予測部71、インター予測である場合は動き補償部72を選択する。セレクタ75は、選択されたイントラ予測部71または動き補償部72で生成された予測画像データを加算部55に出力する。
 <4.画像復号化装置の動作>
 次に、図19のフローチャートを参照して、画像復号化装置50で行われる画像復号処理動作について説明する。
 ステップST81で蓄積バッファ51は、伝送されてきた画像圧縮情報を蓄積する。ステップST82で可逆復号化部52は、可逆復号化処理を行う。可逆復号化部52は、蓄積バッファ51から供給される画像圧縮情報を復号化する。すなわち、図7の可逆符号化部16で符号化された各ピクチャの量子化データが得られる。また、可逆復号化部52、画像圧縮情報に含まれている予測モード情報の可逆復号化を行い、得られた予測モード情報がイントラ予測モードに関する情報である場合、予測モード情報をイントラ予測部71に出力する。また、可逆復号化部52は、予測モード情報がインター予測モードに関する情報である場合、予測モード情報を動き補償部72に出力する。
 ステップST83において逆量子化部53は、逆量子化処理を行う。逆量子化部53は、可逆復号化部52により復号された量子化データを、図7の量子化部15の特性に対応する特性で逆量子化する。
 ステップST84において逆直交変換部54は、逆直交変換処理を行う。逆直交変換部54は、逆量子化部53により逆量子化された変換係数データを、図7の直交変換部14の特性に対応する特性で逆直交変換する。
 ステップST85において加算部55は、復号画像データの生成を行う。加算部55は、逆直交変換処理を行うことにより得られたデータと、後述するステップST89で選択された予測画像データを加算して復号画像データを生成する。これにより元の画像が復号される。
 ステップST86においてデブロッキングフィルタ56は、フィルタ処理を行う。デブロッキングフィルタ56は、加算部55より出力された復号画像データのデブロッキングフィルタ処理を行い、復号画像に含まれているブロック歪みを除去する。
 ステップST87においてフレームメモリ61は、復号画像データの記憶処理を行う。
 ステップST88においてイントラ予測部71と動き補償部72は、予測画像生成処理を行う。イントラ予測部71と動き補償部72は、可逆復号化部52から供給される予測モード情報に対応してそれぞれ予測画像生成処理を行う。
 すなわち、可逆復号化部52からイントラ予測の予測モード情報が供給された場合、イントラ予測部71は、予測モード情報に基づいて予測画像データを生成する。また、可逆復号化部52からインター予測の予測モード情報が供給された場合、動き補償部72は、予測モード情報に基づき動き補償を行い予測画像データを生成する。
 ステップST89において、セレクタ75は予測画像データの選択を行う。セレクタ75は、イントラ予測部71から供給された予測画像と動き補償部72から供給された予測画像データの選択を行い、選択した予測画像データを加算部55に供給して、上述したように、ステップST85において逆直交変換部54の出力と加算させる。
 ステップST90において画面並べ替えバッファ57は、画像並べ替えを行う。すなわち画面並べ替えバッファ57は、図7の画像符号化装置10の画面並べ替えバッファ12で符号化のために並べ替えられたフレームの順序が、元の表示の順序に並べ替えられる。
 ステップST91において、D/A変換部58は、画面並べ替えバッファ57からの画像データをD/A変換する。この画像が図示せぬディスプレイに出力され、画像が表示される。
 次に、図20のフローチャートを参照して、図19のステップST88の予測画像生成処理について説明する。
 ステップST101で可逆復号化部52は、対象ブロックがイントラ符号化されているか否かを判定する。可逆復号化部52は、可逆復号化を行うことで得られた予測モード情報がイントラ予測の予測モード情報である場合、予測モード情報をイントラ予測部71に供給してステップST102に進む。また、可逆復号化部52は、予測モード情報がインター予測の予測モード情報である場合、予測モード情報を動き補償部72に供給してステップST103に進む。
 ステップST102でイントラ予測部71は、イントラ予測画像生成処理を行う。イントラ予測部71は、フレームメモリ61に記憶されているデブロックフィルタ処理前の復号画像データと予測モード情報を用いてイントラ予測を行い、予測画像データを生成する。
 ステップST103で動き補償部72は、インター予測画像生成処理を行う。動き補償部72は、可逆復号化部52からの予測モード情報や差分動きベクトル情報に基づいて、フレームメモリ61から読み出した参照画像の動き補償を行い、予測画像データを生成する。
 図21は、ステップST103のインター予測画像生成処理を示すフローチャートである。ステップST111で動き補償部72は、予測モード情報を取得する。動き補償部72は、予測モード情報を可逆復号化部52から取得してステップST112に進む。
 ステップST112で動き補償部72は、動きベクトル情報を再構築する。動き補償部72は、予測動きベクトル情報生成部74で生成された予測動きベクトル情報と予測モード情報で示された差分動きベクトル情報から動きベクトル情報を再構築してステップST113に進む。なお、予測動きベクトル情報の生成は、図15,16を用いて説明したように行う。すなわち、ブロック選択処理部73は、画像符号化装置10のブロック選択処理部33と同様な処理を行い、予測動きベクトル情報生成部74は、画像符号化装置10の予測動きベクトル情報生成部34で行われた処理と同様な処理を行う。
 ステップST113で動き補償部72は、予測画像データの生成を行う。動き補償部72はステップST111で取得した予測モード情報や、ステップST112で再構築した動きベクトル情報に基づき、フレームメモリ61から参照画像データを読み出して動き補償を行い、予測画像データを生成してセレクタ75に出力する。
 このように、画像復号化装置50は、復号化対象の動き補償ブロックと空間方向や時間方向に隣接する符号化済みの隣接動き補償ブロックのブロックサイズに応じて、隣接動き補償ブロックを選択する。また、画像復号化装置50は、選択した隣接動き補償ブロックの動きベクトル情報を用いて、予測動きベクトル情報を生成する。すなわち、処理対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに応じて適応的に隣接動き補償ブロックの動きベクトル情報が用いられて、画像符号化装置10で生成される予測動きベクトル情報と等しい予測動きベクトル情報が生成される。したがって、画像復号化装置50では、生成した予測動きベクトル情報と画像符号化装置10から供給された差分動きベクトル情報に基づいて、復号化対象の動き補償ブロックの動きベクトル情報を正しく復元できる。
 また、2つの隣接動き補償ブロックが同一階層のブロックサイズである場合、上述のように、平均値または2つの隣接動き補償ブロックのうちで動きベクトル情報を用いたブロックを示す識別情報が予測動きベクトル情報の生成に必要な情報として画像圧縮情報に含められる。また、空間予測動きベクトル情報と時間予測動きベクトル情報のいずれが予測動きベクトル情報として用いられたかを示す識別情報が画像圧縮情報に含められる。したがって、この識別情報を利用して正しく予測動きベクトル情報の生成が可能となり、画像圧縮情報の総符号量が大幅に増加してしまうこともない。
 <5.ソフトウェア処理の場合>
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、または両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることも可能である。
 図22は、上述した一連の処理をプログラムで実行するコンピュータ装置の構成を例示した図である。コンピュータ装置80のCPU801は、ROM802、または記録部808に記録されているプログラムにしたがって各種の処理を実行する。
 RAM803には、CPU801が実行するプログラムやデータなどが適宜記憶される。これらのCPU801、ROM802、およびRAM803は、バス804で相互に接続されている。
 CPU801にはまた、バス804を介して入出力インタフェース805が接続されている。入出力インタフェース805には、タッチパネルやキーボード、マウス、マイクロホンなどの入力部806、ディスプレイなどよりなる出力部807が接続されている。CPU801は、入力部806から入力される指令に対応して各種の処理を実行する。そして、CPU801は、処理の結果を出力部807に出力する。
 入出力インタフェース805に接続されている記録部808は、例えばハードディスクからなり、CPU801が実行するプログラムや各種のデータを記録する。通信部809は、インターネットやローカルエリアネットワークなどのネットワークやディジタル放送といった有線または無線の通信媒体を介して外部の装置と通信する。また、コンピュータ装置80は、通信部809を介してプログラムを取得し、ROM802や記録部808に記録してもよい。
 ドライブ810は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア85が装着された場合、それらを駆動して、記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じてROM802やRAM803または記録部808に転送される。
 CPU801は、上述の一連の処理を行うプログラムを読み出して実行し、記録部808やリムーバブルメディア85に記録されている画像信号や、通信部809を介して供給された画像信号に対する符号化処理や画像圧縮情報の復号化処理を行う。
 <6.電子機器に適用した場合>
 また、以上においては、符号化方式/復号方式としてH.264/AVC方式が用いられたが、本技術は、その他の動き予測・補償処理を行う符号化方式/復号方式を用いる画像符号化装置/画像復号装置に適用することもできる。
 さらに、本技術は、例えば、MPEG,H.26x等のように、離散コサイン変換等の直交変換と動き補償によって圧縮された画像情報(ビットストリーム)を、衛星放送、ケーブルTV(テレビジョン)、インターネット、および携帯電話機などのネットワークメディアを介して受信する際に適用できる。また、光、磁気ディスク、およびフラッシュメモリのような記憶メディア上で処理する際に用いられる画像符号化装置および画像復号装置に適用することができる。
 上述した画像符号化装置10や画像復号化装置50は、任意の電子機器に適用することができる。以下にその例について説明する。
 図23は、本技術を適用したテレビジョン装置の概略構成を例示している。テレビジョン装置90は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース部909を有している。さらに、テレビジョン装置90は、制御部910、ユーザインタフェース部911等を有している。
 チューナ902は、アンテナ901で受信された放送波信号から所望のチャンネルを選局して復調を行い、得られたストリームをデマルチプレクサ903に出力する。
 デマルチプレクサ903は、ストリームから視聴対象である番組の映像や音声のパケットを抽出して、抽出したパケットのデータをデコーダ904に出力する。また、デマルチプレクサ903は、EPG(Electronic Program Guide)等のデータのパケットを制御部910に出力する。なお、スクランブルが行われている場合、デマルチプレクサ等でスクランブルの解除を行う。
 デコーダ904は、パケットの復号化処理を行い、復号処理化によって生成された映像データを映像信号処理部905、音声データを音声信号処理部907に出力する。
 映像信号処理部905は、映像データに対して、ノイズ除去やユーザ設定に応じた映像処理等を行う。映像信号処理部905は、表示部906に表示させる番組の映像データや、ネットワークを介して供給されるアプリケーションに基づく処理による画像データなどを生成する。また、映像信号処理部905は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それを番組の映像データに重畳する。映像信号処理部905は、このようにして生成した映像データに基づいて駆動信号を生成して表示部906を駆動する。
 表示部906は、映像信号処理部905からの駆動信号に基づき表示デバイス(例えば液晶表示素子等)を駆動して、番組の映像などを表示させる。
 音声信号処理部907は、音声データに対してノイズ除去などの所定の処理を施し、処理後の音声データのD/A変換処理や増幅処理を行い、スピーカ908に供給することで音声出力を行う。
 外部インタフェース部909は、外部機器やネットワークと接続するためのインタフェースであり、映像データや音声データ等のデータ送受信を行う。
 制御部910にはユーザインタフェース部911が接続されている。ユーザインタフェース部911は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部910に供給する。
 制御部910は、CPU(Central Processing Unit)やメモリ等を用いて構成されている。メモリは、CPUで実行されるプログラムやCPUが処理を行う上で必要な各種のデータ、EPGデータ、ネットワークを介して取得されたデータ等を記憶する。メモリに記憶されているプログラムは、テレビジョン装置90の起動時などの所定タイミングでCPUで読み出されて実行される。CPUは、プログラムを実行することで、テレビジョン装置90がユーザ操作に応じた動作となるように各部を制御する。
 なお、テレビジョン装置90では、チューナ902、デマルチプレクサ903、映像信号処理部905、音声信号処理部907、外部インタフェース部909等と制御部910を接続するためバス912が設けられている。
 このように構成されたテレビジョン装置では、デコーダ904に本願の画像復号化装置(画像復号化方法)の機能が設けられる。このため、テレビジョン装置では、生成した予測動きベクトル情報と受信した差分動きベクトル情報に基づいて、復号化対象の動き補償ブロックの動きベクトル情報を正しく復元できる。したがって、放送局側は、符号化対象の動き補償ブロックと符号化済みの隣接動き補償ブロックのブロックサイズに応じて生成した予測動きベクトル情報を用いて動きベクトル符号化処理を行っても、テレビジョン装置で正しく復号化を行える。
 図24は、本技術を適用した携帯電話機の概略構成を例示している。携帯電話機92は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931を有している。これらは、バス933を介して互いに接続されている。
 また、通信部922にはアンテナ921が接続されており、音声コーデック923には、スピーカ924とマイクロホン925が接続されている。さらに制御部931には、操作部932が接続されている。
 携帯電話機92は、音声通話モードやデータ通信モード等の各種モードで、音声信号の送受信、電子メールや画像データの送受信、画像撮影、またはデータ記録等の各種動作を行う。
 音声通話モードにおいて、マイクロホン925で生成された音声信号は、音声コーデック923で音声データへの変換やデータ圧縮が行われて通信部922に供給される。通信部922は、音声データの変調処理や周波数変換処理等を行い、送信信号を生成する。また、通信部922は、送信信号をアンテナ921に供給して図示しない基地局へ送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、得られた音声データを音声コーデック923に供給する。音声コーデック923は、音声データのデータ伸張やアナログ音声信号への変換を行い、スピーカ924に出力する。
 また、データ通信モードにおいて、メール送信を行う場合、制御部931は、操作部932の操作によって入力された文字データを受け付けて、入力された文字を表示部930に表示する。また、制御部931は、操作部932におけるユーザ指示等に基づいてメールデータを生成して通信部922に供給する。通信部922は、メールデータの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、メールデータを復元する。このメールデータを、表示部930に供給して、メール内容の表示を行う。
 なお、携帯電話機92は、受信したメールデータを、記録再生部929で記憶媒体に記憶させることも可能である。記憶媒体は、書き換え可能な任意の記憶媒体である。例えば、記憶媒体は、RAMや内蔵型フラッシュメモリ等の半導体メモリ、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、またはメモリカード等のリムーバブルメディアである。
 データ通信モードにおいて画像データを送信する場合、カメラ部926で生成された画像データを、画像処理部927に供給する。画像処理部927は、画像データの符号化処理を行い、画像圧縮情報を生成する。
 多重分離部928は、画像処理部927で生成された画像圧縮情報と、音声コーデック923から供給された音声データを所定の方式で多重化して、通信部922に供給する。通信部922は、多重化データの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、多重化データを復元する。この多重化データを多重分離部928に供給する。多重分離部928は、多重化データの分離を行い、画像圧縮情報を画像処理部927、音声データを音声コーデック923に供給する。
 画像処理部927は、画像圧縮情報の復号化処理を行い、画像データを生成する。この画像データを表示部930に供給して、受信した画像の表示を行う。音声コーデック923は、音声データをアナログ音声信号に変換してスピーカ924に供給して、受信した音声を出力する。
 このように構成された携帯電話装置では、画像処理部927に本願の画像処理装置(画像処理方法)の機能が設けられる。したがって、画像を送信する際に符号化対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに基づいた動き境界に伴う非連続性の検出結果に応じて予測動きベクトル情報の生成が行われる。このため、動きベクトル符号化処理の符号化効率を向上させることができる。また、画像符号化処理によって生成した画像圧縮情報の復号化を正しく行うことができる。
 図25は、本技術を適用した記録再生装置の概略構成を例示している。記録再生装置94は、例えば受信した放送番組のオーディオデータとビデオデータを、記録媒体に記録して、その記録されたデータをユーザの指示に応じたタイミングでユーザに提供する。また、記録再生装置94は、例えば他の装置からオーディオデータやビデオデータを取得し、それらを記録媒体に記録させることもできる。さらに、記録再生装置94は、記録媒体に記録されているオーディオデータやビデオデータを復号して出力することで、モニタ装置等において画像表示や音声出力を行うことができるようにする。
 記録再生装置94は、チューナ941、外部インタフェース部942、エンコーダ943、HDD(Hard Disk Drive)部944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)部948、制御部949、ユーザインタフェース部950を有している。
 チューナ941は、図示しないアンテナで受信された放送信号から所望のチャンネルを選局する。チューナ941は、所望のチャンネルの受信信号を復調して得られた画像圧縮情報をセレクタ946に出力する。
 外部インタフェース部942は、IEEE1394インタフェース、ネットワークインタフェース部、USBインタフェース、フラッシュメモリインタフェース等の少なくともいずれかで構成されている。外部インタフェース部942は、外部機器やネットワーク、メモリカード等と接続するためのインタフェースであり、記録する映像データや音声データ等のデータ受信を行う。
 エンコーダ943は、外部インタフェース部942から供給された映像データや音声データが符号化されていない場合所定の方式で符号化を行い、画像圧縮情報をセレクタ946に出力する。
 HDD部944は、映像や音声等のコンテンツデータ、各種プログラムやその他のデータ等を内蔵のハードディスクに記録し、また再生時等にそれらを当該ハードディスクから読み出す。
 ディスクドライブ945は、装着されている光ディスクに対する信号の記録および再生を行う。光ディスク、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)やBlu-rayディスク等である。
 セレクタ946は、映像や音声の記録時には、チューナ941またはエンコーダ943からのいずれかのストリームを選択して、HDD部944やディスクドライブ945のいずれかに供給する。また、セレクタ946は、映像や音声の再生時に、HDD部944またはディスクドライブ945から出力されたストリームをデコーダ947に供給する。
 デコーダ947は、ストリームの復号化処理を行う。デコーダ947は、復号処理化を行うことで生成された映像データをOSD部948に供給する。また、デコーダ947は、復号処理化を行うことで生成された音声データを出力する。
 OSD部948は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それをデコーダ947から出力された映像データに重畳して出力する。
 制御部949には、ユーザインタフェース部950が接続されている。ユーザインタフェース部950は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部949に供給する。
 制御部949は、CPUやメモリ等を用いて構成されている。メモリは、CPUで実行されるプログラムやCPUが処理を行う上で必要な各種のデータを記憶する。メモリに記憶されているプログラムは、記録再生装置94の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、記録再生装置94がユーザ操作に応じた動作となるように各部を制御する。
 このように構成された記録再生装置では、エンコーダ943に本願の画像処理装置(画像処理方法)の機能が設けられる。したがって、画像を記録媒体に記録する際に、符号化対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに基づいた動き境界に伴う非連続性の検出結果に応じて予測動きベクトル情報の生成が行われるので、動きベクトル符号化処理の効率を向上できる。また、画像符号化処理によって生成した画像圧縮情報の復号化を正しく行うことができる。
 図26は、本技術を適用した撮像装置の概略構成を例示している。撮像装置96は、被写体を撮像し、被写体の画像を表示部に表示させたり、それを画像データとして、記録媒体に記録する。
 撮像装置96は、光学ブロック961、撮像部962、カメラ信号処理部963、画像データ処理部964、表示部965、外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970を有している。また、制御部970には、ユーザインタフェース部971が接続されている。さらに、画像データ処理部964や外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970等は、バス972を介して接続されている。
 光学ブロック961は、フォーカスレンズや絞り機構等を用いて構成されている。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCDまたはCMOSイメージセンサを用いて構成されており、光電変換によって光学像に応じた電気信号を生成してカメラ信号処理部963に供給する。
 カメラ信号処理部963は、撮像部962から供給された電気信号に対してニー補正やガンマ補正、色補正等の種々のカメラ信号処理を行う。カメラ信号処理部963は、カメラ信号処理後の画像データを画像データ処理部964に供給する。
 画像データ処理部964は、カメラ信号処理部963から供給された画像データの符号化処理を行う。画像データ処理部964は、符号化処理を行うことで生成された画像圧縮情報を外部インタフェース部966やメディアドライブ968に供給する。また、画像データ処理部964は、外部インタフェース部966やメディアドライブ968から供給された画像圧縮情報の復号化処理を行う。画像データ処理部964は、復号化処理を行うことで生成された画像データを表示部965に供給する。また、画像データ処理部964は、カメラ信号処理部963から供給された画像データを表示部965に供給する処理や、OSD部969から取得した表示用データを、画像データに重畳させて表示部965に供給する。
 OSD部969は、記号、文字、または図形からなるメニュー画面やアイコンなどの表示用データを生成して画像データ処理部964に出力する。
 外部インタフェース部966は、例えば、USB入出力端子などで構成され、画像の印刷を行う場合に、プリンタと接続される。また、外部インタフェース部966には、必要に応じてドライブが接続され、磁気ディスク、光ディスク等のリムーバブルメディアが適宜装着され、それらから読み出されたプログラムが、必要に応じて、インストールされる。さらに、外部インタフェース部966は、LANやインターネット等の所定のネットワークに接続されるネットワークインタフェースを有する。制御部970は、例えば、ユーザインタフェース部971からの指示にしたがって、メモリ部967から画像圧縮情報を読み出し、それを外部インタフェース部966から、ネットワークを介して接続される他の装置に供給させることができる。また、制御部970は、ネットワークを介して他の装置から供給される画像圧縮情報や画像データを、外部インタフェース部966を介して取得し、それを画像データ処理部964に供給したりすることができる。
 メディアドライブ968で駆動される記録メディアとしては、例えば、磁気ディスク、光磁気ディスク、光ディスク、または半導体メモリ等の、読み書き可能な任意のリムーバブルメディアが用いられる。また、記録メディアは、リムーバブルメディアとしての種類も任意であり、テープデバイスであってもよいし、ディスクであってもよいし、メモリカードであってもよい。もちろん、非接触ICカード等であってもよい。
 また、メディアドライブ968と記録メディアを一体化し、例えば、内蔵型ハードディスクドライブやSSD(Solid State Drive)等のように、非可搬性の記憶媒体で構成されるようにしてもよい。
 制御部970は、CPUやメモリ等を用いて構成されている。メモリは、CPUで実行されるプログラムやCPUが処理を行う上で必要な各種のデータ等を記憶する。メモリに記憶されているプログラムは、撮像装置96の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、撮像装置96がユーザ操作に応じた動作となるように各部を制御する。
 このように構成された撮像装置では、画像データ処理部964に本願の画像処理装置(画像処理方法)の機能が設けられる。したがって、撮像画像をメモリ部967や記録メディア等に記録する際に、符号化対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに基づいた動き境界に伴う非連続性の検出結果に応じて予測動きベクトル情報の生成が行われるので、動きベクトル符号化処理の効率を向上できる。また、画像符号化処理によって生成した画像圧縮情報の復号化を正しく行うことができる。
 さらに、本技術は、上述した実施の形態に限定して解釈されるべきではない。この実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
 この技術の画像処理装置と画像処理方法およびプログラムでは、符号化または復号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する処理済みの隣接動き補償ブロックのブロックサイズに応じて、隣接動き補償ブロックからブロックの選択が行われる。また、選択されたブロックの動きベクトル情報を用いて、処理対象の動き補償ブロックに対する予測動きベクトル情報の生成が行われる。このため、処理対象の動き補償ブロックと隣接動き補償ブロックのブロックサイズに応じて適応的に隣接動き補償ブロックの動きベクトル情報が用いられて、予測動きベクトル情報が生成される。したがって、動き境界に伴う非連続性の検出結果に応じた予測動きベクトル情報の生成が可能となり、高い符号化効率を実現できることから、画像圧縮情報(ビットストリーム)を、衛星放送、ケーブルTV、インターネット、携帯電話などのネットワークメディアを介して送受信する際に、または光ディスク、磁気ディスク、フラッシュメモリのような記憶メディアを用いて画像の記録再生を行う装置等に適している。
 10・・・画像符号化装置、11・・・A/D変換部、12,57・・・画面並べ替えバッファ、13・・・減算部、14・・・直交変換部、15・・・量子化部、16・・・可逆量子化部、17,51・・・蓄積バッファ、18・・・レート制御部、21,53・・・逆量子化部、22,54・・・逆直交変換部、23,55・・・加算部、24,56・・・デブロッキングフィルタ、25,61・・・フレームメモリ、26,62,75・・・セレクタ、31,71・・・イントラ予測部、32・・・動き予測・補償部、33、73・・・ブロック選択処理部、34,74・・・予測動きベクトル情報生成部、35・・・予測画像・最適モード選択部、50・・・画像復号化装置、52・・・可逆復号化部、58・・・D/A変換部、72・・・動き補償部、80・・・コンピュータ装置、90・・・テレビジョン装置、92・・・携帯電話機、94・・・記録再生装置、96・・・撮像装置、321・・・動き探索部、322・・・コスト関数値算出部、323・・・モード判定部、324・・・動き補償処理部、325・・・動きベクトル・ブロックサイズ情報バッファ、341・・・隣接動きベクトル・ブロックサイズ情報バッファ、342,743・・・動きベクトル情報処理部、721・・・ブロックサイズ情報バッファ、722・・・差分動きベクトル情報バッファ、723・・・動きベクトル情報合成部、724・・・動き補償処理部、725・・・動きベクトル情報バッファ、741・・・一時ブロックサイズ情報バッファ、742・・・隣接動きベクトル情報バッファ

Claims (16)

  1.  階層構造で定義されている動き補償ブロックを用いた符号化または復号化を行う画像処理装置において、
     前記符号化または復号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する処理済みの隣接動き補償ブロックのブロックサイズに応じて、前記隣接動き補償ブロックからブロックの選択を行うブロック選択処理部と、
     前記処理対象の動き補償ブロックについての動きベクトル情報の符号化処理または復号化処理で用いる予測動きベクトル情報を、前記ブロック選択処理部で選択されたブロックの動きベクトル情報を用いて生成する予測動きベクトル情報生成部と
    を有する画像処理装置。
  2.  前記ブロック選択処理部は、前記処理対象の動き補償ブロックと同一階層のブロックサイズで符号化されている隣接動き補償ブロックのみを選択する請求項1記載の画像処理装置。
  3.  前記ブロック選択処理部は、メディアン予測に用いる空間方向の3つの隣接動き補償ブロックのうち、前記処理対象の動き補償ブロックに対して右上隣接動き補償ブロックが異なる階層のブロックサイズで符号化されている場合、前記右上隣接動き補償ブロックに代えて左上隣接動き補償ブロックを用いる請求項2記載の画像処理装置。
  4.  前記ブロック選択処理部は、前記3つの隣接動き補償ブロックが、全て前記処理対象の動き補償ブロックと同じ階層のブロックサイズで符号化されている場合、前記3つの隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記選択された3つの隣接動き補償ブロックの動きベクトル情報を用いてメディアン予測を行い、前記予測動きベクトル情報を生成する請求項3記載の画像処理装置。
  5.  前記ブロック選択処理部は、前記3つの隣接動き補償ブロックのうち、2ブロックが前記処理対象の動き補償ブロックと同じ階層のブロックサイズで符号化されている場合、同じ階層のブロックサイズである2つの隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記メディアン予測に換えて、前記選択された2つの隣接動き補償ブロックの動きベクトル情報が示す動きベクトルの平均値を予測動きベクトルとして前記予測動きベクトル情報を生成する請求項3記載の画像処理装置。
  6.  前記ブロック選択処理部は、前記3つの隣接動き補償ブロックのうち、2ブロックが前記処理対象の動き補償ブロックと同じ階層のブロックサイズで符号化されている場合、同じ階層のブロックサイズである2つの隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記メディアン予測に換えて、前記選択された2つの隣接動き補償ブロックの動きベクトル情報のいずれかか一方を選択して前記予測動きベクトル情報として、いずれかの隣接動き補償ブロックの動きベクトル情報を選択したかを識別可能とする識別情報を、前記予測動きベクトル情報と共に生成する請求項3記載の画像処理装置。
  7.  画像圧縮情報から前記識別情報を抽出する可逆復号化部を有し、
     前記ブロック選択処理部は、前記る3つの隣接動き補償ブロックのうち、2ブロックが前記処理対象の動き補償ブロックと同じ階層のブロックサイズで符号化されている場合、同じ階層のブロックサイズである2つの隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記選択された2つの隣接動き補償ブロックの動きベクトル情報から、前記抽出された識別情報に基づいて動きベクトル情報を選択して前記予測動きベクトル情報とする請求項6記載の画像処理装置。
  8.  前記ブロック選択処理部は、前記3つの隣接動き補償ブロックのうち、1ブロックが前記処理対象の動き補償ブロックと同じ階層のブロックサイズで符号化されている場合、同じ階層のブロックサイズである1つの隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記メディアン予測に換えて、前記選択された1つの隣接動き補償ブロックの動きベクトル情報を前記予測動きベクトル情報とする請求項3記載の画像処理装置。
  9.  前記ブロック選択処理部は、前記3つの隣接動き補償ブロックのうち、前記処理対象の動き補償ブロックと同じ階層のブロックサイズで符号化されている隣接動き補償ブロックがない場合、ブロックの選択を行わないとして、
     前記予測動きベクトル情報生成部は、前記隣接動き補償ブロックの選択が行われない場合、前記メディアン予測に換えて、ゼロベクトルを示す情報を前記予測動きベクトル情報とする請求項3記載の画像処理装置。
  10.  前記ブロック選択処理部は、前記処理対象の動き補償ブロックと同一階層のブロックサイズで符号化されている時間方向の隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記時間方向の隣接動き補償ブロックの動きベクトル情報を予測動きベクトル情報とする請求項2記載の画像処理装置。
  11.  前記ブロック選択処理部は、メディアン予測に用いる空間方向の隣接動き補償ブロックと前記時間方向の隣接動き補償ブロックから、前記処理対象の動き補償ブロックと同一階層のブロックサイズで符号化されている隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記空間方向の隣接動き補償ブロックの動きベクトル情報に基づいて生成した空間予測動きベクトル情報と、前記時間方向の隣接動き補償ブロックの動きベクトル情報である時間予測動きベクトル情報のいずれかか一方を選択して前記予測動きベクトル情報とする請求項10記載の画像処理装置。
  12.  前記予測動きベクトル情報生成部は、前記空間予測動きベクトル情報のみ生成することが可能である場合は前記空間予測動きベクトル情報を前記予測動きベクトル情報として、前記時間予測動きベクトル情報のみ生成することが可能である場合は前記時間予測動きベクトル情報を前記予測動きベクトル情報とする請求項11記載の画像処理装置。
  13.  前記予測動きベクトル情報生成部は、前記空間予測動きベクトル情報と前記時間予測動きベクトル情報を生成できない場合、ゼロベクトルを示す情報を前記予測動きベクトル情報とする請求項12記載の画像処理装置。
  14.  前記予測動きベクトル情報生成部は、前記空間予測動きベクトル情報と前記時間予測動きベクトル情報のいずれかを選択したかを識別可能とする識別情報を生成する請求項11記載の画像処理装置。
  15.  画像圧縮情報から前記識別情報を抽出する可逆復号化部を有し、
     前記ブロック選択処理部は、前記空間方向の隣接動き補償ブロックと前記時間方向の隣接動き補償ブロックから、前記処理対象の動き補償ブロックと同一階層のブロックサイズで符号化されている隣接動き補償ブロックを選択して、
     前記予測動きベクトル情報生成部は、前記抽出された識別情報で前記空間予測動きベクトル情報を選択したことが示されている場合、前記空間方向の隣接動き補償ブロックの動きベクトル情報に基づいて生成した空間予測動きベクトル情報を前記予測動きベクトル情報として、前記抽出された識別情報で前記時間予測動きベクトル情報を選択したことが示されている場合、前記時間方向の隣接動き補償ブロックの動きベクトル情報を前記予測動きベクトル情報とする請求項14記載の画像処理装置。
  16.  画像処理装置において、階層構造で定義されている動き補償ブロックを用いた符号化または復号化を行う画像処理方法であって、
     前記符号化または復号化を行う処理対象の動き補償ブロックのブロックサイズと、該動き補償ブロックに対して隣接する処理済みの隣接動き補償ブロックのブロックサイズに応じて、前記隣接動き補償ブロックからブロックの選択を行う工程と、
     前記処理対象の動き補償ブロックについての動きベクトル情報の符号化処理または復号化処理で用いる予測動きベクトル情報を、前記選択されたブロックの動きベクトル情報を用いて生成する工程と
    を有する画像処理方法。
PCT/JP2011/073809 2010-10-25 2011-10-17 画像処理装置と画像処理方法 WO2012056924A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2011800502981A CN103168471A (zh) 2010-10-25 2011-10-17 图像处理装置和图像处理方法
US13/880,256 US20130208805A1 (en) 2010-10-25 2011-10-17 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010238351A JP2012094959A (ja) 2010-10-25 2010-10-25 画像処理装置と画像処理方法およびプログラム
JP2010-238351 2010-10-25

Publications (1)

Publication Number Publication Date
WO2012056924A1 true WO2012056924A1 (ja) 2012-05-03

Family

ID=45993639

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/073809 WO2012056924A1 (ja) 2010-10-25 2011-10-17 画像処理装置と画像処理方法

Country Status (4)

Country Link
US (1) US20130208805A1 (ja)
JP (1) JP2012094959A (ja)
CN (1) CN103168471A (ja)
WO (1) WO2012056924A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012120822A1 (en) * 2011-03-09 2012-09-13 Canon Kabushiki Kaisha Image coding apparatus, method for coding image, program therefor, image decoding apparatus, method for decoding image, and program therefor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6528765B2 (ja) * 2014-03-28 2019-06-12 ソニー株式会社 画像復号装置および方法
CN117201781A (zh) 2015-10-16 2023-12-08 中兴通讯股份有限公司 编码处理、解码处理方法及装置、存储介质
US11616970B1 (en) * 2022-01-25 2023-03-28 Mediatek Inc. Motion vector refinement apparatus having motion vector predictor derivation circuit that is allowed to start new task without waiting for motion vector difference computation and associated motion vector refinement method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251601A (ja) * 1994-10-10 1996-09-27 Thomson Multimedia Sa 動きベクトルを符号化又は復号化する方法及び装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
WO2010064396A1 (ja) * 2008-12-03 2010-06-10 株式会社日立製作所 動画像復号化方法および動画像符号化方法
JP2011091696A (ja) * 2009-10-23 2011-05-06 Victor Co Of Japan Ltd 動きベクトル予測方法
JP2011259204A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像復号化装置と画像符号装置およびその方法とプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100774296B1 (ko) * 2002-07-16 2007-11-08 삼성전자주식회사 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치
JP4841101B2 (ja) * 2002-12-02 2011-12-21 ソニー株式会社 動き予測補償方法及び動き予測補償装置
JP4179548B2 (ja) * 2003-09-24 2008-11-12 Kddi株式会社 動きベクトル検出装置
KR101182977B1 (ko) * 2004-06-29 2012-09-18 소니 주식회사 움직임 예측 보상 방법 및 움직임 예측 보상 장치
KR100588132B1 (ko) * 2004-10-04 2006-06-09 삼성전자주식회사 디스플레이장치
JP2006333436A (ja) * 2005-01-07 2006-12-07 Ntt Docomo Inc 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム
KR100723403B1 (ko) * 2005-02-28 2007-05-30 삼성전자주식회사 컬러 성분간 단일 부호화 모드를 이용한 예측영상 생성 방법 및 장치와, 그를 이용한 영상 및 비디오 부호화/복호화방법 및 장치
US20070268964A1 (en) * 2006-05-22 2007-11-22 Microsoft Corporation Unit co-location-based motion estimation
US7573407B2 (en) * 2006-11-14 2009-08-11 Qualcomm Incorporated Memory efficient adaptive block coding
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
FR2945698B1 (fr) * 2009-05-18 2017-12-22 Canon Kk Procede et dispositif de codage d'une sequence video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251601A (ja) * 1994-10-10 1996-09-27 Thomson Multimedia Sa 動きベクトルを符号化又は復号化する方法及び装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
WO2010064396A1 (ja) * 2008-12-03 2010-06-10 株式会社日立製作所 動画像復号化方法および動画像符号化方法
JP2011091696A (ja) * 2009-10-23 2011-05-06 Victor Co Of Japan Ltd 動きベクトル予測方法
JP2011259204A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像復号化装置と画像符号装置およびその方法とプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012120822A1 (en) * 2011-03-09 2012-09-13 Canon Kabushiki Kaisha Image coding apparatus, method for coding image, program therefor, image decoding apparatus, method for decoding image, and program therefor
US9832460B2 (en) 2011-03-09 2017-11-28 Canon Kabushiki Kaisha Image coding apparatus, method for coding image, program therefor, image decoding apparatus, method for decoding image, and program therefor

Also Published As

Publication number Publication date
JP2012094959A (ja) 2012-05-17
US20130208805A1 (en) 2013-08-15
CN103168471A (zh) 2013-06-19

Similar Documents

Publication Publication Date Title
JP6477939B2 (ja) テレビジョン装置、携帯電話機、再生装置、カメラ、および画像処理方法
WO2012017858A1 (ja) 画像処理装置と画像処理方法
WO2011155364A1 (ja) 画像復号化装置と画像符号化装置およびその方法とプログラム
WO2010035734A1 (ja) 画像処理装置および方法
WO2011024685A1 (ja) 画像処理装置および方法
WO2010095559A1 (ja) 画像処理装置および方法
WO2012063878A1 (ja) 画像処理装置と画像処理方法
WO2011086964A1 (ja) 画像処理装置および方法、並びにプログラム
JPWO2010101064A1 (ja) 画像処理装置および方法
WO2012063604A1 (ja) 画像処理装置と画像処理方法
JP2011151683A (ja) 画像処理装置および方法
US20120288004A1 (en) Image processing apparatus and image processing method
JP2013150164A (ja) 符号化装置および符号化方法、並びに、復号装置および復号方法
WO2012056924A1 (ja) 画像処理装置と画像処理方法
WO2010035735A1 (ja) 画像処理装置および方法
JP5387520B2 (ja) 情報処理装置と情報処理方法
WO2012077533A1 (ja) 画像復号化装置と動きベクトル復号化方法、画像符号化装置と動きベクトル符号化方法
WO2011125625A1 (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11836060

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13880256

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11836060

Country of ref document: EP

Kind code of ref document: A1