WO2011049119A1 - 動画像符号化装置、動画像復号装置、動画像符号化・復号システム、動画像符号化方法および動画像復号方法 - Google Patents

動画像符号化装置、動画像復号装置、動画像符号化・復号システム、動画像符号化方法および動画像復号方法 Download PDF

Info

Publication number
WO2011049119A1
WO2011049119A1 PCT/JP2010/068461 JP2010068461W WO2011049119A1 WO 2011049119 A1 WO2011049119 A1 WO 2011049119A1 JP 2010068461 W JP2010068461 W JP 2010068461W WO 2011049119 A1 WO2011049119 A1 WO 2011049119A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
transform
conversion
target region
Prior art date
Application number
PCT/JP2010/068461
Other languages
English (en)
French (fr)
Inventor
将伸 八杉
堅田 裕之
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=43900343&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2011049119(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to BR112012009142-5A priority Critical patent/BR112012009142B1/pt
Priority to CN201080046815.3A priority patent/CN102577393B/zh
Priority to EP10824968.1A priority patent/EP2493198B1/en
Priority to MX2012004501A priority patent/MX2012004501A/es
Priority to JP2011537276A priority patent/JP5562346B2/ja
Priority to US13/502,685 priority patent/US20120213278A1/en
Priority to EA201270474A priority patent/EA027182B1/ru
Publication of WO2011049119A1 publication Critical patent/WO2011049119A1/ja
Priority to US16/698,522 priority patent/US11070802B2/en
Priority to US17/348,548 priority patent/US20210314568A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to a video encoding device, a video decoding device, a video encoding / decoding system, a video encoding method, and a video decoding method.
  • This application claims priority based on Japanese Patent Application No. 2009-241904 filed in Japan on October 20, 2009 and Japanese Patent Application No. 2009-259856 filed on November 13, 2009 in Japan, The contents are incorporated here.
  • a moving image coding apparatus is an input to be coded.
  • a moving image is divided into predetermined processing units called macro blocks (MB), and encoded processing is performed for each macro block to generate encoded data.
  • the moving image decoding apparatus When playing back a moving image, the moving image decoding apparatus generates a decoded image by processing and decoding the encoded data to be decoded in units of macroblocks.
  • a moving picture coding apparatus In the moving picture coding method stipulated in H.264 / AVC, a moving picture coding apparatus generates a predicted image that approximates an input moving image divided in units of macroblocks, and is a difference between the input moving image and the predicted image. Calculate the prediction residual. Furthermore, the moving image encoding apparatus generates a transform coefficient by applying a frequency transform represented by a discrete cosine transform (DCT) to the calculated prediction residual.
  • DCT discrete cosine transform
  • the moving image coding apparatus performs variable length coding on the generated transform coefficient by a method called CABAC (Context-based Adaptive Binary Arithmetic Coding) or CAVLC (Context-based Adaptive Variable Length Coding).
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • CAVLC Context-based Adaptive Variable Length Coding
  • the predicted image is generated by intra prediction using the spatial correlation of the moving image or inter prediction (motion compensation prediction) using the temporal
  • the moving image encoding apparatus In the H.264 / AVC inter prediction, the moving image encoding apparatus generates an image that approximates an input moving image for each partition that is an area obtained by dividing a macroblock, and combines the generated images to generate a macro to be encoded. A predicted image approximating the input moving image of the block is generated. Specifically, the moving image encoding apparatus first divides a macroblock of an input moving image into partitions. Then, the moving image encoding apparatus selects one image for each partition from images called locally decoded images recorded in the frame memory, and determines an area that approximates the partition in the selected image. This image selected from the locally decoded images is called a reference image. The area that approximates the partition is the same size as the original partition.
  • the moving image encoding apparatus generates one or two motion vectors for each partition indicating the difference between the position of the partition in the macro block of the input moving image and the position of the region in the reference image that approximates the partition. .
  • the moving image encoding apparatus generates a prediction image by combining images that approximate each partition.
  • H. In H.264 / AVC 16 horizontal pixels ⁇ 16 vertical pixels, 16 horizontal pixels ⁇ 8 vertical pixels, 8 horizontal pixels ⁇ 16 vertical pixels, 8 horizontal pixels ⁇ 8 vertical pixels, 8 horizontal pixels ⁇ 4 vertical pixels, 4 horizontal pixels ⁇ vertical
  • a partition size of 8 pixels, 4 horizontal pixels ⁇ 4 vertical pixels is defined. If a small partition size is used, a prediction image can be generated by specifying a motion vector in a fine unit.
  • a moving picture coding apparatus may reduce spatial or temporal redundancy of pixel values of an input moving picture by generating a prediction residual that is a difference between the input moving picture and a predicted picture.
  • the amount of code can be reduced.
  • energy can be concentrated on the low frequency component by applying discrete cosine transform to the prediction residual. Using this energy bias, low frequency components that are easy for the human eye to sense are encoded with a fine granularity, and high frequency components that are difficult for the human eye to detect are encoded with a coarse granularity to reduce the amount of encoded data. Can be reduced.
  • a method (block adaptive transform selection) is employed that selects a discrete cosine transform suitable for the local properties of a moving image from discrete cosine transforms of a plurality of transform sizes. For example, when a predicted image is generated by inter prediction, a discrete cosine transform to be applied to a prediction residual transform is selected from two types of discrete cosine transforms of 8 ⁇ 8 DCT and 4 ⁇ 4 DCT.
  • 8 ⁇ 8 DCT is a transform that performs discrete cosine transform on a region of horizontal 8 pixels ⁇ vertical 8 pixels
  • 4 ⁇ 4 DCT is a transform that performs discrete cosine transform on a region of horizontal 4 pixels ⁇ vertical 4 pixels. Since 8 ⁇ 8 DCT can use the spatial correlation of pixel values in a wide range, it is effective for a flat region with relatively few high-frequency components. On the other hand, the 4 ⁇ 4 DCT is effective in a region with a lot of high frequency components including the contour of the object. H. In H.264 / AVC, when the partition area is 8 ⁇ 8 pixels or more, either 8 ⁇ 8 DCT or 4 ⁇ 4 DCT can be selected.
  • the code amount of encoded data is reduced by selecting a suitable partition size and transform size according to the spatial correlation of pixel values and the spatial correlation of motion vectors, which are local characteristics of moving images. it can.
  • H.M. In H.264 / AVC frequency conversion can be adaptively selected for each partition from two sizes of 8 ⁇ 8 DCT and 4 ⁇ 4 DCT. Thereby, encoding efficiency can be improved using the spatial correlation in a partition.
  • H. in a conventional moving picture coding technique such as H.264 / AVC, the spatial correlation between regions determined as a frequency conversion target, in particular, the spatial correlation between partitions is not reflected in the coding efficiency. For this reason, there is a problem that the encoding efficiency cannot be improved even when a plurality of areas adjacent to each other across the partition boundary have a high spatial correlation.
  • the coding efficiency can be further improved by performing frequency conversion by integrating the regions.
  • the frequency conversion frequency is limited to two sizes of 8 ⁇ 8 DCT and 4 ⁇ 4 DCT.
  • whether to apply the frequency transform of the size of 8 ⁇ 8 DCT or 4 ⁇ 4 DCT is determined by evaluating the rate distortion cost as a result of actually executing the frequency transform, and the amount of encoding calculation processing There has been a problem that increases.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a moving picture coding apparatus and a moving picture decoding that can improve coding efficiency when adjacent areas have high spatial correlation.
  • An apparatus, a moving image encoding / decoding system, a moving image encoding method, and a moving image decoding method are provided.
  • a moving image encoding apparatus includes an image input unit that divides a frame of an input moving image into units of macroblocks, A partition structure determining unit that further divides the macroblock into partitions; a frequency transform region dividing unit that divides the macroblock into transform target regions including regions where at least one transform target region crosses the partition; and the frequency transform region A transform coefficient generation unit that generates a transform coefficient by applying frequency transform to each of the transform target regions divided by the partition unit; and an encoded data output unit that outputs encoded data obtained by losslessly encoding the transform coefficient. It is characterized by comprising. Since this moving image encoding apparatus applies frequency conversion to a conversion target region across partitions, it is possible to improve encoding efficiency when a plurality of regions adjacent to each other across a partition boundary have high spatial correlation.
  • the moving image encoding device includes a local decoded image storage unit that stores a local decoded image that is a decoded image of the macroblock for which a transform coefficient has been generated, and the local decoded image storage unit A reference image is selected for each partition from among the locally decoded images stored by the prediction image generation unit that generates a prediction image based on the selected reference image, and each pixel value of the prediction image and the macroblock A prediction residual generation unit that generates a prediction residual that is a difference.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform area dividing unit is a transform target area corresponding to a frequency transform applied to each partition.
  • the frequency transform area dividing unit is a transform target area corresponding to a frequency transform applied to each partition.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform area dividing unit generates transform integration information indicating transform target areas across the partitions.
  • the encoded data output unit includes the converted integrated information in the encoded data and outputs the encoded integrated data. Since this moving image encoding apparatus outputs the conversion integration information, the moving image decoding apparatus can generate a decoded moving image based on the output conversion integration information.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform region dividing unit includes a space of the prediction residual in a transform target region across the partitions. Whether or not the correlation is high is determined based on a feature amount of a region image corresponding to the conversion target region on the predicted image. Since this moving image encoding apparatus determines whether or not the spatial correlation of the prediction residual in the conversion target region across the partitions is high based on the feature amount of the region image corresponding to the conversion target region on the prediction image. By applying one frequency transform to a transform target region that is determined to have a high spatial correlation, it is possible to improve the coding efficiency when a plurality of regions adjacent to each other across a partition boundary have a high spatial correlation.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform region dividing unit includes a space of the prediction residual in a transform target region across the partitions. Determining whether or not the correlation is high based on a difference between pixel values of pixels adjacent to each other and belonging to different partitions among the pixels in the region corresponding to the conversion target region on the predicted image.
  • this moving image encoding device determines whether or not the spatial correlation of the prediction residual in the conversion target region across the partitions is high based on the pixel value of the prediction image, the conversion target region determined to have high spatial correlation
  • the same determination can be made in the moving image decoding apparatus, and the moving image encoding apparatus is integrated with the moving image decoding apparatus. Data transmission in the conversion target area can be omitted. Therefore, the code amount of transmission data can be reduced.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform region dividing unit includes a space of the prediction residual in a transform target region across the partitions. Whether the correlation is high indicates whether the prediction mode in the region corresponding to the conversion target region is equal on the prediction image, whether the prediction mode is equal to a specific prediction mode, or not. It is characterized by determining based on one or more of the similarity of the prediction direction and whether or not the reference pixel in the region corresponding to one conversion target region is included in the region corresponding to the other conversion target region To do.
  • This moving image encoding apparatus corresponds to whether or not the prediction mode is equal, whether or not the prediction mode is equal to a specific prediction mode, the similarity in the prediction direction indicated by the prediction mode, and one transformation target region. Based on one or more of whether or not the reference pixel in the region is included in the region corresponding to the other conversion target region, it is determined whether or not the spatial correlation of the prediction residual in the conversion target region across the partitions is high Therefore, by applying one frequency transform to the transform target region determined to have a high spatial correlation, it is possible to improve the encoding efficiency when a plurality of regions adjacent to each other across the partition boundary have a high spatial correlation. .
  • the same determination can be made in the video decoding device, and the video encoding device is integrated with the video decoding device. Data transmission in the conversion target area can be omitted. Therefore, the code amount of transmission data can be reduced.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform domain dividing unit is a transform included in the partitions adjacent to each other and different from each other. Whether or not the spatial correlation of the prediction residual in the region where the target region is integrated is high, whether or not the selected reference image is the same for each of the two partitions including the integrated region, The determination is made based on one or more of the difference between the magnitudes of the motion vectors of the two partitions including the integrated region and the ratio of the magnitudes of the motion vectors.
  • this moving image encoding apparatus determines whether or not the spatial correlation of the prediction residual in the region obtained by integrating the conversion target regions included in different partitions is high using the identity and motion vector of the reference image, By applying one frequency transform to a transform target region determined to have a high spatial correlation, it is possible to improve coding efficiency when a plurality of regions adjacent to each other across a partition boundary have a high spatial correlation.
  • the same determination is also performed in the video decoding device that has received the output of the reference image information and the motion vector.
  • the data transmission of the conversion target area integrated by the moving image encoding device with respect to the moving image decoding device can be omitted. Therefore, the code amount of transmission data can be reduced.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform domain division unit is included in the transforms adjacent to each other and different from each other. It is obtained by applying frequency transform to each of the transform target regions that are adjacent to each other and included in different partitions, whether or not the spatial correlation of the prediction residual in the region where the target regions are integrated is high. The determination is made based on a conversion coefficient, or based on a result of comparing either or both of a code amount and a rate distortion cost when the conversion target areas are integrated and not integrated.
  • This moving image encoding apparatus is based on a result of comparing either or both of a transform coefficient of a region for determining whether to integrate or a code amount and a rate distortion cost in the case of integration and in the case of not integration. Since it is determined whether or not the spatial correlation of the prediction residual is high in a region where the conversion target regions included in different partitions are integrated, one frequency conversion is applied to the conversion target region determined to have a high spatial correlation. Thus, it is possible to improve the encoding efficiency when a plurality of areas adjacent to each other across the partition boundary have a high spatial correlation.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform area dividing unit includes a structure of transform target areas in each macroblock and each transform target area.
  • the integrated conversion selection information indicating the frequency conversion to be applied to is generated, and the encoded data output unit outputs the integrated conversion selection information included in the encoded data.
  • This moving image encoding apparatus generates integrated conversion selection information.
  • the moving image decoding apparatus can generate a decoded moving image based on the output integrated conversion selection information.
  • a moving picture encoding apparatus is the moving picture encoding apparatus described above, wherein the frequency transform region dividing unit divides the macroblock for each region to which frequency transform is applied. Selecting a partition pattern to be applied to a macroblock from a set of partition patterns, wherein one of the regions to which the frequency transform is applied includes a partition pattern that crosses the partition. It divides
  • a video encoding device is the video encoding device described above, wherein the encoded data output unit is information indicating a division pattern selected by the frequency transform region division unit. Is included in the encoded data and output. Since this moving image encoding apparatus outputs information indicating the division pattern, the moving image decoding apparatus can generate a decoded moving image based on the output division pattern.
  • the moving picture encoding device includes an image input unit that divides a frame of an input moving picture into units of macroblocks, a partition structure determination unit that further divides the macroblocks into partitions, A frequency at which the macroblock is divided into transformation target regions that are regions to which frequency transformation is applied, and based on an index indicating spatial correlation, at least one of the neighboring transformation target regions is integrated to generate a new transformation target region.
  • an encoded data output unit for outputting. Since this moving image encoding apparatus uses one region to be converted from adjacent regions to be converted based on an index indicating spatial correlation as one of the regions to be converted, the encoding efficiency can be improved.
  • a moving picture coding apparatus is the above-described moving picture coding apparatus, and stores a local decoded image that is a decoded image of the macroblock for which a transform coefficient has been generated.
  • the moving picture encoding apparatus is the moving picture encoding apparatus described above, and the index indicating the spatial correlation is within an area corresponding to the conversion target area on the predicted image. Of these pixels, the determination is made based on the difference in pixel values of pixels adjacent to each other.
  • the moving image encoding device is configured to convert the adjacent conversion target regions on the prediction image based on a difference between pixel values of pixels adjacent to each other among pixels in the regions corresponding to the adjacent conversion target regions. Therefore, the coding efficiency can be improved by integrating regions determined to have high spatial correlation and applying one frequency transform to the integrated region.
  • a video encoding device is the video encoding device described above, and the index indicating the spatial correlation is in a region corresponding to the conversion target region on the prediction image.
  • the prediction mode indicates whether or not the prediction modes in the regions corresponding to the mutually adjacent conversion target regions on the prediction image are equal, and whether or not the prediction mode is equal to the specific prediction mode.
  • the conversion target region is Since the integration is performed, it is possible to improve the coding efficiency by integrating regions determined to have high spatial correlation and applying one frequency transform to the integrated region.
  • a moving picture coding apparatus is the moving picture coding apparatus described above, wherein the frequency transform region dividing unit is based on the index indicating the spatial correlation and is adjacent to each other. Conversion integrated information indicating a new conversion target area generated by integrating the areas is generated, and the encoded data output unit outputs the encoded integrated data by including the conversion integrated information. Since this moving image encoding apparatus outputs the conversion integrated information, the moving image decoding apparatus can perform inverse frequency conversion based on this conversion integrated information.
  • a video decoding device includes a lossless code decoding unit that performs lossless code decoding and division into macroblocks for encoded data obtained by encoding a video, A locally decoded image obtained by applying an inverse frequency transform corresponding to a transformation target region for each transformation target region including a transformation target region in which at least one transformation target region crosses the partition, which is a transformation target region obtained by dividing a macroblock And a moving image output unit that generates and outputs a moving image by combining the local decoded images. Since this moving image decoding apparatus generates a local decoded image by applying inverse frequency transform to a conversion target region across partitions, even when the moving image encoding device integrates regions included in different partitions, decoding is performed. A moving image can be generated.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, and stores a locally decoded image that stores a locally decoded image that is an image obtained by decoding the encoded data in units of macroblocks.
  • a reference image is selected from the local decoded image stored in the local decoded image storage unit for each partition obtained by further dividing the macroblock and the prediction block is generated based on the selected reference image
  • a prediction residual reconstruction unit that generates a prediction residual by applying an inverse frequency transform corresponding to the conversion target region for each of the conversion target regions, and the local decoded image generation unit includes:
  • a local decoded image is generated by adding the prediction residual for each pixel.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the encoded data includes conversion integrated information indicating a conversion target area across the partition, and
  • the moving picture decoding apparatus further includes a conversion target region determination unit that determines the conversion target region based on the conversion integration information, and the prediction residual reconstruction unit includes the conversion target determined by the conversion target region determination unit.
  • the prediction residual is generated by applying an inverse frequency transform for each region. Since this video decoding device applies inverse frequency transform based on the transform integration information included in the encoded data, even when the video encoding device integrates regions included in different partitions, the decoded video Can be generated.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, and a conversion target area that determines a conversion target area across the partition based on an index indicating a spatial correlation of the area.
  • the prediction residual reconstruction unit further includes a determination unit, and applies the inverse frequency transform to each conversion target region determined by the conversion target region determination unit to generate the prediction residual.
  • the conversion target region determination unit determines a conversion target region across partitions based on an index indicating the spatial correlation of the region, regions in which the video encoding devices are included in different partitions Even when these are integrated, a decoded moving image can be generated.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the conversion target area determination unit includes pixels that are adjacent to each other and belong to different partitions in the target area. The difference between the pixel values on the predicted image corresponding to is used as an index indicating the spatial correlation.
  • the conversion target region determining unit calculates a difference between pixel values on a predicted image corresponding to each pixel adjacent to each other in the target region and belonging to a different partition, and calculates a spatial correlation of the target region. It is an indicator to show.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the conversion target area determination unit is adjacent to each other in the target area and belongs to a different partition.
  • the prediction image corresponding to the region whether the prediction mode in the conversion target region is equal, whether the prediction mode is equal to a specific prediction mode, the similarity of the prediction direction indicated by the prediction mode, One or more of whether or not the reference pixel in the region corresponding to the conversion target region is included in the region corresponding to the other conversion target region is used as an index indicating the spatial correlation.
  • the conversion target region determination unit determines whether or not the prediction modes in the conversion target region are the same on the prediction images corresponding to the pixels adjacent to each other and belonging to different partitions in the target region. , Whether the prediction mode is equal to a specific prediction mode, the similarity in the prediction direction indicated by the prediction mode, and the reference pixel in the region corresponding to one conversion target region is included in the region corresponding to the other conversion target region.
  • One or a plurality of whether or not to be used is an index indicating the spatial correlation of the target region.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the conversion target area determination unit is selected for each of two partitions including the target area.
  • An index indicating the spatial correlation is any one of whether the reference images are the same, the difference in the magnitudes of the motion vectors of the two partitions including the target area, and the ratio of the magnitudes of the motion vectors It is characterized by.
  • the conversion target region determination unit determines whether the selected reference image is the same for each of the two partitions including the target region, and the two partitions including the target region.
  • One of the difference between the magnitudes of the motion vectors and the ratio of the magnitudes of the motion vectors is used as an index indicating the spatial correlation of the target area.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, and the moving picture encoding apparatus that generated the encoded data applies frequency conversion to the encoded data.
  • Integrated conversion selection information indicating the configuration of the conversion target area in the macroblock is included, and the prediction residual reconstruction unit applies inverse frequency conversion to each conversion target area indicated by the integrated conversion selection information. Then, the prediction residual is generated. Since this moving picture decoding apparatus applies inverse frequency transform based on the integrated transformation selection information, even when the moving picture coding apparatus integrates regions included in different partitions, it can generate a decoded moving picture. Can do.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the prediction residual reconstruction unit divides the macroblock for each region to which frequency transform is applied.
  • a moving picture coding that generates a coded pattern of a division pattern to be applied to a macroblock from a set including a division pattern in which any one of the regions to which the frequency transform is applied crosses the partition. The selection is performed based on the same standard as the apparatus, and inverse frequency transform is applied to the macroblock based on the selected division pattern. Since this moving picture decoding apparatus applies inverse frequency transform based on the division pattern, a decoded moving picture can be generated even when the moving picture coding apparatus integrates regions included in different partitions.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, and the encoded data includes the moving picture encoding apparatus that has generated the encoded data as the macroblock. Information indicating an applied division pattern is included, and the prediction residual reconstruction unit sets the division pattern indicated by the information included in the encoded data as a division pattern to be applied to the processing target macroblock. And Since this moving image decoding apparatus applies inverse frequency transform based on the division pattern included in the input data, even when the moving image encoding apparatus integrates regions included in different partitions, a decoded moving image is generated. can do.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the predicted image reconstructing unit is based on a configuration of the partition and the macro block in the macro block. Then, a division pattern to be applied to the macroblock is selected from the set of division patterns. Since this moving image decoding apparatus applies inverse frequency transform based on the division pattern selected by the predicted image reconstructing unit, even when the moving image encoding apparatus integrates regions included in different partitions, the decoded moving image is decoded. An image can be generated.
  • a moving picture decoding apparatus includes a lossless code decoding unit that performs lossless code decoding and division into macroblocks for coded data obtained by coding a moving picture, A conversion target area obtained by dividing a macroblock, and an inverse frequency transform corresponding to the conversion target area is applied to each conversion target area including at least one integrated conversion target area based on an index indicating spatial correlation.
  • a local decoded image generation unit that generates the local decoded image; and a moving image output unit that generates and outputs a moving image by combining the local decoded images. Since this moving image decoding device generates a local decoded image by applying inverse frequency transform to the integrated transformation target region, even when the moving image encoding device integrates the region, it generates a decoded moving image. Can do.
  • a moving image decoding apparatus is the above-described moving image decoding apparatus, and stores a locally decoded image storage that stores a locally decoded image that is an image obtained by decoding the encoded data in units of macroblocks.
  • a reference image is selected from the local decoded image stored in the local decoded image storage unit for each partition obtained by further dividing the macroblock and the prediction block is generated based on the selected reference image
  • a prediction residual reconstruction unit that generates a prediction residual by applying an inverse frequency transform corresponding to the conversion target region for each of the conversion target regions, and the local decoded image generation unit includes:
  • a local decoded image is generated by adding the prediction residual for each pixel.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the encoded data includes a conversion indicating a conversion target region integrated based on an index indicating a spatial correlation.
  • the video decoding apparatus further includes a conversion target region determination unit that determines the conversion target region based on the conversion integrated information, and the prediction residual reconstruction unit includes the conversion target region The prediction residual is generated by applying inverse frequency transform for each transform target region determined by the determination unit.
  • the conversion target region determination unit determines a conversion target region based on the conversion integration information, and thus generates a decoded moving image even when the moving image encoding device integrates the regions. Can do.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, and determines a conversion target area that determines an integrated conversion target area based on an index indicating a spatial correlation of the area.
  • the prediction residual reconstruction unit generates the prediction residual by applying inverse frequency transform to each transform target region determined by the transform target region determining unit.
  • the video encoding device integrates the regions and does not output the conversion integration information In addition, a decoded moving image can be generated.
  • the moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the conversion target area determination unit is configured to perform the above processing on the predicted picture corresponding to each pixel adjacent to each other in the target area.
  • the difference between the pixel values is used as an index indicating the spatial correlation.
  • the moving image decoding apparatus uses the difference between pixel values on predicted images corresponding to pixels adjacent to each other in conversion target areas adjacent to each other as an index indicating spatial correlation, so that the moving image encoding apparatus The decoding moving image can be generated even when the images are integrated and the conversion integrated information is not output.
  • a moving picture decoding apparatus is the moving picture decoding apparatus described above, wherein the conversion target area determination unit includes the prediction images corresponding to conversion target areas adjacent to each other in the target area. Above, whether the prediction mode in the conversion target region is equal, whether the prediction mode is equal to a specific prediction mode, the similarity in the prediction direction indicated by the prediction mode, and the region corresponding to one conversion target region One or a plurality of whether or not the reference pixel is included in an area corresponding to the other conversion target area is used as an index indicating the spatial correlation.
  • This moving image decoding apparatus determines whether or not the prediction mode in the conversion target region is equal on the prediction images corresponding to the conversion target regions adjacent to each other in the target region, and whether or not the prediction mode is equal to the specific prediction mode. And / or the similarity of the prediction direction indicated by the prediction mode and whether or not the reference pixel in the region corresponding to one conversion target region is included in the region corresponding to the other conversion target region, By using the index indicating the correlation, it is possible to generate a decoded moving image even when the moving image encoding apparatus integrates the regions and does not output the conversion integration information.
  • a moving image encoding / decoding system includes a moving image encoding device that receives input of a moving image and outputs encoded data, and a code output by the moving image encoding device.
  • a moving image encoding / decoding system including a moving image decoding apparatus that decodes encoded data to generate a moving image, wherein the moving image encoding apparatus divides a frame of an input moving image into units of macroblocks An image input unit, a partition structure determining unit that further divides the macroblock into partitions, and a frequency transform region dividing unit that divides the macroblock into transform target regions including regions where at least one transform target region crosses the partition And a transform coefficient generating unit that generates a transform coefficient by applying frequency transform to each of the conversion target regions divided by the frequency transform region dividing unit, An encoded data output unit that outputs encoded data obtained by reversibly encoding the conversion coefficient, and the video decoding device decodes the lossless code and divides the encoded data into
  • a conversion target area obtained by dividing the macroblock, and at least one conversion target area including a conversion target area that crosses the partition, according to the conversion target area A local decoded image generation unit that generates a local decoded image to which the inverse frequency transform is applied, and a moving image output unit that generates and outputs a moving image by combining the local decoded images.
  • the moving image encoding apparatus applies frequency conversion to regions that cross partitions, and therefore, when multiple regions adjacent to each other across a partition boundary have high spatial correlation, encoding efficiency is improved. Can be improved.
  • the video decoding device since the video decoding device applies inverse frequency transform based on information indicating a region across the partition to which the video coding device has applied the frequency transform, the video coding device includes regions included in different partitions. Even when these are integrated, a decoded moving image can be generated.
  • a moving image encoding / decoding system includes a moving image encoding device that receives input of a moving image and outputs encoded data, and a code output by the moving image encoding device.
  • a moving image encoding / decoding system including a moving image decoding apparatus that decodes encoded data to generate a moving image, wherein the moving image encoding apparatus divides a frame of an input moving image into units of macroblocks An image input unit, a partition structure determining unit that further divides the macroblock into partitions, and the macroblock is divided into transform target regions that are regions to which frequency transform is applied, and adjacent to each other based on an index indicating spatial correlation
  • a frequency transform region dividing unit that integrates at least one transform target region to generate a new transform target region, and a transform pair divided by the frequency transform region dividing unit
  • a transform coefficient generating unit that generates a transform coefficient by applying frequency transform to each of the regions; and an encoded data output unit that outputs encoded data obtained by losslessly
  • An apparatus includes: a lossless code decoding unit that performs lossless code decoding and division into macroblocks for encoded data obtained by encoding a moving image; and a conversion target area obtained by dividing the macroblock, and includes spatial correlation
  • a local decoded image generation unit that generates a local decoded image to which the inverse frequency transform according to the conversion target region is applied for each conversion target region including at least one integrated conversion target region based on the index indicating
  • a moving image output unit configured to generate and output a moving image by combining the locally decoded images.
  • the moving image encoding apparatus applies frequency transform to adjacent regions, so that when a plurality of adjacent regions have high spatial correlation, the encoding efficiency can be improved. it can.
  • the moving image decoding apparatus since the moving image decoding apparatus applies inverse frequency transform based on information indicating adjacent areas to which the moving image encoding apparatus applied frequency conversion, the moving image encoding apparatus integrates adjacent areas. Even in this case, a decoded moving image can be generated.
  • the moving picture encoding apparatus divides the frame of the input moving picture into macroblock units, and the moving picture encoding apparatus includes: A partition structure determination step for further dividing the macroblock into partitions, and the video encoding apparatus divides the macroblock into conversion target regions including a region where at least one conversion target region crosses the partition.
  • An encoding device that outputs encoded data obtained by lossless encoding the transform coefficient; Characterized in that it has a.
  • the moving picture encoding apparatus divides the frame of the input moving picture into macroblock units, and the moving picture encoding apparatus includes: A partition structure determining step for further dividing the macroblock into partitions, and the moving picture coding apparatus divides the macroblock into regions to be transformed that are regions to which frequency transform is applied, and based on an index indicating spatial correlation
  • a frequency transform region dividing step for generating a new transform target region by integrating at least one transform target region adjacent to each other, and a transform target region divided by the moving image encoding device in the frequency transform region dividing step
  • a transform coefficient generating step for generating a transform coefficient by applying a frequency transform to each of the video coding apparatus, And having a encoded data output step of outputting the lossless encoding encoded data number.
  • the moving image coding apparatus applies frequency conversion by integrating adjacent regions to be transformed, so that the coding efficiency is improved when a plurality of adjacent regions have high
  • the moving picture decoding apparatus performs decoding of a variable-length code and division into the macroblocks on the encoded data obtained by encoding the moving picture.
  • a variable-length decoding step, and the video decoding device is a conversion target area obtained by dividing the macroblock, and at least one conversion target area includes a conversion target area that crosses the partition.
  • a local decoded image generation step for generating a local decoded image to which inverse frequency transform is applied according to a target region; and a moving image output in which the moving image decoding apparatus generates a moving image by combining the local decoded images and outputs the moving image And a step.
  • the moving image decoding device applies a reverse frequency transform to the conversion target region across the partitions to generate a local decoded image, so that the moving image encoding device integrates regions included in different partitions. Even in this case, a decoded moving image can be generated.
  • the moving picture decoding apparatus performs decoding of a variable-length code and division into the macroblocks on the encoded data obtained by encoding the moving picture.
  • Variable length decoding step and each moving image decoding device includes a moving image decoding device that is a conversion target region obtained by dividing the macroblock and includes at least one integrated conversion target region based on an index indicating spatial correlation.
  • a local decoded image generating step for generating a local decoded image to which inverse frequency transformation is applied according to the transformation target region, and the moving image decoding apparatus generates a moving image by combining the local decoded images and outputs And a moving image output step.
  • the moving image decoding apparatus since the moving image decoding apparatus generates a local decoded image by applying inverse frequency transform to mutually adjacent transformation target areas, when the moving image coding apparatus integrates adjacent areas. Also, a decoded moving image can be generated.
  • the encoding efficiency of moving image encoding can be improved.
  • FIG. 4 is a flowchart showing a processing procedure for the moving image encoding device 10 to generate encoded data in the embodiment.
  • it is a figure which shows the order
  • it is a figure which shows the structure of the partition which the prediction parameter determination part 102 divides
  • a predicted image generation unit 103 is a flowchart showing a processing procedure for generating a predicted image used for a processing target macroblock.
  • a figure which shows the structural example of the conversion object area
  • the frequency conversion determination unit 105 is a flowchart showing a procedure for selecting frequency conversion for each partition in a macroblock.
  • the frequency conversion determination unit 105 is a flowchart showing a processing procedure for determining whether or not to integrate conversion target regions in a macroblock.
  • it is a pseudo code indicating a process in which the transform coefficient generation unit 107 applies frequency transform to a transform target region in a partition.
  • variable-length encoding unit 108 is a flowchart showing a processing procedure for encoding conversion selection information and conversion integration information of each partition included in a processing target macroblock. It is a functional block block diagram which shows the outline of the functional block structure of the moving image decoding apparatus 20 in the embodiment. In the same embodiment, it is a data block diagram which shows the data structure of the integrated conversion selection information which the frequency conversion derivation
  • the video decoding device 20 when the video encoding device 10 determines whether or not to integrate based on the change in the pixel value near the boundary of the conversion target region and does not output the conversion integration information, the video decoding device 20 It is a flowchart which shows the process sequence which produces
  • FIG. 4 is a flowchart illustrating a processing procedure for the moving image encoding device 16 to generate encoded data in the embodiment. It is a functional block block diagram which shows the outline of the functional block structure of the moving image decoding apparatus 26 in the embodiment. In the same embodiment, it is a flowchart which shows the process sequence in which the moving image decoding apparatus 26 produces
  • Embodiments of the present invention will be described below with reference to the drawings.
  • the processing performed by the video encoding device and the video decoding device according to the embodiment of the present invention and the H.264 format are described.
  • the difference from the processing defined by H.264 / AVC is shown as appropriate, the present invention is not limited to H.264 / AVC.
  • H.264 / AVC not only H.264 / AVC, but also VC-1, MPEG-2 (Moving Picture Experts Group phase 2), AVS (Audio Video Coding Standard), etc.
  • the present invention can be applied to a moving image encoding device and a moving image decoding device using a moving image encoding / decoding method.
  • FIG. 1 is a configuration diagram showing a schematic configuration of a moving image encoding / decoding system 1 according to the first embodiment of the present invention.
  • a moving image encoding / decoding system 1 includes a moving image encoding device 10 and a moving image decoding device 20.
  • the moving image encoding apparatus 10 includes an image input unit 61, a central processing unit (CPU) 62, a memory 63, an encoded data output unit 64, and a bus 65.
  • the moving image decoding apparatus 20 includes an encoded data input unit 71, a central processing unit 72, a memory 73, an image output unit 74, and a bus 75.
  • the moving image encoding device 10 encodes an input moving image in units of frames and outputs encoded data.
  • the image input unit 61 divides the input moving image into macroblock units and outputs the divided moving image to the central processing unit 62 via the bus 65.
  • the central processing unit 62 encodes each macro block unit input moving image output from the image input unit 61 and outputs the encoded moving image to the encoded data output unit 64 via the bus 65.
  • the memory 63 stores a locally decoded image that is an image used by the central processing unit 62 to generate encoded data and is a decoded image of a macroblock for which transform coefficients have been generated as will be described later.
  • the memory 63 stores a program executed by the central processing unit 62. Further, the memory 63 temporarily stores a calculation result generated by the central processing unit 62 as a working memory when the central processing unit 62 operates.
  • the encoded data output unit 64 outputs the encoded data output from the central processing unit 62 to the outside of the moving image encoding apparatus 10.
  • the video decoding device 20 decodes the encoded data output from the video encoding device 10 and outputs a decoded video.
  • the encoded data input unit 71 outputs the input encoded data to the central processing unit 72 via the bus 75.
  • the central processing unit 72 decodes the encoded data output from the encoded data input unit 71 to generate a local decoded image that is a decoded image in units of macroblocks, and the generated local decoded image is transmitted via the bus 75.
  • the image is output to the image output unit 74.
  • the memory 73 stores a locally decoded image of a decoded macroblock that is used by the central processing unit 72 to generate a decoded image.
  • the memory 73 stores a program to be executed by the central processing unit 72. Further, the memory 73 temporarily stores a calculation result generated by the central processing unit 72 as a working memory when the central processing unit 72 operates.
  • the image output unit 74 combines the decoded images in units of macroblocks output from the central processing unit 72 to generate decoded images in units of frames, and outputs them to the outside of the video decoding device 20.
  • the method of inputting the encoded data output from the encoded data output unit 64 of the moving image encoding device 10 to the encoded data input unit 71 of the moving image decoding device 20 is as follows. Any method can be used as long as it can read the digitized data.
  • the encoded data output unit 64 may transmit the encoded data to the encoded data input unit 71 using a wired or wireless communication path.
  • the encoded data output unit 64 may write the encoded data into a storage medium such as a semiconductor memory, and the encoded data input unit 71 may read out the encoded data from this storage medium.
  • FIG. 2 is a functional block configuration diagram illustrating a functional block configuration of the moving image encoding device 10.
  • the moving image encoding apparatus 10 includes an image input unit 61, an encoding unit 32, a locally decoded image storage unit 33, and an encoded data output unit 64.
  • the encoding unit 32 includes a prediction parameter determination unit (partition structure determination unit) 102, a prediction image generation unit 103, a prediction residual generation unit 106, a frequency conversion determination unit (frequency conversion region division unit) 105, and a transform coefficient generation unit 107.
  • the variable length encoding unit 108, the prediction residual reconstruction unit 109, and the local decoded image generation unit 110 are configured.
  • the same reference numerals (61, 64) are assigned to the portions corresponding to the respective portions in FIG.
  • the image input unit 61 divides the input moving image into units of macroblocks.
  • the image input unit 61 outputs the divided images to the prediction parameter determination unit 102 and the prediction residual generation unit 106 of the encoding unit 32 for each macroblock.
  • the encoding part 32 is implement
  • the encoding unit 32 generates encoded data for each macroblock from the image output by the image input unit 61 divided into units of macroblocks.
  • the prediction parameter determination unit 102, the prediction image generation unit 103, and the prediction residual generation unit 106 are the same as those in the H.264 standard. Inter-frame prediction similar to H.264 / AVC is performed.
  • the prediction parameter determination unit 102 selects a reference image from the local decoded images stored in the local decoded image storage unit 33 based on the pixel value of the image in units of macroblocks output from the image input unit 61, and generates a reference image A prediction parameter that is a parameter for generating a predicted image is generated.
  • the prediction parameter will be described later.
  • the moving image encoding device 10 performs frequency conversion on the prediction residual which is the difference between the macro block image to be processed and the predicted image.
  • the prediction parameter determination unit 102 outputs the generated prediction parameter to the frequency conversion determination unit 105, the predicted image generation unit 103, and the variable length encoding unit 108.
  • the predicted image generation unit 103 generates a predicted image from the reference image selected by the prediction parameter determination unit 102 based on the prediction parameter output from the prediction parameter determination unit 102.
  • the predicted image is an image that approximates each pixel value of the processing target macroblock in the input moving image.
  • the prediction residual generation unit 106 generates a prediction residual by taking a difference for each pixel between the pixel value of the processing target macroblock and the pixel value of the prediction image in the input moving image. Redundancy of pixel values of moving images can be reduced, and the amount of encoded data generated by the moving image encoding device 10 can be suppressed.
  • the predicted image generation unit 103 outputs the generated predicted image to the prediction residual generation unit 106 and the local decoded image generation unit 110.
  • the prediction residual generation unit 106 takes a difference in values for each pixel between an image in units of macroblocks output from the image input unit 61 and a prediction image output from the prediction image generation unit 103, and calculates a prediction residual.
  • the generated prediction residual is output to the frequency conversion determination unit 105 and the transform coefficient generation unit 107.
  • the frequency conversion determination unit 105 determines the frequency conversion method of the prediction residual output from the prediction residual generation unit 106 based on the prediction parameter output from the prediction parameter determination unit 102, and indicates the determined frequency conversion method
  • the transformation selection information and the transformation integration information are output to the transformation coefficient generation unit 107, the prediction residual reconstruction unit 109, and the variable length coding unit 108.
  • the conversion coefficient generation unit 107 Based on the frequency conversion method output from the frequency conversion determination unit 105, the conversion coefficient generation unit 107 performs frequency conversion on the prediction residual output from the prediction residual generation unit 106 to generate a conversion coefficient.
  • the transform coefficient generation unit 107 outputs the generated transform coefficient to the variable length coding unit 108 and the prediction residual reconstruction unit 109.
  • a variable-length encoding unit (lossless encoding unit) 108 includes prediction parameters output from the prediction parameter determination unit 102, conversion selection information and conversion integration information output from the frequency conversion determination unit 105, and conversion coefficient generation unit 107.
  • the output transform coefficient is encoded with variable length to generate encoded data.
  • the encoding performed by the variable length encoding unit 108 is not limited to variable length encoding, and may be lossless encoding.
  • the lossless coding here is coding that can be decoded without loss of information.
  • the variable length encoding unit 108 outputs the generated encoded data to the encoded data output unit 64.
  • the prediction residual reconstruction unit 109 performs inverse frequency conversion on the transform coefficient output from the transform coefficient generation unit 107 on the basis of the transform selection information and transform integration information input from the frequency transform determination unit 105 to obtain a prediction residual. Rebuild.
  • the prediction residual reconstruction unit 109 outputs the reconstructed prediction residual to the local decoded image generation unit 110.
  • the local decoded image generation unit 110 takes the sum of the values for each pixel of the prediction image output from the prediction image generation unit 103 and the reconstructed prediction residual output from the prediction residual reconstruction unit 109, and generates a local decoded image. Is generated.
  • the local decoded image generation unit 110 writes the generated local decoded image in the local decoded image storage unit 33.
  • the local decoded image storage unit 33 is realized using the memory 63 of FIG. 1 and stores the local decoded image output from the local decoded image generation unit 110.
  • a locally decoded image of a frame encoded before the processing target frame, a processing target macroblock a locally decoded image of a frame encoded before the processing target frame, a processing target macroblock.
  • the locally decoded image of the previously encoded macroblock in the same frame is stored in the locally decoded image storage unit 33.
  • the encoded data output unit 64 outputs the encoded data output from the variable length encoding unit 108 to the outside of the moving image encoding apparatus 10.
  • FIG. 3 is a flowchart illustrating a processing procedure in which the moving image encoding device 10 generates encoded data.
  • the moving image encoding device 10 starts a process of generating encoded data.
  • the image input unit 61 divides the input moving image into macroblock units.
  • the moving image coding apparatus 10 divides an input moving image frame into units of macroblocks and creates encoded data for each macroblock.
  • the image input unit 61 divides a frame of an input moving image into macro blocks each having 16 horizontal pixels ⁇ 16 vertical pixels.
  • FIG. 4 is a diagram illustrating the order in which a frame of a moving image input by the image input unit 61 is divided into macroblock units and the divided images are output.
  • the whole figure shows one frame in the moving image.
  • the x-axis is taken sideways, and the rightward direction is the positive direction of the x-axis.
  • the y axis is taken vertically, and the upward direction is the positive direction of the y axis.
  • the image input unit 61 divides one frame into a row for every 16 pixels and a column for every 16 pixels, and each of the regions of 16 horizontal pixels ⁇ 16 vertical pixels divided into rows and columns corresponds to a macroblock.
  • the image input unit 61 outputs image data in units of macroblocks in order from left to right in the same row, and performs this for each row from top to bottom.
  • the image input unit 61 performs this process in the order of frames input to each frame in the input moving image.
  • the image input unit 61 outputs the divided data to the prediction parameter determination unit 102 and the prediction residual generation unit 106.
  • the image input unit 61 may divide the image data in units of macroblocks having a size other than 16 horizontal pixels ⁇ 16 vertical pixels. For example, the number of pixels may be 12 pixels horizontally ⁇ 12 pixels vertically, or the number of pixels may be different from each other, such as 16 pixels horizontally ⁇ 12 pixels vertically.
  • the image input unit 61 may output image data in units of macroblocks in an order other than that shown in FIG. For example, the image input unit 61 may output image data in order from top to bottom within the same column, and this may be performed for each column from left to right.
  • step S ⁇ b> 102 the moving image encoding apparatus 10 starts a loop for generating encoded data for each macroblock of the input image divided by the image input unit 61.
  • steps S103 to S105 the prediction parameter determining unit 102, the predicted image generating unit 103, and the predicted residual generating unit 106 Inter-frame prediction similar to inter-frame prediction (motion compensation prediction, inter prediction) defined by H.264 / AVC is performed.
  • the prediction parameter determination unit 102 determines a partition structure for further dividing the image data based on the pixel value of the image data output from the image input unit 61, selects a reference image for each partition, and references A prediction parameter for generating a predicted image from the image is generated.
  • the partition here is a unit area for generating a predicted image.
  • the predicted image generation unit 103 generates a predicted image for each partition, and combines the generated predicted images to predict a macroblock. Generate an image.
  • the reference image is an image from which a predicted image is generated, and the prediction parameter determination unit 102 selects a reference image from among the local decoded images stored in the local decoded image storage unit 33.
  • the local decoded image is a decoded image of a processed macroblock.
  • FIG. 5 is a diagram illustrating a configuration of partitions in which the prediction parameter determination unit 102 divides image data in units of macroblocks.
  • the prediction parameter determination unit 102 has a partition structure defined by H.264 / AVC.
  • One of the partition structures defined by H.264 / AVC is selected.
  • a partition configuration MB1 in the figure shows a partition configuration in the case of one division without dividing a macroblock.
  • the macroblock is composed of one partition of 16 horizontal pixels ⁇ 16 vertical pixels, and a partition index “p0” is attached to this partition.
  • the partition index is an index for identifying a partition in a macroblock.
  • the partition configuration MB2 indicates a partition configuration in the case of horizontal bisection that divides the macroblock into two equal parts in the horizontal direction.
  • the macroblock is composed of two partitions of 16 horizontal pixels ⁇ 8 vertical pixels.
  • a partition index “p0” is attached to the upper partition, and a partition index “p1” is attached to the lower partition.
  • the partition configuration MB3 indicates a partition structure in the case of vertical bisection that bisects a macroblock in the vertical direction.
  • the macroblock is composed of two partitions each having 8 horizontal pixels ⁇ 16 vertical pixels.
  • a partition index “p0” is attached to the left partition, and a partition index “p1” is attached to the right partition.
  • the partition structure MB4 indicates a partition structure in the case of quartering in which the macroblock is divided into two equal parts in the horizontal direction and the vertical direction.
  • the macroblock is composed of four partitions of 8 horizontal pixels ⁇ 8 vertical pixels.
  • the partition index “p0” is attached to the upper left partition
  • the partition index “p1” is attached to the upper right partition
  • the partition index “p2” is attached to the lower left partition
  • the partition index is attached to the lower right partition.
  • “P3” is attached.
  • Each partition of the partition structure MB4 is also referred to as a sub macroblock.
  • the prediction parameter determination unit 102 further divides the sub macroblock into partitions.
  • the partitions constituting the sub macroblock are also referred to as “subpartitions”.
  • the partition structure SBM1 indicates a partition structure in the case of one division that does not divide the sub macroblock.
  • the sub-macroblock is composed of one subpartition of 8 horizontal pixels ⁇ 8 vertical pixels, and the subpartition index “p0” is attached to this subpartition.
  • the subpartition number is an index for identifying a subpartition in the partition.
  • the partition structure SMB2 indicates a partition structure in the case of horizontal bisection in which the sub macroblock is divided into two equal parts in the horizontal direction.
  • the sub-macroblock is composed of two partitions of 8 horizontal pixels ⁇ 4 vertical pixels.
  • a subpartition index “p0” is attached to the upper subpartition, and a subpartition index “p1” is attached to the lower subpartition.
  • the partition structure SMB3 indicates a partition structure in the case of vertical bisection that bisects the sub-macroblock in the vertical direction.
  • the sub macroblock is composed of two subpartitions of 4 horizontal pixels ⁇ 8 vertical pixels.
  • the sub-partition index “p0” is attached to the left sub-partition, and the sub-partition index “p1” is attached to the right sub-partition.
  • the partition structure SMB4 indicates a partition structure in the case of four divisions in which the sub macroblock is divided into two equal parts in the horizontal direction and the vertical direction.
  • the sub macroblock is composed of four subpartitions of 4 horizontal pixels ⁇ 4 vertical pixels.
  • the subpartition index “p0” is attached to the upper left subpartition
  • the subpartition index “p1” is attached to the upper right subpartition
  • the subpartition index “p2” is attached to the lower left subpartition
  • the lower right part is attached to the subpartitions.
  • the units of the video encoding device 10 and the video decoding device 20 perform processing in the order of the partition index numbers shown in the partition structures MB1 to MB4 in FIG. That is, processing is performed from the left partition to the right partition, and this is repeated from top to bottom. If the macroblock is divided into four, each subpartition in the submacroblock is processed in the order of the numbers of the subpartition indexes shown in the partition structures SMB1 to SMB4 in the figure, and this is converted into the partition structure MB4 in the figure. Repeat for each sub-macroblock in the order of the partition index numbers shown.
  • FIG. 6 is a data configuration diagram illustrating a data configuration of a prediction parameter generated by the prediction parameter determination unit 102.
  • the prediction parameter includes partition structure information and reference image index and motion vector information as motion information of each partition.
  • the partition structure information is information indicating the partition structure selected by the prediction parameter determination unit. For example, “16 ⁇ 8” of “P_L0_L0 — 16 ⁇ 8” in the figure indicates that the macroblock is divided into two partitions each having a size of 16 horizontal pixels ⁇ 8 vertical pixels. That is, the macroblock is divided into partitions indicated by the partition structure MB2 in FIG. “L0_L0” indicates that both of the two partitions use the reference image list 0. Note that “P” indicates a block that is encoded using only forward prediction.
  • the reference image index indicates an index of a locally decoded image used as a reference image for each partition.
  • “2, 0” and “2” in FIG. 6 are reference image lists (as reference images of the first partition (partition with the partition structure MB2 in FIG. 5 and a partition index “p0”)). As described above, here, it is shown that the locally decoded image with index 2 in the reference image list 0) is used.
  • “0” is the local decoding with the index 0 in the reference image list 0 as the reference image of the second partition (the partition structure MB2 in FIG. 5 and the partition index “p1”). Indicates that an image is used.
  • the motion vector indicates the amount by which the pixel of the reference image is shifted in motion compensation.
  • the partition portion indicates that the reference image is generated by shifting the reference image by 0.25 pixels to the right and 1.25 pixels downward. Further, “(0.0, 0.75)” indicates that the second partition portion of the predicted image is generated by shifting the reference image by 0.75 pixels upward without moving the reference image left and right. .
  • the prediction parameter determination unit 102 For a macroblock that performs backward prediction in addition to forward prediction, the prediction parameter determination unit 102 generates a prediction parameter including two reference image numbers and two motion vectors for each partition. . Note that when the prediction parameter determination unit 102 determines to perform intra prediction, the prediction parameter determination unit 102 generates a prediction parameter indicating a prediction image generation method in intra prediction, but description thereof is omitted here.
  • Intra prediction here refers to a macroblock that does not use inter-frame prediction, and predicts the predicted image by interpolation from the encoded and decoded pixels adjacent to the macroblock within the same frame of the input moving image. It is a method of generating. The prediction parameter determination unit 102 generates a prediction parameter using rate distortion determination.
  • the prediction parameter determination unit 102 generates prediction parameter candidates obtained by any possible combination of the partition structure, the reference image, and the motion vector.
  • the prediction parameter determination unit 102 calculates a rate distortion cost C for each of the generated prediction parameter candidates based on Expression (1), and selects a prediction parameter candidate that minimizes the rate distortion cost C as a prediction parameter. To do.
  • R indicates a code amount when encoding is performed based on the prediction parameter candidate.
  • D represents a mean square error between the pixel value of the input image in units of macroblocks and the pixel value of the locally decoded image obtained when encoding and decoding are performed based on the prediction parameter candidate.
  • is a predetermined value and indicates a weighting factor between the code amount R and the error D.
  • the prediction parameter determination unit calculates the code amount R and the error D by actually performing encoding and decoding based on the prediction parameter candidates.
  • the prediction parameter determination unit 102 calculates the rate distortion cost C, if there are a plurality of applicable frequency conversions, the rate distortion cost is calculated for all applicable frequency conversions, and the minimum rate distortion cost is calculated.
  • the prediction parameter determination unit 102 outputs the generated prediction parameter to the frequency conversion determination unit 105, the predicted image generation unit 103, and the variable length encoding unit 108.
  • step S104 the predicted image generation unit 103 generates a predicted image based on the prediction parameter output from the prediction parameter determination unit 102.
  • the predicted image is an image that approximates the image of the macroblock to be processed.
  • FIG. 7 is a flowchart illustrating a processing procedure in which the predicted image generation unit 103 generates a predicted image used for the processing target macroblock in step S104 of FIG.
  • the predicted image generation unit 103 reads partition structure information from the prediction parameters.
  • the predicted image generation unit 103 starts a processing loop for each partition including steps S123 and S124.
  • the predicted image generation unit 103 processes each partition in the order described in FIG. 6 (the same applies to the following flowcharts).
  • step S123 the predicted image generation unit 103 reads the reference image index of the partition to be processed from the prediction parameters, and reads the reference image from the locally decoded image storage unit 33 based on the read reference image index.
  • step S124 the predicted image generation unit 103 reads the motion vector of the partition to be processed from the prediction parameters, and performs motion compensation on the reference image based on the read motion vector. Specifically, the predicted image generation unit 103 shifts the reference image by the pixel indicated by the motion vector.
  • step S125 if there is an unprocessed partition, the loop from step S122 is repeated, and if not, the process proceeds to step S126.
  • step S126 the prediction image generation unit 103 generates a prediction image by connecting the partition portions of the reference images subjected to motion compensation, and generates the prediction image by using the prediction residual generation unit 106 and local decoded image generation. Output to the unit 110. Then, the process which produces
  • the prediction residual generation unit 106 calculates the prediction output from the prediction image generation unit 103 from the pixel value of each pixel of the input image in units of macroblocks output from the image input unit 61.
  • a prediction residual is generated by subtracting the pixel value of each corresponding pixel of the image.
  • the prediction residual is two-dimensional data having the same size as the macroblock.
  • the pixel value of the input image is reduced by generating a prediction residual by taking the difference between the pixel value of the processing target macroblock in the input image and the pixel value of the prediction image for each pixel. Therefore, the amount of encoded data generated by the moving image encoding apparatus 10 can be suppressed.
  • the prediction residual generation unit 106 outputs the generated prediction residual to the frequency conversion determination unit 105 and the transform coefficient generation unit 107.
  • step S106 the frequency transformation determination unit 105 selects a frequency transformation to be applied to each partition obtained by dividing the prediction residual output from the prediction residual generation unit 106 into the partition structure determined by the prediction parameter determination unit 102, Conversion selection information indicating the selected frequency conversion is generated.
  • FIG. 8 is a diagram illustrating a configuration example of a conversion target region determined by the frequency conversion selected by the frequency conversion determination unit 105.
  • the conversion target area here is an area in a macroblock that is converted into a conversion coefficient by one frequency conversion.
  • the frequency conversion determination unit 105 applies a 4 ⁇ 4 DCT to the partitions p0 and p1 out of four partitions p0 to p3 each having 8 horizontal pixels ⁇ 8 vertical pixels as a macroblock, An example in which 8 ⁇ 8 DCT is determined to be applied to p3 is shown.
  • the frequency transform determination unit 105 divides the prediction residual partition into regions of the frequency transform size. Each divided area becomes a conversion target area. For example, the partition p0 in the figure is divided into four conversion target areas r0 to r3.
  • the entire region divided by the partition becomes one conversion target region.
  • Each unit of the moving image encoding device 10 and the moving image decoding device 20 processes the conversion target region in the same partition in order from the left conversion target region to the right conversion target region, and repeats this in order from the top to the bottom. Furthermore, when the conversion target area is processed across a plurality of partitions, the above processing is performed in order from the left partition to the right partition, and this is repeated in order from the upper partition to the lower partition. The same applies to the moving picture encoding apparatus and moving picture decoding apparatus described below.
  • FIG. 9 is a data configuration diagram illustrating a data configuration of conversion selection information generated by the frequency conversion determination unit 105.
  • the conversion selection information indicates frequency conversion applied to each partition in the macroblock.
  • the conversion selection information is configured by arranging information indicating frequency conversion applied to each partition according to the order of the partitions.
  • an example of conversion selection information when the frequency conversion determination unit 105 selects the frequency conversion described in FIG. 8 as the frequency conversion applied to each partition is shown.
  • FIG. 10 is a flowchart illustrating a procedure in which the frequency conversion determination unit 105 selects frequency conversion for each partition in the macroblock.
  • the frequency conversion determination unit 105 starts a processing loop for each partition. That is, first, in step S142 to step S145, the frequency conversion determination unit 105 selects a frequency conversion candidate to be applied to the partition.
  • the frequency conversion determination unit 105 starts a processing loop for each element of the conversion preset.
  • the transform preset here is a set of all frequency transforms that can be applied to the macroblock by the moving image coding apparatus 10.
  • the moving image encoding apparatus 10 uses H.264 as a conversion preset element.
  • m ⁇ nDCT represents discrete cosine transform in which the horizontal m pixels ⁇ vertical n pixels are the size of frequency conversion (the number of pixels in the vertical and horizontal directions of the frequency conversion target region; hereinafter also referred to as “transform size”).
  • transform size the number of pixels in the vertical and horizontal directions of the frequency conversion target region
  • a discrete cosine transform of another transform size for example, a frequency transform including 4 ⁇ 16 DCT or 16 ⁇ 4 DCT may be included in the transform preset, or a frequency transform other than the discrete cosine transform, such as Hadamard transform, sine transform, or wavelet transform , Or frequency transformations including transformations approximating those transformations may be included in the transformation preset.
  • step S143 the frequency conversion determination unit 105 determines whether the frequency conversion size to be processed in the loop from step S142 is equal to or smaller than the partition size both vertically and horizontally. If the size is equal to or smaller than the partition size (step S143: YES), the process proceeds to step S144. If not (step S143: NO), the process proceeds to step S145. In step S144, the frequency conversion determination unit 105 adds the frequency conversion to be processed in the loop from step S142 to the frequency conversion candidates (hereinafter also referred to as “conversion candidates”) to be applied to the partition.
  • conversion candidates hereinafter also referred to as “conversion candidates”
  • the frequency conversion determination unit 105 selects 4 ⁇ 4 DCT, 8 ⁇ 8 DCT, 4 ⁇ 8 DCT, and 8 that are 16 pixels horizontal ⁇ 8 vertical pixels or less from the conversion preset.
  • x4DCT and 16x8DCT be conversion candidates.
  • the number of conversion candidates selected by the frequency conversion determination unit 105 may be reduced.
  • the number of conversion candidates can be reduced by reducing the number of elements of the conversion preset. By reducing the number of conversion candidates, the amount of subsequent processing can be reduced. Further, by reducing the number of elements of the conversion preset, it is possible to shorten the code length of the index indicating the frequency conversion and suppress the increase in the code amount.
  • step S145 if there is an unprocessed frequency conversion among the elements of the conversion preset, the loop from step S142 is repeated, otherwise the process proceeds to step S146.
  • steps S146 to S149 the frequency conversion determination unit 105 calculates the rate distortion cost of each conversion candidate, and selects the frequency conversion having the lowest rate distortion cost as the frequency conversion to be applied to the partition. That is, first, in step S146, the frequency conversion determination unit 105 starts a processing loop for each conversion candidate selected in the loop of steps S142 to S145.
  • step S147 the frequency conversion determination unit 105 calculates the rate distortion cost of the frequency conversion to be processed in the loop from step S146 based on the above-described equation (1).
  • step S148 if there is an unprocessed frequency conversion among the conversion candidate elements, the loop from step S146 is repeated, otherwise the process proceeds to step S149.
  • step S149 the frequency conversion determination unit 105 selects a frequency conversion that minimizes the rate distortion cost as a frequency conversion to be applied to the partition.
  • step S150 if there is an unprocessed partition, the loop from step S141 is repeated.
  • step S ⁇ b> 107 the frequency conversion determination unit 105 generates conversion integration information indicating a region in which conversion target regions included in different partitions are integrated, that is, a conversion target region across partitions. Specifically, the frequency conversion determination unit 105 determines whether or not to integrate the conversion target areas determined by selecting the frequency conversion in step S106, by combining two adjacent conversion target areas in the macroblock. Conversion integrated information indicating a conversion target area to be integrated is generated.
  • the frequency transformation determination unit 105 decides to integrate a plurality of adjacent areas across the partition boundary, and the transformation coefficient generation unit 107 frequency-transforms the prediction residual according to the decision of the frequency transformation decision unit 105,
  • the moving picture coding apparatus 10 can improve coding efficiency by performing frequency conversion on a region obtained by integrating a plurality of regions adjacent to each other with a partition boundary interposed therebetween.
  • FIG. 11 is a diagram illustrating an example of an integrated conversion target area.
  • the macro block is divided into four partitions (sub macro blocks) p0 to p3.
  • the frequency conversion determination unit 105 determines to apply 4 ⁇ 4 DCT to the partitions p0 and p1, and thereby the partitions p0 and p1 are divided into four conversion target regions r0 to r3 of 4 horizontal pixels ⁇ 4 vertical pixels. It is divided. Further, the frequency conversion determination unit 105 determines to apply 8 ⁇ 4 DCT to the partition p2, and the partition p2 is divided into two conversion target regions of 8 horizontal pixels ⁇ 4 vertical pixels.
  • the frequency conversion determination unit 105 determines to apply 4 ⁇ 8 DCT to the partition p3, and the partition p3 is divided into two conversion target areas of 4 horizontal pixels ⁇ 8 vertical pixels.
  • FIG. 5B shows that the frequency conversion determination unit 105 decides to integrate the conversion target region r1 of the partition p0 and the conversion target region r0 of the partition p1 among the conversion target regions shown in FIG. An example is shown.
  • both the partition p2 and the partition p3 are divided into two conversion target areas r0 and r1 each having 8 horizontal pixels ⁇ 4 vertical pixels, and the conversion target areas r0 and p3 of the partition p2 are converted. r1 is integrated.
  • both the partition p0 and the partition p1 are divided into four conversion target areas r0, r1, r2, and r3 each having 8 horizontal pixels ⁇ 4 vertical pixels, and the conversion target area r2 and the partition p1 of the partition p0.
  • the conversion target area r0 is integrated.
  • each of the partitions p1 to p3 constitutes a conversion target area, and the partition p1 and the partition p3 are integrated.
  • the partition p0 to the partition p3 are both divided into four conversion target areas r0, r1, r2, and r3 of 4 horizontal pixels ⁇ vertical 4 pixels, and the conversion target area r3 and the partition p1 of the partition p0 are divided.
  • the conversion target area r2, the conversion target area r1 of the partition p2, and the conversion target area r0 of the partition p3 are integrated. Note that the integration of the conversion target areas shown in the figure is an example, and the integration of the conversion target areas determined by the frequency conversion determination unit 105 is not limited to these.
  • FIG. 12 is a data configuration diagram showing a data configuration of the conversion integration information.
  • the conversion integration information is information indicating the region determined to be integrated by the frequency conversion determination unit 105 and the frequency conversion applied to the region. As shown in the figure, the conversion integration information includes a partition index, an integration target area index, an integration direction index, and frequency conversion information.
  • the frequency conversion determination unit 105 generates conversion integration information for each integration of conversion target areas.
  • the partition index is an index indicating a partition that includes an area to be integrated that has a higher processing order.
  • the integration target area index is an index indicating the position in the partition of the areas to be integrated, which are processed in the earlier order.
  • the partition index and the integration target area index indicate the position in the macro block of the area to be integrated, which is processed earlier.
  • the integration direction index is an index indicating a direction in which the processing order is late among the areas to be integrated, as viewed from the area in which the processing order is early among the areas to be integrated.
  • the conversion integration information in FIG. 12 indicates that in the case of FIG. 11B, the region r1 to which the partition p0 is integrated is included, and the region r1 of the partition p0 and the region on the right side thereof are integrated. Yes.
  • the frequency conversion information is information indicating the frequency conversion applied to the integrated region. In the example of FIG. 12, it is shown that 8 ⁇ 4 DCT is applied to a region to be integrated.
  • the conversion integration information generated by the frequency conversion determination unit 105 is not limited to the structure shown in FIG.
  • the transform integration information may be configured to include a set of partition indexes and integration target region indexes for all the regions to be integrated and frequency conversion information applied to the regions to be integrated.
  • FIG. 13 is a flowchart illustrating a procedure in which the frequency conversion determination unit 105 determines a region to be integrated among conversion target regions in a macroblock.
  • the frequency conversion determination unit 105 determines a region to be integrated among the conversion target regions of the prediction residual in units of macroblocks based on the pixel value of the prediction image in units of macroblocks output from the prediction image generation unit 103.
  • the reason why the pixel value of the prediction image is used instead of the pixel value of the prediction residual is to enable the moving image decoding apparatus 20 to perform the same determination.
  • the frequency conversion determination unit 105 starts a loop for performing processing on the conversion target region i (i is an integer from 0 to (N-2), N is the number of conversion target regions in the macroblock).
  • the numbers assigned to the conversion target areas are numbers corresponding to the processing order of the conversion target areas described with reference to FIG.
  • the frequency conversion determination unit 105 starts a loop for performing processing on the conversion target region j (j is an integer from (i + 1) to N).
  • step S163 the frequency conversion determination unit 105 determines whether or not the following condition C131 is satisfied.
  • Condition C131 the conversion target area i and the conversion target area j are adjacent to each other. The conversion target area i and the conversion target area j are included in different partitions. In addition, a region obtained by combining the conversion target region i and the conversion target region j forms a rectangle. Based on this determination, the frequency conversion determination unit 105 sets only the region across the partitions as the processing target in the following steps S165 and S167. If it is determined that the condition C131 is satisfied (step S163: YES), the process proceeds to step S164. If it is determined that the condition C131 is not satisfied (step S163: NO), the process proceeds to step S167.
  • the frequency conversion determination unit 105 determines whether the conversion target area i and the conversion target area j have characteristics suitable for integration.
  • the frequency conversion determination unit 105 determines the space of the prediction residual between the conversion target region i and the conversion target region j based on the similarity of the pixel values of the prediction image regions corresponding to the conversion target region i and the conversion target region j. Determine whether the correlation is high. Specifically, the predicted image in units of macroblocks input from the predicted image generation unit 103 is divided into the same partition and conversion target region as the prediction residual.
  • the frequency conversion determination unit 105 sets the pixel unit length of the boundary b between the conversion target region r1 and the conversion target region r2 of the predicted image to M, and sets the pixel value of the pixel belonging to the conversion target region r1 and in contact with the boundary bbr1 [ i] (i is a positive integer from 1 to M), the pixel value of the pixel belonging to the conversion target region r2 and in contact with the boundary b is brv2 [i], and the determination threshold is Th. to decide.
  • the frequency conversion determination unit 105 determines whether or not the spatial correlation in the target region is high, using Equation (2) as an index indicating the spatial correlation. When it is determined that Expression (2) is satisfied, the frequency conversion determination unit 105 determines that the conversion target region i and the conversion target region j have high spatial correlation and are suitable for integration, and the conversion target region i. And the conversion target region j are determined to be integrated.
  • FIG. 14 is a diagram illustrating an example of a pixel of a predicted image that is a target of determination by the frequency conversion determination unit 105.
  • This figure shows an example in which it is determined whether or not the conversion target area r3 of the partition p0 and the conversion target area r2 of the partition p1 have characteristics suitable for integration. Further, the boundary between both conversion target areas is the boundary b, and the length of the boundary b in units of pixels is four pixels.
  • the conversion target region r3 of the partition p0 includes pixels br1 [1] to br1 [4] that are in contact with the boundary b, and the conversion target region r2 of the partition p1 includes pixels br2 [1] to br2 [4] that are in contact with the boundary b. Including.
  • the frequency conversion determination unit 105 determines the absolute value
  • is calculated, and it is determined whether or not the calculated total value is smaller than the threshold value Th.
  • step S164 YES
  • step S164: NO the frequency transformation determination unit 105 selects a new frequency transformation t ′ to be applied to the prediction residual transformation target region i and the transformation target region j.
  • the frequency transformation determination unit 105 selects a discrete cosine transformation having the same transformation size as the size of the transformation target region after integration as a new frequency transformation t ′.
  • the frequency conversion of horizontal W pixels ⁇ vertical 2H pixels is selected.
  • the frequency conversion of 2W horizontal pixels ⁇ H vertical pixels is selected.
  • the newly selected frequency transformation t ′ is a transformation target region that is a combination of the original two transformation target regions.
  • the frequency conversion determination unit 105 does not perform integration when the frequency conversion t ′ is not included in the conversion preset.
  • the frequency conversion applied to the partition p0 and the partition p1 is both 8 ⁇ 4 DCT
  • the frequency conversion of the horizontal 2W pixels ⁇ vertical H pixels is 16 ⁇ 4 DCT.
  • the frequency conversion determination unit 105 does not perform this integration. Thereby, it can suppress that the kind of frequency conversion increases and the code length of the index which shows frequency conversion becomes long. Even if the frequency conversion t ′ is not included in the conversion preset, the frequency conversion determination unit 105 may perform integration.
  • the frequency conversion determination unit 105 adds a new frequency conversion to the conversion preset, and the moving image encoding device 10 outputs a frequency preset obtained by adding the new frequency conversion to the moving image decoding device 20.
  • the code length of the transform coefficient can be shortened using the spatial correlation between the adjacent transform target regions.
  • step S166 the frequency conversion determination unit 105 generates conversion integration information.
  • step S167 if there is an unprocessed conversion target area among the conversion target areas (i + 1) to N, the loop from step S162 is repeated. If there is no conversion target area, the process proceeds to step S168.
  • step S168 if there is an unprocessed conversion target area among the conversion target areas 0 to (N-2), the loop from step S161 is repeated. If there is no conversion target area, it is determined whether or not the conversion target areas in the partition should be integrated. The determination process is terminated.
  • the frequency transform determination unit 105 outputs the generated transform selection information and transform integration information to the transform coefficient generation unit 107, the variable length coding unit 108, and the prediction residual reconstruction unit 109. As described above, the frequency conversion determination unit 105 divides the processing target macroblock into the conversion target regions, and further integrates the conversion target regions, thereby integrating the processing target macroblocks across the partitions (in step S165). To be converted into a conversion target area.
  • step S164 not only the pixels in contact with the boundary but also the pixels away from the boundary may be added to the determination target.
  • the frequency conversion determination unit 105 performs determination by including a pixel separated from the boundary by one pixel in the expression (2). Thereby, the accuracy of judgment can be raised.
  • the determination in step S163 is performed for all combinations of the conversion target areas.
  • step S163 first, after determining whether the combination clearly does not satisfy the condition C131. Whether or not the condition C131 is satisfied may be determined. For example, when a conversion target area that does not contact other partitions in the macroblock is a determination target, such as the conversion target area r0 of the partition p0 in FIG.
  • step S163 the condition C131 is clearly not satisfied. Therefore, if the frequency region 105 stores in advance a conversion target region that does not contact other partitions in the macroblock, and this conversion target region is a determination target, whether or not the condition C131 is satisfied in step S163? The process proceeds to step S167 without determining whether or not. Thereby, the processing amount can be suppressed.
  • the processing amount may be suppressed by setting the condition C131 to be a condition that is less likely to be established. For example, a condition is added that the frequency conversion in the conversion target region r1 and the frequency conversion in the conversion target region r2 are the same frequency conversion t. In this way, by setting the condition C131 to be a condition that is less likely to be established, the number of times of performing the processes in step S164 and step S165 can be reduced, and the processing amount can be suppressed.
  • the frequency conversion determination unit 105 may select the conversion target areas after the integration is determined again and further integrate them. By this integration, a larger area can be set as a conversion target area, and the coding rate of the coded data output from the moving picture coding apparatus 10 can be improved.
  • the frequency conversion determination unit 105 further integrates a region obtained by integrating the region r3 of the partition p0 and the region r2 of the partition p1, and a region obtained by integrating the region r1 of the partition p2 and the region r0 of the partition p3.
  • a conversion target area of 8 pixels ⁇ vertical 8 pixels is generated.
  • the determination of integration suitability performed in step S164 is not limited to using the above-described equation (2).
  • the frequency conversion determination unit 105 compares the motion vector mv1 of the partition to which the conversion target region r1 belongs and the motion vector mv2 of the partition to which the conversion target region r2 belongs, and the predetermined condition is satisfied, the spatial correlation is high and integrated. You may make it determine with it being suitable for. For example, it is a condition that the reference images of r1 and r2 are the same, and the difference or ratio of the vector sizes of mv1 and mv2 is equal to or less than a threshold value.
  • the conversion target region r1 and the conversion target region r2 refer to sufficiently close regions in the same reference image, and therefore there is a high possibility that the spatial correlation in the region is high. Improvement of conversion rate is expected. Therefore, the frequency conversion determination unit 105 determines whether or not the spatial correlation in the target region is high, using the condition as an index indicating the spatial correlation.
  • the frequency conversion determination unit 105 determines whether or not to integrate the transformation target regions r1 and r2 as described above, the method for evaluating the similarity of the pixel values of the predicted image near the partition boundary, and the similarity of the motion vectors. It is not restricted to the method of evaluating. For example, a method for evaluating the similarity of the coefficient distribution obtained by frequency conversion of the prediction residuals of the conversion target regions r1 and r2, or a code amount and a rate that are actually converted regardless of the similarity determination
  • the frequency conversion determination unit 105 such as a method for evaluating the low distortion cost, may determine the suitability of integration by a method using a feature amount other than those obtained from the conversion target regions r1 and r2.
  • the frequency conversion determination unit 105 applies frequency conversion to each of the conversion target regions r1 and r2, and determines whether or not r1 and r2 are integrated based on the conversion coefficient obtained as a result of the frequency conversion. You may make it do. For example, if all of the transform coefficients obtained from r1 and the transform coefficients obtained from r2 are equal to or less than a preset threshold value, it is determined that the spatial correlation between them is high and that they are suitable for integration. Alternatively, the suitability of r1 and r2 may be determined by comparing the code amount or the rate distortion cost when the conversion target regions r1 and r2 are integrated and when they are not integrated.
  • the conversion target area in the subpartition may not be integrated.
  • the macroblock may be read as a sub-macroblock
  • the partition may be read as a sub-partition
  • the frequency conversion determination unit 105 may apply the processing of FIG. 13 recursively.
  • the frequency conversion determination unit 105 it is possible to determine the suitability of integration by performing the processing of FIG.
  • the transform coefficient generation unit 107 is based on the prediction residual output from the prediction residual generation unit 106 and the conversion selection information and conversion integration information input from the frequency conversion determination unit 105.
  • the prediction residual is frequency converted to generate a conversion coefficient.
  • the transform coefficient generation unit 107 selects a frequency transform to be applied to each transform target region based on the transform selection information and transform integration information, and selects the selected frequency transform in each transform target region of the prediction residual. Apply.
  • the frequency conversion indicated by the conversion selection information is one of the frequency conversions included in the conversion preset.
  • FIG. 15 is pseudo code illustrating a process in which the transform coefficient generation unit 107 applies frequency transform to a transform target region in a partition.
  • the region R (x, y, W, H) is a horizontal W pixel ⁇ vertical H pixel in which x pixels are moved rightward from the upper left corner in the partition and y pixels are moved downward from the upper left corner.
  • the conversion coefficient generation unit 107 converts the horizontal M ⁇ vertical N conversion target areas included in the partition from the left conversion target area to the right conversion target area as shown by the pseudo code in FIG. In this order, frequency conversion having a conversion size of horizontal W pixels ⁇ vertical H pixels is applied to each conversion target area. This is repeated sequentially from top to bottom.
  • the process in which the transform coefficient generation unit 107 generates a transform coefficient from the prediction residual may include a process of performing quantization.
  • the transform coefficient generation unit 107 may quantize the generated transform coefficient.
  • step S109 in FIG. 3 the prediction residual reconstruction unit 109 performs conversion based on the conversion coefficient output from the conversion coefficient generation unit 107 and the conversion selection information and conversion integration information output from the frequency conversion determination unit 105. Reconstruct the prediction residual by inverse frequency transforming the coefficients.
  • step S109 when the transform coefficient generation unit 107 performs quantization, the prediction residual reconstruction unit 109 performs inverse quantization corresponding to the quantization. For example, when the transform coefficient generation unit 107 quantizes the generated transform coefficient, the prediction residual reconstruction unit 109 performs inverse frequency transform on the transform coefficient after dequantizing the transform coefficient.
  • the prediction residual reconstruction unit 109 outputs the reconstructed prediction residual to the local decoded image generation unit 110.
  • step S110 the local decoded image generation unit 110 generates a local decoded image based on the prediction image output from the prediction image generation unit 103 and the prediction residual output from the prediction residual reconstruction unit 109. .
  • the local decoded image generation unit 110 generates a local decoded image by adding the pixel value of the predicted image and the pixel value of the prediction residual for each pixel as each pixel value of the local decoded image.
  • the video decoding device 20 also applies the same filter to the generated local decoded image so that the video encoding device 10 and the video decoding device 20 generate the same local decoded image. To do.
  • the local decoded image generation unit 110 writes the generated local decoded image in the local decoded image storage unit 33.
  • step S111 the variable length coding unit 108, the transform coefficient output from the transform coefficient generation unit 107, the prediction parameter output from the prediction parameter determination unit 102, and the transform selection information output from the frequency transform determination unit 105. And the transform integration information are encoded to generate encoded data, and the generated encoded data is output to the encoded data output unit 64.
  • the encoded data output unit 64 outputs the encoded data output from the variable length encoding unit 108 to the outside of the moving image encoding apparatus 10.
  • the variable length encoding unit 108 first converts the transform coefficient and the prediction parameter to H.264.
  • H.264 / AVC is used to perform variable length coding.
  • the variable length coding unit 108 divides the transform coefficient generated by the frequency transform in the region across the partitions based on the partition boundary, so Similarly to the method defined in H.264 / AVC, variable length coding is performed for each partition.
  • variable length encoding unit 108 performs variable length encoding on the conversion selection information and the conversion integration information.
  • the variable length coding unit 108 performs variable length coding using, for example, a Huffman code on an index indicating frequency conversion to be applied to each partition included in the conversion selection information.
  • the encoding performed by the variable-length encoding unit 108 is not limited to variable-length encoding, and any encoding is possible as long as the video decoding device 20 can perform decoding without loss of information, that is, lossless encoding. Good.
  • variable-length encoding unit 108 is obtained by binarizing the index with t bits using the smallest positive integer t in which the power of 2 is s or more when the number of elements of the conversion preset is s.
  • a bit string is assumed to be encoded data.
  • the encoding performed by the variable-length encoding unit 108 may be arbitrary as long as it is lossless encoding.
  • the variable-length encoding unit 108 performs, for each piece of transform integration information, a partition index indicating the position of the integrated region, an integration target region index, an integration direction index, and a frequency conversion applied to the integrated region. The index to be indicated is encoded.
  • the partition index takes any value from p0 to p3, and the variable length encoding unit 108 converts this partition index into variable length encoded data using, for example, a Huffman code.
  • the integration target region index takes one of values r0 to r7, and the variable length encoding unit 108 converts the integration target region index into variable length encoded data using, for example, a Huffman code.
  • the integration direction index takes either right or down, and the variable length encoding unit 108 converts the integration direction index into, for example, 1-bit encoded data.
  • the moving image encoding apparatus 10 may not output the conversion integration information.
  • the frequency conversion determination unit 105 determines whether to integrate the conversion target regions based on the pixel values of the predicted image. Thereby, as will be described later, the moving image decoding apparatus 20 performs the same determination as the determination as to whether or not the conversion target regions performed by the frequency conversion determination unit 105 of the moving image encoding apparatus 10 are integrated, and is integrated. The region can be estimated. Furthermore, as described above, by applying the frequency transform having the same transform size as the size of the integrated region, the video decoding device 20 can estimate the frequency transform applied to the integrated region. Therefore, even if the moving image encoding device 10 does not output the conversion integrated information, the moving image decoding device 20 can decode the moving image. On the other hand, if the moving image encoding device 10 outputs the transformation integration information, the moving image decoding device 20 does not need to estimate the integrated region and can reduce the amount of calculation.
  • the moving image encoding device 10 outputs conversion integration information
  • a part of encoding and output of conversion integration information may be omitted.
  • the integration target area index can be omitted.
  • the partition p1 in FIG. 11 (e) has only one conversion target area
  • the integration target area index can be omitted.
  • the integration direction index can be omitted.
  • the region r1 of the partition p0 in FIG. 11B is in contact with other partitions in the macroblock only in the right direction, the integration direction index can be omitted.
  • the information on the frequency conversion can be omitted.
  • the conversion target area can be determined from the frequency conversion information
  • information on the conversion target area for example, any or all of the partition index, the integration target area index, and the integration direction index may be omitted.
  • FIG. 16 is a flowchart illustrating a processing procedure in which the variable-length encoding unit 108 encodes the conversion selection information and conversion integration information of each partition included in the processing target macroblock.
  • step S201 the variable length coding unit 108 determines whether or not the partition structure determined by the frequency conversion determination unit 105 for the macroblock to be processed is quartered. If it is determined that the image is divided into four (step S201: YES), the process proceeds to step S203. If it is determined that the image is not divided into four (step S201: NO), the process proceeds to step S202.
  • the variable length encoding unit 108 encodes conversion selection information and conversion integration information to be applied to each partition in the processing target macroblock. Then, the process which encodes conversion selection information and conversion integration information is complete
  • step S203 the variable-length encoding unit 108 starts a processing loop for each of the sub-macroblocks 0 to 3 of horizontal 8 pixels ⁇ vertical 8 pixels obtained by dividing the macroblock into four.
  • step S204 the variable length encoding unit 108 encodes transform selection information to be applied to each subpartition in the processing target submacroblock. If an unprocessed sub macroblock remains in step S205, the loop from step S203 is repeated, and if not, the process proceeds to step S206.
  • step S206 the variable-length encoding unit 108 starts a processing loop for each of the sub-macroblocks 0 to 3 of horizontal 8 pixels ⁇ vertical 8 pixels obtained by dividing the macroblock into four.
  • step S207 the variable-length encoding unit 108 encodes transform integration information to be applied to each subpartition in the processing target submacroblock.
  • step S208 if an unprocessed sub macroblock remains, the loop from step S206 is repeated, and if not, the process of encoding the conversion selection information and the conversion integration information ends.
  • step S112 in FIG. 3 if there is an unprocessed portion of the moving image input to the moving image encoding device 10, the loop from step S101 is repeated to process the moving image input to the moving image encoding device 10. Is completed, the moving image encoding apparatus 10 ends the process of generating encoded data. As described above, the moving image encoding device 10 integrates adjacent transform target regions across the partition boundary and applies one frequency transform.
  • FIG. 17 is a functional block configuration diagram illustrating an outline of a functional block configuration of the video decoding device 20.
  • the moving picture decoding apparatus 20 includes an encoded data input unit 71, a decoding unit 42, a locally decoded image storage unit 43, and an image output unit 74.
  • the decoding unit 42 includes a variable-length code decoding unit (reversible code decoding unit) 201, a predicted image generation unit 103, a frequency conversion derivation unit (conversion target region determination unit) 111, a prediction residual reconstruction unit 109, and a local decoded image generation unit. 110.
  • the same reference numerals (71, 74, 103, 109, 110) are assigned to portions corresponding to the respective portions in FIG. 1 and portions corresponding to the respective portions in FIG.
  • the encoded data input unit 71 decodes the input encoded data. Output to the variable-length code decoding unit 201 of the unit 42.
  • the decoding unit 42 is realized by the central processing unit 72 of FIG. 1 executing a program.
  • the decoding unit 42 generates a local decoded image that is a decoded image divided for each macroblock from the encoded data for each macroblock input from the encoded data input unit 71.
  • the variable length code decoding unit 201 decodes the prediction parameter, the conversion selection information, and the conversion integration information from the encoded data output from the encoded data input unit 71.
  • the variable-length code decoding unit 201 outputs the decoded prediction parameter to the prediction image generation unit 103 and the frequency conversion derivation unit 111, and outputs the decoded conversion selection information and conversion integration information to the frequency conversion derivation unit 111.
  • the variable length code decoding unit 201 also decodes transform coefficients from the encoded data output from the encoded data input unit 71.
  • the variable length code decoding unit 201 outputs the decoded transform coefficient to the prediction residual reconstruction unit 109.
  • the frequency transform deriving unit 111 is applied to the configuration of the transform target region and the transform target regions in the macroblock to be processed after the integration. Integrated conversion selection information indicating the frequency conversion to be generated is generated. That is, the frequency conversion deriving unit 111 determines a conversion target region based on the conversion selection information and the conversion integration information. The frequency transform deriving unit 111 inputs the generated integrated transform selection information to the prediction residual reconstruction unit 109.
  • the locally decoded image storage unit 43 is realized using the memory 73 of FIG.
  • the local decoded image storage unit 43 is a local decoded image generated by the local decoded image generation unit 110, that is, a local decoding image that is an image obtained by combining a macroblock obtained by dividing the moving image by the moving image encoding device 10 from encoded data. Store the image.
  • the image output unit 74 combines the local decoded images output from the local decoded image generation unit 110 to generate a decoded image in units of frames, and outputs the decoded image to the outside of the video decoding device 20.
  • FIG. 18 is a data configuration diagram illustrating a data configuration of integrated conversion selection information generated by the frequency conversion deriving unit 111.
  • This figure shows an example of integrated conversion selection information when the integration of FIG. 11B is performed.
  • the integrated conversion selection information indicates the size of each conversion target area in the macroblock.
  • the size of the conversion target area is shown in order from the conversion target area located on the top with respect to the position of the upper left pixel of each conversion target area.
  • the size of the conversion target area is shown in order from the conversion target area located at.
  • the frequency transformation deriving unit 111 reads the partition structure from the prediction parameters, reads the frequency transformation applied to each partition from the transformation selection information, and acquires the configuration of the transformation target region before integration. Then, the frequency conversion deriving unit 111 acquires the configuration of the conversion target area after integration based on the conversion integration information, and generates integrated conversion selection information.
  • FIG. 19 is a flowchart illustrating a processing procedure in which the moving image decoding apparatus 20 generates a decoded moving image.
  • the moving picture decoding apparatus 20 starts the process shown in FIG. 5 for processing the input encoded data for each macroblock.
  • step S221 the moving picture decoding apparatus 20 starts a loop for processing encoded data for each macroblock.
  • step S ⁇ b> 222 the encoded data input unit 71 receives input of encoded data for one macroblock from the outside, and outputs it to the variable-length code decoding unit 201.
  • variable length code decoding unit 201 decodes the prediction parameter of the processing target macroblock from the encoded data output from the encoded data input unit 71.
  • the variable length code decoding unit 201 outputs the decoded prediction parameter to the predicted image generation unit 103 and the frequency transformation derivation unit 111.
  • step S223 the variable length code decoding unit 201 decodes the conversion selection information and the conversion integration information of the processing target macroblock from the encoded data output from the encoded data input unit 71.
  • the variable length code decoding unit 201 outputs the decoded conversion selection information and conversion integration information to the frequency conversion deriving unit 111.
  • step S224 the frequency transformation deriving unit 111 generates integrated transformation selection information based on the prediction parameter, transformation selection information, and transformation integration information output from the variable length code decoding unit 201.
  • the frequency transform deriving unit 111 outputs the generated integrated transform selection information to the prediction residual reconstruction unit 109.
  • step S225 the variable length code decoding unit 201 decodes the transform coefficient from the encoded data output from the encoded data input unit 71.
  • the variable length code decoding unit 201 outputs the decoded transform coefficient to the prediction residual reconstruction unit 109.
  • step S226 the prediction image generation unit 103 performs prediction corresponding to the macroblock to be processed based on the prediction parameter output from the variable length code decoding unit 201 and the local decoded image recorded in the frame memory 101. Generate an image.
  • the predicted image generation unit 103 outputs the generated predicted image to the local decoded image generation unit 110.
  • the prediction residual reconstruction unit 109 outputs, from the variable length code decoding unit 201, the inverse frequency transform corresponding to the frequency transform defined by the integrated transform selection information output from the frequency transform deriving unit 111.
  • the prediction residual corresponding to the macroblock to be processed is generated by applying to the transform coefficient.
  • the prediction residual reconstruction unit 109 determines that the frequency transform deriving unit 111 has integrated the transformation target region based on the transform integration information that is a region obtained by integrating regions included in different partitions. And applying a reverse frequency transform to each transform target region indicated by the integrated transform selection information to generate a prediction residual.
  • the prediction residual reconstruction unit 109 outputs the generated prediction residual to the local decoded image generation unit 110.
  • step S228, the local decoded image generation unit 110 generates a local decoded image based on the prediction residual output from the prediction residual reconstruction unit 109 and the prediction image output from the prediction image generation unit 103. .
  • the local decoded image generation unit 110 writes the generated local decoded image in the local decoded image storage unit 43.
  • the local decoded image generation unit 110 outputs the generated local decoded image to the image output unit 74.
  • the image output unit 74 combines the local decoded images output from the local decoded image generation unit 110 to generate a decoded image in units of frames, and outputs the decoded image to the outside of the video decoding device 20.
  • step S229 when all the input encoded data has been processed, the process of generating a decoded moving image is terminated, and when there is remaining encoded data, the loop from step S221 is repeated.
  • the moving image encoding device 10 outputs a signal indicating the end of the encoded data, and the encoded data input unit 71 detects this data. Judge by.
  • the moving picture decoding apparatus 20 it is possible to generate a decoded moving picture from the encoded data generated by the moving picture encoding apparatus 10.
  • the moving image decoding device 20 can generate a decoded moving image even when the moving image encoding device 10 does not output the conversion integrated information.
  • the frequency transformation deriving unit 111 generates transformation integration information using the prediction parameters decoded by the variable length code decoding unit 201 and the local decoded image stored by the local decoded image storage unit 43, and the generated transformation integration.
  • Integrated conversion selection information is generated based on the information and the conversion selection information decoded by the variable-length code decoding unit 201.
  • FIG. 20 illustrates the case where the moving image decoding apparatus 20 integrates when the moving image encoding apparatus 10 determines the suitability of integration based on the change in the pixel value near the boundary of the conversion target area and does not output the conversion integration information. It is a flowchart which shows the process sequence which produces
  • the process of FIG. 19 corresponds to the process of step S223 of FIG.
  • the variable length code decoding unit 201 decodes the conversion selection information.
  • the variable length code decoding unit 201 outputs the decoded conversion selection information to the frequency conversion deriving unit 111.
  • step S242 the frequency conversion deriving unit 111 performs the same process as the process of generating the conversion integrated information by the frequency conversion determining unit 105 described with reference to FIG. 13 to generate the conversion integrated information.
  • step S243 the frequency conversion deriving unit 111 generates integrated conversion selection information based on the generated conversion integration information and the conversion selection information output from the variable length code decoding unit 201. Then, the process which produces
  • the frequency conversion determining unit 105 has the same reference image in the conversion target region r1 and the reference image in the conversion target region r2, and the magnitude of the motion vector mv1 in the conversion target region r1 and the motion vector mv2 in the conversion target region r2. If the difference is equal to or less than the threshold, the frequency conversion deriving unit 111 also generates conversion integration information using the same condition.
  • the moving image decoding device 20 can generate the conversion integrated information and decode the moving image.
  • the encoding data of conversion integrated information is abbreviate
  • the moving image encoding apparatus 10 may generate and encode integrated conversion selection information, and output the encoded conversion selection information.
  • the video decoding device 20 can decode the encoded data using the integrated transformation selection information generated by the video encoding device 10.
  • the frequency conversion deriving unit 111 instead of outputting the conversion selection information and the conversion integration information to the variable length encoding unit, the frequency conversion deriving unit 111 generates the integrated conversion selection information instead of outputting the conversion selection information and the conversion integration information to the variable length encoding unit.
  • the integrated conversion selection information is generated by the same procedure as described above and output to the variable length coding unit 108.
  • the variable length encoding unit 108 encodes the integrated conversion selection information output from the frequency conversion determination unit 105 and outputs it as encoded data. In this way, the moving picture decoding apparatus 20 does not need to generate the integrated conversion selection information, and therefore it is not necessary to include the frequency conversion deriving unit 111, and the configuration of the apparatus can be simplified.
  • the moving image encoding apparatus 10 determines whether or not to integrate adjacent conversion target regions across the partition boundary, and converts the integrated conversion target regions by one frequency conversion. Coding efficiency can be improved when a plurality of regions adjacent to each other with a boundary have high spatial correlation.
  • the video decoding device 20 since the video decoding device 20 performs inverse frequency conversion based on the transformation target region integrated by the video encoding device 10, the video decoding device 20 decodes the encoded data generated by the video encoding device 10 and decodes the video. Can be generated.
  • the video encoding device 10 determines whether or not the spatial correlations of the conversion target regions included in the same partition and adjacent to each other are high, and integrates the conversion target regions determined to have high spatial correlation. May be.
  • the process of determining whether or not the spatial correlation areas that are included in the same partition and are adjacent to each other have a high spatial correlation and the process of integrating the conversion target areas determined to have a high spatial correlation sandwich the partition boundary described above.
  • the same processing as in the case of adjacent conversion target areas can be performed.
  • step S163 of FIG. 13 the condition “conversion target area i and conversion target area j are adjacent to each other, excluding the condition for conversion target areas included in different partition areas from condition C131.
  • a region that is a combination of the conversion target region i and the conversion target region j forms a rectangle conversion targets that are adjacent to each other regardless of whether they are included in the same partition or different partitions. An area can be targeted. Encoding efficiency can be further improved by performing the above determination and integration on the conversion target regions included in the same partition.
  • the moving picture encoding apparatus 10 determines whether or not the spatial correlation between the conversion target areas included in the same partition and adjacent to each other is high regardless of whether or not the adjacent conversion target areas are integrated across the partition boundary. The conversion target areas that are determined to have high spatial correlation are integrated.
  • the moving image encoding apparatus 10 integrates adjacent conversion target areas across the partition boundary, it is further determined whether the spatial correlation between the conversion target areas included in the same partition and adjacent to each other is high. Then, the conversion target areas determined to have high spatial correlation may be integrated. Regardless of whether or not the transformation target areas adjacent to each other across the partition boundary are integrated, it is possible to further improve the encoding efficiency by performing the above determination and integration on the conversion target areas included in the same partition. On the other hand, when integrating the conversion target areas adjacent to each other across the partition boundary, by performing the above determination and integration on the conversion target areas included in the same partition, an increase in the amount of processing performed by the video encoding device 10 is suppressed. be able to.
  • FIG. 21 is a functional block configuration diagram illustrating an outline of a functional block configuration of the moving image encoding device 11 according to the second embodiment of the present invention.
  • the moving image encoding device 11 includes an image input unit 61, an encoding unit 52, a locally decoded image storage unit 33, and an encoded data output unit 64.
  • the encoding unit 52 includes a prediction parameter determination unit (parameter structure determination unit) 102, a prediction image generation unit 103, a prediction residual generation unit 106, a frequency conversion determination unit (frequency conversion region division unit) 112, and a transform coefficient generation unit 107.
  • variable length encoding unit 113 the prediction residual reconstruction unit 109, and the local decoded image generation unit 110 are configured.
  • the same reference numerals (33, 61, 64, 102, 103, 106, 107, 109, 110) are assigned to portions corresponding to the respective parts of the moving picture coding apparatus 10 in FIG. To do.
  • the frequency conversion determination unit 112 determines the frequency conversion using the division pattern across the partition boundary of the predicted image without performing the integration process after selecting the frequency conversion for each partition of the predicted image. This is different from the moving picture encoding apparatus 10 of FIG.
  • FIG. 22 is a diagram illustrating an example of the division pattern used by the frequency conversion determination unit 112.
  • the division pattern is a pattern of an area formed by dividing a macroblock horizontally or vertically.
  • the division pattern represents a region to which the same frequency transform is applied in the macro block.
  • the frequency conversion determination unit 112 selects a division pattern independently of the partition into which the macroblock is divided for motion compensation.
  • the frequency conversion determination unit 112 uses the division patterns shown in FIGS. 22 (a) to 22 (g).
  • FIG. 5A shows a division pattern in the case of one division without dividing a macroblock.
  • FIG. 2B shows a division pattern in the case of two divisions in which a macroblock is divided into two regions of 16 horizontal pixels ⁇ 8 vertical pixels.
  • FIG. 4C shows a division pattern in the case of two divisions in which the macroblock is divided into two regions of 8 horizontal pixels ⁇ 16 vertical pixels.
  • FIG. 4D shows a division pattern in the case of four divisions in which a macroblock is divided into four regions of 8 horizontal pixels ⁇ 8 vertical pixels.
  • FIG. 4E shows a case where the macroblock is divided into six regions by dividing the macroblock into two regions every 8 pixels vertically and dividing the macroblock into three regions in the order of 4 pixels, 8 pixels, and 4 pixels on the left and right. The division pattern is shown.
  • FIG. 8 (f) shows a case in which the macroblock is divided into six regions by dividing the macroblock into three regions in the order of 4 pixels, 8 pixels, and 4 pixels in the upper and lower directions, and dividing into 2 regions every 8 pixels on the left and right.
  • the division pattern is shown.
  • FIG. 4G shows a division pattern when the macroblock is divided into nine areas by dividing the macroblock into three regions in the order of 4 pixels, 8 pixels, and 4 pixels in the vertical and horizontal directions.
  • the frequency conversion determination unit 112 uses the division patterns shown in FIGS. 22H to 22J, division patterns obtained by rotating these division patterns 90 degrees left or right, and division patterns obtained by rotation 180 degrees. May be.
  • FIG. 22H to 22J division patterns obtained by rotating these division patterns 90 degrees left or right
  • 11H shows a division pattern when the macroblock is divided into three areas by dividing the macroblock vertically into every 8 pixels and further dividing the lower area into every 8 pixels left and right.
  • the macroblock is divided into four regions by dividing the macroblock into 8 regions vertically and further dividing the lower region into 3 regions in the order of 4 pixels, 8 pixels and 4 pixels on the left and right.
  • the division pattern is shown.
  • the macro block is divided vertically into 8 pixels, the upper area is further divided into 8 pixels left and right, and the lower area is further divided into 4 pixels, 8 pixels, and 4 pixels in this order.
  • a division pattern in the case of dividing a macroblock into five areas by dividing into three is shown. H.
  • either 4 ⁇ 4 DCT or 8 ⁇ 8 DCT is selected for a partition obtained by dividing a macroblock into four.
  • the division pattern shown in FIG. 22 it is possible to cope with the partition selection and the application of the frequency conversion described above with the division pattern shown in FIG.
  • the division pattern is not limited to that illustrated in FIG. 22, but the number of pixels of each area that can be divided is a multiple of the size of any frequency conversion included in the conversion preset (hereinafter “fillable”).
  • the frequency conversion determination unit 112 may dynamically generate or change a set of division patterns based on the partition structure, the prediction parameter, and the pixel value. In this case, the moving image encoding device 10 outputs information on the set of division patterns to the moving image decoding device 20.
  • FIG. 23 is a flowchart illustrating a processing procedure in which the frequency conversion determination unit 112 determines the division pattern and frequency conversion to be applied to the macro block of the prediction residual to be processed.
  • the frequency conversion determination unit 112 starts a loop for performing processing on each division pattern of a predetermined division pattern set.
  • the frequency conversion determination unit 112 starts a loop that performs processing for each region in the divided pattern P that is a processing target in the loop from step S261.
  • the frequency conversion determination unit 112 selects a frequency conversion to be applied to the region u to be processed in the loop from the conversion preset.
  • step S264 the frequency transformation that applies the frequency transformation that minimizes the rate distortion cost to the region u by calculating the rate distortion cost when each frequency transformation that can be filled is applied based on the above-described equation (1).
  • step S264 the processing loop from step S262 is repeated. If all regions in the divided pattern P have been processed, the process proceeds to step S265.
  • step S265 if there is an unprocessed division pattern, the processing loop from step S261 is repeated. If there is no unprocessed division pattern, the process proceeds to step S266.
  • step S266 the frequency conversion determination unit 112 selects an optimal division pattern for the macroblock being processed.
  • the rate distortion costs obtained in steps S261 to S265 are summed for each division pattern, and a division pattern that minimizes the sum of the rate distortion costs in the macroblock is selected.
  • the frequency transformation determination unit 112 uses the division pattern selected in step S266 and the information of the frequency transformation selected in the region in the division pattern as transformation selection information and the transform coefficient generation unit 107 and the prediction residual reconstruction. Output to unit 109 and variable length encoding unit 113. Thereafter, the process of determining the frequency conversion to be applied to the processing target macroblock is terminated. As described above, the frequency conversion determination unit 112 determines the division pattern and the frequency conversion of each region to be applied in each macroblock. When many division patterns can be selected, the amount of calculation becomes enormous. For example, the result of the frequency conversion performed in step S263 is stored and later referred to when performing the same frequency conversion in the same region. The amount of calculation can be reduced.
  • variable length coding unit 113 performs variable length coding on the transform coefficient and the prediction parameter in each partition in the macroblock, similarly to the variable length coding unit 108 of the video coding device 10.
  • variable-length encoding unit 113 encodes an index indicating a division pattern and an index indicating a frequency transform applied to each region of the prediction residual divided by the division pattern.
  • the variable length encoding unit 113 outputs the generated encoded data to the encoded data output unit 64.
  • FIG. 24 is a flowchart illustrating a processing procedure in which the moving image encoding device generates encoded data.
  • Steps S281 to S285 are the same as steps S101 to S105 in FIG.
  • the frequency transformation determination unit 112 applies the division to be applied to the macroblock to be processed based on the prediction parameter output from the prediction parameter determination unit 102 and the prediction residual output from the prediction residual generation unit 106.
  • a transform coefficient generation unit 107 and a variable length coding unit are generated by determining a pattern and a frequency transform to be applied to each region in the divided pattern, and generating transform selection information indicating the divided pattern and the frequency transform to be applied to each region.
  • 113 and the prediction residual reconstruction unit 109 are generated by determining a pattern and a frequency transform to be applied to each region in the divided pattern, and generating transform selection information indicating the divided pattern and the frequency transform to be applied to each region.
  • step S287 the transform coefficient generation unit 107 frequency-converts the prediction residual output from the prediction residual generation unit 106 based on the division pattern and frequency conversion determined by the frequency conversion determination unit 112, and converts the conversion coefficient into a conversion coefficient. And output to the variable length coding unit 108 and the prediction residual reconstruction unit 109.
  • step S288 the prediction residual reconstruction unit 109 performs inverse frequency transform of the frequency transform performed by the transform coefficient generation unit 107 based on the division pattern and frequency transform determined by the frequency transform determination unit 112. Applying to the transform coefficient output from the unit 107, the prediction residual of the processing target macroblock is reconstructed.
  • the prediction residual reconstruction unit 109 outputs the reconstructed prediction residual to the local decoded image generation unit 110.
  • Step S289 is the same as step S110 of FIG.
  • the variable length encoding unit 113 encodes the transform coefficient, the prediction parameter, the division pattern, and the transform selection information to generate encoded data.
  • the variable length encoding unit 113 encodes the transform coefficient for each partition, similarly to the variable length encoding unit 108 of FIG.
  • the variable length encoding unit 113 outputs the generated encoded data to the encoded data output unit 64.
  • the encoded data output unit 64 outputs the encoded data output from the variable length encoding unit 113 to the outside of the moving image encoding device 11.
  • Step S291 is the same as step S112 in FIG. By the above procedure, the moving image encoding device 11 encodes the input moving image to generate encoded data, and outputs the encoded data to the outside.
  • the frequency conversion determination unit 112 may determine or narrow down the division pattern by a method other than the method using the rate distortion cost. For example, the frequency conversion determination unit 112 determines the similarity in the left and right regions of the boundary line, the similarity of motion vectors, the index of the reference image, or the like with respect to the vertical boundary line as shown in FIG. When it is determined that the similarity between the left and right regions of the boundary line is high, the frequency conversion determination unit 112 excludes the divided patterns of FIGS. 22C, 22D, and 22F from the candidates, which divide the macroblock into left and right To do. Here, the frequency conversion determination unit 112 performs the above determination by applying the expression (2) to the left and right pixels of the divided pattern, similarly to the frequency conversion determination unit 105 of the video encoding device 10. .
  • FIG. 25 is a functional block configuration diagram illustrating an outline of a functional block configuration of the moving image decoding device 21.
  • the moving picture decoding apparatus 21 includes an encoded data input unit 71, a decoding unit 82, a locally decoded image storage unit 43, and an image output unit 74.
  • the decoding unit 82 includes a variable-length code decoding unit 202, a predicted image generation unit 103, a prediction residual reconstruction unit 109, and a local decoded image generation unit 110.
  • the same reference numerals 43, 71, 74, 103, 109, 110
  • the variable length code decoding unit 202 decodes the encoded data output from the encoded data input unit 71, and generates a prediction parameter, a division pattern, conversion selection information, and a conversion coefficient. Specifically, the variable length code decoding unit 202 first decodes the prediction parameter and the division pattern from the encoded data. Next, the variable length code decoding unit 202 decodes the conversion selection information from the encoded data using the decoded division pattern. Then, the variable-length code decoding unit 202 reads the partition structure from the decoded prediction parameter, and decodes the transform coefficient from the encoded data. The variable length code decoding unit 202 outputs the generated prediction parameter, the division pattern, the conversion selection information, and the conversion coefficient to the prediction residual reconstruction unit 109 and the predicted image generation unit 103.
  • FIG. 26 is a flowchart illustrating a processing procedure in which the moving image decoding apparatus 21 generates a decoded moving image.
  • Steps S301 to S302 are the same as steps S221 to S222 in FIG.
  • step S303 the variable length code decoding unit 202 decodes the division pattern and conversion selection information corresponding to the macroblock to be processed from the input encoded data.
  • the variable length code decoding unit 202 outputs the decoded division pattern and conversion selection information to the prediction residual reconstruction unit 109.
  • Steps S304 to S305 are the same as steps S225 to S226 in FIG.
  • step S ⁇ b> 306 the prediction residual reconstruction unit 109 performs, from the variable length code decoding unit 202, the inverse frequency transform corresponding to the frequency conversion specified by the division pattern and transform selection information output from the variable length code decoding unit 202. Applying to the output transform coefficient, the prediction residual of the macroblock to be processed is reconstructed.
  • the prediction residual reconstruction unit 109 outputs the reconstructed prediction residual to the local decoded image generation unit 110.
  • Steps S307 to S308 are the same as steps S228 to S229 in FIG. As described above, according to the moving picture decoding apparatus 21, a decoded moving picture can be generated from the encoded data generated by the moving picture encoding apparatus 11.
  • FIG. 27 is a configuration diagram showing the configuration of the video decoding device 22 that selects a division pattern.
  • the moving picture decoding apparatus 22 includes an encoded data input unit 71, a decoding unit 92, a local decoded image storage unit 43, and an image output unit 74.
  • the decoding unit 92 includes a variable-length code decoding unit 202, a predicted image generation unit 103, a prediction residual reconstruction unit 209, and a local decoded image generation unit 110.
  • the prediction residual reconstruction unit 209 includes a division pattern derivation unit 203.
  • the division pattern derivation unit 203 selects the division pattern by performing the same processing as the frequency conversion determination unit 112 of the moving image encoding device 11 based on the locally decoded image and the prediction parameter.
  • the prediction residual reconstruction unit 209 uses the division pattern selected by the division pattern deriving unit 203 to calculate the prediction residual of the processing target macroblock in the same manner as the prediction residual reconstruction unit 109 of the video decoding device 21. Rebuild.
  • the prediction residual reconstruction unit 209 outputs the reconstructed prediction residual to the local decoded image generation unit 110. Thereby, even when the moving image encoding device 11 does not output information indicating a division pattern, the moving image decoding device 22 can generate a decoded moving image.
  • the moving image encoding apparatus 11 performs encoding using a division pattern, and when adjacent regions across a partition boundary are included in the same region of the division pattern, One frequency transformation can be applied to this region. Thereby, when the spatial correlation of the area
  • the moving image decoding device 21 and the moving image decoding device 22 can generate a decoded moving image from the encoded data generated by the moving image encoding device 11.
  • FIG. 28 is a configuration diagram showing a configuration of the moving image encoding device 16 according to the third embodiment of the present invention.
  • the moving image encoding device 16 includes an image input unit 61, an encoding unit 36, a locally decoded image storage unit 33, and an encoded data output unit 64.
  • the encoding unit 36 includes a prediction parameter determination unit (partition structure determination unit, prediction mode determination unit) 152, a prediction image generation unit 153, a prediction residual generation unit 106, a frequency conversion determination unit (frequency conversion region division unit) 155, and a conversion A coefficient generation unit 107, a variable length encoding unit 108, a prediction residual reconstruction unit 109, and a local decoded image generation unit 110 are configured.
  • the video encoding device 16 determines whether to perform inter prediction or intra prediction for each macroblock, and performs processing according to the determination.
  • inter prediction motion compensation prediction
  • intra prediction includes pixels included in the same frame as a processing target macroblock (predicted image pixels generated in the processing target macroblock or a locally decoded image of a macroblock adjacent to the processing target macroblock).
  • the processing performed by the video encoding device 16 when it is determined to perform inter prediction is the same as that of the video encoding device 10, and the prediction parameter determination unit 152, the predicted image generation unit 153, and the frequency conversion determination unit 155 2 operate in the same manner as the prediction parameter determination unit 102, the prediction image generation unit 153, and the frequency conversion determination unit 155 of FIG. Processing when the moving image encoding device 16 determines to perform intra prediction will be described below.
  • the prediction parameter determination unit 152 determines whether to perform inter prediction or intra prediction for each macroblock.
  • a known method can be used to determine whether to perform inter prediction or intra prediction.
  • the prediction parameter determination unit 152 calculates the rate distortion cost when inter prediction is performed and the rate distortion cost when intra prediction is performed based on Expression (1), and selects the one with the smaller rate distortion cost. To do. Note that it is also possible to select intra prediction only at a predetermined frame or position without dynamically determining whether to perform inter prediction or intra prediction. Further, whether to use intra prediction may be determined on a frame basis.
  • the prediction parameter determination unit 152 When it is determined that intra prediction is to be performed, the prediction parameter determination unit 152 describes the size of a partition or a subpartition (hereinafter simply referred to as a partition when there is no need to distinguish between the partition and the subpartition) with reference to FIG.
  • a partition when there is no need to distinguish between the partition and the subpartition
  • the partitions horizontal 16 pixels ⁇ vertical 16 pixels (partition structure MB1 in FIG. 5), horizontal 8 pixels ⁇ vertical 8 pixels (partition structure MB4), horizontal 4 pixels ⁇ vertical 4 pixels (partition structure MB4 and subpartition structure SMB4)
  • a prediction mode is determined for each partition determined according to the determined partition size. The prediction mode will be described later.
  • the prediction parameter determination unit 152 generates a prediction parameter indicating that the intra prediction has been selected, the determined partition size, and the prediction mode to be applied to each partition, and the predicted image generation unit 153 and the frequency conversion determination unit 155 The data is output to the variable length coding unit 108.
  • the predicted image generation unit 153 generates a predicted image using the local decoded image read from the local decoded image storage unit 33 according to the prediction mode determined by the prediction parameter determination unit 152.
  • the predicted image generation unit 153 outputs the generated predicted image to the prediction residual generation unit 106 and the local decoded image generation unit 110.
  • the frequency conversion determination unit 155 determines a conversion target region for frequency conversion to be applied to the prediction residual output from the prediction residual generation unit 106, and It is determined whether or not to integrate the conversion target areas.
  • the frequency conversion determination unit 155 generates conversion selection information indicating the determined conversion target region (frequency conversion size) and conversion integration information indicating the conversion target region to be integrated.
  • the conversion coefficient generation unit 107 and the prediction residual The data is output to the reconstruction unit 109 and the variable length coding unit 108.
  • FIG. 29 is a diagram illustrating a prediction mode determined by the prediction parameter determination unit 152.
  • Prediction parameter determination unit 152 is an A prediction mode to be applied to the partition is selected from prediction modes similar to the prediction mode defined by H.264 / AVC.
  • the prediction mode is information indicating a method for generating a predicted image of a partition from pixels adjacent to the partition. This figure shows a prediction mode in the case where the partition size is 4 horizontal pixels ⁇ 4 vertical pixels.
  • mode 0 shown in FIG. 6A interpolation is performed in the vertical direction based on pixels adjacent on the partition, and a predicted image of the partition is generated.
  • mode 1 shown in FIG. 5B the prediction image of the partition is generated by performing horizontal interpolation based on the pixel adjacent to the left of the partition.
  • mode 2 shown in FIG. 5C interpolation is performed using the average of pixel values adjacent to the left and top of the partition to generate a predicted image of the partition.
  • mode 3 shown in FIG. 4D interpolation is performed from the upper right to the lower left based on the pixels adjacent on the partition, and a predicted image of the partition is generated.
  • mode 4 shown in FIG. 5E mode 5 shown in FIG. 5F
  • mode 6 shown in FIG. 5G mode 7 shown in FIG.
  • mode 8 shown in (i) interpolation is performed in an oblique direction as indicated by an arrow in the figure to generate a predicted image of the partition.
  • the prediction parameter determination unit 152 selects a prediction mode to be applied to the partition from the nine prediction modes similar to the above.
  • the prediction parameter determining unit 152 performs the interpolation in the vertical direction based on the adjacent pixels on the partition, as in FIG. As in FIG. 29 (b), the mode in which interpolation is performed in the horizontal direction based on the pixels adjacent to the left of the partition, and the average of the pixel values adjacent to the left and top of the partition as in FIG. 29 (c).
  • the prediction parameter determination unit 152 calculates the rate distortion cost when applied to the partition for each prediction mode based on Equation (1), and selects the prediction mode that minimizes the rate distortion cost.
  • FIG. 30 is a flowchart illustrating a processing procedure in which the moving image encoding device 16 generates encoded data.
  • the moving image encoding device 16 starts a process of generating encoded data.
  • Steps S321 to S322 are the same as steps S101 to S102 of FIG.
  • the prediction parameter determination unit 152 determines whether to perform intra prediction or inter prediction. If it is determined to perform intra prediction (step S323: YES), the process proceeds to step S324. If it is determined to perform inter prediction (step S323: NO), the process proceeds to step S341.
  • the prediction parameter determination unit 152 calculates a rate distortion cost for each partition size, similarly to the prediction parameter determination unit 102 (FIG. 2) of the first embodiment, and the partition having the minimum rate distortion cost is calculated. Select the size. Furthermore, the prediction parameter determination unit 152 determines a prediction mode for each partition, and generates a prediction parameter indicating that intra prediction has been selected, the determined partition size, and the prediction mode. The prediction parameter determination unit 152 outputs the generated prediction parameter to the frequency conversion determination unit 155, the predicted image generation unit 153, and the variable length coding unit 108.
  • the predicted image generation unit 153 generates a predicted image for each partition according to the partition size and the prediction mode determined by the prediction parameter determination unit 152. Specifically, the predicted image generation unit 153 determines, for each partition in the macroblock, the pixel value of the pixel adjacent to the processing target partition (when the reference pixel is included in another macroblock) A partition from which a predicted image has been generated, which is read from a local decoded image stored in the decoded image storage unit 33 or stored inside the predicted image generation unit 153 (when a pixel to be referenced is included in the same macroblock) The prediction image of the partition is generated by performing interpolation according to the prediction mode.
  • the predicted image generation unit 153 generates a predicted image of the macroblock by combining the predicted images of the partitions in the macroblock.
  • the predicted image generation unit 153 outputs the generated predicted image (the predicted image of the macroblock) to the prediction residual generation unit 106 and the local decoded image generation unit 110.
  • Step S326 is the same as step S105 in FIG.
  • the frequency conversion determination unit 155 selects a frequency conversion for each partition, as in step S106 of FIG. Specifically, the frequency conversion determination unit 155 selects frequency conversion in which an area equal to or smaller than the partition size is used as the conversion target area from the same conversion presets as in the first embodiment.
  • the frequency conversion is uniquely determined according to the size of the partition.
  • the frequency conversion determination unit 155 performs the H.264 conversion.
  • frequency conversion may be determined.
  • the prediction parameter determination unit 152 selects a partition of 16 horizontal pixels ⁇ 16 vertical pixels in step S324
  • the frequency conversion determination unit 155 selects 4 ⁇ 4 DCT as the frequency conversion in step S327, and then In step conversion S328 to be described, the target areas are integrated.
  • the frequency conversion used by the video encoding device 16 is H.264. It is not limited to the frequency conversion used in H.264 / AVC.
  • the size of the macroblock is not limited to 16 horizontal pixels ⁇ 16 vertical pixels.
  • the partition size may be a size other than the above-mentioned horizontal 4 pixels ⁇ vertical 4 pixels, horizontal 8 pixels ⁇ vertical 8 pixels, and horizontal 16 pixels ⁇ vertical 16 pixels.
  • step S328 the frequency conversion determination unit 155 generates conversion integration information indicating an area obtained by integrating adjacent conversion target areas, as in step S107 of FIG. Similar to the frequency conversion determination unit 105 of the first embodiment, the frequency conversion determination unit 155 has a high spatial correlation between these conversion target regions based on the similarity of pixel values of pixels adjacent to each other in the predicted image. It is determined whether or not these conversion target areas are to be integrated. Here, the frequency conversion determination unit 155 determines whether or not to integrate adjacent conversion target regions regardless of whether adjacent conversion target regions are included in the same partition or different partitions. .
  • the frequency conversion determination unit 155 removes the condition to be a conversion target area included in different partition areas from the above-described condition C131.
  • the condition “the conversion target area i and the conversion target area j are adjacent to each other and the area obtained by combining the conversion target area i and the conversion target area j forms a rectangle” is applied.
  • the frequency conversion determination unit 155 determines whether to integrate only conversion target regions included in different partitions using the condition C131. Also good. Note that the frequency conversion determination unit 155 may determine whether to integrate the conversion target regions by a method other than the above. For example, the frequency conversion determination unit 155 determines whether or not the prediction modes of the conversion target regions adjacent to each other are equal, or whether or not the prediction mode is equal to a specific prediction mode, that is, a prediction mode as illustrated in FIG.
  • Is equal to a specific prediction mode, whether the interpolation directions indicated by the prediction mode are the same or similar to each other, or one conversion target region is a pixel of the other conversion target region It is also possible to use a combination of these as an index indicating spatial correlation and determine a region to be integrated based on the index indicating spatial correlation.
  • Steps S329 to S333 are the same as steps S108 to S112 in FIG.
  • Steps S341 to S349 are processes when the moving picture encoding apparatus 16 performs inter prediction.
  • the prediction parameter determination unit 152 generates a prediction parameter including information indicating that inter prediction has been selected.
  • steps S341 to S349 are the same as steps S103 to S111 in FIG. After step S349, the process proceeds to step S333.
  • the frequency conversion determination unit 155 determines whether to integrate the conversion target regions based on the pixel values of adjacent pixels in the predicted image, the moving image The encoding device 16 cannot omit the output of the conversion integration information. This is because, in intra prediction, the method of generating a prediction image is different from that in inter prediction. As described later, in order for a video decoding device to generate a prediction image, it is necessary that the transform coefficient has already been subjected to inverse frequency conversion. Therefore, at the time when the frequency conversion determination unit 155 determines the frequency conversion to be applied to the macroblock to be processed, a prediction image has not yet been generated, and the integration of the conversion target region performed by the video encoding device 16 is predicted.
  • the video decoding device when the frequency transformation determination unit 155 determines whether to integrate the transformation target regions based on the prediction mode, the video decoding device also includes information indicating the prediction mode output from the video encoding device 16. Can be used to estimate the integrated transformation target region, so that the video coding device 16 may not output the transformation integration information.
  • the prediction error is compensated by performing frequency conversion and inverse frequency conversion on the prediction residual for each partition, not for each macroblock, and generating a local decoded image for each partition.
  • the encoding efficiency is improved by using the locally decoded image in which the prediction error is compensated.
  • the conversion coefficient generation unit 107 performs frequency conversion for each macroblock.
  • the predicted image generation unit 153 generates a predicted image using an image that does not compensate for the prediction error, as described in step S325 above.
  • the prediction error is not likely to be a big problem.
  • the frequency conversion and inverse frequency conversion that have been stored in the local decoded image storage unit 33 have been performed. Since the locally decoded image is referred to, the above problem of prediction error does not occur. Also, when reversible conversion is used for frequency conversion performed by the conversion coefficient generation unit 107, the prediction error does not become a problem.
  • the average is also used when the DC component prediction mode (DC prediction mode) for generating a prediction image based on the average value of the reference pixels on the upper and left sides of the partition is used.
  • the transform coefficient generation unit 107 quantizes the transform coefficient, if the quantization width is small, the prediction error due to quantization is small and the prediction error is less likely to be a problem.
  • the prediction image generation unit 153 may apply a filter when using a prediction image that is not stored in the prediction error compensation.
  • the moving image decoding apparatus also applies the same filter when generating the predicted image.
  • a prominent prediction error can be reduced by applying a smoothing filter.
  • the prediction residual generation unit 106 applies a weaker filter than in the other modes or does not apply the filter. Also good. Even when the quantization width is small, the prediction residual generation unit 106 may apply a weak filter or may not apply a filter.
  • the video encoding device 16 may integrate only a plurality of conversion target areas included in the same partition.
  • H.C. Similarly to the intra prediction defined by H.264 / AVC, it is possible to generate a locally decoded image for each partition by performing frequency conversion and inverse frequency conversion on the prediction residual for each partition. As a result, H.C. As in the case of H.264 / AVC, the encoding efficiency can be improved.
  • H. In intra prediction defined in H.264 / AVC Hadamard transform may be further performed to remove redundancy of direct current (DC) components of transform coefficients after frequency transforming a prediction residual.
  • DC direct current
  • the transform coefficient generation unit 107 performs frequency transform on the integrated transform target regions, so that the spatial correlation between adjacent regions is reflected in the transform coefficients. Therefore, it is not necessary to further perform Hadamard transform on the transform coefficient, and there is no increase in processing amount due to performing Hadamard transform.
  • FIG. 31 is a functional block configuration diagram illustrating an outline of a functional block configuration of the video decoding device 26.
  • the moving image decoding apparatus 26 includes an encoded data input unit 71, a decoding unit 46, a locally decoded image storage unit 43, and an image output unit 74.
  • the decoding unit 46 includes a variable-length code decoding unit (lossless code decoding unit) 201, a predicted image generation unit 163, a frequency conversion derivation unit (conversion target region determination unit) 111, a prediction residual reconstruction unit 109, and a local decoded image generation unit. 170.
  • the same reference numerals 43, 71, 74, 201, 111, 109 are assigned to the portions corresponding to the respective portions in FIG.
  • the predicted image generation unit 163 uses the partition size information and the prediction mode information output from the variable-length code decoding unit 201, the pixel values of adjacent macroblocks read from the local decoded image storage unit 43, local Based on the local decoded image of the partition processed in the same macroblock output from the decoded image generation unit 170, a predicted image is generated for each partition and is output to the local decoded image generation unit 170.
  • the local decoded image generation unit 170 generates a local decoded image of the partition based on the prediction image of the partition output from the prediction image generation unit 163 and the prediction residual output from the prediction residual reconstruction unit 109. .
  • the local decoded image generation unit 170 generates a local decoded image of the partition by adding the corresponding pixel of the prediction residual to each pixel of the predicted image of the partition.
  • the local decoded image generation unit 170 outputs the generated local decoded image of the partition to the predicted image generation unit 163.
  • the predicted image generation unit 163 can refer to the image output from the local decoded image generation unit 170 when generating a predicted image of another partition in the same macroblock.
  • the local decoded image generation unit 170 generates a local decoded image (in macroblock units) by combining the local decoded images of the partitions, and the generated local decoded image is stored in the local decoded image storage unit 43 and the image output unit 74. Output to.
  • FIG. 32 is a flowchart illustrating a processing procedure in which the moving image decoding device 26 generates a decoded moving image.
  • the moving picture decoding device 26 starts the process shown in FIG. 5 for processing the input encoded data for each macroblock.
  • Steps S381 to S385 are the same as steps S221 to S225 in FIG.
  • Step S386 is the same as step S227 of FIG.
  • intra prediction using the prediction residual generated by the prediction residual reconstruction unit 109 in step S386, the local decoded image generation unit 170 generates a local decoded image for each partition, and the generated local decoded image for each partition is obtained. Since the predicted image generation unit 163 generates a predicted image for each partition, unlike the case of FIG. 19, the video decoding device 26 performs inverse frequency conversion on the transform coefficient before generating the predicted image.
  • step S387 the predicted image generation unit 163 reads information indicating whether the video encoding device 16 has performed intra prediction or inter prediction from the prediction parameters output from the variable length code decoding unit 201. If the read information indicates that intra prediction has been performed (step S387: YES), the process proceeds to step S388, and if it indicates that inter prediction has been performed (step S387: NO), the process proceeds to step S390.
  • step S388 the predicted image generation unit 163 generates a predicted image. Specifically, as described above, a predicted image is generated for each partition and output to the local decoded image generation unit 170.
  • the local decoded image generation unit 170 generates a local decoded image of the partition based on the prediction image for each partition output from the prediction image generation unit 163 and the prediction residual output from the prediction residual generation unit 109. It outputs to the prediction image generation part 163.
  • the local decoded image generation unit 170 combines the local decoded images of the partitions to generate a local decoded image (in macroblock units), and generates the local decoded image storage unit 43 and the image output unit 74. And output. Thereafter, the process proceeds to step S392.
  • Step S390 is the same as step S226 in FIG.
  • Steps S391 to S392 are the same as steps S228 to S229 in FIG.
  • the frequency conversion deriving unit 111 of the video decoding device 26 performs the same processing as the processing in which the frequency conversion determining unit 165 of the video encoding device 16 generates the conversion integrated information. Generate integrated information. Thereby, even when conversion integration information is not output from the moving image encoding device 16, the moving image decoding device 26 can generate a decoded moving image.
  • the moving image encoding device 16 also determines whether or not to integrate adjacent conversion target regions when performing intra prediction, and converts the integrated conversion target regions by one frequency conversion. Therefore, the coding efficiency can be improved when a plurality of areas adjacent to each other across the partition boundary have a high spatial correlation.
  • the video decoding device 26 performs frequency inverse transform based on the transform target region integrated by the video encoding device 16, the encoded video generated by the video encoding device 16 is decoded and decoded video is decoded. Can be generated.
  • the frequency conversion determination unit 155 of the video encoding device 16 does not perform the integration process after selecting the frequency conversion for each partition of the predicted image.
  • the frequency conversion may be determined using a division pattern across the partition boundary of the predicted image. Specifically, the frequency conversion determination unit 155 selects a division pattern according to the procedure shown in the flowchart of FIG. Then, the moving image encoding device 16 encodes and outputs an index indicating a division pattern, a prediction parameter (information indicating a partition size and a prediction mode), conversion selection information, and a conversion coefficient, and the moving image decoding device 26 These data are decrypted.
  • the prediction residual reconstruction unit 109 of the video decoding device 26 performs inverse frequency transform on the transform coefficient according to the decoded division pattern and transform selection information, and reconstructs the prediction residual.
  • the moving image decoding apparatus 26 since the moving image decoding apparatus 26 receives a division
  • the moving image encoding device 16 performs encoding rather than performing frequency conversion for each partition when the spatial correlation of each conversion target region determined according to the division pattern is high. Efficiency can be improved.
  • the moving image decoding device 21 and the moving image decoding device 22 can generate a decoded moving image from the encoded data generated by the moving image encoding device 11.
  • a program for realizing all or part of the functions of the moving image encoding devices 10, 11, 16 and the moving image decoding devices 20, 21, 22, 26 is recorded on a computer-readable recording medium, Processing of each unit may be performed by causing a computer system to read and execute a program recorded on the recording medium.
  • the “computer system” includes an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line.
  • a volatile memory in a computer system serving as a server or a client in that case and a program that holds a program for a certain period of time are also included.
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
  • the present invention is suitable for use in a moving image encoding device, a moving image decoding device, a moving image encoding / decoding system, a moving image encoding method, and a moving image decoding method.
  • the present invention can be applied to transmission / reception of moving images or storage / reproduction of moving images.
  • Video coding / decoding system 10 11, 16 Video coding device 20, 21, 22, 26 Video decoding device 61 Image input unit 32, 36, 52 Coding unit 33, 43 Local decoded image storage unit 64 Encoded data output unit 71 Encoded data input unit 42, 46, 82, 92 Decoding unit 74 Image output unit 102, 152 Prediction parameter determination unit 103, 153, 163 Prediction image generation unit 105, 112, 155 Frequency conversion determination unit 106 Prediction residual generation unit 107 Transform coefficient generation unit 108, 113 Variable length encoding unit 109 Prediction residual reconstruction unit 110, 170 Local decoded image generation unit 111 Frequency conversion derivation unit 201, 202 Variable length code decoding unit 203 Dividing pattern derivation Part

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

周波数変換決定部が、パーティション境界を挟んで隣接する変換対象領域を統合するか否かを判断する。変換係数生成部は、周波数変換決定部が統合すると判断した変換対象領域に対して1つの周波数変換を適用して変換係数を生成する。

Description

動画像符号化装置、動画像復号装置、動画像符号化・復号システム、動画像符号化方法および動画像復号方法
 本発明は、動画像符号化装置、動画像復号装置、動画像符号化・復号システム、動画像符号化方法および動画像復号方法に関する。
 本願は、2009年10月20日に日本に出願された特願2009-241904号、および、2009年11月13日に日本に出願された特願2009-259856号に基づき優先権を主張し、その内容をここに援用する。
 H.264/AVC(Advanced Video Coding)に規定される動画像符号化方式(非特許文献1参照)など、ブロックベースの動画像符号化方式においては、動画像符号化装置は、符号化対象である入力動画像を、マクロブロック(Macro Block;MB)と呼ばれる所定の処理単位に分割し、マクロブロック毎に符号化処理を行なって符号化データを生成する。動画像の再生時には、動画像復号装置は、復号対象である符号化データをマクロブロック単位で処理して復号することによって復号画像を生成する。
 H.264/AVCに規定される動画像符号化方式では、動画像符号化装置は、マクロブロック単位に分割された入力動画像を近似する予測画像を生成し、入力動画像と予測画像の差分である予測残差を算出する。さらに、動画像符号化装置は、算出された予測残差に、離散コサイン変換(Discrete Cosign Transform;DCT)に代表される周波数変換を適用して変換係数を生成する。動画像符号化装置は、生成された変換係数を、CABAC(Context-based Adaptive Binary Arithmetic Coding)やCAVLC(Context-based Adaptive Variable Length Coding)と呼ばれる方法で可変長符号化する。
 ここで、予測画像は、動画像の空間的な相関を利用するイントラ予測や、動画像の時間的な相関を利用するインター予測(動き補償予測)により生成される。
 H.264/AVCのインター予測では、動画像符号化装置は、マクロブロックを分割した領域であるパーティション毎に、入力動画像を近似する画像を生成し、生成した画像を結合して符号化対象のマクロブロックの入力動画像を近似する予測画像を生成する。具体的には、動画像符号化装置は、まず、入力動画像のマクロブロックをパーティションに分割する。そして、動画像符号化装置は、フレームメモリに記録されている局所復号画像と呼ばれる画像の中から、パーティション毎に1つの画像を選択し、選択した画像中のパーティションを近似する領域を決定する。この、局所復号画像の中から選択される画像は、参照画像と呼ばれる。また、パーティションを近似する領域は元のパーティションと同じ大きさの領域である。さらに、動画像符号化装置は、入力動画像のマクロブロックにおけるパーティションの位置と参照画像中のパーティションを近似する領域の位置とのずれを示す動きベクトルを、パーティション毎に1個または2個生成する。また、動画像符号化装置は、各パーティションを近似する画像を結合して予測画像を生成する。
 H.264/AVCでは、横16画素×縦16画素、横16画素×縦8画素、横8画素×縦16画素、横8画素×縦8画素、横8画素×縦4画素、横4画素×縦8画素、横4画素×縦4画素のパーティションサイズが規定されている。小さいパーティションサイズを利用すれば細かい単位で動きベクトルを指定して予測画像を生成できる。このため、動きの空間的な相関が小さい場合であっても入力動画像に近い予測画像を生成できる。一方、大きいパーティションサイズを利用すれば、動きの空間的な相関が大きい場合に、動きベクトルの符号化に要する符号量を低減できる。
 H.264/AVCでは、動画像符号化装置が、入力動画像と予測画像との差分である予測残差を生成することによって入力動画像の画素値の空間的または時間的冗長性を削減することができ、符号量を削減できる。さらに、予測残差に対して離散コサイン変換を適用することで、低周波成分にエネルギーを集中させられる。このエネルギーの偏りを利用して、人の目が感知しやすい低周波成分は細かい粒度で符号化し、人の目が感知しにくい高周波成分は粗い粒度で符号化して、符号化データの符号量を削減できる。
 この離散コサイン変換を行う際、H.264/AVCでは、複数種の変換サイズの離散コサイン変換から動画像の局所的性質に適合した離散コサイン変換を選択する方式(ブロック適応変換選択)が採用されている。例えば、インター予測により予測画像を生成する場合は、8×8DCTと4×4DCTの二種類の離散コサイン変換から、予測残差の変換に適用する離散コサイン変換を選択する。8×8DCTは、横8画素×縦8画素の領域に離散コサイン変換を行う変換であり、4×4DCTは、横4画素×縦4画素の領域に離散コサイン変換を行う変換である。8×8DCTは、広い範囲で画素値の空間相関を利用できるため、高周波成分が比較的少ない平坦な領域に対して有効である。一方、4×4DCTは、物体の輪郭を含むような高周波成分の多い領域で有効である。なお、H.264/AVCでは、パーティションの面積が8×8画素以上の場合に8×8DCTと4×4DCTとのいずれかを選択できる。パーティションの大きさが横8画素×縦8画素未満の場合には4×4DCTを選択する。
 このように、H.264/AVCでは、動画像の局所的性質である画素値の空間相関や動きベクトルの空間相関の高低に応じて好適なパーティションサイズや変換サイズを選択することにより、符号化データの符号量を削減できる。
ITU-T Recommendation H.264、ISO/IEC 14496-10
 上述のように、H.264/AVCでは、周波数変換を8×8DCTと4×4DCTの2種類のサイズからパーティション毎に適応的に選択して利用できる。これにより、パーティション内の空間相関を利用して符号化効率を向上させることができる。しかし、H.264/AVC等の従来の動画像符号化技術では、周波数変換の対象として決定された領域間の空間相関、特にパーティション間の空間相関は符号化効率に反映されていない。このため、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合であっても、符号化効率を向上させることができないという問題があった。また、同じパーティション内にあっても、空間相関の高い領域が隣接している場合は、それを統合して周波数変換を行うことにより、更に符号化効率を向上させることができる。ところが、H.264/AVCでは、周波数変換が行われるサイズは、8×8DCTと4×4DCTの2種類のサイズに限られていた。
 さらに、8×8DCTと4×4DCTのどちらのサイズの周波数変換を適用するかについては、実際に周波数変換を実行した結果のレート歪コストを評価して決定しており、符号化の計算処理量が増大してしまうという課題があった。
 本発明は、このような事情に鑑みてなされたもので、その目的は、隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる動画像符号化装置、動画像復号装置、動画像符号化・復号システム、動画像符号化方法および動画像復号方法を提供することにある。
 [1]この発明は上述した課題を解決するためになされたもので、本発明の一態様による動画像符号化装置は、入力動画像のフレームをマクロブロック単位に分割する画像入力部と、前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、前記マクロブロックを、少なくとも一つの変換対象領域が前記パーティションをまたぐ領域を含む変換対象領域に分割する周波数変換領域分割部と、前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、を具備することを特徴とする。
 この動画像符号化装置は、パーティションをまたぐ変換対象領域に周波数変換を適用するので、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 [2]また、本発明の一態様による動画像符号化装置は変換係数を生成済みの前記マクロブロックの復号画像である局所復号画像を記憶する局所復号画像記憶部と、前記局所復号画像記憶部が記憶する局所復号画像の中から前記パーティション毎に参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、前記予測画像と前記マクロブロックとの各画素値の差分である予測残差を生成する予測残差生成部と、を具備することを特徴とする。
 [3]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記パーティション毎に適用する周波数変換に応じた変換対象領域に分割し、互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域を統合した領域における前記予測残差の空間相関が高いと判断したときは、前記統合した領域を、前記パーティションをまたぐ変換対象領域の1つとすることを特徴とする。
この動画像符号化装置は、互いに異なるパーティションに含まれる変換対象領域を統合した領域を、上述のパーティションをまたぐ変換対象領域の1つとするので、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 [4]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域を示す変換統合情報を生成し、前記符号化データ出力部は、前記変換統合情報を前記符号化データに含めて出力することを特徴とする。
 この動画像符号化装置は、変換統合情報を出力するので、動画像復号装置は、出力された変換統合情報に基づいて復号動画像を生成することができる。
 [5]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域における前記予測残差の空間相関が高いか否かを、前記予測画像上で当該変換対象領域に対応する領域画像の特徴量に基づいて判断することを特徴とする。
この動画像符号化装置は、予測画像上で変換対象領域に対応する領域画像の特徴量に基づいて、パーティションをまたぐ変換対象領域における予測残差の空間相関が高いか否かを判断するので、空間相関が高いと判断した変換対象領域に1つの周波数変換を適用することによって、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 [6]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域における前記予測残差の空間相関が高いか否かを、前記予測画像上で当該変換対象領域に対応する領域内の画素のうち、互いに隣接し、かつ、異なるパーティションに属する画素の画素値の差分に基づいて判断することを特徴とする。
 この動画像符号化装置は、予測画像の画素値に基づいて、パーティションをまたぐ変換対象領域における予測残差の空間相関が高いか否かを判断するので、空間相関が高いと判断した変換対象領域に1つの周波数変換を適用することによって、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 また、空間相関が高いか否かを、予測画像を用いて判断するので、動画像復号装置においても同一の判断を行うことができ、動画像符号化装置が動画像復号装置に対して統合した変換対象領域のデータ送信を省略できる。したがって、送信データの符号量を低減させることができる。
 [7]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域における前記予測残差の空間相関が高いか否かを、前記予測画像上で当該変換対象領域に対応する領域内における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、該予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数に基づいて判断することを特徴とする。
 この動画像符号化装置は、予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、該予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数に基づいて、パーティションをまたぐ変換対象領域における予測残差の空間相関が高いか否かを判断するので、空間相関が高いと判断した変換対象領域に1つの周波数変換を適用することによって、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 また、空間相関が高いか否かを、予測モードを用いて判断するので、動画像復号装置においても同一の判断を行うことができ、動画像符号化装置が動画像復号装置に対して統合した変換対象領域のデータ送信を省略できる。したがって、送信データの符号量を低減させることができる。
 [8]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域を統合した領域における前記予測残差の空間相関が高いか否かを、前記統合した領域が含まれる2つのパーティションの各々に対して、前記選択されている参照画像が同一か否かと、前記統合した領域が含まれる2つのパーティションの動きベクトルの大きさの差と、前記動きベクトルの大きさの比率との、いずれかまたは複数に基づいて判断することを特徴とする。
 この動画像符号化装置は、参照画像の同一性や動きベクトルを用いて、互いに異なるパーティションに含まれる変換対象領域を統合した領域における予測残差の空間相関が高いか否かを判断するので、空間相関が高いと判断した変換対象領域に1つの周波数変換を適用することによって、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 また、空間相関が高いか否かを、参照画像の同一性や動きベクトルを用いて判断するので、参照画像の情報や動きベクトルの出力を受けた動画像復号装置においても同一の判断を行うことができ、動画像符号化装置が動画像復号装置に対して統合した変換対象領域のデータ送信を省略できる。したがって、送信データの符号量を低減させることができる。
 [9]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域を統合した領域における前記予測残差の空間相関が高いか否かを、前記互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域の各々に対して周波数変換を適用して得られる変換係数に基づいて、あるいは、前記変換対象領域を統合した場合と統合しない場合との符号量またはレート歪コストのいずれかまたは両方を比較した結果に基づいて判断することを特徴とする。
 この動画像符号化装置は、統合するか否かを判断する領域の変換係数、あるいは、統合した場合と統合しない場合とにおける符号量またはレート歪コストのいずれかまたは両方を比較した結果に基づいて、互いに異なるパーティションに含まれる変換対象領域を統合した領域における予測残差の空間相関が高いか否かを判断するので、空間相関が高いと判断した変換対象領域に1つの周波数変換を適用することによって、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 [10]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、マクロブロック内における変換対象領域の構成および各変換対象領域に適用する周波数変換を示す統合済み変換選択情報を生成し、前記符号化データ出力部は、前記統合済み変換選択情報を前記符号化データに含めて出力することを特徴とする。
 この動画像符号化装置は、統合済み変換選択情報を生成する。この動画像符号化装置が統合済み変換選択情報を出力することにより、動画像復号装置は、出力された統合済み変換選択情報に基づいて復号動画像を生成することができる。
 [11]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、周波数変換を適用する領域毎に前記マクロブロックを分割する分割パターンの集合であって、前記周波数変換を適用する領域のいずれかが前記パーティションをまたぐ分割パターンを含む集合の中からマクロブロックに適用する分割パターンを選択することによって、前記マクロブロックを前記パーティションをまたぐ領域を含む領域に分割することを特徴とする。
 この動画像符号化装置は、分割パターンを用いることによって、マクロブロックをパーティションをまたぐ領域を含む領域に分割するので、分割された領域に周波数変換を適用する際に、パーティションをまたぐ領域に1つの周波数変換を適用することができ、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 [12]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記符号化データ出力部は、前記周波数変換領域分割部が選択した分割パターンを示す情報を前記符号化データに含めて出力することを特徴とする。
 この動画像符号化装置は分割パターンを示す情報を出力するので、動画像復号装置は、出力された分割パターンに基づいて復号動画像を生成することができる。
 [13]また、本発明の一態様による動画像符号化装置は、入力動画像のフレームをマクロブロック単位に分割する画像入力部と、前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、前記マクロブロックを、周波数変換を適用する領域である変換対象領域に分割し、空間相関を示す指標に基づき、互いに隣接する変換対象領域を少なくとも一つ統合して新たな変換対象領域を生成する周波数変換領域分割部と、前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、を具備することを特徴とする。
 この動画像符号化装置は、空間相関を示す指標に基づいて互いに隣接する変換対象領域を統合した領域を変換対象領域の1つとするので、符号化効率を高めることができる。
 [14]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、変換係数を生成済みの前記マクロブロックの復号画像である局所復号画像を記憶する局所復号画像記憶部と、前記局所復号画像記憶部が記憶する局所復号画像の中から前記パーティション毎に参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、前記予測画像と前記マクロブロックとの各画素値の差分である予測残差を生成する予測残差生成部と、を具備することを特徴とする。
 [15]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記空間相関を示す指標は、前記予測画像上で当該変換対象領域に対応する領域内の画素のうち、互いに隣接する画素の画素値の差分に基づいて判断することを特徴とする。
 この動画像符号化装置は、予測画像上で、前記互いに隣接する変換対象領域に対応する領域内の画素のうち、互いに隣接する画素の画素値の差分に基づいて、前記互いに隣接する変換対象領域を統合するので、空間相関が高いと判断した領域を統合し、統合した領域に1つの周波数変換を適用することにより、符号化効率を高めることができる。
 [16]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記空間相関を示す指標は、前記予測画像上で当該変換対象領域に対応する領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数に基づいて判断することを特徴とする。
 この動画像符号化装置は、予測画像上で当該互いに隣接する変換対象領域に対応する領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数に基づいて、当該変換対象領域を統合するので、空間相関が高いと判断した領域を統合し、統合した領域に1つの周波数変換を適用することにより、符号化効率を高めることができる。
 [17]また、本発明の一態様による動画像符号化装置は上述の動画像符号化装置であって、前記周波数変換領域分割部は、前記空間相関を示す指標に基づき、互いに隣接する変換対象領域を統合して生成された新たな変換対象領域を示す変換統合情報を生成し、前記符号化データ出力部は、前記変換統合情報を前記符号化データに含めて出力することを特徴とする。
 この動画像符号化装置は、変換統合情報を出力するので、動画像復号装置は、この変換統合情報に基づいて逆周波数変換を行うことができる。
 [18]また、本発明の一態様による動画像復号装置は、動画像を符号化した符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、前記マクロブロックを分割した変換対象領域であって、少なくとも一つの変換対象領域が前記パーティションをまたぐ変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、を具備することを特徴とする。
 この動画像復号装置は、パーティションをまたぐ変換対象領域に逆周波数変換を適用して局所復号画像を生成するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [19]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、マクロブロック単位で前記符号化データを復号した画像である局所復号画像を記憶する局所復号画像記憶部と、前記マクロブロックをさらに分割したパーティション毎に前記局所復号画像記憶部が記憶する前記局所復号画像の中から参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、前記変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用して予測残差を生成する予測残差再構築部と、前記局所復号画像生成部は、前記予測画像と前記予測残差とを画素毎に足し合わせて局所復号画像を生成することを特徴とする。
 [20]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記符号化データには、前記パーティションをまたぐ変換対象領域を示す変換統合情報が含まれ、前記動画像復号装置は、前記変換統合情報に基づいて前記変換対象領域を決定する変換対象領域決定部をさらに具備し、前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成することを特徴とする。
 この動画像復号装置は、符号化データに含まれる変換統合情報に基づいて逆周波数変換を適用するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [21]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、当該領域の空間相関を示す指標に基づき、前記パーティションをまたぐ変換対象領域を決定する変換対象領域決定部をさらに具備し、前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成することを特徴とする。
 この動画像復号装置は、変換対象領域決定部が、パーティションをまたぐ変換対象領域を、当該領域の空間相関を示す指標に基づいて決定するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [22]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記変換対象領域決定部は、対象領域中の互いに隣接し、かつ、異なるパーティションに属する画素各々に対応する前記予測画像上の画素値の差分を、前記空間相関を示す指標とすることを特徴とする。
 この動画像復号装置は、変換対象領域決定部が、対象領域中の互いに隣接し、かつ、異なるパーティションに属する画素各々に対応する予測画像上の画素値の差分を、この対象領域の空間相関を示す指標とする。この指標に基づいてパーティションをまたぐ変換対象領域を決定することにより、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [23]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記変換対象領域決定部は、対象領域中の互いに隣接し、かつ、異なるパーティションに属する変換対象領域に対応する前記予測画像上で、当該変換対象領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数を、前記空間相関を示す指標とすることを特徴とする。
 この動画像復号装置は、変換対象領域決定部が、対象領域中の互いに隣接し、かつ、異なるパーティションに属する画素各々に対応する予測画像上で、当該変換対象領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数を、この対象領域の空間相関を示す指標とする。この指標に基づいてパーティションをまたぐ変換対象領域を決定することにより、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [24]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記変換対象領域決定部は、対象領域が含まれる2つのパーティションの各々に対して、選択されている参照画像が同一か否かと、前記対象領域が含まれる2つのパーティションの動きベクトルの大きさの差と、前記動きベクトルの大きさの比率との、いずれかを、前記空間相関を示す指標とすることを特徴とする。
 この動画像復号装置は、変換対象領域決定部が、対象領域が含まれる2つのパーティションの各々に対して、選択されている参照画像が同一か否かと、この対象領域が含まれる2つのパーティションの動きベクトルの大きさの差と、前記動きベクトルの大きさの比率との、いずれかを、この対象領域の空間相関を示す指標とする。この指標に基づいてパーティションをまたぐ変換対象領域を決定することにより、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [25]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記符号化データには、前記符号化データを生成した動画像符号化装置が周波数変換を適用した変換対象領域の、マクロブロック内における構成を示す統合済み変換選択情報が含まれ、前記予測残差再構築部は、前記統合済み変換選択情報が示す変換対象領域毎に逆周波数変換を適用して前記予測残差を生成することを特徴とする。
 この動画像復号装置は、統合済み変換選択情報に基づいて逆周波数変換を適用するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [26]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記予測残差再構築部は、周波数変換を適用する領域毎に前記マクロブロックを分割する分割パターンの集合であって、前記周波数変換を適用する領域のいずれかが前記パーティションをまたぐ分割パターンを含む集合の中からマクロブロックに適用する分割パターンを、前記符号化データを生成した動画像符号化装置と同一の基準で選択し、選択した分割パターンに基づいて前記マクロブロックに逆周波数変換を適用することを特徴とする。
 この動画像復号装置は、分割パターンに基づいて逆周波数変換を適用するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [27]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記符号化データには、前記符号化データを生成した動画像符号化装置が前記マクロブロックに適用した分割パターンを示す情報が含まれ、前記予測残差再構築部は、前記符号化データに含まれる情報が示す分割パターンを、前記処理対象のマクロブロックに適用する分割パターンとすることを特徴とする。
 この動画像復号装置は、入力データに含まれる分割パターンに基づいて逆周波数変換を適用するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [28]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記予測画像再構築部は、前記マクロブロック内における前記パーティションの構成と前記マクロブロックとに基づいて、前記分割パターンの集合の中から前記マクロブロックに適用する分割パターンを選択することを特徴とする。
 この動画像復号装置は、予測画像再構築部が選択する分割パターンに基づいて逆周波数変換を適用するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [29]また、本発明の一態様による動画像復号装置は、動画像を符号化した符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、前記マクロブロックを分割した変換対象領域であって、空間相関を示す指標に基づいて、少なくとも一つ統合された変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、を具備することを特徴とする。
 この動画像復号装置は、統合された変換対象領域に逆周波数変換を適用して局所復号画像を生成するので、動画像符号化装置が領域を統合した場合にも、復号動画像を生成することができる。
 [30]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、マクロブロック単位で前記符号化データを復号した画像である局所復号画像を記憶する局所復号画像記憶部と、前記マクロブロックをさらに分割したパーティション毎に前記局所復号画像記憶部が記憶する前記局所復号画像の中から参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、前記変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用して予測残差を生成する予測残差再構築部と、前記局所復号画像生成部は、前記予測画像と前記予測残差とを画素毎に足し合わせて局所復号画像を生成することを特徴とする。
 [31]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記符号化データには、空間相関を示す指標に基づいて統合された変換対象領域を示す変換統合情報が含まれ、前記動画像復号装置は、前記変換統合情報に基づいて前記変換対象領域を決定する変換対象領域決定部をさらに具備し、前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成することを特徴とする。
 この動画像復号装置は、変換対象領域決定部が、変換統合情報に基づいて変換対象領域を決定することにより、動画像符号化装置が領域を統合した場合にも、復号動画像を生成することができる。
 [32]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、当該領域の空間相関を示す指標に基づいて統合された変換対象領域を決定する変換対象領域決定部をさらに具備し、前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成することを特徴とする。
 この動画像復号装置は、変換対象領域決定部が、空間相関を示す指標に基づいて変換対象領域を決定するので、動画像符号化装置が領域を統合し、かつ、変換統合情報を出力しない場合にも、復号動画像を生成することができる。
 [33]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記変換対象領域決定部は、対象領域中の互いに隣接する画素各々に対応する前記予測画像上の画素値の差分を、前記空間相関を示す指標とすることを特徴とする。
 この動画像復号装置は、互いに隣接する変換対象領域中の互いに隣接する画素各々に対応する予測画像上の画素値の差分を、空間相関を示す指標とすることにより、動画像符号化装置が領域を統合し、かつ、変換統合情報を出力しない場合にも、復号動画像を生成することができる。
 [34]また、本発明の一態様による動画像復号装置は上述の動画像復号装置であって、前記変換対象領域決定部は、対象領域中の互いに隣接する変換対象領域に対応する前記予測画像上で、当該変換対象領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数を、前記空間相関を示す指標とすることを特徴とする。
 この動画像復号装置は、対象領域中の互いに隣接する変換対象領域に対応する予測画像上で、当該変換対象領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数を、空間相関を示す指標とすることにより、動画像符号化装置が領域を統合し、かつ、変換統合情報を出力しない場合にも、復号動画像を生成することができる。
 [35]また、本発明の一態様による動画像符号化・復号システムは、動画像の入力を受けて符号化データを出力する動画像符号化装置と、前記動画像符号化装置が出力する符号化データを復号して動画像を生成する動画像復号装置とを具備する動画像符号化・復号システムであって、前記動画像符号化装置は、入力動画像のフレームをマクロブロック単位に分割する画像入力部と、前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、前記マクロブロックを、少なくとも一つの変換対象領域が前記パーティションをまたぐ領域を含む変換対象領域に分割する周波数変換領域分割部と、前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、を具備し、前記動画像復号装置は、前記符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、前記マクロブロックを分割した変換対象領域であって、少なくとも一つの変換対象領域が前記パーティションをまたぐ変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、を具備することを特徴とする。
 この動画像符号化・復号システムでは、動画像符号化装置は、パーティションをまたぐ領域に周波数変換を適用するので、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。また、動画像復号装置は、動画像符号化装置が周波数変換を適用したパーティションをまたぐ領域を示す情報に基づいて逆周波数変換を適用するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [36]また、本発明の一態様による動画像符号化・復号システムは、動画像の入力を受けて符号化データを出力する動画像符号化装置と、前記動画像符号化装置が出力する符号化データを復号して動画像を生成する動画像復号装置とを具備する動画像符号化・復号システムであって、前記動画像符号化装置は、入力動画像のフレームをマクロブロック単位に分割する画像入力部と、前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、前記マクロブロックを、周波数変換を適用する領域である変換対象領域に分割し、空間相関を示す指標に基づき、互いに隣接する変換対象領域を少なくとも一つ統合して新たな変換対象領域を生成する周波数変換領域分割部と、前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、を具備し、前記動画像復号装置は、動画像を符号化した符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、前記マクロブロックを分割した変換対象領域であって、空間相関を示す指標に基づいて、少なくとも一つ統合された変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、を具備することを特徴とする。
 この動画像符号化・復号システムでは、動画像符号化装置は、互いに隣接する領域に周波数変換を適用するので、互いに隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。また、動画像復号装置は、動画像符号化装置が周波数変換を適用した互いに隣接する領域を示す情報に基づいて逆周波数変換を適用するので、動画像符号化装置が互いに隣接する領域を統合した場合にも、復号動画像を生成することができる。
 [37]また、本発明の一態様による動画像符号化方法は、動画像符号化装置が、入力動画像のフレームをマクロブロック単位に分割する画像入力ステップと、前記動画像符号化装置が、前記マクロブロックをさらにパーティションに分割するパーティション構造決定ステップと、前記動画像符号化装置が、前記マクロブロックを、少なくとも一つの変換対象領域が前記パーティションをまたぐ領域を含む変換対象領域に分割する周波数変換領域分割ステップと、前記動画像符号化装置が、前記周波数変換領域分割ステップにて分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成ステップと、前記動画像符号化装置が、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力ステップと、を有することを特徴とする。
 [38]また、本発明の一態様による動画像符号化方法は、動画像符号化装置が、入力動画像のフレームをマクロブロック単位に分割する画像入力ステップと、前記動画像符号化装置が、前記マクロブロックをさらにパーティションに分割するパーティション構造決定ステップと、前記動画像符号化装置が、前記マクロブロックを、周波数変換を適用する領域である変換対象領域に分割し、空間相関を示す指標に基づき、互いに隣接する変換対象領域を少なくとも一つ統合して新たな変換対象領域を生成する周波数変換領域分割ステップと、前記動画像符号化装置が、前記周波数変換領域分割ステップにて分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成ステップと、前記動画像符号化装置が、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力ステップと、を有することを特徴とする。
 この動画像符号化方法では、動画像符号化装置が、互いに隣接する変換対象領域を統合して周波数変換を適用するので、互いに隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 [39]また、本発明の一態様による動画像復号方法は、動画像復号装置が、動画像を符号化した符号化データについて、可変長符号の復号と、前記マクロブロックへの分割とを行う可変長復号ステップと、前記動画像復号装置が、前記マクロブロックを分割した変換対象領域であって、少なくとも一つの変換対象領域が前記パーティションをまたぐ変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成ステップと、前記動画像復号装置が、前記局所復号画像を結合して動画像を生成し、出力する動画像出力ステップと、を有することを特徴とする。
 この動画像復号方法では、動画像復号装置が、パーティションをまたぐ変換対象領域に逆周波数変換を適用して局所復号画像を生成するので、動画像符号化装置が互いに異なるパーティションに含まれる領域を統合した場合にも、復号動画像を生成することができる。
 [40]また、本発明の一態様による動画像復号方法は、動画像復号装置が、動画像を符号化した符号化データについて、可変長符号の復号と、前記マクロブロックへの分割とを行う可変長復号ステップと、前記動画像復号装置が、前記マクロブロックを分割した変換対象領域であって、空間相関を示す指標に基づいて、少なくとも一つ統合された変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成ステップと、前記動画像復号装置が、前記局所復号画像を結合して動画像を生成し、出力する動画像出力ステップと、を有することを特徴とする。
 この動画像復号方法では、動画像復号装置が、互いに隣接する変換対象領域に逆周波数変換を適用して局所復号画像を生成するので、動画像符号化装置が互いに隣接する領域を統合した場合にも、復号動画像を生成することができる。
 本発明によれば、動画像符号化の符号化効率を向上させることができる。
本発明の第1の実施形態における動画像符号化・復号システム1の概略構成を示す構成図である。 同実施形態における動画像符号化装置10の機能ブロック構成を示す機能ブロック構成図である。 同実施形態において、動画像符号化装置10が符号化データを生成する処理手順を示すフローチャートである。 同実施形態において、画像入力部61が入力される動画像のフレームをマクロブロック単位に分割し、分割した画像を出力する順位を示す図である。 同実施形態において、予測パラメータ決定部102がマクロブロック単位の画像データを分割するパーティションの構成を示す図である。 同実施形態において、予測パラメータ決定部102が生成する予測パラメータのデータ構成を示すデータ構成図である。 同実施形態において、予測画像生成部103が、処理対象のマクロブロックに用いる予測画像を生成する処理手順を示すフローチャートである。 同実施形態において、周波数変換決定部105が選択した周波数変換によって決定される変換対象領域の構成例を示す図である。 同実施形態において、周波数変換決定部105が生成する変換選択情報のデータ構成を示すデータ構成図である。 同実施形態において、周波数変換決定部105が、マクロブロック内の各パーティションについて周波数変換を選択する手順を示すフローチャートである。 同実施形態における統合された変換対象領域の例を示す図である。 同実施形態における変換統合情報のデータ構成を示すデータ構成図である。 同実施形態において、周波数変換決定部105が、マクロブロック内の変換対象領域を統合するか否かを判定する処理手順を示すフローチャートである。 同実施形態において、周波数変換決定部105が判断の対象とする、予測画像の画素の例を示す図である。 同実施形態において、変換係数生成部107がパーティション内の変換対象領域に周波数変換を適用する処理を示す擬似コードである。 同実施形態において、可変長符号化部108が、処理対象のマクロブロックに含まれる各パーティションの変換選択情報及び変換統合情報を符号化する処理手順を示すフローチャートである。 同実施形態における動画像復号装置20の機能ブロック構成の概略を示す機能ブロック構成図である。 同実施形態において、周波数変換導出部111が生成する統合済み変換選択情報のデータ構成を示すデータ構成図である。 同実施形態において、動画像復号装置20が復号動画像を生成する処理手順を示すフローチャートである。 同実施形態において、動画像符号化装置10が変換対象領域の境界付近の画素値の変化に基づいて統合の適否を判定し、かつ、変換統合情報を出力しない場合に、動画像復号装置20が統合済み変換選択情報を生成する処理手順を示すフローチャートである。 本発明の第2の実施形態における動画像符号化装置11の機能ブロック構成の概略を示す機能ブロック構成図である。 同実施形態において、周波数変換決定部112が用いる分割パターンの例を示す図である。 同実施形態において、周波数変換決定部112が、処理対象のマクロブロックに適用する分割パターンおよび周波数変換を決定する処理手順を示すフローチャートである。 同実施形態において、動画像符号化装置が符号化データを生成する処理手順を示すフローチャートである。 同実施形態における動画像復号装置21の機能ブロック構成の概略を示す機能ブロック構成図である。 同実施形態において、動画像復号装置21が復号動画像を生成する処理手順を示すフローチャートである。 同実施形態における分割パターンを選択する動画像復号装置22の構成を示す構成図である。 本発明の第3の実施形態における動画像符号化装置16の構成を示す構成図である。 同実施形態において、予測パラメータ決定部152が決定する予測モードを示す図である。 同実施形態において、動画像符号化装置16が符号化データを生成する処理手順を示すフローチャートである。 同実施形態における動画像復号装置26の機能ブロック構成の概略を示す機能ブロック構成図である。 同実施形態において、動画像復号装置26が復号動画像を生成する処理手順を示すフローチャートである。
<第1の実施形態>
 以下、図面を参照して、本発明の実施の形態について説明する。
 以下では、本発明の実施形態における動画像符号化装置および動画像復号装置が行う処理とH.264/AVCで規定される処理との異同を適宜示すが、本発明はH.264/AVCに限らず、VC-1やMPEG-2(Moving Picture Experts Group phase 2)やAVS(Audio Video Coding Standard)等、マクロブロック単位で画像を処理し動き補償予測および周波数変換を行う様々な動画像符号化・復号方式を用いた動画像符号化装置及び動画像復号装置に適用できる。ここでいう周波数変換とは、二次元行列をサンプリングデータとして離散コサイン変換などにより同形の二次元行列のデータに変換する変換であり、画素値を周波数領域のデータに変換することによって、画素値の空間相関性によるデータの冗長性を排除して符号量を減少されるために行われる。
 図1は、本発明の第1の実施形態における動画像符号化・復号システム1の概略構成を示す構成図である。
 同図において、動画像符号化・復号システム1は、動画像符号化装置10と動画像復号装置20とを含んで構成される。動画像符号化装置10は、画像入力部61と中央処理装置(Central Processing Unit;CPU)62と、メモリ63と符号化データ出力部64とバス65とを含んで構成される。動画像復号装置20は、符号化データ入力部71と中央処理装置72とメモリ73と画像出力部74とバス75とを含んで構成される。
 動画像符号化装置10は、入力動画像をフレーム単位で符号化して符号化データを出力する。動画像符号化装置10において、画像入力部61は、動画像が入力されると、入力された動画像をマクロブロック単位に分割し、バス65を介して中央処理装置62に出力する。中央処理装置62は、画像入力部61から出力されるマクロブロック単位の入力動画像の各々を符号化し、バス65を介して符号化データ出力部64に出力する。メモリ63は、中央処理装置62が符号化データを生成するために用いる画像であって後述するように変換係数を生成済みのマクロブロックの復号画像である局所復号画像を記憶する。また、メモリ63は中央処理装置62が実行するプログラムを記憶する。さらに、メモリ63は、中央処理装置62が動作する際のワーキングメモリとして、中央処理装置62が生成する演算結果を一時記憶する。符号化データ出力部64は、中央処理装置62が出力する符号化データを動画像符号化装置10の外部へ出力する。
 動画像復号装置20は、動画像符号化装置10が出力する符号化データを復号して復号動画像を出力する。動画像復号装置20において、符号化データ入力部71は、符号化データが入力されると、入力された符号化データを、バス75を介して中央処理装置72に出力する。中央処理装置72は、符号化データ入力部71から出力される符号化データを復号してマクロブロック単位の復号画像である局所復号画像を生成し、生成した局所復号画像を、バス75を介して画像出力部74に出力する。メモリ73は、中央処理装置72が復号画像を生成するために用いる復号済みのマクロブロックの局所復号画像を記憶する。また、メモリ73は中央処理装置72実行するプログラムを記憶する。さらに、メモリ73は、中央処理装置72が動作する際のワーキングメモリとして、中央処理装置72が生成する演算結果を一時記憶する。画像出力部74は、中央処理装置72が出力するマクロブロック単位の復号画像を結合してフレーム単位の復号画像を生成し、動画像復号装置20の外部に出力する。
 なお、動画像符号化装置10の符号化データ出力部64が出力した符号化データを、動画像復号装置20の符号化データ入力部71に入力する方法は、符号化データ入力部71が当該符号化データを読み取れる方法であれば任意の方法でよい。例えば、符号化データ出力部64が、有線又は無線の通信路を用いて符号化データ入力部71に符号化データを送信するようにしてもよい。あるいは、符号化データ出力部64が、半導体メモリ等の記憶媒体に符号化データを書き込み、符号化データ入力部71が、この記憶媒体から符号化データを読み出すようにしてもよい。
 図2は、動画像符号化装置10の機能ブロック構成を示す機能ブロック構成図である。
 同図において、動画像符号化装置10は、画像入力部61と、符号化部32と、局所復号画像記憶部33と、符号化データ出力部64とを含んで構成される。符号化部32は、予測パラメータ決定部(パーティション構造決定部)102と予測画像生成部103と予測残差生成部106と周波数変換決定部(周波数変換領域分割部)105と変換係数生成部107と可変長符号化部108と予測残差再構築部109と局所復号画像生成部110とを含んで構成される。
 同図において、図1の各部と対応する部分には同一の符号(61、64)を付す。
 画像入力部61は、図1で説明したように、動画像が入力されると、入力された動画像をマクロブロック単位に分割する。画像入力部61は、分割した画像をマクロブロック毎に、符号化部32の予測パラメータ決定部102と予測残差生成部106とに出力する。
 符号化部32は、図1の中央処理装置62がプログラムを実行することにより実現する。なお、図1の中央処理装置62は、図面を見やすくするために図2には示していない。符号化部32は、画像入力部61がマクロブロック単位に分割して出力する画像から、マクロブロック毎の符号化データを生成する。
 符号化部32において、予測パラメータ決定部102と予測画像生成部103と予測残差生成部106とは、H.264/AVCと同様のフレーム間予測を行う。
 予測パラメータ決定部102は、画像入力部61から出力されるマクロブロック単位の画像の画素値に基づいて、局所復号画像記憶部33が記憶する局所復号画像の中から参照画像を選択し、参照画像から予測画像を生成するためのパラメータである予測パラメータを生成する。予測パラメータについては後述する。動画像符号化装置10は、動画像復号装置20と同一の局所復号画像を記憶するために、処理対象のマクロブロックの画像と予測画像との差分である予測残差に対して、周波数変換を行った後、逆周波数変換を行って予測残差を再構築し、再構築した予測残差に予測画像を足し合わせて局所復号画像を生成し、局所復号画像記憶部33に記憶する。予測パラメータ決定部102は、生成した予測パラメータを周波数変換決定部105と予測画像生成部103と可変長符号化部108とに出力する。
 予測画像生成部103は、予測パラメータ決定部102が出力する予測パラメータに基づいて、予測パラメータ決定部102が選択した参照画像から予測画像を生成する。予測画像は、入力動画像における処理対象のマクロブロックの各画素値を近似する画像である。予測残差生成部106が、入力動画像における処理対象マクロブロックの画素値と予測画像の画素値とについて、画素毎に差分を取ることによって予測残差を生成するので、この予測残差について入力動画像の画素値の冗長性を削減することができ、動画像符号化装置10が生成する符号化データの符号量を抑えることができる。
 予測画像生成部103は、生成した予測画像を予測残差生成部106と局所復号画像生成部110とに出力する。
 予測残差生成部106は、画像入力部61から出力されるマクロブロック単位の画像と、予測画像生成部103から出力される予測画像との画素毎の値の差を取って、予測残差を生成し、生成した予測残差を周波数変換決定部105と変換係数生成部107とに出力する。
 周波数変換決定部105は、予測パラメータ決定部102から出力される予測パラメータに基づいて、予測残差生成部106から出力される予測残差の周波数変換方法を決定し、決定した周波数変換方法を示す変換選択情報と変換統合情報とを、変換係数生成部107と予測残差再構築部109と可変長符号化部108とに出力する。
 変換係数生成部107は、周波数変換決定部105が出力する周波数変換方法に基づいて、予測残差生成部106が出力する予測残差を周波数変換して変換係数を生成する。変換係数生成部107は、生成した変換係数を可変長符号化部108と予測残差再構築部109とに出力する。
 可変長符号化部(可逆符号化部)108は、予測パラメータ決定部102から出力される予測パラメータと周波数変換決定部105から出力される変換選択情報及び変換統合情報と、変換係数生成部107から出力される変換係数とを可変長符号化して符号化データを生成する。なお、後述するように、可変長符号化部108が行う符号化は可変長符号化に限らず、可逆符号化であればよい。ここでいう可逆符号化とは、情報の損失無しに復号できる符号化である。
 可変長符号化部108は、生成した符号化データを符号化データ出力部64に出力する。
 予測残差再構築部109は、周波数変換決定部105から入力される変換選択情報及び変換統合情報に基づいて、変換係数生成部107から出力される変換係数を逆周波数変換して予測残差を再構築する。予測残差再構築部109は、再構築した予測残差を局所復号画像生成部110に出力する。
 局所復号画像生成部110は、予測画像生成部103から出力される予測画像と予測残差再構築部109が出力する再構築した予測残差との画素毎の値の和を取って局所復号画像を生成する。局所復号画像生成部110は、生成した局所復号画像を局所復号画像記憶部33に書き込む。
 局所復号画像記憶部33は、図1のメモリ63を用いて実現され、局所復号画像生成部110から出力される局所復号画像を記憶する。動画像符号化装置10が、入力動画像の特定フレームの特定のマクロブロックを処理する時点では、処理対象のフレームより先に符号化されたフレームの局所復号画像、および、処理対象のマクロブロックと同一フレーム内の、先に符号化されたマクロブロックの局所復号画像が局所復号画像記憶部33に記憶されている。
 符号化データ出力部64は、図1で説明したように、可変長符号化部108から出力される符号化データを動画像符号化装置10の外部に出力する。
 次に、動画像符号化装置10の動作について説明する。
 図3は、動画像符号化装置10が符号化データを生成する処理手順を示すフローチャートである。動画像符号化装置10は、画像入力部61に動画像が入力されると、符号化データを生成する処理を開始する。
 ステップS101において画像入力部61は、入力される動画像をマクロブロック単位に分割する。動画像符号化装置10は、入力される動画像のフレームをマクロブロック単位に分割し、マクロブロック毎に符号化データを作成する。そのために、画像入力部61は、入力される動画像のフレームを横16画素×縦16画素のマクロブロックに分割する。
 図4は、画像入力部61が入力される動画像のフレームをマクロブロック単位に分割し、分割した画像を出力する順位を示す図である。同図の全体は動画像中の1フレームを示す。同図において、x軸を横に取り、向かって右向きをx軸の正の向きとする。またy軸を縦に取り、上向きをy軸の正の向きとする。画像入力部61は、1つのフレームを16画素毎の行及び16画素毎の列に分割し、行と列で分割された横16画素×縦16画素の領域の各々がマクロブロックに相当する。矢印で示すように、画像入力部61は、同一行内の左から右へ順にマクロブロック単位で画像データを出力し、これを上から下へ1行毎に行う。画像入力部61は、この処理を入力動画像中の各フレームに対して入力されるフレーム順に行う。
 画像入力部61は、分割したデータを予測パラメータ決定部102と予測残差生成部106とに出力する。
 なお、画像入力部61が、横16画素×縦16画素以外の大きさのマクロブロック単位に画像データを分割するようにしてもよい。例えば、横12画素×縦12画素でもよいし、横16画素×縦12画素など、縦と横の画素数が異なっていてもよい。また、画像入力部61が、図4に示す以外の順序で、マクロブロック単位の画像データを出力するようにしてもよい。例えば、画像入力部61が、同一列内で上から下へ順に画像データを出力し、これを左から右へ1列毎に行うようにしてもよい。
 図3に戻って、ステップS102において、動画像符号化装置10は、画像入力部61が分割した入力画像のマクロブロック毎に符号化データを生成するループを開始する。
 ステップS103~S105において、予測パラメータ決定部102と予測画像生成部103と予測残差生成部106とは、H.264/AVCで規定されるフレーム間予測(動き補償予測、インター予測)と同様のフレーム間予測を行う。
 ステップS103において、予測パラメータ決定部102は、画像入力部61から出力される画像データの画素値に基づいて、画像データをさらに分割するパーティション構造を決定し、パーティション毎に参照画像を選択し、参照画像から予測画像を生成するための予測パラメータを生成する。ここでいうパーティションは、予測画像を生成する際の単位領域であり、後述するように、予測画像生成部103はパーティション毎に予測画像を生成し、生成した予測画像を結合してマクロブロックの予測画像を生成する。また、参照画像は予測画像を生成する元となる画像であり、予測パラメータ決定部102は、局所復号画像記憶部33が記憶する局所復号画像の中から参照画像を選択する。上述したように、局所復号画像は、処理済みのマクロブロックの復号画像である。
 図5は、予測パラメータ決定部102がマクロブロック単位の画像データを分割するパーティションの構成を示す図である。同図のパーティション構造は、H.264/AVCにて規定されるパーティション構造であり、予測パラメータ決定部102は、このH.264/AVCにて規定されるパーティション構造の何れかを選択する。
 同図のパーティション構成MB1は、マクロブロックを分割しない一分割の場合のパーティション構成を示す。この場合、マクロブロックは、横16画素×縦16画素の1個のパーティションで構成され、このパーティションにはパーティションインデックス「p0」が付される。ここで、パーティションインデックスは、マクロブロック内のパーティションを識別するインデックスである。
 また、パーティション構成MB2は、マクロブロックを水平方向に二等分する水平二分割の場合のパーティション構成を示す。このパーティション構造では、マクロブロックは横16画素×縦8画素の2個のパーティションで構成される。上のパーティションにはパーティションインデックス「p0」が付され、下のパーティションにはパーティションインデックス「p1」が付される。
 パーティション構成MB3は、マクロブロックを垂直方向に二等分する垂直二分割の場合のパーティション構造を示す。このパーティション構造では、マクロブロックは横8画素×縦16画素の2個のパーティションで構成される。左のパーティションにはパーティションインデックス「p0」が付され、右のパーティションにはパーティションインデックス「p1」が付される。
 パーティション構造MB4は、マクロブロックを水平方向及び垂直方向に各々二等分する四分割の場合のパーティション構造を示す。このパーティション構造では、マクロブロックは横8画素×縦8画素の4個のパーティションで構成される。左上のパーティションにはパーティションインデックス「p0」が付され、右上のパーティションにはパーティションインデックス「p1」が付され、左下のパーティションにはパーティションインデックス「p2」が付され、右下のパーティションにはパーティションインデックス「p3」が付される。
 また、パーティション構造MB4のパーティションの各々を、サブマクロブロックともいう。予測パラメータ決定部102は、このサブマクロブロックをさらにパーティションに分割する。以下ではサブマクロブロックを構成するパーティションを、「サブパーティション」とも言う。
 パーティション構造SBM1は、サブマクロブロックを分割しない一分割の場合のパーティション構造を示す。このパーティション構造では、サブマクロブロックは横8画素×縦8画素の1個のサブパーティションで構成され、このサブパーティションにはサブパーティションインデックス「p0」が付される。ここで、サブパーティション番号は、パーティション内のサブパーティションを識別するインデックスである。
 また、パーティション構造SMB2は、サブマクロブロックを水平方向に二等分する水平二分割の場合のパーティション構造を示す。このパーティション構造では、サブマクロブロックは横8画素×縦4画素の2個のパーティションで構成される。上のサブパーティションにはサブパーティションインデックス「p0」が付され、下のサブパーティションにはサブパーティションインデックス「p1」が付される。
 パーティション構造SMB3は、サブマクロブロックを垂直方向に二等分する垂直二分割の場合のパーティション構造を示す。このパーティション構造では、サブマクロブロックは横4画素×縦8画素の2個のサブパーティションで構成される。左のサブパーティションにはサブパーティションインデックス「p0」が付され、右のサブパーティションにはサブパーティションインデックス「p1」が付される。
 パーティション構造SMB4は、サブマクロブロックを水平方向及び垂直方向に各々二等分する四分割の場合のパーティション構造を示す。このパーティション構造では、サブマクロブロックは横4画素×縦4画素の4個のサブパーティションで構成される。左上のサブパーティションにはサブパーティションインデックス「p0」が付され、右上のサブパーティションにはサブパーティションインデックス「p1」が付され、左下のサブパーティションにはサブパーティションインデックス「p2」が付され、右下のサブパーティションにはサブパーティションインデックス「p3」が付される。
 動画像符号化装置10及び動画像復号装置20の各部は、マクロブロック内の各パーティションに対して処理を行う場合は、同図のパーティション構造MB1~MB4に示すパーティションインデックスの番号順に処理する。すなわち、左のパーティションから右のパーティションへと処理を行い、これを上から下と繰り返す。なお、マクロブロックが4分割されている場合は、サブマクロブロック内の各サブパーティションを同図のパーティション構造SMB1~SMB4に示すサブパーティションインデックスの番号順に処理し、これを同図のパーティション構造MB4に示すパーティションインデックスの番号順にサブマクロブロック毎に繰り返す。
 図6は、予測パラメータ決定部102が生成する予測パラメータのデータ構成を示すデータ構成図である。
 同図に示すように、予測パラメータは、パーティション構造情報と、各パーティションの動き情報として参照画像インデックスと動きベクトルの情報とを含んで構成される。
 パーティション構造情報は、予測パラメータ決定部が選択したパーティション構造を示す情報である。例えば、同図の「P_L0_L0_16×8」の、「16×8」は、当該マクロブロックが、横16画素×縦8画素大きさの2個のパーティションに分割されることを示す。すなわち、当該マクロブロックは、図5のパーティション構造MB2が示す各パーティションに分割される。「L0_L0」は2個のパーティションが、いずれも参照画像リスト0を用いることを示す。なお、「P」は、前方向予測のみを用いて符号化されるブロックであることを示す。
 参照画像インデックスは、各パーティションの参照画像として用いる局所復号画像のインデックスを示す。例えば、同図の「2,0」の、「2」は、1番目のパーティション(図5のパーティション構造MB2で、パーティションインデックス「p0」が付されたパーティション)の参照画像として、参照画像リスト(上述のとおり、ここでは参照画像リスト0)においてインデックス2が付された局所復号画像を用いることを示す。同様に、「0」は、2番目のパーティション(図5のパーティション構造MB2で、パーティションインデックス「p1」が付されたパーティション)の参照画像として、参照画像リスト0においてインデックス0が付された局所復号画像を用いることを示す。
 動きベクトルは、動き補償において、参照画像の画素をずらす量を示す。例えば、同図の「(0.25,-1.25),(0.0,0.75)」の、「(0.25,-1.25)」は、予測画像のうち1番目のパーティションの部分は、参照画像を右に0.25画素分ずらし、下に1.25画素分ずらして生成することを示す。また、「(0.0,0.75)」は、予測画像のうち2番目のパーティションの部分は、参照画像を左右には動かさず、上に0.75画素分ずらして生成することを示す。
 なお、前方向予測に加えて後方向予測も行うマクロブロックに対しては、予測パラメータ決定部102は、パーティション毎に2個の参照画像番号と2個の動きベクトルとを含む予測パラメータを生成する。
 なお、予測パラメータ決定部102は、イントラ予測を行うことを決定した場合は、イントラ予測における予測画像生成方法を示す予測パラメータを生成するが、ここでは説明を省略する。ここでいう、イントラ予測とは、フレーム間予測を用いないマクロブロックに対して、入力動画像の同一フレーム内で当該マクロブロックに隣接し、符号化および復号済みの画素からの補間によって予測画像を生成する方法である。
 予測パラメータ決定部102は、レート歪判定を用いて予測パラメータを生成する。具体的には、予測パラメータ決定部102は、パーティション構造と参照画像と動きベクトルとの、可能なあらゆる組み合わせで得られる予測パラメータ候補を生成する。予測パラメータ決定部102は、生成した予測パラメータ候補の各々に対して、式(1)に基づいてレート歪コストCを算出し、レート歪コストCが最小となる予測パラメータの候補を予測パラメータとして選択する。
Figure JPOXMLDOC01-appb-M000001
 ここで、Rは、当該予測パラメータ候補に基づいて符号化を行った場合の符号量を示す。また、Dは、マクロブロック単位の入力画像の画素値と、当該予測パラメータ候補に基づいて符号化および復号を行った場合に得られる局所復号画像の画素値との、平均二乗誤差を示す。また、λは、予め決められた値で有り、符号量Rと誤差Dとの間の重み係数を示す。予測パラメータ決定部は、例えば、予測パラメータ候補に基づいて実際に符号化および復号を行うことにより符号量Rおよび誤差Dを算出する。
 なお、予測パラメータ決定部102がレート歪コストCを算出する際に、適用可能な周波数変換が複数存在する場合は、適用可能な全ての周波数変換についてレート歪コストを算出し、最小のレート歪コストを、当該予測パラメータ候補のレート歪コストとする。あるいは、予め定められた特定の周波数変換を適用して得られるレート歪コストを当該予測パラメータ候補のレート歪コストとするようにしてもよい。
 予測パラメータ決定部102は、生成した予測パラメータを周波数変換決定部105と予測画像生成部103と可変長符号化部108とに出力する。
 図3に戻って、ステップS104において、予測画像生成部103は、予測パラメータ決定部102から出力される予測パラメータに基づいて予測画像を生成する。上述したように、予測画像は処理対象のマクロブロックの画像を近似する画像である。
 図7は、予測画像生成部103が、図3のステップS104において、処理対象のマクロブロックに用いる予測画像を生成する処理手順を示すフローチャートである。
 ステップS121において、予測画像生成部103は、予測パラメータからパーティション構造情報を読み出す。
 ステップS122において、予測画像生成部103は、ステップS123、124からなるパーティション毎の処理のループを開始する。予測画像生成部103は、各パーティションを図6で説明した順に処理する(以下のフローチャートにおいても同様である)。
 ステップS123において、予測画像生成部103は、予測パラメータから処理対象のパーティションの参照画像インデックスを読み出し、読み出した参照画像インデックスに基づいて、局所復号画像記憶部33から参照画像を読み出す。
 ステップS124において、予測画像生成部103は、予測パラメータから処理対象のパーティションの動きベクトルを読み出し、読み出した動きベクトルに基づいて参照画像に対する動き補償を行う。具体的には、予測画像生成部103は、動きベクトルが示す画素分だけ参照画像をずらす。
 ステップS125において、未処理のパーティションがあればステップS122からのループを繰り返し、無ければステップS126に進む。
 ステップS126において、予測画像生成部103は、動き補償を行った各参照画像の当該パーティション部分をつなぎ合わせて予測画像を生成し、生成した予測画像を、予測残差生成部106と局所復号画像生成部110とに出力する。
 その後、当該マクロブロックに用いる予測画像を生成する処理を終了する。
 図3に戻って、ステップS105において、予測残差生成部106は、画像入力部61から出力されるマクロブロック単位の入力画像の各画素の画素値から、予測画像生成部103から出力される予測画像の対応する各画素の画素値を引いて、予測残差を生成する。予測残差はマクロブロックと同サイズの2次元データである。前述したように、入力画像における処理対象マクロブロックの画素値と予測画像の画素値とを、画素毎に差分を取って予測残差を生成することによって、入力画像の画素値の冗長性を削減することができ、動画像符号化装置10が生成する符号化データの符号量を抑えることができる。
 予測残差生成部106は、生成した予測残差を、周波数変換決定部105と変換係数生成部107とに出力する。
 ステップS106において、周波数変換決定部105は、予測残差生成部106から出力される予測残差を、予測パラメータ決定部102が決定したパーティション構造に分割した各パーティションに適用する周波数変換を選択し、選択した周波数変換を示す変換選択情報を生成する。
 図8は、周波数変換決定部105が選択した周波数変換によって決定される変換対象領域の構成例を示す図である。ここでいう変換対象領域とは、1回の周波数変換により変換係数に変換されるマクロブロック内の領域である。同図は、周波数変換決定部105が、マクロブロックを横8画素×縦8画素の4個のパーティションp0~p3のうち、パーティションp0及びp1に対しては4×4DCTを適用し、パーティションp2及びp3に対しては8×8DCTを適用することを決定した場合の例を示す。
 同図のパーティションp0やp1のように、パーティションの大きさよりも周波数変換の大きさが小さい場合は、周波数変換決定部105は、予測残差のパーティションを周波数変換の大きさの各領域に分割し、分割された各領域が変換対象領域となる。例えば、同図のパーティションp0は、4つの変換対象領域r0~r3に分割される。一方、同図のパーティションp2やp3のように、パーティションの大きさと周波数変換の大きさが同じ場合は、パーティションによって分割された領域全体が1個の変換対象領域となる。動画像符号化装置10及び動画像復号装置20の各部は、同一パーティション内の変換対象領域を、左の変換対象領域から右の変換対象領域へ順に処理し、これを上から下に順に繰り返す。さらに、複数のパーティションにわたって変換対象領域を処理する場合は、左のパーティションから右のパーティションへ順に上記の処理を行い、これを上のパーティションから下のパーティションに順に繰り返す。
 以下で説明する動画像符号化装置及び動画像復号装置も同様である。
 図9は、周波数変換決定部105が生成する変換選択情報のデータ構成を示すデータ構成図である。変換選択情報は、マクロブロック内の各パーティションに適用する周波数変換を示す。
 同図に示すように、変換選択情報は、各パーティションに適用する周波数変換を示す情報がパーティションの順番に従って並べられて構成される。同図では、周波数変換決定部105が、各パーティションに適用する周波数変換として、図8で説明した周波数変換を選択した場合の変換選択情報の例が示されている。パーティションp0及びp1の欄の「4×4」は、パーティションp0及びp1に4×4DCTを適用することを示し、パーティションp2及びp3の欄の「8×8」は、パーティションp2及びp3に8×8DCTを適用することを示している。
 図10は、周波数変換決定部105が、マクロブロック内の各パーティションについて周波数変換を選択する手順を示すフローチャートである。
 ステップS141において、周波数変換決定部105は、パーティション毎の処理のループを開始する。
 すなわち、まず、ステップS142~ステップS145において、周波数変換決定部105は、パーティションに適用する周波数変換の候補を選択する。
 ステップS142において、周波数変換決定部105は、変換プリセットの各要素に対する処理のループを開始する。ここでいう、変換プリセットとは、動画像符号化装置10がマクロブロックに適用可能な全ての周波数変換の集合である。動画像符号化装置10は、変換プリセットの要素として、H.264/AVCと同じ4×4DCTと8×8DCTとに加えて4×8DCTと8×4DCTと16×16DCTと16×8DCTと8×16DCTとの7種類の周波数変換を具備する。ここで、m×nDCTは、横m画素×縦n画素を周波数変換のサイズ(周波数変換の対象領域の縦横の画素数。以下、「変換サイズ」ともいう)とする離散コサイン変換を示す。
 なお、動画像符号化装置10の変換プリセットは上記の集合に限らず、上記の集合の部分集合であってもよい。あるいは、別の変換サイズの離散コサイン変換、例えば4×16DCTや16×4DCTを含む周波数変換を変換プリセットに含めてもよいし、離散コサイン変換以外の周波数変換、例えばアダマール変換やサイン変換やウェーブレット変換、またはそれらの変換を近似する変換を含む周波数変換を変換プリセットに含めてもよい。
 ステップS143において、周波数変換決定部105は、ステップS142からのループにおいて処理対象となっている周波数変換のサイズが、縦横共にパーティションのサイズ以下か否かを判断する。パーティションのサイズ以下の場合(ステップS143:YES)はステップS144に進み、そうでない場合(ステップS143:NO)はステップS145に進む。
 ステップS144において、周波数変換決定部105は、ステップS142からのループにおいて処理対象となっている周波数変換を、パーティションに適用する周波数変換の候補(以下では、「変換候補」ともいう)に加える。例えば、横16画素×縦8画素のパーティションに対して、周波数変換決定部105は、変換プリセットの中から横16画素×縦8画素以下の、4×4DCTと8×8DCTと4×8DCTと8×4DCTと16×8DCTとを変換候補とする。
 なお、周波数変換決定部105が選択する変換候補の数を減らすようにしてもよい。例えば、横16画素×縦8画素のパーティションに対し、4×4DCTと8×8DCTのみを変換候補とするようにしてもよい。例えば、変換プリセットの要素数を減らすことにより、変換候補の数を減らすことができる。変換候補の数を減らすことにより、以後の処理量を削減することができる。また、変換プリセットの要素数を減らすことにより、周波数変換を示すインデックスの符号長を短くして符号量の増加を抑制できる。
 ステップS145において、変換プリセットの要素のうち未処理の周波数変換があればステップS142からのループを繰り返し、無ければステップS146に進む。
 ステップS146~ステップS149において、周波数変換決定部105は、変換候補の各々のレート歪コストを算出し、レート歪コストが最小の周波数変換をパーティションに適用する周波数変換として選択する。
 すなわち、まず、ステップS146において、周波数変換決定部105は、ステップS142~ステップS145のループで選択した各変換候補に対する処理のループを開始する。
 ステップS147において、周波数変換決定部105は、ステップS146からのループにおいて処理対象となっている周波数変換のレート歪コストを、前述の式(1)に基づいて算出する。
 ステップS148において、変換候補の要素のうち未処理の周波数変換があればステップS146からのループを繰り返し、無ければステップS149に進む。
 ステップS149において、周波数変換決定部105は、レート歪コストが最小となる周波数変換を当該パーティションに適用する周波数変換として選択する。
 ステップS150において、未処理のパーティションがあればステップS141からのループを繰り返し、無ければマクロブロック内の各パーティションについて周波数変換を選択する処理を終了する。
 図3に戻って、ステップS107において、周波数変換決定部105は、互いに異なるパーティションに含まれる変換対象領域を統合した領域、すなわちパーティションをまたぐ変換対象領域を示す変換統合情報を生成する。具体的には、周波数変換決定部105は、ステップS106で周波数変換を選択することによって決定される変換対象領域を統合するか否かを、マクロブロック内の隣接する2個の変換対象領域の組み合わせの各々について判定し、統合する変換対象領域を示す変換統合情報を生成する。
 周波数変換決定部105が、パーティション境界を挟んで隣接する複数の領域を統合することを決定し、変換係数生成部107が、周波数変換決定部105の決定に従って予測残差を周波数変換することにより、動画像符号化装置10は、パーティション境界を挟んで隣接する複数の領域を統合した領域に対して周波数変換を行って符号化効率を向上させることができる。
 図11は、統合された変換対象領域の例を示す図である。同図(a)では、マクロブロックが4つのパーティション(サブマクロブロック)p0~p3に分割されている。周波数変換決定部105は、パーティションp0およびp1に4×4DCTを適用することを決定しており、これによって、パーティションp0およびp1は横4画素×縦4画素の4つの変換対象領域r0~r3に分割されている。また、周波数変換決定部105は、パーティションp2に8×4DCTを適用することを決定しており、パーティションp2は横8画素×縦4画素の2つの変換対象領域に分割されている。また、周波数変換決定部105は、パーティションp3に4×8DCTを適用することを決定しており、パーティションp3は横4画素×縦8画素の2つの変換対象領域に分割されている。
 同図(b)は、周波数変換決定部105が、同図(a)に示される変換対象領域のうち、パーティションp0の変換対象領域r1とパーティションp1の変換対象領域r0とを統合することを決定した例を示している。
 同図(c)~(f)は、統合された変換対象領域の他の例を示す。同図(c)では、パーティションp2とパーティションp3とが共に横8画素×縦4画素の2つの変換対象領域r0とr1とに分割され、パーティションp2の変換対象領域r0とパーティションp3の変換対象領域r1とが統合されている。同図(d)では、パーティションp0とパーティションp1とが共に横8画素×縦4画素の4つの変換対象領域r0とr1とr2とr3とに分割され、パーティションp0の変換対象領域r2とパーティションp1の変換対象領域r0とが統合されている。同図(e)では、パーティションp1~パーティションp3のそれぞれが変換対象領域を構成し、パーティションp1とパーティションp3とが統合されている。同図(f)では、パーティションp0~パーティションp3が共に横4画素×縦4画素の4つの変換対象領域r0とr1とr2とr3とに分割され、パーティションp0の変換対象領域r3とパーティションp1の変換対象領域r2とパーティションp2の変換対象領域r1とパーティションp3の変換対象領域r0とが統合されている。なお、同図に示す変換対象領域の統合は一例であり、周波数変換決定部105が決定する変換対象領域の統合は、これらに限定されない。
 図12は、変換統合情報のデータ構成を示すデータ構成図である。変換統合情報は、周波数変換決定部105が、統合することに決定した領域と当該領域に適用する周波数変換とを示す情報である。
 同図に示すように、変換統合情報は、パーティションインデックスと統合対象領域インデックスと、統合方向インデックスと周波数変換の情報とを含んで構成される。周波数変換決定部105は、変換対象領域の統合毎に変換統合情報を生成する。
 パーティションインデックスは、統合される領域のうち処理される順序が早い方が含まれるパーティションを示すインデックスである。統合対象領域インデックスは、統合される領域のうち処理される順序が早い方の、パーティション内での位置を示すインデックスである。パーティションインデックスと統合対象領域インデックスとによって、統合される領域のうち処理される順序が早い方の、マクロブロック内における位置が示される。統合方向インデックスは、統合される領域のうち処理される順序が早い方から見た、統合される領域のうち処理される順序が遅い方の方向を示すインデックスである。
 例えば、図12の変換統合情報は、図11(b)の場合において、パーティションp0が統合される領域r1を含み、このパーティションp0の領域r1とその右隣の領域とを統合することを示している。
 周波数変換の情報は、統合される領域に適用する周波数変換を示す情報である。図12の例では、統合される領域に対して8×4DCTを適用することが示されている。
 なお、周波数変換決定部105が生成する変換統合情報は、図12の構造のものに限らず、統合される領域を示すものであればよい。例えば、変換統合情報が、統合される領域全てのパーティションインデックスと統合対象領域インデックスとの組と、統合される領域に適用する周波数変換の情報とを含んで構成されるようにしてもよい。
 図13は、周波数変換決定部105が、マクロブロック内の変換対象領域のうち統合する領域を決定する手順を示すフローチャートである。周波数変換決定部105は、マクロブロック単位の予測残差の変換対象領域のうち統合する領域を、予測画像生成部103から出力されるマクロブロック単位の予測画像の画素値に基づいて決定する。予測残差の画素値ではなく予測画像の画素値を用いるのは、動画像復号装置20が同一の判定を行えるようにするためである。
 ステップS161において、周波数変換決定部105は、変換対象領域i(iは0~(N-2)の整数、Nはマクロブロック内の変換対象領域の個数)に対する処理を行うループを開始する。ここで変換対象領域に付されている番号は、図8で説明した変換対象領域の処理順序に応じた番号である。
 ステップS162において、周波数変換決定部105は、変換対象領域j(jは(i+1)~Nの整数)に対する処理を行うループを開始する。
 ステップS163において、周波数変換決定部105は、以下の条件C131が成立するか否かを判断する。
 条件C131:変換対象領域iおよび変換対象領域jは互いに隣接する。かつ、変換対象領域iと変換対象領域jとは、互いに異なるパーティションに含まれる。かつ、変換対象領域iと変換対象領域jとを合わせた領域が、矩形を成す。
 この判断により、周波数変換決定部105は、パーティションをまたぐ領域のみを以下のステップS165およびステップS167の処理対象とする。
 条件C131が成立すると判断した場合(ステップS163:YES)はステップS164に進み、成立しないと判断した場合(ステップS163:NO)はステップS167に進む。
 ステップS164において、周波数変換決定部105は、変換対象領域iと変換対象領域jとが統合に適した特性を有するか否かを判断する。周波数変換決定部105は、変換対象領域iと変換対象領域jとに対応する予測画像の領域の画素値の類似性に基づいて、変換対象領域iと変換対象領域jとの予測残差の空間相関が高いか否かを判断する。具体的には、予測画像生成部103から入力されるマクロブロック単位の予測画像を、予測残差と同じパーティション及び変換対象領域に分割する。そして周波数変換決定部105は、予測画像の変換対象領域r1と変換対象領域r2との境界bの画素単位の長さをM、変換対象領域r1に属し境界bに接する画素の画素値をbrv1[i](iは1~Mの正整数)、変換対象領域r2に属し境界bに接する画素の画素値をbrv2[i]、判定の閾値をThとして、式(2)を満たすか否かを判断する。
 式(2)において、隣接する画素の画素値の差の絶対値|brv1[i]-brv2[i]|が小さいほど、変換対象領域iと変換対象領域jとの空間相関が高いことが期待される。そこで、周波数変換決定部105は、式(2)を空間相関を示す指標として用いて、対象とする領域内の空間相関が高いか否かを判断する。式(2)を満たすと判断した場合は、周波数変換決定部105は、変換対象領域iと変換対象領域jとは空間相関が高く、統合に適した領域であると判断し、変換対象領域iと変換対象領域jとを統合することを決定する。
 図14は、周波数変換決定部105が判断の対象とする、予測画像の画素の例を示す図である。
 同図は、パーティションp0の変換対象領域r3とパーティションp1の変換対象領域r2とが、統合に適した特性を有するか否かを判断する場合の例を示している。また、両変換対象領域間の境界が境界bであり、境界bの画素単位の長さは4画素分である。パーティションp0の変換対象領域r3は、境界bに接する画素br1[1]~br1[4]を含み、パーティションp1の変換対象領域r2は、境界bに接する画素br2[1]~br2[4]を含む。周波数変換決定部105は、式(2)に従って、互いに接する画素br1[k](kは0~3の整数)とbr2[k]との画素値の差の絶対値|brv1[k]-brv2[k]|の合計値を算出し、算出した合計値が閾値Thより小さいか否かを判断する。
 図13に戻って、ステップS164において、式(2)を満たすと判断した場合(ステップS164:YES)はステップS165へ進み、満たさないと判断した場合(ステップS164:NO)はステップS167へ進む。
 ステップS165において、周波数変換決定部105は、予測残差の変換対象領域iと変換対象領域jとに適用する新たな周波数変換t’を選択する。周波数変換決定部105は、統合後の変換対象領域の大きさと同じ変換サイズの離散コサイン変換を新たな周波数変換t’として選択する。例えば、元の2個の変換対象領域が横W画素×縦H画素であり、これらの変換対象領域が上下に並んでいる場合は、横W画素×縦2H画素の周波数変換を選択する。一方、これらの変換対象領域が左右に並んでいる場合は、横2W画素×縦H画素の周波数変換を選択する。これにより、新たに選択される周波数変換t’は、元の2個の変換対象領域を合わせた領域を変換対象領域とする。
 周波数変換決定部105は、周波数変換t’が変換プリセットに含まれない場合には統合は行わない。例えば、図11(c)において、パーティションp0とパーティションp1に適用する周波数変換は共に8×4DCTであり、上記の横2W画素×縦H画素の周波数変換は16×4DCTとなるが、この周波数変換は変換プリセットに含まれない。したがって、周波数変換決定部105は、この統合を行わない。これにより、周波数変換の種類が増加し周波数変換を示すインデックスの符号長が長くなることを抑制できる。
 なお、周波数変換t’が変換プリセットに含まれない場合でも、周波数変換決定部105が統合を行うようにしてもよい。この場合は、例えば、周波数変換決定部105が変換プリセットに新たな周波数変換を加え、動画像符号化装置10は、動画像復号装置20に新たな周波数変換を加えた周波数プリセットを出力する。このように、周波数変換t’が変換プリセットに含まれない場合でも、統合を行うことにより、隣接する変換対象領域間の空間相関を利用して変換係数の符号長を短くすることができる。
 ステップS166において、周波数変換決定部105は、変換統合情報を生成する。
 ステップS167において、変換対象領域(i+1)~Nのうち、未処理の変換対象領域があれば、ステップS162からのループを繰り返し、無ければステップS168に進む。
 ステップS168において、変換対象領域0~(N-2)のうち、未処理の変換対象領域があれば、ステップS161からのループを繰り返し、無ければパーティション内の変換対象領域を統合するか否かを判定する処理を終了する。
 周波数変換決定部105は、生成した変換選択情報と変換統合情報とを、変換係数生成部107と可変長符号化部108と予測残差再構築部109とに出力する。
 以上のように、周波数変換決定部105は、処理対象のマクロブロックを変換対象領域に分割し、さらに変換対象領域を統合することにより、処理対象のマクロブロックをパーティションをまたぐ領域(ステップS165で統合される変換対象領域)を含む変換対象領域に分割する。
 なお、ステップS164において、境界に接する画素だけでなく境界から離れた画素についても、判断の対象に加えるようにしてもよい。例えば、周波数変換決定部105が、境界から1画素分離れた画素も式(2)に含めて判断を行う。これにより、判断の精度を上げることができる。
 なお、図13のフローチャートでは、変換対象領域の全ての組み合わせに対してステップS163の判定を行っているが、このステップS163において、まず、明らかに条件C131を満たさない組み合わせか否かを判断した後に、条件C131を満たすか否かを判断するようにしてもよい。例えば、図11(b)のパーティションp0の変換対象領域r0のように、マクロブロック内の他のパーティションと接しない変換対象領域が判断対象となっている場合は、明らかに条件C131を満たさない。そこで、周波数領域105が、マクロブロック内の他のパーティションと接しない変換対象領域を予め記憶しておき、この変換対象領域が判断対象となっている場合は、ステップS163において、条件C131を満たすか否かを判断せずにステップS167に進む。これにより、処理量を抑制することができる。
 あるいは、条件C131を、より成立しにくい条件にすることによって処理量を抑制してもよい。例えば、変換対象領域r1の周波数変換と変換対象領域r2の周波数変換が、同一の周波数変換tであるとの条件を追加する。このように、条件C131を、より成立しにくい条件にすることによって、ステップS164およびステップS165における処理を行う回数を減らし、処理量を抑制することができる。
 なお、周波数変換決定部105が、統合が決定された後の変換対象領域を再度選択してさらに統合するようにしてもよい。この統合によって、より大きい領域を変換対象領域とし、動画像符号化装置10が出力する符号化データの符号化率を向上させることができる。例えば、図11の領域(f)において、パーティションp0の領域r3とパーティションp1の領域r2とを統合し、また、パーティションp2の領域r1とパーティションp3の領域r0とを統合することを決定している場合に、周波数変換決定部105は、パーティションp0の領域r3とパーティションp1の領域r2とを統合した領域と、パーティションp2の領域r1とパーティションp3の領域r0とを統合した領域をさらに統合して横8画素×縦8画素の変換対象領域を生成する。
 一方、周波数変換決定部105が、統合を1段階のみとすれば、統合を表すために必要な符号量や統合判定の処理量の増加を抑制することができる。
 なお、ステップS164で行う統合適否の判定は、上述の式(2)を用いるものに限らない。例えば、周波数変換決定部105が、変換対象領域r1の属するパーティションの動きベクトルmv1と、変換対象領域r2の属するパーティションの動きベクトルmv2を比較し、所定の条件を満たす場合に、空間相関が高く統合に適していると判定するようにしてもよい。例えば、r1およびr2の参照画像が同一であり、mv1とmv2のベクトルの大きさの差あるいは比率が閾値以下であることを条件とする。前記条件を満たす場合、変換対象領域r1および変換対象領域r2は同一参照画像内の十分に近い領域を参照しており、したがって領域内の空間相関も高い可能性が高いので、統合することにより符号化率の向上が期待される。そこで、周波数変換決定部105は、前記条件を空間相関を示す指標として用いて、対象とする領域内の空間相関が高いか否かを判断する。
 なお、周波数変換決定部105が変換対象領域r1およびr2の統合適否を判定する方法は、上記で説明した、パーティション境界付近の予測画像の画素値の類似性を評価する方法や動きベクトルの類似性を評価する方法に限らない。例えば、変換対象領域r1およびr2それぞれの予測残差を周波数変換して得られた係数分布の類似度を評価する方法、あるいは、類似度の判定によらず、実際に変換して符号量やレート歪コストの低さを評価する方法など、周波数変換決定部105が、変換対象領域r1およびr2から得られる上記以外の特徴量を用いる方法によって統合適否を判定するようにしてもよい。
 さらには、周波数変換決定部105が、変換対象領域r1とr2との各々に対して周波数変換を適用し、この周波数変換の結果として得られる変換係数に基づいて、r1およびr2の統合適否を判定するようにしてもよい。例えば、r1から得られる変換係数とr2から得られる変換係数とが全て、予め設定された閾値以下である場合は、両者の空間相関が高く、統合に適していると判断する。あるいは、変換対象領域r1とr2とを統合した場合と統合しない場合との符号量またはレート歪コストを比較して、r1およびr2の統合適否を判定するようにしてもよい。
 なお、処理対象のマクロブロック内のパーティションpがサブパーティションを有する場合、サブパーティションにおける変換対象領域については統合を行わないようにしてもよい。あるいは、マクロブロックをサブマクロブロックと読み替え、パーティションをサブパーティションと読み替えて、周波数変換決定部105が、図13の処理を再帰的に適用するようにしてもよい。さらには、パーティションpがサブパーティションを有する場合に限らず、処理単位が16画素×16画素と異なるブロックである場合、たとえば32画素×32画素のブロックである場合などについても、周波数変換決定部105が、図13の処理を行うことにより統合適否を判定することができる。
 図3のステップS108において、変換係数生成部107は、予測残差生成部106から出力される予測残差と、周波数変換決定部105から入力される変換選択情報および変換統合情報とに基づいて、予測残差を周波数変換し、変換係数を生成する。
 具体的には、変換係数生成部107は、変換選択情報および変換統合情報に基づいて各変換対象領域に適用する周波数変換を選択して、選択した周波数変換を予測残差の各変換対象領域に適用する。変換選択情報によって示される周波数変換は、変換プリセットに含まれる周波数変換のいずれかである。
 図15は、変換係数生成部107がパーティション内の変換対象領域に周波数変換を適用する処理を示す擬似コードである。ここで、領域R(x,y,W,H)は、パーティション内の左上隅を起点として右方向にx画素、下方向にy画素移動した位置を左上隅とする横W画素×縦H画素の変換対象領域を示す。
 変換係数生成部107は、パーティション内に含まれる横M個×縦N個の変換対象領域に対して、同図の擬似コードで示されるように、左の変換対象領域から右の変換対象領域へと順に、変換対象領域毎に横W画素×縦H画素の変換サイズを有する周波数変換を適用する。これを上から下へ順次繰り返す。
 なお、変換係数生成部107が予測残差から変換係数を生成する処理に量子化を行う過程が含まれていてもよい。例えば、変換係数生成部107が、生成した変換係数を量子化するようにしてもよい。
 図3のステップS109において、予測残差再構築部109は、変換係数生成部107から出力される変換係数と周波数変換決定部105から出力される変換選択情報及び変換統合情報とに基づいて、変換係数を逆周波数変換することで予測残差を再構築する。なお、ステップS109において、変換係数生成部107が量子化を行った場合は、予測残差再構築部109は、量子化に対応する逆量子化を行う。例えば、変換係数生成部107が、生成した変換係数を量子化する場合は、予測残差再構築部109は、変換係数を逆量子化した後、変換係数を逆周波数変換する。
 予測残差再構築部109は、再構築した予測残差を局所復号画像生成部110へ出力する。
 ステップS110において、局所復号画像生成部110は、予測画像生成部103から出力される予測画像と、予測残差再構築部109から出力される予測残差とに基づいて、局所復号画像を生成する。局所復号画像生成部110は、局所復号画像の各画素値として、予測画像の画素値と予測残差の画素値とを、画素毎に足し合わせることにより、局所復号画像を生成する。
 なお、局所復号画像生成部110が、生成した局所復号画像に対してフィルタを適用することによって、ブロック境界に発生するブロック歪や量子化誤差を低減させるようにしてもよい。この場合は、動画像復号装置20も、生成した局所復号画像に対して同一のフィルタを適用し、動画像符号化装置10と動画像復号装置20とが同一の局所復号画像を生成するようにする。
 局所復号画像生成部110は、生成した局所復号画像を局所復号画像記憶部33に書き込む。
 ステップS111において、可変長符号化部108は、変換係数生成部107から出力される変換係数と、予測パラメータ決定部102から出力される予測パラメータと、周波数変換決定部105から出力される変換選択情報及び変換統合情報とを符号化して、符号化データを生成し、生成した符号化データを符号化データ出力部64に出力する。符号化データ出力部64は、可変長符号化部108から出力される符号化データを動画像符号化装置10の外部に出力する。
 可変長符号化部108は、まず、変換係数と予測パラメータとを、H.264/AVCに定められた方法で可変長符号化する。その際、可変長符号化部108は、パーティションをまたぐ領域の周波数変換によって生成された変換係数をパーティション境界に基づいて分割することにより、H.264/AVCに定められた方法と同様にパーティション毎に可変長符号化する。
 次に、可変長符号化部108は、変換選択情報と変換統合情報とを可変長符号化する。
 まず、可変長符号化部108は、変換選択情報に含まれる、各パーティションに適用する周波数変換を示すインデックスを、例えばハフマン符号を用いて可変長符号化する。なお、可変長符号化部108が行う符号化は、可変長符号化に限らず、動画像復号装置20が情報の損失無しに復号可能な符号化、すなわち可逆符号化であれば任意のものでよい。例えば、可変長符号化部108は、変換プリセットの要素数をsとした場合に2のt乗がs以上となる最小の正整数tを用いて、インデックスをtビットで2進化して得られるビット列を符号化データとする。変換係数や予測パラメータ等、変換選択情報以外のデータについても同様に、可変長符号化部108が行う符号化は、可逆符号化であれば任意のものでよい。
 次に、可変長符号化部108は、変換統合情報の各々について、統合された領域の位置を示すパーティションインデックスと統合対象領域インデックスと統合方向インデックスと、統合された領域に適用された周波数変換を示すインデックスとを符号化する。例えば、パーティションインデックスは、p0~p3の何れかの値をとっており、可変長符号化部108は、このパーティションインデックスを、例えばハフマン符号を用いて可変長符号化データにする。また、統合対象領域インデックスはr0~r7のいずれかの値をとり、可変長符号化部108は、この統合対象領域インデックスを、例えばハフマン符号を用いて可変長符号化データにする。また、統合方向インデックスは、rightまたはdownのいすれかの値をとり、可変長符号化部108は、この統合方向インデックスを、例えば1ビットの符号化データにする。
 なお、動画像符号化装置10が変換統合情報を出力しないようにしてもよい。上述したように、周波数変換決定部105は、変換対象領域を統合するか否かを、予測画像の画素値に基づいて決定する。これにより、後述するように、動画像復号装置20は、動画像符号化装置10の周波数変換決定部105が行う変換対象領域を統合するか否かの判定と同じ判定を行って、統合された領域を推定することができる。さらに、上記のように、統合された領域の大きさと同じ変換サイズの周波数変換を適用することにより、動画像復号装置20が、統合された領域に適用された周波数変換を推定することができる。従って動画像符号化装置10が変換統合情報を出力しなくても、動画像復号装置20が動画像を復号できる。
 一方、動画像符号化装置10が変換統合情報を出力するようにすれば、動画像復号装置20は、統合された領域の推定を行う必要がなく、演算量を削減できる。
 なお、動画像符号化装置10が変換統合情報を出力する場合において、変換統合情報の一部の符号化および出力を省略するようにしてもよい。
 まず、パーティション内に統合の対象となり得る変換対象領域が1つしかない場合は、統合対象領域インデックスを省略できる。例えば、図11(e)のパーティションp1には変換対象領域が1つしかないので、統合対象領域インデックスを省略できる。
 また、統合可能な方向が1方向のみの場合は、統合方向インデックスを省略できる。例えば、図11(b)のパーティションp0の領域r1は、右方向のみマクロブロック内の他のパーティションと接するので、統合方向インデックスを省略できる。
 また、上述のように、統合された領域の大きさから周波数変換を決定できるので、周波数変換の情報を省略できる。逆に、周波数変換の情報から変換対象領域が決定可能な場合には、変換対象領域に関する情報、例えば、パーティションインデックスや統合対象領域インデックス、統合方向インデックスのいずれかあるいは全てを省略してもよい。
 図16は、可変長符号化部108が、処理対象のマクロブロックに含まれる各パーティションの変換選択情報及び変換統合情報を符号化する処理手順を示すフローチャートである。
 ステップS201において、可変長符号化部108は、周波数変換決定部105が処理対象のマクロブロックに対して決定したパーティション構造が四分割か否かを判断する。四分割であると判断した場合(ステップS201:YES)はステップS203に進み、四分割以外であると判断した場合(ステップS201:NO)はステップS202に進む。
 ステップS202において、可変長符号化部108は、処理対象のマクロブロック内の各パーティションに適用する変換選択情報および変換統合情報を符号化する。その後、変換選択情報及び変換統合情報を符号化する処理を終了する。
 ステップS203において、可変長符号化部108は、マクロブロックを四分割した横8画素×縦8画素のサブマクロブロック0~3の各々に対する処理のループを開始する。
 ステップS204において、可変長符号化部108は、処理対象のサブマクロブロック内の各サブパーティションに適用する変換選択情報を符号化する。
 ステップS205において、未処理のサブマクロブロックが残っていればステップS203からのループを繰り返し、残っていなければステップS206へ進む。
 ステップS206において、可変長符号化部108は、マクロブロックを四分割した横8画素×縦8画素のサブマクロブロック0~3の各々に対する処理のループを開始する。
 ステップS207において、可変長符号化部108は、処理対象のサブマクロブロック内の各サブパーティションに適用する変換統合情報を符号化する。
ステップS208において、未処理のサブマクロブロックが残っていればステップS206からのループを繰り返し、残っていなければ変換選択情報及び変換統合情報を符号化する処理を終了する。
 図3のステップS112において、動画像符号化装置10に入力された動画像のうち未処理の部分があればステップS101からのループを繰り返し、動画像符号化装置10に入力された動画像の処理が完了していれば、動画像符号化装置10が符号化データを生成する処理を終了する。
 以上により、動画像符号化装置10は、パーティション境界を挟んで隣接する変換対象領域を統合して、1つの周波数変換を適用する。
 次に、動画像符号化装置10が符号化した符号化データを復号して復号動画像を生成する動画像復号装置20について説明する。
 図17は、動画像復号装置20の機能ブロック構成の概略を示す機能ブロック構成図である。
 同図において、動画像復号装置20は、符号化データ入力部71と復号部42と局所復号画像記憶部43と画像出力部74とを含んで構成される。復号部42は、可変長符号復号部(可逆符号復号部)201と予測画像生成部103と周波数変換導出部(変換対象領域決定部)111と予測残差再構築部109と局所復号画像生成部110とを含んで構成される。
 同図において、図1の各部に対応する部分および図2の各部に対応する部分には同一の符号(71、74、103、109、110)を付し、説明を省略する。
 符号化データ入力部71は、動画像符号化装置10の符号化データ出力部64(図2)が出力するマクロブロック毎の符号化データが入力されると、入力された符号化データを、復号部42の可変長符号復号部201に出力する。
 復号部42は、図1の中央処理装置72がプログラムを実行することにより実現する。復号部42は、符号化データ入力部71から入力されるマクロブロック毎の符号化データから、マクロブロック毎に分割された復号画像である局所復号画像を生成する。
 復号部42において、可変長符号復号部201は、符号化データ入力部71から出力される符号化データから、予測パラメータと変換選択情報と変換統合情報とを復号する。可変長符号復号部201は、復号した予測パラメータを予測画像生成部103と周波数変換導出部111とに出力し、復号した変換選択情報と変換統合情報とを周波数変換導出部111に出力する。また、可変長符号復号部201は、符号化データ入力部71から出力される符号化データから変換係数を復号する。可変長符号復号部201は、復号した変換係数を予測残差再構築部109に出力する。
 周波数変換導出部111は、可変長符号復号部201から入力される変換選択情報および変換統合情報に基づいて、統合後の処理対象のマクロブロック内における変換対象領域の構成および各変換対象領域に適用する周波数変換を示す統合済み変換選択情報を生成する。すなわち、周波数変換導出部111は、変換選択情報および変換統合情報に基づいて、変換対象領域を決定する。周波数変換導出部111は、生成した統合済み変換選択情報を予測残差再構築部109に入力する。
 局所復号画像記憶部43は、図1のメモリ73を用いて実現される。局所復号画像記憶部43は、局所復号画像生成部110が生成する局所復号画像、すなわち、動画像符号化装置10が動画像を分割したマクロブロックを、符号化データから複合した画像である局所復号画像を記憶する。
 画像出力部74は、局所復号画像生成部110から出力される局所復号画像を結合してフレーム単位の復号画像を生成し、動画像復号装置20の外部に出力する。
 図18は、周波数変換導出部111が生成する統合済み変換選択情報のデータ構成を示すデータ構成図である。同図は、図11(b)の統合が行われた場合の統合済み変換選択情報の例を示している。
 同図に示すように、統合済み変換選択情報には、マクロブロック内の各変換対象領域の大きさが示される。統合済み変換選択情報には、各変換対象領域の左上端の画素の位置を基準として、上に位置する変換対象領域から順に変換対象領域の大きさが示され、上下関係が同じ場合は、左に位置する変換対象領域から順に変換対象領域の大きさが示される。
 周波数変換導出部111は、予測パラメータからパーティション構造を読み出し、変換選択情報から各パーティションに適用する周波数変換を読み出して、統合前の変換対象領域の構成を取得する。そして、周波数変換導出部111は、変換統合情報に基づいて、統合後の変換対象領域の構成を取得し、統合済み変換選択情報を生成する。
 次に、動画像復号装置20の動作について説明する。
 図19は、動画像復号装置20が復号動画像を生成する処理手順を示すフローチャートである。動画像復号装置20は、マクロブロック単位の符号化データが外部から順次入力されると、入力された符号化データをマクロブロック毎に処理する同図の処理を開始する。
 ステップS221において、動画像復号装置20は、符号化データをマクロブロック毎に処理するループを開始する。
 ステップS222において、符号化データ入力部71は、外部から1マクロブロック分の符号化データの入力を受けて、可変長符号復号部201に出力する。可変長符号復号部201は、符号化データ入力部71から出力された符号化データから、処理対象のマクロブロックの予測パラメータを復号する。可変長符号復号部201は、復号した予測パラメータを予測画像生成部103と周波数変換導出部111とに出力する。
 ステップS223において、可変長符号復号部201は、符号化データ入力部71から出力された符号化データから、処理対象のマクロブロックの変換選択情報および変換統合情報を復号する。可変長符号復号部201は、復号した変換選択情報および変換統合情報を周波数変換導出部111に出力する。
 ステップS224において、周波数変換導出部111は、可変長符号復号部201から出力された予測パラメータと変換選択情報と変換統合情報とに基づいて、統合済み変換選択情報を生成する。周波数変換導出部111は、生成した統合済み変換選択情報を予測残差再構築部109に出力する。
 ステップS225において、可変長符号復号部201は、符号化データ入力部71から出力された符号化データから変換係数を復号する。可変長符号復号部201は、復号した変換係数を予測残差再構築部109に出力する。
 ステップS226において、予測画像生成部103は、可変長符号復号部201から出力された予測パラメータと、フレームメモリ101に記録されている局所復号画像とに基づいて、処理対象のマクロブロックに対応する予測画像を生成する。予測画像生成部103は、生成した予測画像を局所復号画像生成部110に出力する。
 ステップS227において、予測残差再構築部109は、周波数変換導出部111から出力された統合済み変換選択情報により規定される周波数変換に対応する逆周波数変換を、可変長符号復号部201から出力された変換係数に適用して、処理対象のマクロブロックに対応する予測残差を生成する。したがって、可変長符号復号部201から出力される変換係数に、動画像符号化装置10が、互いに異なるパーティションに含まれる領域を統合した領域を対象として予測残差を周波数変換して生成した変換係数が含まれる場合には、予測残差再構築部109は、互いに異なるパーティションに含まれる領域を統合した領域を示す情報である変換統合情報に基づいて、周波数変換導出部111は統合済み変換対象領域を決定し、統合済み変換選択情報にて示す変換対象領域毎に逆周波数変換を適用して予測残差を生成する。
 予測残差再構築部109は、生成した予測残差を局所復号画像生成部110に出力する。
 ステップS228において、局所復号画像生成部110は、予測残差再構築部109から出力された予測残差と、予測画像生成部103から出力された予測画像とに基づいて、局所復号画像を生成する。局所復号画像生成部110は、生成した局所復号画像を、局所復号画像記憶部43に書き込む。また、局所復号画像生成部110は、生成した局所復号画像を画像出力部74に出力する。画像出力部74は、局所復号画像生成部110から出力された局所復号画像を結合してフレーム単位の復号画像を生成し、動画像復号装置20の外部に出力する。
 ステップS229において、入力される符号化データの全てを処理した場合は復号動画像を生成する処理を終了し、残りの符号化データがある場合はステップS221からのループを繰り返す。入力される符号化データの全てを処理したか否かは、例えば、動画像符号化装置10が、符号化データの終わりを示す信号を出力し、符号化データ入力部71がこのデータを検出することにより判定する。
 以上のように、動画像復号装置20によれば、動画像符号化装置10で生成された符号化データから復号動画像を生成することができる。
 なお、周波数変換決定部105の説明で述べたように、動画像符号化装置10が変換統合情報を出力しない場合も、動画像復号装置20が復号動画像を生成することができる。この場合は、周波数変換導出部111は、可変長符号復号部201が復号する予測パラメータや、局所復号画像記憶部43が記憶する局所復号画像を用いて変換統合情報を生成し、生成した変換統合情報と可変長符号復号部201が復号する変換選択情報とに基づいて統合済み変換選択情報を生成する。
 図20は、動画像符号化装置10が変換対象領域の境界付近の画素値の変化に基づいて統合の適否を判定し、かつ、変換統合情報を出力しない場合に、動画像復号装置20が統合済み変換選択情報を生成する処理手順を示すフローチャートである。同図の処理は、図19のステップS223の処理に対応する。
 ステップS241において、可変長符号復号部201は、変換選択情報を復号する。可変長符号復号部201は、復号した変換選択情報を周波数変換導出部111に出力する。ステップS242において、周波数変換導出部111は、図13で説明した周波数変換決定部105が変換統合情報を生成する処理と同じ処理を行って変換統合情報を生成する。ステップS243において、周波数変換導出部111は、生成した変換統合情報と可変長符号復号部201から出力される変換選択情報とに基づき、統合済み変換選択情報を生成する。その後、統合済み変換選択情報を生成する処理を終了する。
 なお、周波数変換決定部105が、図13で説明した処理以外の処理によって統合の適否を判定する場合も、ステップS242において、周波数変換導出部111は、周波数変換決定部105と同じ処理を行う。例えば、周波数変換決定部105が、変換対象領域r1の参照画像と変換対象領域r2の参照画像とが同一であり、変換対象領域r1の動きベクトルmv1と換対象領域r2の動きベクトルmv2との大きさの差が閾値以下であることを条件とする場合は、周波数変換導出部111も同一の条件を用いて変換統合情報を生成する。
 以上のようにすれば、動画像符号化装置10が変換統合情報を出力しない場合でも、動画像復号装置20は変換統合情報を生成し、動画像を復号することができる。これにより、変換統合情報の符号化データを省略して、動画像符号化装置10から動画像復号装置20に出力する符号量を低減できる。
 なお、動画像符号化装置10が統合済み変換選択情報を生成して符号化して出力するようにしてもよい。動画像復号装置20は、動画像符号化装置10が生成する統合済み変換選択情報を用いて符号化データを復号することができる。
 この場合、動画像符号化装置10の周波数変換決定部105は、変換選択情報と変換統合情報を可変長符号化部に出力する代わりに、周波数変換導出部111が統合済み変換選択情報を生成するのと同じ手順で統合済み変換選択情報を生成して可変長符号化部108に出力する。可変長符号化部108は、周波数変換決定部105から出力された統合済み変換選択情報を符号化して符号化データとして出力する。このようにすれば、動画像復号装置20は、統合済み変換選択情報を生成する必要がなくなるので、周波数変換導出部111を具備する必要がなく、装置の構成を簡単化できる。
 以上のように、動画像符号化装置10は、パーティション境界を挟んで隣接する変換対象領域を統合するか否かを決定し、統合した変換対象領域を1回の周波数変換で変換するので、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 また、動画像復号装置20は、動画像符号化装置10が統合した変換対象領域に基づいて周波数逆変換を行うので、動画像符号化装置10が生成した符号化データを復号して復号動画像を生成することができる。
 なお、動画像符号化装置10が、同一パーティション内に含まれ、互いに隣接する変換対象領域の空間相関が高いか否かを判断し、空間相関が高いと判断した変換対象領域を統合するようにしてもよい。同一パーティション内に含まれ、互いに隣接する変換対象領域の空間相関が高いか否かを判断する処理、および、空間相関が高いと判断した変換対象領域を統合する処理は、上述したパーティション境界を挟んで隣接する変換対象領域の場合と同様の処理によって行うことができる。
 具体的には、図13のステップS163で、条件C131から、互いに異なるパーティション領域に含まれる変換対象領域とする条件を除いた条件「変換対象領域iおよび変換対象領域jは互いに隣接する。かつ、変換対象領域iと変換対象領域jとを合わせた領域が、矩形を成す。」を適用することにより、同一のパーティションに含まれるか、異なるパーティションに含まれるかに関わらず、互いに隣接する変換対象領域を対象とすることができる。同一パーティション内に含まれる変換対象領域に対する上記判定および統合を行うことで、符号化効率をさらに高めることができる。
 動画像符号化装置10は、パーティション境界を挟んで隣接する変換対象領域を統合するか否かに関わらず、同一パーティション内に含まれ、互いに隣接する変換対象領域の空間相関が高いか否かを判断し、空間相関が高いと判断した変換対象領域を統合する。あるいは、動画像符号化装置10が、パーティション境界を挟んで隣接する変換対象領域を統合した場合に、さらに同一パーティション内に含まれ、互いに隣接する変換対象領域の空間相関が高いか否かを判断し、空間相関が高いと判断した変換対象領域を統合するようにしてもよい。パーティション境界を挟んで隣接する変換対象領域を統合するか否かに関わらず、同一パーティション内に含まれる変換対象領域に対する上記判定および統合を行うことで、符号化効率をより高めることができる。一方パーティション境界を挟んで隣接する変換対象領域を統合する場合に、同一パーティション内に含まれる変換対象領域に対する上記判定および統合を行うことで、動画像符号化装置10が行う処理量の増大を抑えることができる。
<第2の実施形態>
 図21は、本発明の第2の実施形態における動画像符号化装置11の機能ブロック構成の概略を示す機能ブロック構成図である。
 同図において、動画像符号化装置11は、画像入力部61と、符号化部52と、局所復号画像記憶部33と、符号化データ出力部64とを含んで構成される。符号化部52は、予測パラメータ決定部(パラメータ構造決定部)102と予測画像生成部103と予測残差生成部106と周波数変換決定部(周波数変換領域分割部)112と変換係数生成部107と可変長符号化部113と予測残差再構築部109と局所復号画像生成部110とを含んで構成される。
 同図において、図2の動画像符号化装置10の各部に対応する部分には同一の符号(33、61、64、102、103、106、107、109、110)を付し、説明を省略する。
 動画像符号化装置11は、周波数変換決定部112が、予測画像の各パーティションに対する周波数変換選択後の統合処理を行わずに、予測画像のパーティション境界にわたる分割パターンを用いて周波数変換の決定を行う点で図2の動画像符号化装置10と異なる。
 図22は、周波数変換決定部112が用いる分割パターンの例を示す図である。
 同図に示すように、分割パターンは、マクロブロックを横または縦に分割してできる領域のパターンである。分割パターンは、マクロブロック内の同一の周波数変換を適用する領域を表す。周波数変換決定部112は、動き補償のためにマクロブロックを分割するパーティションとは独立に分割パターンを選択する。
 周波数変換決定部112は、図22(a)~(g)に示す分割パターンを使用する。
 同図(a)は、マクロブロックを分割しない一分割の場合の分割パターンを示す。同図(b)は、マクロブロックを横16画素×縦8画素の2つの領域に分割する二分割の場合の分割パターンを示す。同図(c)は、マクロブロックを横8画素×縦16画素の2つの領域に分割する二分割の場合の分割パターンを示す。同図(d)は、マクロブロックを横8画素×縦8画素の4つの領域に分割する四分割の場合の分割パターンを示す。同図(e)は、マクロブロックを上下には8画素毎に二分割し、左右には4画素、8画素、4画素の順に三分割することにより、マクロブロックを6つの領域に分割する場合の分割パターンを示す。同図(f)は、マクロブロックを上下には4画素、8画素、4画素の順に三分割し、左右には8画素毎に二分割することにより、マクロブロックを6つの領域に分割する場合の分割パターンを示す。同図(g)は、マクロブロックを上下、左右共に4画素、8画素、4画素の順に三分割することにより、マクロブロックを9つの領域に分割する場合の分割パターンを示す。
 さらに、周波数変換決定部112が、図22(h)~(j)に示す分割パターンや、これらの分割パターンを左または右に90度回転した分割パターンや180度回転した分割パターンも用いるようにしてもよい。
 同図(h)は、マクロブロックを上下に8画素毎に分割し、下の領域をさらに左右に8画素毎に分割することにより、マクロブロックを3つの領域に分割する場合の分割パターンを示す。同図(i)は、マクロブロックを上下に8画素毎に分割し、下の領域をさらに左右に4画素、8画素、4画素の順に三分割することにより、マクロブロックを4つの領域に分割する場合の分割パターンを示す。同図(j)は、マクロブロックを上下に8画素毎に分割し、上の領域をさらに左右に8画素毎に分割し、下の領域をさらに左右に4画素、8画素、4画素の順に三分割することにより、マクロブロックを5つの領域に分割する場合の分割パターンを示す。
 H.264/AVCでは、マクロブロックを4分割したパーティションにおいては4×4DCTと8×8DCTのいずれかを選択する。図22に示した分割パターンでは、同図(d)の分割パターンにて上記のパーティション選択および周波数変換の適用に対応できる。
 なお、分割パターンは図22に例示したものに限らないが、分割してできる各領域の画素数が縦横共に、変換プリセットに含まれるいずれかの周波数変換のサイズの倍数(以下では「充填可能」ともいう)であることが望ましい。また、周波数変換決定部112が、パーティション構造や予測パラメータや画素値に基づいて分割パターンの集合を動的に生成あるいは変更するようにしてもよい。この場合、動画像符号化装置10は、動画像復号装置20に分割パターンの集合の情報を出力する。
 図23は、周波数変換決定部112が、処理対象の予測残差のマクロブロックに適用する分割パターンおよび周波数変換を決定する処理手順を示すフローチャートである。
 ステップS261において、周波数変換決定部112は、予め定められた分割パターンの集合の各分割パターンについて処理を行うループを開始する。
 ステップS262において、周波数変換決定部112は、ステップS261からのループで処理対象となっている分割パターンP内の領域毎に処理を行うループを開始する。
 ステップS263において、周波数変換決定部112は、ループにおいて処理対象となっている領域uに適用する周波数変換を、変換プリセットから選択する。具体的には、充填可能な各周波数変換を適用した場合のレート歪コストを前述式(1)に基づいて計算して、レート歪コストを最小とする周波数変換を、領域uに適用する周波数変換とする。
 ステップS264において、分割パターンP内に未処理の領域があれば、ステップS262からの処理のループを繰り返す。分割パターンP内の領域すべてについて処理済みであれば、ステップS265に進む。
 ステップS265において、未処理の分割パターンがあれば、ステップS261からの処理のループを繰り返す。未処理の分割パターンが無い場合は、ステップS266に進む。
 ステップS266において、周波数変換決定部112は、処理中のマクロブロックに最適な分割パターンを選択する。具体的には、ステップS261~ステップS265において得られたレート歪コストを分割パターン毎に合計し、マクロブロック内でのレート歪コストの合計が最小となる分割パターンを選択する。
 ステップS267において、周波数変換決定部112は、ステップS266において選択した分割パターンおよび、分割パターン内の領域において選択された周波数変換の情報を、変換選択情報として変換係数生成部107と予測残差再構築部109と可変長符号化部113とに出力する。その後、処理対象のマクロブロックに適用する周波数変換を決定する処理を終了する。
 以上のようにして、周波数変換決定部112は、各マクロブロックにおいて適用する、分割パターンおよび各領域の周波数変換を決定する。多くの分割パターンを選択可能な場合、計算量が膨大になるが、例えば、ステップS263で行った周波数変換の結果を記憶し、後に同一の領域に同一の周波数変換を行う際に参照することにより計算量を削減できる。
 可変長符号化部113は、動画像符号化装置10の可変長符号化部108と同様に、マクロブロック内の各パーティションにおける変換係数と予測パラメータとを可変長符号化する。また、可変長符号化部113は、分割パターンを示すインデックスと、分割パターンによって分割される予測残差の各領域に適用する周波数変換を示すインデックスとを符号化する。
 可変長符号化部113は、生成した符号化データを符号化データ出力部64に出力する。
 続いて、動画像符号化装置11の動作について説明する。
 図24は、動画像符号化装置が符号化データを生成する処理手順を示すフローチャートである。
 ステップS281~ステップS285は、図3のステップS101~ステップS105と同様である。
 ステップS286において、周波数変換決定部112は、予測パラメータ決定部102から出力される予測パラメータと予測残差生成部106から出力される予測残差とに基づいて、処理対象のマクロブロックに適用する分割パターンと分割パターン内の各領域に適用する周波数変換とを決定し、分割パターンと各領域に適用する周波数変換とを示す変換選択情報を生成して、変換係数生成部107と可変長符号化部113と予測残差再構築部109とに出力する。
 ステップS287において、変換係数生成部107は、周波数変換決定部112が決定した分割パターンと周波数変換とに基づいて、予測残差生成部106から出力される予測残差を周波数変換して変換係数を生成し、可変長符号化部108と予測残差再構築部109とに出力する。
 ステップS288において、予測残差再構築部109は、周波数変換決定部112が決定した分割パターンと周波数変換とに基づいて、変換係数生成部107が行った周波数変換の逆周波数変換を、変換係数生成部107から出力される変換係数に適用して、処理対象のマクロブロックの予測残差を再構築する。予測残差再構築部109は再構築した予測残差を局所復号画像生成部110に出力する。ステップS289は、図3のステップS110と同様である。
 ステップS290において、可変長符号化部113は、変換係数と予測パラメータと分割パターンと変換選択情報とを符号化して符号化データを生成する。可変長符号化部113は、図2の可変長符号化部108と同様に、変換係数をパーティション毎に符号化する。可変長符号化部113は、生成した符号化データを符号化データ出力部64に出力する。符号化データ出力部64は、可変長符号化部113から出力された符号化データを動画像符号化装置11の外部に出力する。ステップS291は、図3のステップS112と同様である。
 上記の手順により、動画像符号化装置11は、入力された動画像を符号化して符号化データを生成し、外部に出力する。
 なお、周波数変換決定部112が上記のレート歪コストを用いる方法以外の方法によって分割パターンを決定し、あるいは絞り込むようにしてもよい。例えば、周波数変換決定部112は、図22(c)のような垂直な境界線に対し、当該境界線の左右の領域における類似度あるいは動きベクトルの類似性や参照画像のインデックスなどを判定する。境界線の左右の領域の類似性が高いと判定した場合は、周波数変換決定部112は、マクロブロックを左右に二分する、図22(c)(d)(f)の分割パターンを候補から除外する。ここで、周波数変換決定部112は、動画像符号化装置10の周波数変換決定部105と同様に、分割パターンの左右の画素に対して式(2)を適用することにより、上記の判定を行う。
 次に、本実施形態における動画像復号装置について説明する。
 図25は、動画像復号装置21の機能ブロック構成の概略を示す機能ブロック構成図である。
 同図において、動画像復号装置21は、符号化データ入力部71と復号部82と局所復号画像記憶部43と画像出力部74とを含んで構成される。復号部82は、可変長符号復号部202と予測画像生成部103と予測残差再構築部109と局所復号画像生成部110とを含んで構成される。
 同図において、図17の各部に対応する部分には同一の符号(43、71、74、103、109、110)を付し、説明を省略する。
 可変長符号復号部202は、符号化データ入力部71から出力される符号化データを復号して、予測パラメータと分割パターンと変換選択情報と変換係数とを生成する。具体的には、可変長符号復号部202は、まず、符号化データから予測パラメータおよび分割パターンを復号する。次に、可変長符号復号部202は、復号した分割パターンを利用して、符号化データから変換選択情報を復号する。そして、可変長符号復号部202は、復号した予測パラメータからパーティションの構造を読み出して、符号化データから変換係数を復号する。
 可変長符号復号部202は、生成した予測パラメータと分割パターンと変換選択情報と変換係数とを、予測残差再構築部109と予測画像生成部103とに出力する。
 図26は、動画像復号装置21が復号動画像を生成する処理手順を示すフローチャートである。
 ステップS301~ステップS302は、図19のステップS221~ステップS222と同様である。
 ステップS303において、可変長符号復号部202は、入力された符号化データから、処理対象のマクロブロックに対応する分割パターンおよび変換選択情報を復号する。可変長符号復号部202は、復号した分割パターンおよび変換選択情報を、予測残差再構築部109へ出力する。
 ステップS304~ステップS305は図19のステップS225~ステップS226と同様である。
 ステップS306において、予測残差再構築部109は、可変長符号復号部202から出力される分割パターンおよび変換選択情報により規定される周波数変換に対応する逆周波数変換を、可変長符号復号部202から出力される変換係数に適用して、処理対象のマクロブロックの予測残差を再構築する。予測残差再構築部109は、再構築した予測残差を局所復号画像生成部110に出力する。
 ステップS307~ステップS308は、図19のステップS228~ステップS229と同様である。
 以上により、動画像復号装置21によれば、動画像符号化装置11が生成した符号化データから復号動画像を生成することができる。
 なお、第1の実施形態で動画像符号化装置10が変換統合情報を出力せずに、動画像復号装置20が変換統合情報を生成するようにしてもよいのと同様、本実施形態でも、動画像符号化装置11が分割パターンを示す情報を出力せずに、動画像復号装置が分割パターンを選択するようにしてもよい。
 図27は、分割パターンを選択する動画像復号装置22の構成を示す構成図である。
 同図において、動画像復号装置22は、符号化データ入力部71と復号部92と局所復号画像記憶部43と画像出力部74とを含んで構成される。復号部92は、可変長符号復号部202と予測画像生成部103と予測残差再構築部209と局所復号画像生成部110とを含んで構成される。予測残差再構築部209は、分割パターン導出部203を含んで構成される。
 同図において、図17の各部に対応する部分には同一の符号(43、71、74、103、110、202)を付し、説明を省略する。
 分割パターン導出部203は、局所復号画像や予測パラメータに基づいて、動画像符号化装置11の周波数変換決定部112と同一の処理を行って分割パターンを選択する。
 予測残差再構築部209は、分割パターン導出部203が選択した分割パターンを用いて、動画像復号装置21の予測残差再構築部109と同様に、処理対象のマクロブロックの予測残差を再構築する。予測残差再構築部209は、再構築した予測残差を局所復号画像生成部110に出力する。
 これにより、動画像符号化装置11が分割パターンを示す情報を出力しない場合でも、動画像復号装置22は復号動画像を生成することができる。
 以上のように、本実施形態の動画像符号化装置11は、分割パターンを用いて符号化を行うことにより、パーティション境界を挟んで隣接する領域が分割パターンの同一の領域に含まれる場合に、この領域に対して1つの周波数変換を適用することができる。これにより、分割パターン内の領域の空間相関が高い場合に、パーティション毎に周波数変換を行うよりも符号化効率を向上させることができる。
 また動画像復号装置21や動画像復号装置22は、動画像符号化装置11が生成した符号化データから復号動画像を生成することができる。
 <第3の実施形態>
 図28は、本発明の第3の実施形態における動画像符号化装置16の構成を示す構成図である。
 同図において、動画像符号化装置16は、画像入力部61と、符号化部36と、局所復号画像記憶部33と、符号化データ出力部64とを含んで構成される。符号化部36は、予測パラメータ決定部(パーティション構造決定部、予測モード決定部)152と予測画像生成部153と予測残差生成部106と周波数変換決定部(周波数変換領域分割部)155と変換係数生成部107と可変長符号化部108と予測残差再構築部109と局所復号画像生成部110とを含んで構成される。
 同図において、図2の各部と対応する部分には同一の符号(61、106~110、33、64)を付し、説明を省略する。
 動画像符号化装置16は、マクロブロック毎にインター予測を行うかイントラ予測を行うかを決定し、決定に従って処理を行う。インター予測(動き補償予測)は、上記で説明したように、処理対象のマクロブロックと異なるフレームに含まれるマクロブロックの局所復号画像を用いて、処理対象のマクロブロックに類似する予測画像を生成することにより、符号化効率を高める方法である。一方、イントラ予測は、処理対象のマクロブロックと同一フレームに含まれる画素(処理対象のマクロブロック内で生成済みの予測画像の画素、または、処理対象のマクロブロックに隣接するマクロブロックの局所復号画像内の画素)を用いて、処理対象のマクロブロックに類似する予測画像を生成することにより、符号化効率を高める方法である。インター予測を行うと決定した場合に動画像符号化装置16が行う処理は、動画像符号化装置10と同様であり、予測パラメータ決定部152と予測画像生成部153と周波数変換決定部155とは、それぞれ図2の予測パラメータ決定部102と予測画像生成部153と周波数変換決定部155と同様に動作する。動画像符号化装置16が、イントラ予測を行うと決定した場合の処理については、以下で説明する。
 予測パラメータ決定部152は、画像入力部61からマクロブロック単位の画像が入力されると、インター予測を行うかイントラ予測を行うかをマクロブロック毎に決定する。インター予測を行うかイントラ予測を行うかの決定は、公知の方法を用いることができる。例えば、予測パラメータ決定部152は、インター予測を行った場合のレート歪コストとイントラ予測を行った場合のレート歪コストとを式(1)に基づいて算出し、レート歪コストが小さいほうを選択する。なお、インター予測を行うかイントラ予測を行うかを動的に決定せず、予め決められたフレームまたは位置でのみイントラ予測を選択するようにしてもよい。また、イントラ予測を用いるかどうかをフレーム単位で決定するようにしてもよい。
 イントラ予測を行うと決定した場合は、予測パラメータ決定部152は、パーティションまたはサブパーティション(以下、特にパーティションとサブパーティションを区別する必要が無い場合は、単にパーティションという)のサイズを、図5で説明したパーティションのうち、横16画素×縦16画素(図5のパーティション構造MB1)、横8画素×縦8画素(パーティション構造MB4)、横4画素×縦4画素(パーティション構造MB4およびサブパーティション構造SMB4)の何れかに決定し、決定したパーティションのサイズに応じて定まるパーティション毎に予測モードを決定する。予測モードについては後述する。予測パラメータ決定部152は、イントラ予測を選択したことと、決定したパーティションのサイズと、各パーティションに適用する予測モードとを示す予測パラメータを生成し、予測画像生成部153と周波数変換決定部155と可変長符号化部108とに出力する。
 予測画像生成部153は、予測パラメータ決定部152が決定した予測モードに従って、局所復号画像記憶部33から読み出す局所復号画像を用いて予測画像を生成する。予測画像生成部153は、生成した予測画像を予測残差生成部106と局所復号画像生成部110とに出力する。
 周波数変換決定部155は、予測パラメータ決定部152から出力される予測パラメータに基づいて、予測残差生成部106から出力される予測残差に適用する周波数変換の変換対象領域を決定し、また、変換対象領域を統合するか否かを決定する。周波数変換決定部155は、決定した変換対象領域(周波数変換のサイズ)を示す変換選択情報と、統合する変換対象領域を示す変換統合情報とを生成し、変換係数生成部107と、予測残差再構築部109と、可変長符号化部108とに出力する。
 図29は、予測パラメータ決定部152が決定する予測モードを示す図である。予測パラメータ決定部152は、H.264/AVCで規定された予測モードと同様の予測モードの中からパーティションに適用する予測モードを選択する。予測モードは、パーティションに隣接する画素からパーティションの予測画像を生成する方法を示す情報である。
 同図は、パーティションのサイズが横4画素×縦4画素の場合の予測モードを示す。同図(a)に示すモード0では、パーティションの上に隣接する画素に基づいて縦方向に補間を行い、パーティションの予測画像を生成する。同図(b)に示すモード1では、パーティションの左に隣接する画素に基づいて横方向に補間を行い、パーティションの予測画像を生成する。同図(c)に示すモード2では、パーティションの左および上に隣接する画素値の平均を用いて補間を行い、パーティションの予測画像を生成する。同図(d)に示すモード3では、パーティションの上に隣接する画素に基づいて右上から左下方向に補間を行い、パーティションの予測画像を生成する。以下同様に、同図(e)に示すモード4と、同図(f)に示すモード5と、同図(g)に示すモード6と、同図(h)に示すモード7と、同図(i)に示すモード8とでは、図に矢印で示すように斜め方向に補間を行い、パーティションの予測画像を生成する。
 パーティションのサイズが横8画素×縦8画素の場合も、予測パラメータ決定部152は、上記と同様の9つの予測モードの中からパーティションに適用する予測モードを選択する。パーティションのサイズが横16画素×縦16画素の場合は、予測パラメータ決定部152は、図29(a)と同様に、パーティションの上に隣接する画素に基づいて縦方向に補間を行うモードと、図29(b)と同様に、パーティションの左に隣接する画素に基づいて横方向に補間を行うモードと、図29(c)と同様に、パーティションの左および上に隣接する画素値の平均を用いて補間を行うモードと、パーティションの左および上に隣接する画素に基づいて右上から左下への斜め方向に補間を行うモードとの、4つの予測モードの中からパーティションに適用する予測モードを選択する。
 予測パラメータ決定部152は、予測モードの各々について、パーティションに適用した場合のレート歪コストを式(1)に基づいて算出し、レート歪コストが最小となる予測モードを選択する。
 図30は、動画像符号化装置16が符号化データを生成する処理手順を示すフローチャートである。動画像符号化装置16は、画像入力部61に動画像が入力されると、符号化データを生成する処理を開始する。
 ステップS321~S322は、図3のステップS101~S102と同様である。
 ステップS323において、予測パラメータ決定部152は、イントラ予測を行うかインター予測を行うかを決定する。イントラ予測を行うと決定した場合(ステップS323:YES)はステップS324に進み、インター予測を行うと決定した場合(ステップS323:NO)はステップS341に進む。
 ステップS324において、予測パラメータ決定部152は、第1の実施形態の予測パラメータ決定部102(図2)と同様に、パーティションのサイズ毎にレート歪コストを算出し、レート歪コストが最小となるパーティションのサイズを選択する。
 さらに、予測パラメータ決定部152は、パーティション毎に予測モードを決定し、イントラ予測を選択したことと、決定したパーティションのサイズと、予測モードとを示す予測パラメータを生成する。予測パラメータ決定部152は生成した予測パラメータを周波数変換決定部155と、予測画像生成部153と、可変長符号化部108とに出力する。
 ステップS325において、予測画像生成部153は、予測パラメータ決定部152が決定したパーティションのサイズと予測モードとに従って、パーティション毎に予測画像を生成する。具体的には、予測画像生成部153は、マクロブロック内の各パーティションについて、処理対象のパーティションに隣接する画素の画素値を、(参照する画素が他のマクロブロックに含まれる場合は、)局所復号画像記憶部33が記憶する局所復号画像から読み出し、または、(参照する画素が同一のマクロブロックに含まれる場合は、)予測画像生成部153の内部に記憶する、予測画像を生成済みのパーティションの予測画像から読み出し、予測モードに応じた補間を行って、パーティションの予測画像を生成する。そして、予測画像生成部153は、マクロブロック内の各パーティションの予測画像を結合してマクロブロックの予測画像を生成する。予測画像生成部153は、生成した予測画像(マクロブロックの予測画像)を予測残差生成部106と局所復号画像生成部110とに出力する。
 ステップS326は、図3のステップS105と同様である。
 ステップS327において、周波数変換決定部155は、図3のステップS106と同様に、パーティション毎に周波数変換を選択する。具体的には、周波数変換決定部155は、パーティションのサイズ以下の領域を変換対象領域とする周波数変換を、第1の実施形態の場合と同様の変換プリセットの中から選択する。
 なお、H.264/AVCでは、パーティションが横4画素×縦4画素、横8画素×縦8画素、横16画素×縦16画素の場合に、それぞれ4×4DCT、8×8DCT、4×4DCTを適用するというように、パーティションのサイズに応じて周波数変換が一意に決定される。周波数変換決定部155が、このH.264/AVCと同様に周波数変換を決定するようにしてもよい。この場合は、ステップS324において予測パラメータ決定部152が横16画素×縦16画素のパーティションを選択した場合に、周波数変換決定部155は、ステップS327において周波数変換として4×4DCTを選択し、次に述べるステップ変換S328において対象領域の統合を行う。
 また、第1の実施形態の場合と同様、動画像符号化装置16が用いる周波数変換は、H.264/AVCで用いられる周波数変換に限らない。また、マクロブロックのサイズも横16画素×縦16画素に限らない。
 さらには、パーティションのサイズも、上述した横4画素×縦4画素、横8画素×縦8画素、横16画素×縦16画素以外のサイズを用いるようにしてもよい。
 ステップS328において、周波数変換決定部155は、図3のステップS107と同様に、互いに隣接する変換対象領域を統合した領域を示す変換統合情報を生成する。周波数変換決定部155は、第1の実施形態の周波数変換決定部105と同様に、予測画像内の互いに隣接する画素の画素値の類似性に基づいて、これらの変換対象領域の空間相関が高いか否かを判断し、これらの変換対象領域を統合するか否かを決定する。
 ここで、周波数変換決定部155は、互いに隣接する変換対象領域が、同一のパーティションに含まれるか異なるパーティションに含まれるかにかかわらず、互いに隣接する変換対象領域を統合するか否かを決定する。具体的には、第1の実施形態のなお書きで説明したのと同様に、周波数変換決定部155は、前述の条件C131から、互いに異なるパーティション領域に含まれる変換対象領域とする条件を除いた条件「変換対象領域iおよび変換対象領域jは互いに隣接する。かつ、変換対象領域iと変換対象領域jとを合わせた領域が、矩形を成す。」を適用する。
 なお、第1の実施形態の場合と同様、周波数変換決定部155が、条件C131を用いて、互いに異なるパーティションに含まれる変換対象領域のみを対象として、統合するか否かを決定するようにしてもよい。
 なお、周波数変換決定部155が、上記以外の方法で変換対象領域を統合するか否かを決定するようにしてもよい。例えば、周波数変換決定部155が、互いに隣接する変換対象領域の予測モードが等しいか否か、あるいは、予測モードが特定の予測モードと等しいか否か、すなわち、図29に示されるような予測モードの種類のうちのいずれか特定の予測モードと等しいか否か、あるいは、予測モードの示す補間方向が互いに同一または類似するか否か、あるいは、一方の変換対象領域が他方の変換対象領域の画素を参照しているか否か、あるいは、これらを組み合わせた基準を、空間相関を示す指標とし、この空間相関を示す指標に基づいて統合する領域を決定するようにしてもよい。
 ステップS329~S333は、図3のステップS108~S112と同様である。
 ステップS341~S349は、動画像符号化装置16がインター予測を行う場合の処理である。ステップS341にて、予測パラメータ決定部152は、インター予測を選択したことを示す情報を含む予測パラメータを生成する。それ以外は、ステップS341~S349は図3のステップS103~S111と同様である。ステップS349の後は、ステップS333に進む。
 なお、周波数変換決定部155が、予測画像内の互いに隣接する画素の画素値に基づいて変換対象領域を統合するか否かを決定する場合は、第1の実施形態の場合と異なり、動画像符号化装置16は、変換統合情報の出力を省略できない。なぜなら、イントラ予測では、インター予測の場合と予測画像の生成方法が異なり、後述するように、動画像復号装置が予測画像を生成するためには、既に変換係数が逆周波数変換されている必要があるので、周波数変換決定部155が処理対象のマクロブロックに適用する周波数変換を決定する時点では未だ予測画像は生成されておらず、動画像符号化装置16が行った変換対象領域の統合を予測画像に基づいて推定することはできないからである。
 一方、周波数変換決定部155が、予測モードに基づいて変換対象領域を統合するか否かを決定する場合は、動画像復号装置も、動画像符号化装置16から出力される予測モードを示す情報を用いて動画像符号化装置16と同様の判定を行い、統合された変換対象領域を推定できるので、動画像符号化装置16が、変換統合情報を出力しないようにしてもよい。
 なお、H.264/AVCでは、マクロブロック毎ではなくパーティション毎に、予測残差に対して周波数変換および逆周波数変換を行って、パーティション毎の局所復号画像を生成することにより、予測誤差を補償している。これにより、同一マクロブロック内の他のパーティションの予測画像を生成する際に、予測誤差を補償した局所復号画像を用いることで、符号化効率の向上を図っている。これに対して、動画像符号化装置16では、周波数変換決定部155が変換対象領域を統合した後に、変換係数生成部107がマクロブロック毎に周波数変換を行う。このために、予測画像生成部153は、上述のステップS325で説明したように、予測誤差を補償していない画像を用いて予測画像を生成する。しかし、以下の場合には、予測誤差は大きな問題とはなりにくい。
 例えば、マクロブロックの左上端のパーティションの予測画像を生成する場合など、イントラ予測で参照する画素が隣接マクロブロックに属する場合は、局所復号画像記憶部33が記憶する周波数変換および逆周波数変換済みの局所復号画像を参照するので、上記の予測誤差の問題は生じない。また、変換係数生成部107が行う周波数変換に可逆の変換を用いる場合も、予測誤差は問題にならない。また、図29(c)で示したモード2のように、パーティションの上や左の参照画素の平均値に基づいて予測画像を生成する直流成分予測モード(DC予測モード)を用いる場合も、平均値を取ることによって予測誤差の影響が軽減され、予測誤差は問題となりにくい。また、変換係数生成部107が変換係数を量子化する場合に、量子化幅が小さければ、量子化による予測誤差の拡大が小さく、予測誤差は問題となりにくい。
 なお、予測誤差を軽減するために、予測画像生成部153が、内部に記憶する予測誤差補償を行っていない予測画像を用いる際に、フィルタをかけるようにしてもよい。この場合は、動画像復号装置も、予測画像を生成する際に同様のフィルタをかける。例えば、平滑化フィルタをかけることにより、突出した予測誤差を軽減することができる。なお、直流成分予測モードの場合は上述のように誤差が問題となりにくいので、予測残差生成部106が、他のモードの場合よりも弱いフィルタをかけるか、あるいは、フィルタをかけないようにしてもよい。また、量子化幅が小さい場合も、予測残差生成部106が弱いフィルタをかけるか、あるいは、フィルタをかけないようにしてもよい。
 なお、動画像符号化装置16が、同一のパーティションに含まれる複数の変換対象領域のみを統合するようにしてもよい。この場合は、H.264/AVCで規定されるイントラ予測と同様に、パーティション毎の予測残差に対して周波数変換および逆周波数変換を行って、パーティション毎の局所復号画像を生成することができる。これにより、H.264/AVCの場合と同様に符号化効率の向上を図ることができる。
 なお、H.264/AVCに規定されるイントラ予測では、予測残差を周波数変換した後に、変換係数の直流(DC)成分の冗長性を取り除くために、さらにアダマール変換を行う場合がある。これに対して、動画像符号化装置16では、変換係数生成部107が、統合された変換対象領域に対して周波数変換を行うことにより、互いに隣接する領域の空間相関が変換係数に反映されているので、変換係数に、さらにアダマール変換を行う必要は無く、アダマール変換を行うことによる処理量の増大は無い。
 次に、動画像符号化装置16が符号化した符号化データを復号して復号動画像を生成する動画像復号装置26について説明する。
 図31は、動画像復号装置26の機能ブロック構成の概略を示す機能ブロック構成図である。
 同図において、動画像復号装置26は、符号化データ入力部71と復号部46と局所復号画像記憶部43と画像出力部74とを含んで構成される。復号部46は、可変長符号復号部(可逆符号復号部)201と予測画像生成部163と周波数変換導出部(変換対象領域決定部)111と予測残差再構築部109と局所復号画像生成部170とを含んで構成される。
 同図において、図17の各部に対応する部分には同一の符号(43、71、74、201、111、109)を付し、説明を省略する。
 予測画像生成部163は、可変長符号復号部201から出力されるパーティションのサイズの情報と予測モードの情報とを用いて、局所復号画像記憶部43から読み出す隣接するマクロブロックの画素値や、局所復号画像生成部170から出力される、同一マクロブロック内で処理済みのパーティションの局所復号画像に基づいて、パーティション毎に予測画像を生成し、局所復号画像生成部170に出力する。
 局所復号画像生成部170は、予測画像生成部163から出力されるパーティションの予測画像と、予測残差再構築部109から出力される予測残差とに基づいて、パーティションの局所復号画像を生成する。具体的には、局所復号画像生成部170は、パーティションの予測画像の各画素に、予測残差のうち対応する画素を足し合わせてパーティションの局所復号画像を生成する。局所復号画像生成部170は、生成したパーティションの局所復号画像を予測画像生成部163に出力する。これにより、予測画像生成部163は、同一マクロブロック内の他のパーティションの予測画像を生成する際に、局所復号画像生成部170から出力された画像を参照することができる。
 また、局所復号画像生成部170は、パーティションの局所復号画像を結合して(マクロブロック単位の)局所復号画像を生成し、生成した局所復号画像を局所復号画像記憶部43と画像出力部74とに出力する。
 図32は、動画像復号装置26が復号動画像を生成する処理手順を示すフローチャートである。動画像復号装置26は、マクロブロック単位の符号化データが外部から順次入力されると、入力された符号化データをマクロブロック毎に処理する同図の処理を開始する。
 ステップS381~S385は、図19のステップS221~S225と同様である。ステップS386は図19のステップS227と同様である。イントラ予測では、ステップS386で予測残差再構築部109が生成する予測残差を用いて、局所復号画像生成部170がパーティション毎に局所復号画像を生成し、生成したパーティション毎の局所復号画像を用いて、予測画像生成部163がパーティション毎に予測画像を生成するため、図19の場合と異なり、動画像復号装置26は、予測画像を生成する前に変換係数を逆周波数変換する。
 ステップS387において、予測画像生成部163は、可変長符号復号部201から出力される予測パラメータから、動画像符号化装置16がイントラ予測を行ったかインター予測を行ったかを示す情報を読み出す。読み出した情報がイントラ予測を行ったことを示す場合(ステップS387:YES)はステップS388に進み、インター予測を行ったことを示す場合(ステップS387:NO)はステップS390に進む。
 ステップS388において、予測画像生成部163は予測画像を生成する。具体的には、上述したように、パーティション毎に予測画像を生成して局所復号画像生成部170に出力する。局所復号画像生成部170は、予測画像生成部163から出力されるパーティション毎の予測画像と予測残差生成部109から出力される予測残差とに基づいて、パーティションの局所復号画像を生成して予測画像生成部163に出力する。
 ステップS389において、局所復号画像生成部170は、上述したように、パーティションの局所復号画像を結合して(マクロブロック単位の)局所復号画像を生成し、局所復号画像記憶部43と画像出力部74とに出力する。その後、ステップS392に進む。
 ステップS390は、図19のステップS226と同様である。ステップS391~S392は、図19のステップS228~S229と同様である。
 なお、上述したように、動画像符号化装置16が、変換対象領域を統合するか否かを予測モードに基づいて決定し、かつ、変換統合情報を出力しない場合は、第1の実施形態において図20で説明したのと同様に、動画像復号装置26の周波数変換導出部111は、動画像符号化装置16の周波数変換決定部165が変換統合情報を生成する処理と同じ処理を行って変換統合情報を生成する。これにより、動画像符号化装置16から変換統合情報が出力されない場合でも、動画像復号装置26は、復号動画像を生成することができる。
 以上のように、動画像符号化装置16は、イントラ予測を行う際にも、隣接する変換対象領域を統合するか否かを決定し、統合した変換対象領域を1回の周波数変換で変換するので、パーティション境界を挟んで隣接する複数領域が高い空間相関を有する場合に符号化効率を向上させることができる。
 また、動画像復号装置26は、動画像符号化装置16が統合した変換対象領域に基づいて周波数逆変換を行うので、動画像符号化装置16が生成した符号化データを復号して復号動画像を生成することができる。
 なお、第2の実施形態の動画像符号化装置11と同様に、動画像符号化装置16の周波数変換決定部155が、予測画像の各パーティションに対する周波数変換選択後の統合処理を行わずに、予測画像のパーティション境界にわたる分割パターンを用いて周波数変換の決定を行うようにしてもよい。具体的には、周波数変換決定部155は、図23のフローチャートで示した手順に従って分割パターンを選択する。そして、動画像符号化装置16は、分割パターンを示すインデックスと予測パラメータ(パーティションのサイズおよび予測モードを示す情報)と変換選択情報と変換係数とを符号化して出力し、動画像復号装置26は、これらのデータを復号する。動画像復号装置26の予測残差再構築部109は、復号された分割パターンおよび変換選択情報に従って変換係数に対して逆周波数変換を行い、予測残差を再構築する。なお、動画像復号装置26は、動画像符号化装置16から分割パターンを受信するので、統合済み変換選択情報の生成は行わない。従って、動画像復号装置26は、周波数変換導出部111を具備する必要がない。
 この場合も第2の実施形態の場合と同様に、動画像符号化装置16は、分割パターンに従って決定される各変換対象領域の空間相関が高い場合に、パーティション毎に周波数変換を行うよりも符号化効率を向上させることができる。また動画像復号装置21や動画像復号装置22は、動画像符号化装置11が生成した符号化データから復号動画像を生成することができる。
 なお、動画像符号化装置10、11、16や、動画像復号装置20、21、22、26の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 本発明は、動画像符号化装置や動画像復号装置や動画像符号化・復号システムや動画像符号化方法や動画像復号方法に用いて好適である。例えば、動画像の送受信を行う場合や、動画像の保存および再生を行う場合に適用することができる。
 1 動画像符号化・復号システム
 10、11、16 動画像符号化装置
 20、21、22、26 動画像復号装置
 61 画像入力部
 32、36、52 符号化部
 33、43 局所復号画像記憶部
 64 符号化データ出力部
 71 符号化データ入力部
 42、46、82、92 復号部
 74 画像出力部
 102、152 予測パラメータ決定部
 103、153、163 予測画像生成部
 105、112、155 周波数変換決定部
 106 予測残差生成部
 107 変換係数生成部
 108、113 可変長符号化部
 109 予測残差再構築部
 110、170 局所復号画像生成部
 111 周波数変換導出部
 201、202 可変長符号復号部
 203 分割パターン導出部

Claims (40)

  1.  入力動画像のフレームをマクロブロック単位に分割する画像入力部と、
     前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、
     前記マクロブロックを、少なくとも一つの変換対象領域が前記パーティションをまたぐ領域を含む変換対象領域に分割する周波数変換領域分割部と、
     前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、
     前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、
     を具備することを特徴とする動画像符号化装置。
  2.  変換係数を生成済みの前記マクロブロックの復号画像である局所復号画像を記憶する局所復号画像記憶部と、
     前記局所復号画像記憶部が記憶する局所復号画像の中から前記パーティション毎に参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、
     前記予測画像と前記マクロブロックとの各画素値の差分である予測残差を生成する予測残差生成部と、
     を具備することを特徴とする請求項1に記載の動画像符号化装置。
  3.  前記周波数変換領域分割部は、前記パーティション毎に適用する周波数変換に応じた変換対象領域に分割し、互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域を統合した領域における前記予測残差の空間相関が高いと判断したときは、前記統合した領域を、前記パーティションをまたぐ変換対象領域の1つとする
     ことを特徴とする請求項2に記載の動画像符号化装置。
  4.  前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域を示す変換統合情報を生成し、
     前記符号化データ出力部は、前記変換統合情報を前記符号化データに含めて出力する
     ことを特徴とする請求項3に記載の動画像符号化装置。
  5.  前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域における前記予測残差の空間相関が高いか否かを、前記予測画像上で当該変換対象領域に対応する領域画像の特徴量に基づいて判断することを特徴とする請求項2または請求項4に記載の動画像符号化装置。
  6.  前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域における前記予測残差の空間相関が高いか否かを、前記予測画像上で当該変換対象領域に対応する領域内の画素のうち、互いに隣接し、かつ、異なるパーティションに属する画素の画素値の差分に基づいて判断することを特徴とする請求項5に記載の動画像符号化装置。
  7.  前記周波数変換領域分割部は、前記パーティションをまたぐ変換対象領域における前記予測残差の空間相関が高いか否かを、前記予測画像上で当該変換対象領域に対応する領域内における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、該予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数に基づいて判断することを特徴とする請求項5に記載の動画像符号化装置。
  8.  前記周波数変換領域分割部は、前記互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域を統合した領域における前記予測残差の空間相関が高いか否かを、前記統合した領域が含まれる2つのパーティションの各々に対して、前記選択されている参照画像が同一か否かと、前記統合した領域が含まれる2つのパーティションの動きベクトルの大きさの差と、前記動きベクトルの大きさの比率との、いずれかまたは複数に基づいて判断することを特徴とする請求項5に記載の動画像符号化装置。
  9.  前記周波数変換領域分割部は、前記互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域を統合した領域における前記予測残差の空間相関が高いか否かを、前記互いに隣接し、かつ、互いに異なるパーティションに含まれる変換対象領域の各々に対して周波数変換を適用して得られる変換係数に基づいて、あるいは、前記変換対象領域を統合した場合と統合しない場合との符号量またはレート歪コストのいずれかまたは両方を比較した結果に基づいて判断することを特徴とする請求項5に記載の動画像符号化装置。
  10.  前記周波数変換領域分割部は、マクロブロック内における変換対象領域の構成および各変換対象領域に適用する周波数変換を示す統合済み変換選択情報を生成し、
     前記符号化データ出力部は、前記統合済み変換選択情報を前記符号化データに含めて出力する
     ことを特徴とする請求項3に記載の動画像符号化装置。
  11.  前記周波数変換領域分割部は、周波数変換を適用する領域毎に前記マクロブロックを分割する分割パターンの集合であって、前記周波数変換を適用する領域のいずれかが前記パーティションをまたぐ分割パターンを含む集合の中からマクロブロックに適用する分割パターンを選択することによって、前記マクロブロックを前記パーティションをまたぐ領域を含む領域に分割することを特徴とする請求項2に記載の動画像符号化装置。
  12.  前記符号化データ出力部は、前記周波数変換領域分割部が選択した分割パターンを示す情報を前記符号化データに含めて出力することを特徴とする請求項11に記載の動画像符号化装置。
  13.  入力動画像のフレームをマクロブロック単位に分割する画像入力部と、
     前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、
     前記マクロブロックを、周波数変換を適用する領域である変換対象領域に分割し、空間相関を示す指標に基づき、互いに隣接する変換対象領域を少なくとも一つ統合して新たな変換対象領域を生成する周波数変換領域分割部と、
     前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、
     前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、
     を具備することを特徴とする動画像符号化装置。
  14.  変換係数を生成済みの前記マクロブロックの復号画像である局所復号画像を記憶する局所復号画像記憶部と、
     前記局所復号画像記憶部が記憶する局所復号画像の中から前記パーティション毎に参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、
     前記予測画像と前記マクロブロックとの各画素値の差分である予測残差を生成する予測残差生成部と、
     を具備することを特徴とする請求項13に記載の動画像符号化装置。
  15.  前記空間相関を示す指標は、前記予測画像上で当該変換対象領域に対応する領域内の画素のうち、互いに隣接する画素の画素値の差分に基づいて判断することを特徴とする請求項14に記載の動画像符号化装置。
  16.  前記空間相関を示す指標は、前記予測画像上で当該変換対象領域に対応する領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数に基づいて判断することを特徴とする請求項14に記載の動画像符号化装置。
  17.  前記周波数変換領域分割部は、前記空間相関を示す指標に基づき、互いに隣接する変換対象領域を統合して生成された新たな変換対象領域を示す変換統合情報を生成し、
     前記符号化データ出力部は、前記変換統合情報を前記符号化データに含めて出力する
     ことを特徴とする請求項14から16のいずれかの1項に記載の動画像符号化装置。
  18.  動画像を符号化した符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、
     前記マクロブロックを分割した変換対象領域であって、少なくとも一つの変換対象領域が前記パーティションをまたぐ変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、
    前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、
     を具備することを特徴とする動画像復号装置。
  19.  マクロブロック単位で前記符号化データを復号した画像である局所復号画像を記憶する局所復号画像記憶部と、
     前記マクロブロックをさらに分割したパーティション毎に前記局所復号画像記憶部が記憶する前記局所復号画像の中から参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、
     前記変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用して予測残差を生成する予測残差再構築部と、
     前記局所復号画像生成部は、前記予測画像と前記予測残差とを画素毎に足し合わせて局所復号画像を生成する
    ことを特徴とする請求項18に記載の動画像復号装置。
  20.  前記符号化データには、前記パーティションをまたぐ変換対象領域を示す変換統合情報が含まれ、
     前記動画像復号装置は、前記変換統合情報に基づいて前記変換対象領域を決定する変換対象領域決定部をさらに具備し、
     前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成する
     ことを特徴とする請求項19に記載の動画像復号装置。
  21.  当該領域の空間相関を示す指標に基づき、前記パーティションをまたぐ変換対象領域を決定する変換対象領域決定部をさらに具備し、
     前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成する
     ことを特徴とする請求項19に記載の動画像復号装置。
  22.  前記変換対象領域決定部は、対象領域中の互いに隣接し、かつ、異なるパーティションに属する画素各々に対応する前記予測画像上の画素値の差分を、前記空間相関を示す指標とすることを特徴とする請求項21に記載の動画像復号装置。
  23.  前記変換対象領域決定部は、対象領域中の互いに隣接し、かつ、異なるパーティションに属する変換対象領域に対応する前記予測画像上で、当該変換対象領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数を、前記空間相関を示す指標とすることを特徴とする請求項21に記載の動画像復号装置。
  24.  前記変換対象領域決定部は、対象領域が含まれる2つのパーティションの各々に対して、選択されている参照画像が同一か否かと、前記対象領域が含まれる2つのパーティションの動きベクトルの大きさの差と、前記動きベクトルの大きさの比率との、いずれかまたは複数を、前記空間相関を示す指標とすることを特徴とする請求項21に記載の動画像復号装置。
  25.  前記符号化データには、前記符号化データを生成した動画像符号化装置が周波数変換を適用した変換対象領域の、マクロブロック内における構成を示す統合済み変換選択情報が含まれ、
     前記予測残差再構築部は、前記統合済み変換選択情報が示す変換対象領域毎に逆周波数変換を適用して前記予測残差を生成する
     ことを特徴とする請求項19に記載の動画像復号装置。
  26.  前記予測残差再構築部は、周波数変換を適用する領域毎に前記マクロブロックを分割する分割パターンの集合であって、前記周波数変換を適用する領域のいずれかが前記パーティションをまたぐ分割パターンを含む集合の中からマクロブロックに適用する分割パターンを、前記符号化データを生成した動画像符号化装置と同一の基準で選択し、選択した分割パターンに基づいて前記マクロブロックに逆周波数変換を適用することを特徴とする請求項19に記載の動画像復号装置。
  27.  前記符号化データには、前記符号化データを生成した動画像符号化装置が前記マクロブロックに適用した分割パターンを示す情報が含まれ、
     前記予測残差再構築部は、前記符号化データに含まれる情報が示す分割パターンを、前記処理対象のマクロブロックに適用する分割パターンとする
     ことを特徴とする請求項26に記載の動画像復号装置。
  28.  前記予測画像再構築部は、前記マクロブロック内における前記パーティションの構成と前記マクロブロックとに基づいて、前記分割パターンの集合の中から前記マクロブロックに適用する分割パターンを選択することを特徴とする請求項26に記載の動画像復号装置。
  29.  動画像を符号化した符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、
     前記マクロブロックを分割した変換対象領域であって、空間相関を示す指標に基づいて、少なくとも一つ統合された変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、
     前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、
     を具備することを特徴とする動画像復号装置。
  30.  マクロブロック単位で前記符号化データを復号した画像である局所復号画像を記憶する局所復号画像記憶部と、
     前記マクロブロックをさらに分割したパーティション毎に前記局所復号画像記憶部が記憶する前記局所復号画像の中から参照画像を選択し、選択した参照画像に基づいて予測画像を生成する予測画像生成部と、
     前記変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用して予測残差を生成する予測残差再構築部と、
     前記局所復号画像生成部は、前記予測画像と前記予測残差とを画素毎に足し合わせて局所復号画像を生成する
    ことを特徴とする請求項29に記載の動画像復号装置。
  31.  前記符号化データには、空間相関を示す指標に基づいて統合された変換対象領域を示す変換統合情報が含まれ、
     前記動画像復号装置は、前記変換統合情報に基づいて前記変換対象領域を決定する変換対象領域決定部をさらに具備し、
     前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成する
     ことを特徴とする請求項30に記載の動画像復号装置。
  32.  当該領域の空間相関を示す指標に基づいて統合された変換対象領域を決定する変換対象領域決定部をさらに具備し、
     前記予測残差再構築部は、前記変換対象領域決定部が決定した変換対象領域毎に逆周波数変換を適用して前記予測残差を生成する
     ことを特徴とする請求項30に記載の動画像復号装置。
  33.  前記変換対象領域決定部は、対象領域中の互いに隣接する画素各々に対応する前記予測画像上の画素値の差分を、前記空間相関を示す指標とすることを特徴とする請求項32に記載の動画像復号装置。
  34.  前記変換対象領域決定部は、対象領域中の互いに隣接する変換対象領域に対応する前記予測画像上で、当該変換対象領域における予測モードが等しいか否かと、該予測モードが特定の予測モードに等しいか否かと、予測モードが示す予測方向の類似性と、一方の変換対象領域に対応する領域における参照画素が他方の変換対象領域に対応する領域に含まれるか否かの、いずれかまたは複数を、前記空間相関を示す指標とすることを特徴とする請求項32に記載の動画像復号装置。
  35.  動画像の入力を受けて符号化データを出力する動画像符号化装置と、前記動画像符号化装置が出力する符号化データを復号して動画像を生成する動画像復号装置とを具備する動画像符号化・復号システムであって、
     前記動画像符号化装置は、
     入力動画像のフレームをマクロブロック単位に分割する画像入力部と、
     前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、
     前記マクロブロックを、少なくとも一つの変換対象領域が前記パーティションをまたぐ領域を含む変換対象領域に分割する周波数変換領域分割部と、
     前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、
     前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、
     を具備し、
     前記動画像復号装置は、
    前記符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、
     前記マクロブロックを分割した変換対象領域であって、少なくとも一つの変換対象領域が前記パーティションをまたぐ変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、
    前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、
     を具備する
     ことを特徴とする動画像符号化・復号システム。
  36.  動画像の入力を受けて符号化データを出力する動画像符号化装置と、前記動画像符号化装置が出力する符号化データを復号して動画像を生成する動画像復号装置とを具備する動画像符号化・復号システムであって、
     前記動画像符号化装置は、
     入力動画像のフレームをマクロブロック単位に分割する画像入力部と、
     前記マクロブロックをさらにパーティションに分割するパーティション構造決定部と、
     前記マクロブロックを、周波数変換を適用する領域である変換対象領域に分割し、空間相関を示す指標に基づき、互いに隣接する変換対象領域を少なくとも一つ統合して新たな変換対象領域を生成する周波数変換領域分割部と、
     前記周波数変換領域分割部が分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成部と、
     前記変換係数を可逆符号化した符号化データを出力する符号化データ出力部と、
     を具備し、
     前記動画像復号装置は、
     動画像を符号化した符号化データについて、可逆符号の復号と、前記マクロブロックへの分割とを行う可逆符号復号部と、
     前記マクロブロックを分割した変換対象領域であって、空間相関を示す指標に基づいて、少なくとも一つ統合された変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成部と、
     前記局所復号画像を結合して動画像を生成し、出力する動画像出力部と、
     を具備する
    ことを特徴とする動画像符号化・復号システム。
  37.  動画像符号化装置が、入力動画像のフレームをマクロブロック単位に分割する画像入力ステップと、
     前記動画像符号化装置が、前記マクロブロックをさらにパーティションに分割するパーティション構造決定ステップと、
     前記動画像符号化装置が、前記マクロブロックを、少なくとも一つの変換対象領域が前記パーティションをまたぐ領域を含む変換対象領域に分割する周波数変換領域分割ステップと、
     前記動画像符号化装置が、前記周波数変換領域分割ステップにて分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成ステップと、
     前記動画像符号化装置が、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力ステップと、
     を有することを特徴とする動画像符号化方法。
  38.  動画像符号化装置が、入力動画像のフレームをマクロブロック単位に分割する画像入力ステップと、
     前記動画像符号化装置が、前記マクロブロックをさらにパーティションに分割するパーティション構造決定ステップと、
     前記動画像符号化装置が、前記マクロブロックを、周波数変換を適用する領域である変換対象領域に分割し、空間相関を示す指標に基づき、互いに隣接する変換対象領域を少なくとも一つ統合して新たな変換対象領域を生成する周波数変換領域分割ステップと、
     前記動画像符号化装置が、前記周波数変換領域分割ステップにて分割した変換対象領域の各々に周波数変換を適用して変換係数を生成する変換係数生成ステップと、
     前記動画像符号化装置が、前記変換係数を可逆符号化した符号化データを出力する符号化データ出力ステップと、
     を有することを特徴とする動画像符号化方法。
  39.  動画像復号装置が、動画像を符号化した符号化データについて、可変長符号の復号と、前記マクロブロックへの分割とを行う可変長復号ステップと、
     前記動画像復号装置が、前記マクロブロックを分割した変換対象領域であって、少なくとも一つの変換対象領域が前記パーティションをまたぐ変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成ステップと、
     前記動画像復号装置が、前記局所復号画像を結合して動画像を生成し、出力する動画像出力ステップと、
     を有することを特徴とする動画像復号方法。
  40.  動画像復号装置が、動画像を符号化した符号化データについて、可変長符号の復号と、前記マクロブロックへの分割とを行う可変長復号ステップと、
     前記動画像復号装置が、前記マクロブロックを分割した変換対象領域であって、空間相関を示す指標に基づいて、少なくとも一つ統合された変換対象領域を含む変換対象領域毎に、当該変換対象領域に応じた逆周波数変換を適用した局所復号画像を生成する局所復号画像生成ステップと、
     前記動画像復号装置が、前記局所復号画像を結合して動画像を生成し、出力する動画像出力ステップと、
     を有することを特徴とする動画像復号方法。
PCT/JP2010/068461 2009-10-20 2010-10-20 動画像符号化装置、動画像復号装置、動画像符号化・復号システム、動画像符号化方法および動画像復号方法 WO2011049119A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
BR112012009142-5A BR112012009142B1 (pt) 2009-10-20 2010-10-20 Dispositivo de codificação de imagem móvel, dispositivo de decodificação de imagem móvel, método de codificação de imagem móvel e método de decodificação de imagem móvel
CN201080046815.3A CN102577393B (zh) 2009-10-20 2010-10-20 运动图像编码装置、运动图像解码装置、运动图像编码/解码系统、运动图像编码方法及运动图像解码方法
EP10824968.1A EP2493198B1 (en) 2009-10-20 2010-10-20 Moving image coding device, moving image decoding device, moving image coding/decoding system, moving image coding method and moving image decoding method
MX2012004501A MX2012004501A (es) 2009-10-20 2010-10-20 Dispositivo de codificacion de imagen en movimiento, dispositivo de decodificacion de imagen en movimiento, sistema de codificacion/decodificacion de imagen, en movimiento, metodo de codificacion de imagen en movimiento y metodo de decodificacion de imagen en movimiento.
JP2011537276A JP5562346B2 (ja) 2009-10-20 2010-10-20 動画像符号化装置、動画像復号装置、動画像符号化方法および動画像復号方法
US13/502,685 US20120213278A1 (en) 2009-10-20 2010-10-20 Moving image coding device, moving image decoding device, moving image coding/decoding system, moving image coding method and moving image decoding method
EA201270474A EA027182B1 (ru) 2009-10-20 2010-10-20 Устройство кодирования движущихся изображений, устройство декодирования движущихся изображений, система кодирования/декодирования движущихся изображений, способ кодирования движущихся изображений и способ декодирования движущихся изображений
US16/698,522 US11070802B2 (en) 2009-10-20 2019-11-27 Moving image coding device, moving image decoding device, moving image coding/decoding system, moving image coding method and moving image decoding method
US17/348,548 US20210314568A1 (en) 2009-10-20 2021-06-15 Moving image decoding method and moving image coding method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009-241904 2009-10-20
JP2009241904 2009-10-20
JP2009259856 2009-11-13
JP2009-259856 2009-11-13

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/502,685 A-371-Of-International US20120213278A1 (en) 2009-10-20 2010-10-20 Moving image coding device, moving image decoding device, moving image coding/decoding system, moving image coding method and moving image decoding method
US16/698,522 Continuation US11070802B2 (en) 2009-10-20 2019-11-27 Moving image coding device, moving image decoding device, moving image coding/decoding system, moving image coding method and moving image decoding method

Publications (1)

Publication Number Publication Date
WO2011049119A1 true WO2011049119A1 (ja) 2011-04-28

Family

ID=43900343

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/068461 WO2011049119A1 (ja) 2009-10-20 2010-10-20 動画像符号化装置、動画像復号装置、動画像符号化・復号システム、動画像符号化方法および動画像復号方法

Country Status (10)

Country Link
US (3) US20120213278A1 (ja)
EP (1) EP2493198B1 (ja)
JP (5) JP5562346B2 (ja)
CN (5) CN104601996B (ja)
BR (1) BR112012009142B1 (ja)
EA (5) EA037919B1 (ja)
HK (4) HK1210340A1 (ja)
MX (1) MX2012004501A (ja)
MY (2) MY157320A (ja)
WO (1) WO2011049119A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710938A (zh) * 2012-05-08 2012-10-03 东莞中山大学研究院 一种基于非均匀dct的视频处理方法及其装置
CN103797801A (zh) * 2011-09-12 2014-05-14 高通股份有限公司 视频译码中的非正方形变换单元和预测单元
JP2014511628A (ja) * 2011-05-05 2014-05-15 三菱電機株式会社 映像をコーディングするための方法
JP2014150307A (ja) * 2013-01-31 2014-08-21 Kddi Corp 映像圧縮フォーマット変換装置、映像圧縮フォーマット変換方法、およびプログラム
WO2014155454A1 (ja) * 2013-03-26 2014-10-02 パナソニック株式会社 動画像符号化装置および動画像符号化方法
WO2015118835A1 (ja) * 2014-02-10 2015-08-13 日本電気株式会社 映像符号化装置、映像符号化方法及び映像符号化プログラム
US9723316B2 (en) 2011-06-24 2017-08-01 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
WO2018008678A1 (ja) * 2016-07-08 2018-01-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 復号装置、符号化装置、復号方法及び符号化方法
US11223852B2 (en) 2016-03-21 2022-01-11 Qualcomm Incorporated Coding video data using a two-level multi-type-tree framework

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2493198B1 (en) * 2009-10-20 2019-04-17 Sharp Kabushiki Kaisha Moving image coding device, moving image decoding device, moving image coding/decoding system, moving image coding method and moving image decoding method
EP2533539A2 (en) * 2010-02-02 2012-12-12 Humax Co., Ltd. Image encoding/decoding method for rate-distortion optimization and apparatus for performing same
US10742988B2 (en) 2015-02-12 2020-08-11 Lg Electronics Inc. Method and apparatus for processing video signal using graph-based transform
WO2016129980A1 (ko) * 2015-02-13 2016-08-18 엘지전자(주) 변환 도메인 예측을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
WO2017057922A1 (ko) * 2015-09-29 2017-04-06 엘지전자 주식회사 그래프 기반 리프팅 변환을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
WO2017057923A1 (ko) * 2015-09-29 2017-04-06 엘지전자(주) 단일 최적화된 그래프를 이용하여 비디오 신호를 인코딩, 디코딩하는 방법
US10212444B2 (en) 2016-01-15 2019-02-19 Qualcomm Incorporated Multi-type-tree framework for video coding
WO2017209455A2 (ko) * 2016-05-28 2017-12-07 세종대학교 산학협력단 비디오 신호의 부호화 또는 복호화 방법 및 장치
US10609423B2 (en) 2016-09-07 2020-03-31 Qualcomm Incorporated Tree-type coding for video coding
CN115022626A (zh) 2016-10-04 2022-09-06 有限公司B1影像技术研究所 图像数据编码/解码方法和计算机可读记录介质
KR102416804B1 (ko) 2016-10-14 2022-07-05 세종대학교산학협력단 영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체
US10848788B2 (en) 2017-01-06 2020-11-24 Qualcomm Incorporated Multi-type-tree framework for video coding
CA3173525A1 (en) 2017-04-21 2018-10-25 Zenimax Media Inc. Systems and methods for game-generated motion vectors
JP7224280B2 (ja) * 2017-07-17 2023-02-17 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
CN108304846B (zh) * 2017-09-11 2021-10-22 腾讯科技(深圳)有限公司 图像识别方法、装置及存储介质
US10504462B2 (en) * 2018-01-25 2019-12-10 Qualcomm Incorporated Non-linear processing of two-dimensional data
EP3788783A1 (en) * 2018-04-30 2021-03-10 InterDigital VC Holdings, Inc. Flexible implementations of multiple transforms

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270329A (ja) * 1999-03-17 2000-09-29 Sanyo Electric Co Ltd オブジェクト指向符号化における領域分割方法および領域分割装置
JP2003250161A (ja) * 2001-12-19 2003-09-05 Matsushita Electric Ind Co Ltd 符号化装置及び復号化装置
JP2003319394A (ja) * 2002-04-26 2003-11-07 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム
JP2006246351A (ja) * 2005-03-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置
JP2009055236A (ja) * 2007-08-24 2009-03-12 Canon Inc 映像符号化装置及び方法
JP2009182792A (ja) * 2008-01-31 2009-08-13 Oki Electric Ind Co Ltd 動きベクトル検出装置及び方法、動画像符号化装置及び方法、並びに、動画像復号化装置及び方法
JP2009241904A (ja) 2008-03-31 2009-10-22 Mitsubishi Fuso Truck & Bus Corp 2階建てバス
JP2009259856A (ja) 2008-04-11 2009-11-05 Sumitomo Metal Mining Co Ltd フィルムキャリアテープの製造方法および無電解スズめっき装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995014350A1 (en) * 1993-11-15 1995-05-26 National Semiconductor Corporation Quadtree-structured walsh transform coding
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
US5920359A (en) * 1997-05-19 1999-07-06 International Business Machines Corporation Video encoding method, system and computer program product for optimizing center of picture quality
US5887084A (en) * 1997-11-07 1999-03-23 Polaroid Corporation Structuring a digital image into a DCT pyramid image representation
US6489995B1 (en) * 1998-10-22 2002-12-03 Sony Corporation Method and apparatus for motion vector concealment
US6222883B1 (en) * 1999-01-28 2001-04-24 International Business Machines Corporation Video encoding motion estimation employing partitioned and reassembled search window
EP2458865A3 (en) * 2001-06-29 2014-10-01 NTT DoCoMo, Inc. Apparatuses for image coding and decoding
US6842484B2 (en) * 2001-07-10 2005-01-11 Motorola, Inc. Method and apparatus for random forced intra-refresh in digital image and video coding
EP2096872B1 (en) * 2001-09-14 2014-11-12 NTT DoCoMo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
EP1322121A3 (en) * 2001-12-19 2003-07-16 Matsushita Electric Industrial Co., Ltd. Video encoder and decoder with improved motion detection precision
US7027515B2 (en) * 2002-10-15 2006-04-11 Red Rock Semiconductor Ltd. Sum-of-absolute-difference checking of macroblock borders for error detection in a corrupted MPEG-4 bitstream
DE10310023A1 (de) * 2003-02-28 2004-09-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US7379608B2 (en) * 2003-12-04 2008-05-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Arithmetic coding for transforming video and picture data units
JP4213646B2 (ja) * 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
US8731054B2 (en) * 2004-05-04 2014-05-20 Qualcomm Incorporated Method and apparatus for weighted prediction in predictive frames
US20050259734A1 (en) * 2004-05-21 2005-11-24 Timothy Hellman Motion vector generator for macroblock adaptive field/frame coded video data
JP2006140758A (ja) * 2004-11-12 2006-06-01 Toshiba Corp 動画像符号化方法、動画像符号化装置および動画像符号化プログラム
JP2006148615A (ja) * 2004-11-22 2006-06-08 Hitachi Ltd 復号化装置および符号化方法をコンピュータに実行させるためのプログラム
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US7961783B2 (en) * 2005-07-07 2011-06-14 Mediatek Incorporation Methods and systems for rate control in video encoder
KR100678958B1 (ko) * 2005-07-29 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
KR100718135B1 (ko) * 2005-08-24 2007-05-14 삼성전자주식회사 멀티 포맷 코덱을 위한 영상 예측 장치 및 방법과 이를이용한 영상 부호화/복호화 장치 및 방법
KR100647192B1 (ko) * 2005-09-01 2006-11-23 삼성전자주식회사 데이터의 복원 시간을 단축하는 데이터 압축 장치 및 그방법
KR101441269B1 (ko) * 2005-09-26 2014-09-18 미쓰비시덴키 가부시키가이샤 동화상 복호 장치 및 동화상 복호 방법
US7916796B2 (en) * 2005-10-19 2011-03-29 Freescale Semiconductor, Inc. Region clustering based error concealment for video data
US7843995B2 (en) * 2005-12-19 2010-11-30 Seiko Epson Corporation Temporal and spatial analysis of a video macroblock
US7949054B2 (en) * 2006-06-01 2011-05-24 Microsoft Corporation Flexible data organization for images
JP2007325027A (ja) * 2006-06-01 2007-12-13 Oki Electric Ind Co Ltd 画像分割方法、画像分割装置、および画像分割プログラム
EP2056606A1 (en) * 2006-07-28 2009-05-06 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
JP4592656B2 (ja) * 2006-08-17 2010-12-01 富士通セミコンダクター株式会社 動き予測処理装置、画像符号化装置および画像復号化装置
JP4712643B2 (ja) * 2006-08-17 2011-06-29 富士通セミコンダクター株式会社 フレーム間予測処理装置、フレーム間予測方法、画像符号化装置及び画像復号装置
CA2674164A1 (en) * 2006-12-28 2008-07-17 Thomson Licensing Detecting block artifacts in coded images and video
US8548056B2 (en) * 2007-01-08 2013-10-01 Qualcomm Incorporated Extended inter-layer coding for spatial scability
US8295633B2 (en) * 2007-04-04 2012-10-23 Samsung Electronics Co., Ltd. System and method for an adaptive de-blocking filter after decoding of compressed digital video
US8571104B2 (en) * 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
US8145002B2 (en) * 2007-06-28 2012-03-27 Mitsubishi Electric Corporation Image encoding device and image encoding method
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
JP5130983B2 (ja) 2008-03-25 2013-01-30 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20120128074A1 (en) * 2008-08-12 2012-05-24 Nokia Corporation Video coding using spatially varying transform
US8619856B2 (en) * 2008-10-03 2013-12-31 Qualcomm Incorporated Video coding with large macroblocks
US8411754B2 (en) * 2008-11-10 2013-04-02 Activevideo Networks, Inc. System, method, and computer program product for translating an element of a static encoded image in the encoded domain
JP6088141B2 (ja) * 2009-02-05 2017-03-01 トムソン ライセンシングThomson Licensing 適応型のモード・ビデオ符号化および復号を行うための方法および装置
US20100232511A1 (en) * 2009-03-12 2010-09-16 Himax Media Soltuions, Inc. Motion compensator, motion compensating method, and motion-compensated video decoder implementing the same
KR101474756B1 (ko) * 2009-08-13 2014-12-19 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
EP2493198B1 (en) * 2009-10-20 2019-04-17 Sharp Kabushiki Kaisha Moving image coding device, moving image decoding device, moving image coding/decoding system, moving image coding method and moving image decoding method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270329A (ja) * 1999-03-17 2000-09-29 Sanyo Electric Co Ltd オブジェクト指向符号化における領域分割方法および領域分割装置
JP2003250161A (ja) * 2001-12-19 2003-09-05 Matsushita Electric Ind Co Ltd 符号化装置及び復号化装置
JP2003319394A (ja) * 2002-04-26 2003-11-07 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム
JP2006246351A (ja) * 2005-03-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置
JP2009055236A (ja) * 2007-08-24 2009-03-12 Canon Inc 映像符号化装置及び方法
JP2009182792A (ja) * 2008-01-31 2009-08-13 Oki Electric Ind Co Ltd 動きベクトル検出装置及び方法、動画像符号化装置及び方法、並びに、動画像復号化装置及び方法
JP2009241904A (ja) 2008-03-31 2009-10-22 Mitsubishi Fuso Truck & Bus Corp 2階建てバス
JP2009259856A (ja) 2008-04-11 2009-11-05 Sumitomo Metal Mining Co Ltd フィルムキャリアテープの製造方法および無電解スズめっき装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2493198A4

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511628A (ja) * 2011-05-05 2014-05-15 三菱電機株式会社 映像をコーディングするための方法
US9723316B2 (en) 2011-06-24 2017-08-01 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
US11876979B2 (en) 2011-06-24 2024-01-16 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
US11632556B2 (en) 2011-06-24 2023-04-18 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
US10511840B2 (en) 2011-06-24 2019-12-17 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
US11006125B2 (en) 2011-06-24 2021-05-11 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
US10237560B2 (en) 2011-06-24 2019-03-19 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
CN103797801A (zh) * 2011-09-12 2014-05-14 高通股份有限公司 视频译码中的非正方形变换单元和预测单元
JP2014530537A (ja) * 2011-09-12 2014-11-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオ・コーディングにおける非正方形変換ユニットおよび予測ユニット
JP2016201808A (ja) * 2011-09-12 2016-12-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオ・コーディングにおける非正方形変換ユニットおよび予測ユニット
US9787982B2 (en) 2011-09-12 2017-10-10 Qualcomm Incorporated Non-square transform units and prediction units in video coding
CN102710938A (zh) * 2012-05-08 2012-10-03 东莞中山大学研究院 一种基于非均匀dct的视频处理方法及其装置
JP2014150307A (ja) * 2013-01-31 2014-08-21 Kddi Corp 映像圧縮フォーマット変換装置、映像圧縮フォーマット変換方法、およびプログラム
WO2014155454A1 (ja) * 2013-03-26 2014-10-02 パナソニック株式会社 動画像符号化装置および動画像符号化方法
JPWO2015118835A1 (ja) * 2014-02-10 2017-03-23 日本電気株式会社 映像符号化装置、映像符号化方法及び映像符号化プログラム
WO2015118835A1 (ja) * 2014-02-10 2015-08-13 日本電気株式会社 映像符号化装置、映像符号化方法及び映像符号化プログラム
US11223852B2 (en) 2016-03-21 2022-01-11 Qualcomm Incorporated Coding video data using a two-level multi-type-tree framework
WO2018008678A1 (ja) * 2016-07-08 2018-01-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 復号装置、符号化装置、復号方法及び符号化方法

Also Published As

Publication number Publication date
MX2012004501A (es) 2012-06-08
JP5873528B2 (ja) 2016-03-01
EP2493198B1 (en) 2019-04-17
US11070802B2 (en) 2021-07-20
US20210314568A1 (en) 2021-10-07
MY189368A (en) 2022-02-08
EA201691820A1 (ru) 2017-05-31
BR112012009142A2 (pt) 2016-08-30
JP2014195324A (ja) 2014-10-09
US20200099929A1 (en) 2020-03-26
CN104601996B (zh) 2018-04-10
CN104618719A (zh) 2015-05-13
CN104618719B (zh) 2018-11-09
EA027182B1 (ru) 2017-06-30
JPWO2011049119A1 (ja) 2013-03-14
EA201691819A1 (ru) 2017-05-31
CN104601997B (zh) 2018-11-09
HK1210340A1 (en) 2016-04-15
CN104618720A (zh) 2015-05-13
EA201270474A1 (ru) 2012-11-30
MY157320A (en) 2016-05-31
JP5562346B2 (ja) 2014-07-30
EA037919B1 (ru) 2021-06-07
EP2493198A4 (en) 2016-03-30
JP2017112639A (ja) 2017-06-22
EA201691822A1 (ru) 2017-05-31
EA201691821A1 (ru) 2017-05-31
JP6454801B2 (ja) 2019-01-16
CN102577393A (zh) 2012-07-11
US20120213278A1 (en) 2012-08-23
JP6097415B2 (ja) 2017-03-15
CN104601997A (zh) 2015-05-06
BR112012009142B1 (pt) 2021-10-19
HK1210349A1 (en) 2016-04-15
CN102577393B (zh) 2015-03-25
EP2493198A1 (en) 2012-08-29
JP2016086438A (ja) 2016-05-19
HK1210341A1 (en) 2016-04-15
CN104601996A (zh) 2015-05-06
JP2018101996A (ja) 2018-06-28
CN104618720B (zh) 2018-11-13
HK1210348A1 (en) 2016-04-15

Similar Documents

Publication Publication Date Title
JP6454801B2 (ja) 動画像復号装置、動画像復号方法、動画像符号化装置、および動画像符号化方法
US11159789B2 (en) Generative adversarial network based intra prediction for video coding
RU2391794C2 (ru) Устройство видеокодирования, способ видеокодирования, программа видеокодирования, устройство видеодекодирования, способ видеодекодирования и программа видеодекодирования
RU2565248C2 (ru) Устройство кодирования изображения с предсказанием, устройство декодирования изображения с предсказанием, способ кодирования изображения с предсказанием, способ декодирования изображения с предсказанием, программа кодирования изображения с предсказанием и программа декодирования изображения с предсказанием
JP5686499B2 (ja) 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
US9288495B2 (en) Adaptive secondary prediction-based image encoding/decoding method, device and recording medium
KR101354151B1 (ko) 영상 변환 방법 및 장치, 역변환 방법 및 장치
KR20140124443A (ko) 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치
CN108111856A (zh) 图像的压缩
KR102231969B1 (ko) 증가된 수의 가능한 코딩 모드를 이용한 공간 예측
JP2007110568A (ja) 画像符号化装置
JP2015043524A (ja) レート歪コスト推定装置及びプログラム
Zhao et al. Local structure learning and prediction for efficient lossless image compression
JP5358485B2 (ja) 画像符号化装置
JP5202558B2 (ja) イントラ予測装置、符号化器、復号器及びプログラム
JP5298082B2 (ja) 適応的に直交変換係数の走査順序を決定する符号化装置及び復号装置
JP2016032182A (ja) 動画像符号化装置及び動画像復号装置並びに動画像符号化・復号方法及びプログラム
KR20140129420A (ko) 잔차 변환을 이용한 인트라 예측 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080046815.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10824968

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011537276

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: MX/A/2012/004501

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 13502685

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 201270474

Country of ref document: EA

REEP Request for entry into the european phase

Ref document number: 2010824968

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010824968

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 3991/CHENP/2012

Country of ref document: IN

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012009142

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012009142

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20120418