WO2012043766A1 - 画像復号装置、画像符号化装置、および、符号化データのデータ構造 - Google Patents

画像復号装置、画像符号化装置、および、符号化データのデータ構造 Download PDF

Info

Publication number
WO2012043766A1
WO2012043766A1 PCT/JP2011/072465 JP2011072465W WO2012043766A1 WO 2012043766 A1 WO2012043766 A1 WO 2012043766A1 JP 2011072465 W JP2011072465 W JP 2011072465W WO 2012043766 A1 WO2012043766 A1 WO 2012043766A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
prediction mode
unit
image
adjacent
Prior art date
Application number
PCT/JP2011/072465
Other languages
English (en)
French (fr)
Inventor
将伸 八杉
山本 智幸
知宏 猪飼
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2012043766A1 publication Critical patent/WO2012043766A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Definitions

  • the present invention relates to an image decoding device that decodes encoded data, and an image encoding device that generates encoded data.
  • the present invention also relates to a data structure of encoded data generated by the image encoding device and referenced by the image decoding device.
  • a moving image encoding device that generates encoded data by encoding the moving image, and decoding the encoded data
  • a video decoding device image decoding device that generates a decoded image
  • As a specific moving picture encoding method for example, H.264 is used. H.264 / MPEG-4.
  • AVC Non-Patent Document 1
  • VCEG Video Coding Expert Group
  • KTA Key Integrity Expert Group
  • TMuC Test Model Under Consideration
  • an image (picture) constituting a moving image is a slice obtained by dividing the image, a coding unit obtained by dividing the slice (macroblock or coding unit (Coding Unit)) And is managed by a hierarchical structure composed of blocks and partitions obtained by dividing an encoding unit, and is normally encoded block by block.
  • a predicted image is usually generated based on a locally decoded image obtained by encoding / decoding an input image, and the predicted image is subtracted from the input image (original image).
  • the prediction residual (which may be referred to as “difference image” or “residual image”) is encoded.
  • examples of the method for generating a predicted image include inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction).
  • a predicted image in a frame being decoded is generated for each prediction unit by applying motion compensation using a motion vector with the decoded frame as a reference frame.
  • intra prediction a predicted image in a frame being decoded is generated for each prediction unit based on a decoded area of the frame being decoded.
  • H. H.264 / MPEG-4 As an example of intra prediction used in AVC, for each prediction unit (for example, partition), (1) one of the prediction modes is selected from a predetermined prediction mode group, and (2) the decoded area is selected.
  • Non-Patent Document 2 for each prediction unit, the edge direction in the prediction unit is estimated based on the pixel values of pixels located around the prediction unit, and the pixel value of the decoded area is extrapolated to the estimated edge direction.
  • a method for generating a pixel value on the prediction unit a method called Differential Coding of Mode Intra Modes (DCIM), sometimes called “edge prediction” or “edge based prediction” is disclosed.
  • DCIM Differential Coding of Mode Intra Modes
  • FIGS. (A) of FIG. 20 is a diagram schematically showing a prediction unit (CurrentBlock) to be processed and pixels located around the prediction unit.
  • an edge vector a i 1 to N, N is the total number of surrounding pixels to be referred to).
  • a Sobel operator also referred to as a Sobel filter
  • an argument ⁇ * argmaxS ( ⁇ ) that maximizes the function S ( ⁇ ) is calculated, and the direction represented by ⁇ * is set as the prediction direction.
  • the pixel value on the prediction unit is generated by extrapolating the pixel value of the decoded area in the prediction direction.
  • the argument ⁇ * that maximizes the function S ( ⁇ ) represents an estimated value of the edge direction in the prediction unit to be processed, and is also referred to as “neighbors' suggested prediction direction”. Note that the calculation of the argument ⁇ * is performed in both the encoding device and the decoding device, and thus the argument ⁇ * itself is not encoded.
  • the direction represented by ⁇ * + ⁇ can be used as the prediction direction.
  • indicates direction adjustment, and ⁇ used in the encoding device needs to be encoded and transmitted to the decoding device.
  • the decoding apparatus sets ⁇ * + k ⁇ ⁇ as the prediction direction.
  • Non-Patent Document 2 intra prediction using the edge-based prediction described above is performed, or H.264 / MPEG-4.
  • a 1-bit flag specifying whether to perform basic prediction used in AVC is encoded for each prediction unit.
  • edge-based prediction or H.264 H.264 / MPEG-4 An intra-predicted image is generated by selectively using one of basic predictions used in AVC. Further, when edge-based prediction is used, only the quantization index k needs to be encoded. Therefore, when edge-based prediction is frequently used in the generation of a predicted image, H.264 is used. H.264 / MPEG-4. Compared to the case where only basic prediction used in AVC is used, the amount of encoded data can be reduced.
  • the present invention has been made in view of the above-described problems, and the object of the present invention is a smaller amount of calculation than in the past (the predicted image generation method described in Non-Patent Document 2, etc.) and the conventional (described in Non-Patent Document 2). It is to realize an image encoding device and an image decoding device that achieve an encoding efficiency equivalent to that of a predicted image generation method or the like.
  • an image decoding apparatus specifies a prediction residual decoded from encoded data by prediction mode designation information that is a prediction mode belonging to a prediction mode group and is decoded from encoded data.
  • the prediction mode group includes a basic corresponding to a predetermined prediction parameter A prediction mode and an additional prediction mode in which a prediction parameter is derived from an adjacent prediction unit adjacent to the target prediction unit, and a derivation means for deriving a prediction parameter corresponding to the additional prediction mode, the target prediction unit including A prediction parameter corresponding to the additional prediction mode, with the prediction mode of the adjacent adjacent prediction unit as the reference prediction mode Characterized in that it comprises a derivation means for deriving from the prediction parameter corresponding to the reference prediction mode.
  • the image coding apparatus uses prediction mode designation information for designating a prediction mode used for generating a prediction image in an adjacent prediction unit, that is, a prediction mode having a higher prediction accuracy than other prediction modes belonging to a prediction mode group related to the adjacent prediction unit. Is encoded.
  • the additional prediction mode is derived from the prediction parameter corresponding to the prediction mode with higher prediction accuracy than the other prediction modes belonging to the prediction mode group related to the adjacent prediction unit. For this reason, the prediction accuracy of the additional prediction mode is likely to exceed the prediction accuracy of other prediction modes belonging to the prediction mode group related to the target prediction unit.
  • the prediction parameters corresponding to the additional prediction mode are not derived from the decoded image as in the conventional case, but are derived from the prediction parameters corresponding to the reference prediction mode, the calculation cost required for generating the prediction image is reduced. can do.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
  • the image coding apparatus selects a prediction residual obtained by subtracting a prediction image generated according to a prediction mode selected from a prediction mode group for each prediction unit from an original image.
  • An image encoding device that generates encoded data by encoding together with prediction mode specifying information that specifies the prediction mode, and includes a prediction parameter corresponding to the additional prediction mode to be added to the prediction mode group related to the target prediction unit.
  • Deriving means for deriving wherein a prediction mode selected from a prediction mode group related to an adjacent prediction unit adjacent to the target prediction unit is set as a reference prediction mode, and a prediction parameter corresponding to the additional prediction mode corresponds to the reference prediction mode.
  • Deriving means for deriving from the prediction parameter is provided.
  • the data structure of the encoded data according to the present invention includes a prediction residual obtained by subtracting a prediction image generated according to a prediction mode selected from a prediction mode group for each prediction unit from an original image.
  • the data structure of the encoded data generated by encoding together with the prediction mode specifying information specifying the selected prediction mode, and the prediction parameter corresponding to the prediction mode to be added to the prediction mode group related to the target prediction unit is , And implicitly expressed by prediction mode designation information for designating a prediction mode selected from a prediction mode group related to an adjacent prediction unit adjacent to the target prediction unit.
  • encoded data that can be decoded by the image decoding device described above can be realized.
  • the image decoding apparatus is a prediction mode belonging to a prediction mode group, specified by the prediction mode specification information, in the prediction residual decoded from the encoded data together with the prediction mode specification information.
  • a prediction parameter designated by the prediction mode designation information among prediction modes belonging to a prediction mode group related to an adjacent prediction unit adjacent to the target prediction unit is set as a reference prediction mode, and a prediction parameter corresponding to the additional prediction mode Is derived from a prediction parameter corresponding to the reference prediction mode.
  • the image coding apparatus designates the selected prediction mode based on the prediction residual obtained by subtracting the predicted image generated according to the prediction mode selected from the prediction mode group for each prediction unit from the original image.
  • An image encoding device that generates encoded data by encoding together with prediction mode designation information, and is a derivation unit that derives a prediction parameter corresponding to an additional prediction mode to be added to a prediction mode group related to a target prediction unit.
  • FIG. 4 is a diagram illustrating a configuration of a picture layer of encoded data
  • (b) is a diagram illustrating a configuration of a slice layer included in the picture layer
  • (c) is a configuration of an LCU layer included in the slice layer.
  • (D) is a figure which shows the structure of the leaf CU contained in a CU layer
  • (e) is a figure which shows the structure of the inter prediction information about leaf CU.
  • (F) is a figure which shows the structure of the intra prediction information about leaf CU.
  • FIG. 5 is a diagram illustrating prediction modes included in an extended set including a plurality of basic prediction modes and one edge-based prediction mode together with a prediction mode index
  • (b) is a pixel belonging to a target partition and its surroundings
  • the moving picture decoding apparatus which concerns on the 1st Embodiment of this invention, it is a figure for demonstrating the production
  • (b) is a diagram showing a prediction direction assigned to a partition adjacent to the target partition and an estimated edge direction that is simply derived for the target partition.
  • (C) is a figure which shows the parameter which designates a correction angle with the prediction direction after correction
  • (B) is a diagram showing a case where a partition adjacent to the target partition belongs to the adjacent LCU, and (c) is a simplified derivation process for a partition adjacent to the left side of the target partition It is a figure which shows the case where is applied.
  • It is a block diagram which shows the structure of the moving image encoder which concerns on the 1st Embodiment of this invention.
  • It is a block diagram which shows the structure of the intra estimated image generation part with which the moving image encoder which concerns on the 1st Embodiment of this invention is provided.
  • It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on the 2nd Embodiment of this invention.
  • the conventional moving image decoding apparatus it is a figure for demonstrating the production
  • FIG. 2B is a block diagram showing a configuration of a receiving device equipped with a video decoding device.
  • Embodiments of an image decoding apparatus and an image encoding apparatus according to the present invention will be described below with reference to the drawings.
  • the image decoding apparatus according to the present embodiment decodes a moving image from encoded data. Therefore, hereinafter, this is referred to as “moving image decoding apparatus”.
  • the image encoding device according to the present embodiment generates encoded data by encoding a moving image. Therefore, in the following, this is referred to as a “video encoding device”.
  • the scope of application of the present invention is not limited to this. That is, as will be apparent from the following description, the feature of the present invention lies in intra prediction, and is established without assuming a plurality of frames. That is, the present invention can be applied to general image decoding apparatuses and general image encoding apparatuses regardless of whether the target is a moving image or a still image.
  • the encoded data # 1 has a hierarchical structure including a sequence layer, a GOP (Group Of Pictures) layer, a picture layer, a slice layer, and a maximum coding unit (LCU: Large Coding Unit) layer.
  • GOP Group Of Pictures
  • LCU Large Coding Unit
  • FIG. 2 shows the hierarchical structure below the picture layer in the encoded data # 1.
  • 2A to 2F are a picture layer P, a slice layer S, a CU included in the LCU layer, a leaf CU included in the CU (denoted as CUL in FIG. 2D), and inter prediction (screen), respectively.
  • the picture layer P is a set of data that is referenced by the video decoding device 1 in order to decode a target picture that is a processing target picture. As shown in FIG. 2A, the picture layer P includes a picture header PH and slice layers S1 to SNs (Ns is the total number of slice layers included in the picture layer P).
  • the picture header PH includes a coding parameter group referred to by the video decoding device 1 in order to determine a decoding method of the target picture.
  • the encoding mode information (entropy_coding_mode_flag) indicating the variable length encoding mode used in encoding by the moving image encoding device 2 is an example of an encoding parameter included in the picture header PH.
  • entropy_coding_mode_flag When entropy_coding_mode_flag is 0, the picture is encoded by CAVLC (Context-based Adaptive Variable Length Coding).
  • entropy_coding_mode_flag When entropy_coding_mode_flag is 1, the picture is encoded by CABAC (Context-based Adaptive Binary Arithmetic Coding). It has become.
  • Each slice layer S included in the picture layer P is a set of data referred to by the video decoding device 1 in order to decode a target slice that is a slice to be processed.
  • the slice layer S includes a slice header SH and LCU layers LCU1 to LCUn (Nc is the total number of LCUs included in the slice S).
  • the slice header SH includes a coding parameter group that the moving image decoding apparatus 1 refers to in order to determine a decoding method of the target slice.
  • Slice type designation information (slice_type) for designating a slice type is an example of an encoding parameter included in the slice header SH.
  • the slice header SH includes a filter parameter FP that is referred to by a loop filter included in the video decoding device 1.
  • slice types that can be specified by the slice type specification information, (1) I slice using only intra prediction at the time of encoding, and (2) P using unidirectional prediction or intra prediction at the time of encoding. Slice, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding.
  • Each LCU layer LCU included in the slice layer S is a set of data that the video decoding device 1 refers to in order to decode the target LCU that is the processing target LCU.
  • the LCU layer LCU is composed of a plurality of coding units (CU: Coding Units) obtained by hierarchically dividing the LCU into a quadtree.
  • the LCU layer LCU is a coding unit corresponding to the highest level in a hierarchical structure that recursively includes a plurality of CUs.
  • each CU included in the LCU layer LCU has a hierarchical structure that recursively includes a CU header CUH and a plurality of CUs obtained by dividing the CU into quadtrees. is doing.
  • each CU excluding the LCU is half the size of the CU to which the CU directly belongs (that is, the CU one layer higher than the CU), and the size that each CU can take is encoded data # 1.
  • a CU that is not further divided is called a leaf CU.
  • the CU header CUH includes a coding parameter referred to by the video decoding device 1 in order to determine a decoding method of the target CU. Specifically, as shown in FIG. 2C, a CU division flag SP_CU that specifies whether or not the target CU is further divided into four subordinate CUs is included. When the CU division flag SP_CU is 0, that is, when the CU is not further divided, the CU is a leaf CU.
  • CU leaf A CU (CU leaf) that is not further divided is handled as a prediction unit (PU: Prediction Unit) and a transform unit (TU: Transform Unit).
  • PU Prediction Unit
  • TU Transform Unit
  • the leaf CU (denoted as CUL in FIG. 2 (d)) includes (1) PU information PUI that is referred to when the moving image decoding apparatus 1 generates a predicted image, and (2) The TU information TUI that is referred to when the residual data is decoded by the moving picture decoding apparatus 1 is included.
  • the skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target PU.
  • the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target leaf, PU information PUI and TU information TUI in the leaf CU are omitted. Note that the skip flag SKIP is omitted for the I slice.
  • the PU information PUI includes a skip flag SKIP, prediction type information PT, and prediction information PI as shown in FIG.
  • the prediction type information PT is information that specifies whether intra prediction or inter prediction is used as a predicted image generation method for the target leaf CU (target PU).
  • the prediction information PI includes intra prediction information PI_Intra or inter prediction information PI_Inter depending on which prediction method is specified by the prediction type information PT.
  • a PU to which intra prediction is applied is also referred to as an intra PU
  • a PU to which inter prediction is applied is also referred to as an inter PU.
  • the PU information PUI includes information specifying the shape and size of each partition included in the target PU and the position in the target PU.
  • the partition is one or a plurality of non-overlapping areas constituting the target leaf CU, and the generation of the predicted image is performed in units of partitions.
  • the TU information TUI specifies a quantization parameter difference ⁇ qp (tu_qp_delta) that specifies the magnitude of the quantization step, and a division pattern for each block of the target leaf CU (target TU).
  • TU partition information SP_TU and quantized prediction residuals QD1 to QDNT are included.
  • the quantization parameter difference ⁇ qp is a difference qp ⁇ qp ′ between the quantization parameter qp in the target TU and the quantization parameter qp ′ in the TU encoded immediately before the TU.
  • TU partition information SP_TU is information that specifies the shape and size of each block included in the target TU and the position in the target TU.
  • Each TU can be, for example, a size from 64 ⁇ 64 pixels to 2 ⁇ 2 pixels.
  • the block is one or a plurality of non-overlapping areas constituting the target leaf CU, and encoding / decoding of the prediction residual is performed in units of blocks.
  • Each quantized prediction residual QD is encoded data generated by the moving image encoding apparatus 2 performing the following processes 1 to 3 on a target block that is a processing target block.
  • Process 1 DCT transform (Discrete Cosine Transform) is performed on the prediction residual obtained by subtracting the prediction image from the encoding target image.
  • Process 2 The DCT coefficient obtained in Process 1 is quantized.
  • Process 3 The DCT coefficient quantized in Process 2 is variable length encoded.
  • the inter prediction information PI_Inter includes a coding parameter that is referred to when the video decoding device 1 generates an inter prediction image by inter prediction. As shown in FIG. 2 (e), the inter prediction information PI_Inter includes inter PU partition information SP_Inter that specifies a partition pattern for each partition of the target PU, and inter prediction parameters PP_Inter1 to PP_InterNe (Ne for each partition). The total number of inter prediction partitions included in the target PU).
  • the inter-PU partition information SP_Inter is information for designating the shape and size of each inter prediction partition included in the target PU (inter PU) and the position in the target PU.
  • the inter PU is composed of four symmetric splittings of 2N ⁇ 2N pixels, 2N ⁇ N pixels, N ⁇ 2N pixels, and N ⁇ N pixels, and 2N ⁇ nU pixels, 2N ⁇ nD pixels, and nL ⁇ 2N. It is possible to divide into 8 types of partitions in total by four asymmetric splits of pixels and nR ⁇ 2N pixels.
  • the specific value of N is defined by the size of the CU to which the PU belongs, and the specific values of nU, nD, nL, and nR are determined according to the value of N.
  • an inter PU of 128 ⁇ 128 pixels is 128 ⁇ 128 pixels, 128 ⁇ 64 pixels, 64 ⁇ 128 pixels, 64 ⁇ 64 pixels, 128 ⁇ 32 pixels, 128 ⁇ 96 pixels, 32 ⁇ 128 pixels, and 96 ⁇ It is possible to divide into 128-pixel inter prediction partitions.
  • the inter prediction parameter PP_Inter includes a reference image index RI, an estimated motion vector index PMVI, and a motion vector residual MVD.
  • the intra prediction information PI_Intra includes an encoding parameter that is referred to when the video decoding device 1 generates an intra predicted image by intra prediction.
  • the intra prediction information PI_Intra includes intra PU partition information SP_Intra that specifies a partition pattern of the target PU (intra PU) into each partition, and intra prediction parameters PP_Intra1 to PP_IntraNa for each partition. (Na is the total number of intra prediction partitions included in the target PU).
  • the intra-PU partition information SP_Intra is information that specifies the shape and size of each intra-predicted partition included in the target PU, and the position in the target PU.
  • the intra PU split information SP_Intra includes an intra split flag (intra_split_flag) that specifies whether or not the target PU is split into partitions. If the intra partition flag is 1, the target PU is divided symmetrically into four partitions. If the intra partition flag is 0, the target PU is not divided and the target PU itself is one partition.
  • N 2 n , n is an arbitrary integer of 1 or more.
  • a 128 ⁇ 128 pixel intra PU can be divided into 128 ⁇ 128 pixel and 64 ⁇ 64 pixel intra prediction partitions.
  • the intra prediction parameter PP_Intra includes an edge-based prediction flag EF, an additional index AI, an estimation flag MPM, and a residual prediction mode index RIPM.
  • the intra prediction parameter PP_Intra is a parameter for designating an intra prediction method (prediction mode) for each partition.
  • the edge-based prediction flag EF is a flag that specifies whether or not the edge-based prediction mode is applied to the target partition that is the processing target partition. In the following description, it is assumed that the edge-based prediction mode is applied to the target partition when the edge-based prediction flag is 1.
  • the correction direction index (also referred to as an additional index) AI is an index included in the prediction parameter PP_Intra when the edge-based prediction mode is applied to the target partition, and is the main direction derived in the edge-based prediction mode. This is an index for designating whether or not to add the correction direction, and for specifying the correction direction to be added when adding the correction direction.
  • the estimation flag MPM is a flag that is included in the prediction parameter PP_Intra when the edge-based prediction mode is not applied to the target partition, and is an estimated prediction mode that is estimated based on the prediction mode assigned to the surrounding partitions of the target partition. It is a flag indicating whether or not the prediction mode for the target partition is the same.
  • the residual prediction mode index RIPM specifies the prediction mode assigned to the target partition when the edge-based prediction mode is not applied to the target partition and the estimated prediction mode and the prediction mode for the target partition are different. It is an index to do.
  • the moving picture decoding apparatus 1 includes H.264 as a part thereof. H.264 / MPEG-4.
  • Decoding device including technology adopted in KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group), and technology adopted in TMuC (Test Model under Consideration) software which is a successor codec It is.
  • FIG. 3 is a block diagram showing a configuration of the moving picture decoding apparatus 1.
  • the video decoding device 1 includes a variable length code decoding unit 11, a predicted image generation unit 12, an inverse quantization / inverse conversion unit 13, an adder 14, a frame memory 15, and a loop filter 16.
  • the predicted image generation unit 12 includes a motion vector restoration unit 12a, an inter predicted image generation unit 12b, an intra predicted image generation unit 12c, and a prediction method determination unit 12d.
  • the moving picture decoding apparatus 1 is an apparatus for generating moving picture # 2 by decoding encoded data # 1.
  • variable-length code decoding unit 11 decodes the prediction parameter PP related to each partition from the encoded data # 1, and supplies the decoded prediction parameter PP to the predicted image generation unit 12. Specifically, for the inter prediction partition, the variable length code decoding unit 11 receives the inter prediction parameter PP_Inter including the reference image index RI, the estimated motion vector index PMVI, and the motion vector residual MVD from the encoded data # 1. These are decoded and supplied to the motion vector restoration unit 12a.
  • the intra prediction parameter PP_Intra including the estimation flag MPM, the residual index RIPM, and the additional index AI is decoded from the encoded data # 1, and these are supplied to the intra prediction image generation unit 12c.
  • the variable length code decoding unit 11 supplies size designation information for designating the size of the partition to the intra predicted image generation unit 12c (not shown).
  • variable length code decoding unit 11 decodes the prediction type information PT for each partition from the encoded data # 1, and supplies this to the prediction method determination unit 12d. Furthermore, the variable-length code decoding unit 11 decodes the quantization prediction residual QD for each block and the quantization parameter difference ⁇ qp for the LCU including the block from the encoded data # 1, and dequantizes and reverses them. This is supplied to the conversion unit 13. Further, the variable length code decoding unit 11 decodes the filter parameter FP from the encoded data # 1 and supplies this to the loop filter 16.
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • CALVC Context-based Adaptive Variable Variable Length Coding
  • variable length code decoding unit 11 refers to the encoding mode information (entropy_coding_mode_flag) included in the picture header PH of the encoded data # 1 to determine whether the target picture has been encoded by CABAC or by CAVLC. Can be identified. In addition, the variable length code decoding unit 11 decodes the target picture using a decoding method corresponding to the identified encoding method.
  • encoding mode information entropy_coding_mode_flag
  • the predicted image generation unit 12 identifies whether each partition is an inter prediction partition for performing inter prediction or an intra prediction partition for performing intra prediction based on the prediction type information PT for each partition. In the former case, the inter prediction image Pred_Inter is generated, and the generated inter prediction image Pred_Inter is supplied to the adder 14 as the prediction image Pred. In the latter case, the intra prediction image Pred_Intra is generated, The generated intra predicted image Pred_Intra is supplied to the adder 14. Note that, when the skip mode is applied to the processing target LCU, the predicted image generation unit 12 omits decoding of other parameters belonging to the PU.
  • the motion vector restoration unit 12a restores the motion vector mv related to each inter prediction partition from the motion vector residual MVD related to that partition and the restored motion vector mv ′ related to another partition. Specifically, (1) the estimated motion vector pmv is derived from the restored motion vector mv ′ according to the estimation method specified by the estimated motion vector index PMVI, and (2) the derived estimated motion vector pmv and the motion vector remaining are derived. The motion vector mv is obtained by adding the difference MVD. It should be noted that the restored motion vector mv ′ relating to other partitions can be read from the frame memory 15. The motion vector restoration unit 12a supplies the restored motion vector mv to the inter predicted image generation unit 12b together with the corresponding reference image index RI.
  • the inter prediction image generation unit 12b generates a motion compensated image mc related to each inter prediction partition by inter-screen prediction. Specifically, using the motion vector mv supplied from the motion vector restoration unit 12a, the motion compensation image mc from the filtered decoded image P_ALF ′ designated by the reference image index RI supplied from the motion vector restoration unit 12a. Is generated.
  • the filtered decoded image P_ALF ′ is an image obtained by performing the filtering process by the loop filter 16 on the decoded image that has already been decoded for the entire frame, and the inter predicted image generation unit 12b. Can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 15.
  • the motion compensated image mc generated by the inter predicted image generation unit 12b is supplied to the prediction method determination unit 12d as an inter predicted image Pred_Inter.
  • the intra predicted image generation unit 12c generates a predicted image Pred_Intra related to each intra prediction partition. Specifically, first, a prediction mode is specified based on the intra prediction parameter PP_Intra supplied from the variable length code decoding unit 11, and the specified prediction mode is assigned to the target partition in, for example, raster scan order. Subsequently, a predicted image Pred_Intra is generated from the (local) decoded image P by intra prediction according to the prediction method indicated by the prediction mode. The intra predicted image Pred_Intra generated by the intra predicted image generation unit 12c is supplied to the prediction method determination unit 12d. Note that the intra predicted image generation unit 12c may be configured to generate the predicted image Pred_Intra from the filtered decoded image P_ALF by intra prediction.
  • the prediction method determination unit 12d determines whether each partition is an inter prediction partition that should perform inter prediction or an intra prediction partition that should perform intra prediction based on the prediction type information PT about the PU to which each partition belongs. To do. In the former case, the inter prediction image Pred_Inter generated by the inter prediction image generation unit 12b is supplied to the adder 14 as the prediction image Pred. In the latter case, the inter prediction image generation unit 12c generates the inter prediction image Pred_Inter. The intra predicted image Pred_Intra that has been processed is supplied to the adder 14 as the predicted image Pred.
  • the inverse quantization / inverse transform unit 13 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transform on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 14.
  • the inverse quantization / inverse transform unit 13 derives the quantization step QP from the quantization parameter difference ⁇ qp supplied from the variable length code decoding unit 11.
  • the generation of the prediction residual D by the inverse quantization / inverse transform unit 13 is performed in units of blocks obtained by dividing TUs or TUs.
  • the adder 14 generates the decoded image P by adding the prediction image Pred supplied from the prediction image generation unit 12 and the prediction residual D supplied from the inverse quantization / inverse conversion unit 13.
  • the generated decoded image P is stored in the frame memory 15.
  • loop filter 16 The loop filter 16 reads the decoded image P from the frame memory 15 and performs block noise reduction processing at one or both of the partition boundary and the block boundary of the decoded image P. In addition, the loop filter 16 performs adaptive filter processing using the filter parameter FP decoded from the encoded data # 1 on the decoded image subjected to the block noise reduction processing, and the adaptive filter processing Is output to the frame memory 15 as a filtered decoded image P_ALF.
  • FIG. 1 is a block diagram showing a configuration of the intra predicted image generation unit 12c.
  • the intra prediction image generation unit 12c includes an edge-based prediction flag determination unit 12c1, a basic prediction unit 12c2, an edge-based prediction unit 12c3, and a prediction direction storage unit 12c4.
  • the intra predicted image generation unit 12c supplies either the intra predicted image Pred_b generated by the basic prediction unit 12c2 or Pred_e generated by the edge-based prediction unit 12c3 to the prediction method determination unit 12d as an intra predicted image Pred_Intra. To do.
  • the edge-based prediction flag determination unit 12c1 refers to the edge-based prediction flag EF included in the intra-prediction parameter PP_Intra, and when the edge-based prediction flag is 1, that is, the flag is subjected to edge-based prediction for the target partition.
  • the edge-based prediction unit 12c3 is instructed to generate an intra-prediction image for the target partition, and the intra-prediction parameter PP_Intra is supplied.
  • the edge-based prediction flag determination unit 12c1 performs basic processing when the edge-based prediction flag is 0, that is, when the flag indicates that the edge-based prediction mode is not applied to the target partition.
  • the prediction unit 12c2 is instructed to generate an intra prediction image for the target partition, and the intra prediction parameter PP_Intra is supplied.
  • the basic prediction unit 12c2 is a prediction mode (also referred to as a basic prediction mode) included in the basic prediction mode set, and generates an intra prediction image Pred_b by intra prediction using a prediction mode specified by the intra prediction parameter PP_Intra. To do.
  • a prediction mode also referred to as a basic prediction mode
  • the basic prediction mode set is (1) a direction prediction mode in which a decoded image around the target partition is extrapolated along a predetermined prediction direction to generate a predicted image for the target partition.
  • a DC prediction mode for generating a predicted image for the target partition by taking an average value of decoded pixel values around the target partition. For (1), if there are decoded pixels on both sides along the prediction direction, a predicted image may be generated by interpolating the pixel values of those pixels.
  • FIG. 4 is a figure which illustrates the prediction mode contained in the basic prediction mode set in this embodiment with a prediction mode index. Moreover, in (a) of FIG. 4, the prediction direction of each direction prediction mode is shown. As shown in FIG. 4A, the basic prediction mode set in the present embodiment includes a direction prediction mode specified by indexes 0, 1, 3 to 8 and a DC prediction mode specified by index 2, respectively. Is included.
  • selection of the prediction mode for the target partition is performed by the basic prediction unit 12c2 as follows.
  • the basic prediction unit 12c2 refers to the estimation flag MPM included in the intra prediction parameter PP_Intra, and the estimation flag MPM is estimated based on a prediction mode assigned to a partition around the target partition. If the prediction mode for the target partition is the same, the estimated prediction mode is assigned to the target partition.
  • the residual prediction mode index RIPM is referred to and designated by the residual prediction mode index RIPM.
  • the predicted mode to be assigned is assigned to the target partition.
  • the basic prediction unit 12c2 When the DC prediction mode is selected for the target partition, the basic prediction unit 12c2 generates an intra predicted image Pred_b for the target partition by taking the average value of the decoded pixel values around the target partition.
  • the basic prediction unit 12c2 surrounds the target partition along the prediction direction indicated by the selected direction prediction mode.
  • the intra-predicted image Pred_b for the target partition is generated by extrapolating the decoded pixel values.
  • FIG. 4B is a diagram showing each pixel (prediction target pixel) of the target partition, which is 4 ⁇ 4 pixels, and pixels (reference pixels) around the target partition.
  • the prediction target pixels are denoted by a to p
  • the reference pixels are denoted by A to M
  • the pixel X (X is any of a to p or A to M). Let the pixel value be represented by X. Further, it is assumed that the reference pixels A to M have all been decoded.
  • ave Indicates that an element included in parentheses is averaged.
  • “>>” represents a right shift operation, and for any positive integer x, s, the value of x >> s is equal to the value obtained by rounding down the decimal part of x ⁇ (2 ⁇ s).
  • the basic prediction unit 12c2 can calculate the pixel values a to p by the same method for basic prediction modes other than the above prediction modes.
  • the basic prediction mode set includes a prediction mode that specifies one of eight different direction predictions.
  • the present embodiment is not limited to this. Absent.
  • a set including a prediction mode that specifies any of nine or more different directions may be used as the basic prediction mode set.
  • a set including a prediction mode for designating any of 16 different directions and a prediction mode for designating any of 32 different directions can be given.
  • the edge-based prediction unit 12c3 (1) a decoded pixel value around the target partition, or (2) a prediction direction (prediction direction vector) derived using the edge-based prediction mode for an adjacent partition adjacent to the target partition
  • the estimated edge direction assigned to the target partition is derived based on the prediction direction used to generate the prediction image in the adjacent partition, and the prediction direction indicated by the estimated edge direction (or the estimation
  • the intra-predicted image Pred_e in the target partition is generated by extrapolating the decoded pixel values around the target partition along the edge direction vector (predicted direction obtained by applying direction correction described later). . If there are decoded pixels on both sides along the prediction direction, a predicted image may be generated by interpolating the pixel values of these pixels.
  • the edge-based prediction unit 12c3 selects the pixel among the decoded pixels that are located on the virtual line segment that starts from the pixel position of the prediction target pixel in the target partition and faces the reverse direction of the prediction direction.
  • the intra predicted image Pred_e in the target partition is generated by setting the pixel value of the near pixel (hereinafter also referred to as the closest pixel) to the pixel value of the prediction target pixel.
  • the pixel value of the prediction target pixel may be a value calculated using the pixel value of the nearest pixel and the pixel values of the pixels around the nearest pixel.
  • the estimated edge direction approximates the actual edge direction in the prediction target partition, and the higher the similarity between the estimated edge direction and the actual edge direction, the higher the prediction accuracy of the predicted image. Tend.
  • the prediction direction vector derived for the target partition is assigned to the target partition and stored in the prediction direction storage unit 12c4.
  • the estimated edge direction (estimated edge direction vector) deriving process performed by the edge-based prediction unit 12c3 will be described with reference to FIGS. 5 and 6A to 6B.
  • the prediction direction vector derived for the target partition is represented as dj (j is an index for identifying each partition), and the estimated edge direction vector derived for the target partition is represented as dj ′. .
  • FIG. 5 is a flowchart showing a flow of estimated edge direction derivation processing by the edge-based prediction unit 12c3.
  • Step S101 the edge-based prediction unit 12c3 determines whether the edge-based prediction mode is applied to all of the decoded adjacent partitions that are adjacent to the target partition (adjacent partitions).
  • Step S102 If the edge-based prediction mode has not been applied to any of the decoded adjacent partitions (No in step S101), the edge-based prediction unit 12c3 initializes the value of the loop variable i to 1, and i ⁇ For j that satisfies M, a loop process for setting the increment value of the loop variable i for each loop to 1 is started.
  • M is the number of reference pixels that are referred to in order to derive the estimated edge direction for the target partition.
  • FIG. 6 is a diagram showing the target partition OP together with adjacent partitions NP2 and NP3 adjacent to the target partition OP, and a partition NP1 sharing the top left vertex of the target partition.
  • FIG. 6A shows a case where the target partition OP and the adjacent partitions NP1 to NP3 are all 4 ⁇ 4 pixels, but this embodiment is not limited to this, and will be described later.
  • the present invention can also be applied to a case where the target partition OP has a size other than 4 ⁇ 4 pixels, or a case where the adjacent partitions NP1 to NP3 have a size other than 4 ⁇ 4 pixels.
  • edge-based prediction unit 12c3 is the i-th reference pixel, and calculates the edge vectors b i.
  • the calculation of the edge vectors b i is Sobel operator (Sobel operators, also referred to as a Sobel filter) Gx, and may be used to Gy.
  • the Sobel filters Gx and Gy are filter matrices used for calculating the image gradient along the x direction and the image gradient along the y direction, respectively. For example, as a 3 ⁇ 3 matrix, ,
  • Edge-based prediction unit 12c3 is the image gradient for the calculated x-direction, and calculates an edge vector b i that is perpendicular to the image gradients represented by the image gradient along the y-direction.
  • Step S104 This step is the end of the loop.
  • the edge-based prediction unit 12c3 has a function T ( ⁇ ) shown below.
  • T ( ⁇ ) ⁇ ⁇ e, b i > 2
  • e represents a unit vector whose angle between its own direction and the horizontal direction (x direction) is ⁇
  • represents the inner product of both vectors.
  • the symbol ⁇ indicates that the subscript i is to be summed from 1 to M.
  • edge-based prediction unit 12c3 uses the argument ⁇ * that maximizes the function T ( ⁇ ) .
  • ⁇ * argmaxS ( ⁇ )
  • the direction represented by ⁇ * is set to the estimated edge direction vector d OP ′ for the target partition.
  • the angle ⁇ * is represented with the horizontal right direction being 0 degrees and the clockwise direction being positive (the same applies to the expression of the following angles).
  • the estimated edge direction vector d OP ′ may or may not be a normalized vector (a vector whose magnitude is normalized to 1, hereinafter the same).
  • the magnitude of the estimated edge direction vector d OP ′ has a positive correlation with the edge intensity in the reference region composed of the reference pixels. A configuration to be set as described above is given.
  • the method of deriving the estimated edge direction vector d OP ′ is not limited to the above example, and other derivation methods may be used.
  • an edge vector having the maximum magnitude may be set as the estimated edge direction vector d OP ′.
  • the edge-based prediction unit 12c3 calculates the estimated edge direction
  • the partition adjacent to the upper side of the target partition, the partition adjacent to the left side of the target partition, and the upper left vertex of the target partition are shared.
  • the case where the pixel values of the pixels belonging to the partition to be referred to is taken as an example, but the present embodiment is not limited to this, and the edge-based prediction unit 12c3 is more generally set around the target partition.
  • the estimated edge direction for the target partition can be calculated.
  • Step S106 On the other hand, when the edge-based prediction mode is applied to all the neighboring partitions that are adjacent to the target partition and have been decoded (Yes in step S101), the edge-based prediction unit 12c3 performs decoding.
  • An estimated edge direction vector for the target partition is derived by taking the average of the predicted directions derived for the adjacent partitions. That is, when the edge-based prediction mode is applied to all the neighboring partitions that are adjacent to the target partition and have been decoded, the edge-based prediction unit 12c3 performs the processing of steps S101 to S105 described above. And the estimated edge direction vector for the target partition is simply derived based on the predicted direction derived for the decoded neighboring partition.
  • FIG. 6B shows the target partition OP together with the adjacent partitions NP2 and NP3 adjacent to the target partition OP, and the partition NP1 sharing the top left vertex of the target partition.
  • the adjacent partition NP2 adjacent to the upper side of the target partition OP and the adjacent partition NP3 adjacent to the left side of the target partition OP are both estimated. Assume that the edge direction has been derived. Further, as shown in FIG. 6B, the prediction direction vector (estimated edge direction vector or estimated edge direction vector + correction direction) already derived for the adjacent partition NP2 is represented as d NP2 and derived for the adjacent partition NP3.
  • the completed prediction direction vector (estimated edge direction vector or estimated edge direction + correction direction) is represented as d NP3 .
  • the edge-based prediction unit 12c3 can read the prediction direction vector derived for the partition adjacent to the target partition from the prediction direction storage unit 12c4.
  • the edge-based prediction unit 12c3 takes the average of the vector obtained by normalizing the prediction direction vector d NP2 and the vector obtained by normalizing the prediction direction vector d NP3, thereby obtaining the estimated edge direction for the target partition.
  • the edge-based prediction unit 12c3 uses the estimated edge direction vector d OP ′ for the target partition as the predicted direction vector d NP2 derived for the partition NP2 and the partition NP3. It may be derived by taking the average of the derived prediction direction vector d NP3 and the prediction direction vector already derived for the target partition NP1 (ie, the upper left partition of the target partition), It is good also as a structure derived
  • the edge-based prediction unit 12c3 may be configured to set the estimated edge direction vector d OP ′ for the target partition to a vector having a larger norm among the prediction direction vectors d NP2 and d NP3 .
  • the derivation process of deriving the estimated edge direction vector for the target partition based on the predicted direction derived for the decoded neighboring partition omitting the processes of steps S101 to S105 described above.
  • it may be referred to as a simplified derivation process of the estimated edge direction vector.
  • the edge-based prediction unit 12c3 adds the correction angle (direction) expressed by the additional index AI to the angle ⁇ OP indicated by the estimated edge direction vector d OP ′. Correction)
  • the angle ⁇ OP + ⁇ obtained by adding ⁇ is calculated, and the direction represented by the angle ⁇ OP + ⁇ is set as the predicted direction vector d OP .
  • a method of setting a direction obtained by performing direction correction in the estimated edge direction as a prediction direction and generating a prediction image using the prediction direction may be referred to as a sub-direction prediction mode.
  • a direction (estimated edge direction + direction correction) set as the prediction direction may be referred to as a sub-direction.
  • the estimated edge direction vector d OP ′ is set as the prediction direction vector d OP as it is.
  • the method of setting the estimated edge direction as it is as the prediction direction and generating a prediction image using the prediction direction may be referred to as a main direction prediction mode.
  • the estimated edge direction set as the predicted direction may be referred to as a main direction.
  • represents a quantization step size that specifies the roughness of quantization when the correction angle is quantized, and in the present embodiment, ⁇ is a confidence measure (s) shown below.
  • the quantization step size ⁇ has a property that it is a decreasing function of the certainty factor s.
  • the edge-based prediction unit 12c3 may be configured to use a predetermined quantization step size ⁇ , for example, instead of a configuration that calculates the quantization step size ⁇ for each partition individually.
  • the quantization step size ⁇ is encoded for each slice or LCU, and the quantization step is included in the encoded data # 1 to perform edge-based prediction.
  • the unit 12c3 may use the quantization step size ⁇ decoded from the encoded data # 1.
  • the edge-based prediction unit 12c3 generates the intra-predicted image Pred_e in the target partition by extrapolating the decoded pixel values for the pixels around the target partition in the prediction direction determined as described above. .
  • FIG. 7 is a flowchart illustrating a flow of processing for generating a predicted image Pred_Intra by the intra predicted image generation unit 12c.
  • the intra-predicted image generation unit 12c initializes the value of the loop variable j to 1, and starts a loop process that sets the increment value of the loop variable j for each loop to 1 for j that satisfies j ⁇ Npart.
  • the loop variable j is an index for identifying each partition
  • Npart is the total number of partitions to be processed.
  • Npart may be, for example, the total number of partitions included in the processing target slice or the total number of partitions included in the processing target frame. Further, Npart may be the total number of partitions included in the processing target LCU, as will be described later. Npart may be the total number of partitions included in the leaf CU to be processed.
  • the intra-predicted image generation unit 12c refers to the edge-based prediction flag EF included in the intra-prediction parameter PP_Intra in the edge-based prediction flag determination unit 12c1, and performs edge-based prediction on the target partition (j-th partition). Determine whether the mode is applied.
  • Step S203 If the edge-based prediction mode is not applied to the target partition (No in step S202), the basic prediction unit 12c2 refers to the intra prediction parameter PP_Intra and determines whether the direction prediction mode is applied to the target partition. Is determined.
  • Step S204 When the direction prediction mode is not applied to the target partition, that is, when the DC prediction mode is applied to the target partition (No in step S203), the basic prediction unit 12c2 performs the above-described processing to perform DC prediction. Thus, an intra prediction image for the target partition is generated.
  • Step S205 When the direction prediction mode is applied to the target partition (Yes in step S203), the basic prediction unit 12c2 sets the direction indicated by the prediction mode specified by the intra prediction parameter PP_Intra as the prediction direction.
  • Step S206 On the other hand, when it is determined in step S202 that the edge-based prediction mode is applied to the target partition (Yes in step S202), the edge-based prediction unit 12c3 performs the processes in steps S101 to S106 described above.
  • the estimated edge direction vector (main direction vector) is derived.
  • the edge-based prediction unit 12c3 determines whether or not the main direction prediction mode is applied to the target partition.
  • whether or not the main direction prediction mode is applied can be determined by determining whether or not an additional index is included in the intra prediction parameter PP_Intra.
  • Step S208 When the main direction prediction mode is applied to the target partition (Yes in step S207), the estimated edge direction derived in step S206 is set as the prediction direction.
  • Step S209 On the other hand, when the main direction prediction mode is not applied to the target partition, that is, when the sub direction prediction mode is applied to the target partition (No in step S207), an addition is performed by the edge-based prediction unit 12c3.
  • the correction angle ⁇ is derived with reference to the index AI.
  • Step S210 Subsequently, the estimated edge direction derived in step S206 plus the direction indicated by the correction angle ⁇ (sub direction) is set as the predicted direction.
  • Step S211 An intra prediction image for the target partition is generated by extrapolating the decoded pixel values around the target partition in the prediction direction set in any of step S205, step S208, and step S210.
  • Step S212 This step is the end of the loop.
  • FIG. 8A shows a case where a plurality of partitions NP31 to NPNP34 are adjacent to the left side of the target partition OP, and a plurality of partitions NP21 to NP22 are adjacent to the upper side of the target partition OP.
  • the edge-based prediction unit 12c3 uses the estimated edge direction vector d OP ′ for the target partition as the predicted direction vector (estimated edge direction vector or estimated edge direction) that has been derived for each adjacent partition. vector + correction direction) d NP31 ⁇ d NP34, and it can be derived by taking the average of d NP21 ⁇ d NP22.
  • the edge-based prediction unit 12c3 also derives the estimated edge direction vector d OP ′ for the target partition by taking the average of the vectors obtained by normalizing the prediction direction vectors already derived for each adjacent partition. be able to.
  • the prediction direction vectors d NP31 to d NP34 represent the prediction direction vectors derived for the adjacent partitions NP31 to NPNP 34, respectively, and the prediction direction vectors d NP21 to d NP22 are about the adjacent partitions NP21 to NPNP22, respectively. It shall represent the derived prediction direction vector.
  • median Represents an operation symbol that takes the median value of the elements in parentheses.
  • the median of a vector is a vector having a median value for each corresponding component.
  • the edge-based prediction unit 12c3 sets the estimated edge direction vector d OP ′ for the target partition to a vector having the maximum norm among the prediction direction vectors d NP31 to d NP34 and d NP21 to d NP22. It is good.
  • the edge-based prediction unit 12c3 calculates the estimated edge direction vector d OP ′ for the target partition, the prediction direction vector that has been derived for each partition adjacent to the target partition, and the partition that shares the vertex with the target partition. It is good also as a structure derived
  • the edge-based prediction unit 12c3 calculates the estimated edge direction vector d OP ′ for the target partition, the prediction direction vector that has been derived for each partition adjacent to the target partition, and the partition that shares the vertex with the target partition. It is good also as a structure derived
  • the edge-based prediction unit 12c3 derives an estimated edge direction vector for the target partition based on the prediction direction vector that has been derived for the partitions around the target partition.
  • the edge-based prediction unit 12c3 derives the adjacent partition only when the size of the target partition is the adjacent partition adjacent to the target partition and the size of the adjacent partition for which the prediction direction vector has been derived is the same.
  • a configuration may be adopted in which an estimated edge direction vector for the target partition is derived on the basis of the completed prediction direction vector.
  • the number of prediction direction vectors to be referred to when deriving the estimated edge direction vector for the target partition can be limited, so that the amount of calculation can be reduced.
  • the edge-based prediction unit 12c3 is based on the prediction direction vector only when the variation in the direction of the prediction direction vector that has been derived for each of the adjacent partitions adjacent to the target partition is equal to or less than a predetermined threshold.
  • the estimated edge direction vector for the target partition may be derived.
  • the edge-based prediction unit 12c3 calculates the estimated edge direction vector for the target partition based on the prediction direction vectors d 1 to d Nd only when the variances of the angles A 1 to A Nd are equal to or less than a predetermined threshold. It can be set as the structure to derive.
  • the estimated edge direction in the target partition is correlated with the predicted direction vector already derived for the adjacent partition. There is a tendency to be low. Therefore, the estimated edge direction vector derived based on the prediction direction vector having such a large variation tends to have a low correlation with the actual edge direction in the target partition.
  • the estimated edge direction for the target partition is based on the prediction direction vector only when the variation in the direction of the prediction direction vector already derived for each of the adjacent partitions is equal to or less than a predetermined threshold.
  • a predetermined threshold By deriving the vector, it is possible to calculate an estimated edge direction vector that more appropriately approximates the actual edge direction in the target partition. Therefore, with such a configuration, prediction accuracy can be improved and coding efficiency can be increased.
  • the edge-based prediction unit 12c3 is an adjacent partition adjacent to the target partition, and only when the adjacent partition from which the prediction direction vector has been derived belongs to the same LCU to which the target partition belongs.
  • a configuration may be adopted in which an estimated edge direction vector for the target partition is derived based on a prediction direction vector that has been derived for each of adjacent partitions.
  • FIG. 8B shows an adjacent partition adjacent to the target partition OP, and of the adjacent partitions NP2 and NP3 for which the prediction direction vector has already been derived, only the adjacent partition NP2 belongs to the LCU1 to which the target partition OP belongs.
  • the edge-based prediction unit 12c3 does not use any of the prediction direction vectors d NP2 and d NP3 derived for the adjacent partitions NP2 and NP3, respectively, and performs steps S101 to S101 described above.
  • the process of S105 is performed to derive the estimated edge direction for the target partition.
  • the edge-based prediction unit 12c3 derives the prediction direction vector by performing the above-described steps S101 to S105 in the adjacent partition that is adjacent to the target partition and for which the prediction direction vector has been derived.
  • the edge-based prediction unit 12c3 does not use the prediction direction vector derived for the adjacent partition. Then, the estimated edge direction vector for the target partition is calculated by performing the processes of steps S101 to S105 described above.
  • FIG. 8C shows only the prediction direction vector d NP2 of the above-described steps S101 to S105 out of the prediction direction vectors d NP2 and d NP3 derived for the adjacent partitions NP2 and NP3 adjacent to the target partition OP. It is derived by performing processing, and the prediction direction vector d NP3 is a diagram showing a case where it is derived using a prediction direction vector derived for a partition adjacent to the adjacent partition NP3.
  • the edge-based prediction unit 12c3 does not use any of the prediction direction vectors d NP2 and d NP3 that have been derived for the adjacent partitions NP2 and NP3, respectively.
  • the process of S105 is performed to derive the estimated edge direction for the target partition.
  • the edge-based prediction unit 12c3 estimates the target partition when the prediction direction vector is derived by the simple derivation process in any of the adjacent partitions adjacent to the target partition.
  • the edge direction vector is derived not by the simple derivation process but by performing the above-described steps S101 to S105.
  • the edge-based prediction unit 12c3 is an adjacent partition adjacent to the target partition, and when the number of adjacent partitions from which the prediction direction vector has been derived is 3 or more, instead of the average operation of the prediction direction vector, A configuration may be adopted in which the estimated edge direction vector d OP ′ for the target partition is derived by performing the following processing.
  • ⁇ in the definition of the function U ( ⁇ ) indicates that the subscript n is a sum from 1 to N NP , and e is the angle formed between the own direction and the horizontal direction (x direction).
  • represents a unit vector with ⁇ , and the symbols ⁇ ,> represent the inner product of the vectors.
  • the estimated edge direction vector that approximates the actual edge direction in the target partition by using the direction indicated by the unit vector that minimizes the sum of squares of the inner products with the predicted direction vectors d n that have been derived for each adjacent partition. Therefore, prediction accuracy and encoding efficiency are improved.
  • the edge-based prediction unit 12c3 is an adjacent partition adjacent to the target partition, and only when the certainty factor for each of the adjacent partitions for which the prediction direction vector has been derived is equal to or greater than a predetermined threshold value.
  • a configuration may be adopted in which the estimated edge direction vector for the target partition is derived based on the prediction direction vector derived for the adjacent partition.
  • the certainty factor can be expressed using the confidence measure s shown in Equation (1-3), or the variance in the direction of the edge vector b i calculated for each reference pixel ( It can also be expressed using the reciprocal of
  • an estimated edge direction that more appropriately approximates the actual edge direction in the target partition by deriving the estimated edge direction vector for the target partition based on the predicted direction vector derived for the partition with high confidence A vector can be calculated. Therefore, with such a configuration, prediction accuracy can be improved and coding efficiency can be increased.
  • the edge-based prediction unit 12c3 derives the estimated edge direction vector for the target partition by using a weighted average corresponding to the certainty of the predicted direction vector that has been derived for each partition adjacent to the target partition. It is good also as composition to do.
  • edge-based prediction unit 12c3 by taking the vector obtained by normalizing the prediction direction vector d NP2, the weighted average according to the confidence of the vector obtained by normalizing the prediction direction vector d NP3,
  • the certainty factor can also be expressed using confidence measure s shown in Equation (1-3), and the variance in the direction of the edge vector b i calculated for each reference pixel. It can also be expressed using.
  • the certainty factor may not be determined for the prediction direction vector derived by the simplified derivation process. In such a case, the prediction direction vector derived by the simplified derivation process may not be determined.
  • a prediction direction vector having a higher certainty factor tends to have a higher correlation with an actual edge direction in the target partition.
  • the estimated edge direction vector for the target partition is obtained by taking a weighted average according to the magnitude of the correlation between the prediction vector derived for each adjacent partition and the actual edge direction in the target partition. Since it derives, prediction accuracy and coding efficiency are improved.
  • the edge-based prediction unit 12c3 sets a prediction direction vector having the highest certainty among prediction direction vectors derived for adjacent partitions adjacent to the target partition as an estimated edge direction vector for the target partition. Also good.
  • the moving image encoding apparatus 2 includes H.264 as a part thereof.
  • KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group)
  • TMuC Traffic Model under Consideration
  • FIG. 9 is a block diagram showing a configuration of the moving picture encoding apparatus 2.
  • the moving image encoding apparatus 2 includes a predicted image generation unit 21, a transform / quantization unit 22, an inverse quantization / inverse transform unit 23, an adder 24, a frame memory 25, a loop filter 26, a variable A long code encoding unit 27 and a subtracter 28 are provided.
  • the predicted image generation unit 21 includes an intra predicted image generation unit 21 a, a motion vector detection unit 21 b, an inter predicted image generation unit 21 c, a prediction method control unit 21 d, and a motion vector redundancy deletion unit. 21e.
  • the moving image encoding device 2 is a device that generates encoded data # 1 by encoding moving image # 10 (encoding target image).
  • the predicted image generation unit 21 recursively divides the processing target LCU into one or a plurality of lower-order CUs, further divides each leaf CU into one or a plurality of partitions, and uses an inter-screen prediction for each partition.
  • a predicted image Pred_Inter or an intra predicted image Pred_Intra using intra prediction is generated.
  • the generated inter prediction image Pred_Inter and intra prediction image Pred_Intra are supplied to the adder 24 and the subtracter 28 as the prediction image Pred.
  • the prediction image generation unit 21 omits encoding of other parameters belonging to the PU for the PU to which the skip mode is applied. Also, (1) the mode of division into lower CUs and partitions in the target LCU, (2) whether to apply the skip mode, and (3) which of the inter predicted image Pred_Inter and the intra predicted image Pred_Intra for each partition Whether to generate is determined so as to optimize the encoding efficiency.
  • the intra predicted image generation unit 21a generates a predicted image Pred_Intra for each partition by intra prediction. Specifically, (1) a prediction mode used for intra prediction is selected for each partition, and (2) a prediction image Pred_Intra is generated from the decoded image P using the selected prediction mode. The intra predicted image generation unit 21a supplies the generated intra predicted image Pred_Intra to the prediction method control unit 21d.
  • the intra-prediction image generation unit 21a selects any one of the prediction modes included in the above-described basic prediction mode set and the prediction mode included in the extended set including the edge-based prediction mode.
  • the intra prediction image Pred_Intra is generated according to the method indicated by the selected prediction mode.
  • the motion vector detection unit 21b detects a motion vector mv regarding each partition. Specifically, (1) the filtered decoded image P_ALF ′ used as the reference image is selected, and (2) the target partition is searched by searching for the region that best approximates the target partition in the selected filtered decoded image P_ALF ′. Detects a motion vector mv.
  • the filtered decoded image P_ALF ′ is an image obtained by performing adaptive filter processing by the loop filter 26 on the decoded image that has already been decoded for the entire frame, and is a motion vector detection unit. 21b can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 25.
  • the motion vector detection unit 21b supplies the detected motion vector mv to the inter predicted image generation unit 21c and the motion vector redundancy deletion unit 21e together with the reference image index RI that specifies the filtered decoded image P_ALF ′ used as the reference image. To do.
  • the inter prediction image generation unit 21c generates a motion compensated image mc related to each inter prediction partition by inter-screen prediction. Specifically, the motion compensation image mc is obtained from the filtered decoded image P_ALF ′ designated by the reference image index RI supplied from the motion vector detection unit 21b, using the motion vector mv supplied from the motion vector detection unit 21b. Generate. Similar to the motion vector detection unit 21b, the inter prediction image generation unit 21c can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 25. The inter prediction image generation unit 21c supplies the generated motion compensated image mc (inter prediction image Pred_Inter) together with the reference image index RI supplied from the motion vector detection unit 21b to the prediction method control unit 21d.
  • inter prediction image Pred_Inter inter prediction image Pred_Inter
  • the prediction scheme control unit 21d compares the intra predicted image Pred_Intra and the inter predicted image Pred_Inter with the encoding target image, and selects whether to perform intra prediction or inter prediction.
  • the prediction scheme control unit 21d supplies the intra prediction image Pred_Intra as the prediction image Pred to the adder 24 and the subtracter 28, and sets the intra prediction parameter PP_Intra supplied from the intra prediction image generation unit 21a. This is supplied to the variable length code encoding unit 27.
  • the prediction scheme control unit 21d supplies the inter prediction image Pred_Inter as the prediction image Pred to the adder 24 and the subtracter 28, and the reference image index RI and motion vector redundancy described later.
  • the estimated motion vector index PMVI and the motion vector residual MVD supplied from the deletion unit 21e are supplied to the variable length code encoding unit 27 as an inter prediction parameter PP_Inter.
  • the motion vector redundancy deletion unit 21e deletes redundancy in the motion vector mv detected by the motion vector detection unit 21b. Specifically, (1) an estimation method used for estimating the motion vector mv is selected, (2) an estimated motion vector pmv is derived according to the selected estimation method, and (3) the estimated motion vector pmv is subtracted from the motion vector mv. As a result, a motion vector residual MVD is generated. The motion vector redundancy deleting unit 21e supplies the generated motion vector residual MVD to the prediction method control unit 21d together with the estimated motion vector index PMVI indicating the selected estimation method.
  • the transform / quantization unit 22 performs (1) DCT transform (Discrete Cosine Transform) for each block on the prediction residual D obtained by subtracting the predicted image Pred from the encoding target image, and (2) DCT coefficients obtained by the DCT transform. (3) The quantized prediction residual QD obtained by the quantization is supplied to the variable length code encoding unit 27 and the inverse quantization / inverse transform unit 23.
  • the transform / quantization unit 22 (1) selects a quantization step QP to be used for quantization for each TU, and (2) sets a quantization parameter difference ⁇ qp indicating the size of the selected quantization step QP.
  • the variable length code encoding unit 28 is supplied, and (3) the selected quantization step QP is supplied to the inverse quantization / inverse transform unit 23.
  • the inverse quantization / inverse transform unit 23 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transformation on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 24.
  • the quantization prediction residual QD is inversely quantized, the quantization step QP supplied from the transform / quantization unit 22 is used.
  • the prediction residual D output from the inverse quantization / inverse transform unit 23 is obtained by adding a quantization error to the prediction residual D input to the transform / quantization unit 22. Common names are used for this purpose.
  • the adder 24 adds the predicted image Pred selected by the prediction scheme control unit 21d to the prediction residual D generated by the inverse quantization / inverse transform unit 23, thereby obtaining the (local) decoded image P. Generate.
  • the (local) decoded image P generated by the adder 24 is supplied to the loop filter 26 and stored in the frame memory 25, and is used as a reference image in intra prediction.
  • variable-length code encoding unit 27 (Variable-length code encoding unit 27) The variable length code encoding unit 27 (1) the quantization prediction residual QD and ⁇ qp supplied from the transform / quantization unit 22, and (2) the quantization parameter PP (inter prediction) supplied from the prediction scheme control unit 21d. The parameter PP_Inter and the intra prediction parameter PP_Intra) and (3) the filter parameter FP supplied from the loop filter 26 are variable-length-encoded to generate encoded data # 1.
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • CAVLC Context-based Adaptive VLC
  • the variable length code encoding unit 27 determines which encoding method of CABAC or CAVLC is to be used for each picture, performs encoding using the determined encoding method, and specifies the determined encoding method
  • the mode information (entropy_coding_mode_flag) is included in the picture header PH of the encoded data # 1.
  • the subtracter 28 generates the prediction residual D by subtracting the prediction image Pred selected by the prediction method control unit 21d from the encoding target image.
  • the prediction residual D generated by the subtracter 28 is DCT transformed / quantized by the transform / quantization unit 22.
  • the loop filter 26 reads the decoded image P from the frame memory 25 and performs block noise reduction processing at one or both of the partition boundary and the block boundary of the decoded image P.
  • the loop filter 26 performs adaptive filter processing using the adaptively calculated filter parameter FP on the decoded image subjected to block noise reduction processing, and the adaptive filter processing is performed.
  • the decoded image P is output to the frame memory 25 as a filtered decoded image P_ALF.
  • the filtered decoded image P_ALF is mainly used as a reference image in the inter predicted image generation unit 21c.
  • FIG. 10 is a block diagram illustrating a configuration of the intra predicted image generation unit 21a.
  • the intra prediction image generation unit 21a includes a prediction mode determination unit 21a1, a basic prediction unit 21a2, an edge-based prediction unit 21a3, and a prediction direction storage unit 21a4.
  • the prediction mode determination unit 21a1 determines a prediction mode used for intra prediction for each partition. At this time, the determination of which prediction mode to select for each partition is performed such that the encoding efficiency is higher. Moreover, the prediction mode determination part 21a1 supplies intra prediction parameter PP_Intra which designates the determined prediction mode to the prediction method control part 21d.
  • the intra prediction parameter PP_Intra includes an edge-based prediction flag EF indicating whether or not the prediction mode determined by the prediction mode determination unit 21a1 is the edge-based prediction mode.
  • the prediction mode determination unit 21a1 supplies the determined prediction mode to the basic prediction unit 21a2 when the prediction mode for the target partition is determined as any prediction mode included in the basic prediction mode set. At the same time, it instructs to generate the intra-predicted image Pred_b using the determined prediction mode.
  • the prediction mode determination unit 21a1 is a partition around the target partition, and is based on the basic prediction mode index determined for the encoded partition, and the estimated value of the basic prediction mode index for the target partition ( Estimated prediction mode) is calculated.
  • an estimation flag MPM indicating whether or not the estimated prediction mode and the basic prediction mode determined for the target partition are the same is included in the intra prediction parameter PP_Intra.
  • the residual prediction mode index RIPM which is an index for designating the basic prediction mode determined for the target partition, is used as the intra prediction parameter PP_Intra.
  • the prediction mode determination unit 21a1 determines the prediction mode for the target partition to be the edge-based prediction mode
  • the prediction mode determination unit 21a1 sends the intra-prediction image Pred_e to the edge-based prediction unit 21a3 using the edge-based prediction mode. Instruct to generate.
  • the prediction mode determination unit 21a1 determines the prediction mode for the target partition to be the edge-based prediction mode and performs correction using the correction angle ⁇ with respect to the estimated edge direction
  • the correction angle A parameter (quantization index) t obtained by dividing ⁇ by the quantization step size ⁇ is included in the intra prediction parameter PP_Intra.
  • the method for determining the quantization step size ⁇ may be the same method as described in the description of the edge-based prediction unit 12c3 provided in the video decoding device 1.
  • the prediction mode determination unit 21a1 may be configured to set a plurality of correction angle candidates and to select a plurality of correction angle candidates that have higher encoding efficiency.
  • the basic prediction unit 21a2 generates an intra prediction image Pred_b by intra prediction based on the basic prediction mode supplied from the prediction mode determination unit 21a1. Since the process of generating the intra predicted image Pred_b by the basic prediction unit 21a2 is the same as that of the basic prediction unit 12c2 included in the video decoding device 1, description thereof is omitted here.
  • the edge-based prediction unit 21a3 (1) decoded pixel values around the target partition, or (2) an estimated edge direction assigned to an adjacent partition adjacent to the target partition (or a direction correction described later in the estimated edge direction) And a prediction direction vector assigned to the target partition is derived based on the estimated edge direction used to generate the prediction image in the adjacent partition, and the prediction direction indicated by the prediction direction vector Then, the intra-predicted image Pred_e in the target partition is generated by extrapolating the decoded pixel values around the target partition. If there are decoded pixels on both sides along the prediction direction, a predicted image may be generated by interpolating the pixel values of these pixels.
  • the process of generating the intra-predicted image Pred_e by the edge-based prediction unit 21a3 is the same as that of the edge-based prediction unit 12c3 provided in the video decoding device 1, the description thereof is omitted here.
  • the intra prediction image Pred_b generated by the basic prediction unit 21a2 and the intra prediction image Pred_e generated by the edge-based prediction unit 21a3 are supplied to the prediction method control unit 21d as an intra prediction image Pred_Intra.
  • the moving picture decoding apparatus 1 includes H.264 as a part thereof. H.264 / MPEG-4.
  • Decoding device including technology adopted in KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group), and technology adopted in TMuC (Test Model under Consideration) software which is a successor codec It is.
  • FIG. 11 is a block diagram showing a configuration of the moving picture decoding apparatus 3.
  • the video decoding device 3 includes an intra predicted image generation unit 32 c instead of the intra predicted image generation unit 12 c included in the video decoding device 1.
  • the prediction residual D is supplied from the inverse quantization / inverse transform unit 13 to the intra predicted image generation unit 32 c.
  • FIG. 12 is a block diagram illustrating a configuration of the intra predicted image generation unit 32 c included in the video decoding device 3.
  • the intra-predicted image generation unit 32c includes an edge-based prediction flag determination unit 12c1, a basic prediction unit 12c2, an edge-based prediction unit 32c3, a prediction direction storage unit 12c4, and a prediction residual storage unit 32c5. ing.
  • the prediction direction indicated by the basic prediction mode assigned to the target partition by the basic prediction unit 12c2 and used for generating the predicted image is also stored in the prediction direction storage unit 12c4.
  • the prediction residual storage unit 32c5 stores the prediction residual D supplied from the inverse quantization / inverse transform unit 13, and the edge-based prediction unit 32c3 performs prediction for each partition.
  • the residual D j (j is an index for identifying each partition) can be read out from the prediction residual storage unit 32c5.
  • prediction residual D j for a partition refers to, for example, a set of prediction residuals for each pixel allocated to each pixel belonging to the partition.
  • the prediction direction assigned to the target partition and used to generate the prediction image is used regardless of whether it is derived using the edge-based prediction mode or selected from the basic prediction mode set.
  • the estimated edge direction vector derived for the target partition is represented as d j ′.
  • the edge-based prediction unit 32c3 (1) decoded pixel values around the target partition, or (2) a prediction direction (prediction direction vector) derived for an adjacent partition that is adjacent to the target partition and has a small prediction residual. Then, an estimated edge direction to be allocated to the target partition is derived based on the prediction direction used for generating the prediction image in the adjacent partition.
  • the small prediction residual for a certain partition indicates, for example, that the normalized prediction residual for the partition is equal to or less than a predetermined threshold. More specifically, if we denote the normalized prediction residual for the partition as D j ′, D j ′ ⁇ Th D (2-1) When the above condition is satisfied, it can be expressed that the prediction residual for the partition is small.
  • the normalized prediction residual for a certain partition is counted from the smaller of the normalized prediction residuals for each partition belonging to a predetermined region (for example, target LCU, target slice, etc.).
  • a predetermined region for example, target LCU, target slice, etc.
  • the prediction residual for the partition is small when it reaches a predetermined rank. More specifically, the partitions Pt 1 , Pt 2 ,. . . , Pt W (W is the total number of partitions belonging to the predetermined area), D 1 ′, D 2 ′,. . . , D W ′, and each normalized prediction residual is D 1 ′ ⁇ D 2 ′ ⁇ . . . If ⁇ D W ′ is satisfied, the prediction residuals D 1 ′, D 2 ′,.
  • U ′ (where U ⁇ W) can also be expressed as a small prediction residual.
  • the normalized prediction residual D j ′ for a certain partition is, for example, the sum of absolute values of prediction residuals (SAD, Sum of Absolute Difference) for each pixel assigned to each pixel belonging to the partition. , By dividing by the number Npix of pixels belonging to the partition.
  • D j ′
  • D j (x, y) represents a prediction residual for each pixel with respect to the pixel belonging to the partition and having the coordinates (x, y).
  • the symbol ⁇ indicates that the sum of the absolute values of the prediction residuals for each of the pixels belonging to the partition is taken.
  • the edge-based prediction unit 32c3 applies the prediction direction indicated by the derived estimated edge direction (or a prediction direction obtained by applying direction correction to the estimated edge direction vector).
  • an intra-predicted image Pred_e in the target partition is generated by extrapolating the decoded pixel values around the target partition. If there are decoded pixels on both sides along the prediction direction, a predicted image may be generated by interpolating the pixel values of these pixels.
  • the prediction direction vector derived for the target partition is assigned to the target partition and stored in the prediction direction storage unit 12c4.
  • an estimated edge direction (estimated edge direction vector) deriving process performed by the edge-based prediction unit 12c3 will be described with reference to FIG.
  • FIG. 13 is a flowchart showing a flow of estimated edge direction derivation processing by the edge-based prediction unit 32c3.
  • Step S301 the edge-based prediction unit 32c3 evaluates the prediction residual assigned to each of the adjacent partitions (adjacent partitions) adjacent to the target partition, and whether or not the normalized prediction residuals for all the adjacent partitions are small. Is determined.
  • the above-described method can be used for evaluating the normalized prediction residual for each adjacent partition.
  • Step S302 If the normalized prediction residual for any of the decoded neighboring partitions is not small (No in step S301), the edge-based prediction unit 12c3 initializes the value of the loop variable i to 1 and sets i ⁇ M. For j that satisfies, a loop process for setting the increment value of the loop variable i for each loop to 1 is started.
  • M is the number of reference pixels that are referred to in order to derive the estimated edge direction for the target partition. As shown in FIG. 6A, for example, pixels included in the partitions NP1 to NP3 around the target partition OP can be used as reference pixels.
  • Step S303 The edge base prediction unit 32c3 performs the same process as (step S103) of the edge base prediction unit 12c3 already described.
  • Step S304 The edge base prediction unit 32c3 performs the same process as (step S104) of the edge base prediction unit 12c3 already described.
  • Step S305 The edge base prediction unit 32c3 performs the same process as (step S105) of the edge base prediction unit 12c3 already described.
  • Step S306 On the other hand, if the prediction residual is small for all the neighboring partitions that are adjacent to the target partition (Yes in step S301), the edge-based prediction unit 32c3 An adjacent edge direction vector for the target partition is derived by taking the average of the prediction directions already derived for. That is, when the prediction residual is small for all the neighboring partitions that are adjacent to the target partition and have been decoded, the edge-based prediction unit 32c3 omits the processes of steps S301 to S305 described above, Based on the predicted direction derived for the decoded neighboring partition, an estimated edge direction vector for the target partition is simply derived.
  • the prediction direction derived for the adjacent partition may be a prediction direction selected in the basic prediction mode, or may be a prediction direction derived using the edge-based prediction mode. There may be.
  • the prediction mode derived for the adjacent partition is a prediction mode having no directionality, such as a DC prediction mode, it is preferable not to use the prediction mode.
  • the edge-based prediction unit 32c3 uses the equation (1-1) or the equation (1-2) to calculate the estimated edge direction vector d OP ′ for the target partition. calculate.
  • d NP2 and d NP3 in (b), Equation (1-1), and Equation (1-2) in FIG. 6 are prediction direction vectors selected in the basic prediction mode in this embodiment. It may be a prediction direction vector derived using the edge-based prediction mode.
  • the edge-based prediction unit 32c3 uses the estimated edge direction vector d OP ′ for the target partition as the predicted direction vector d NP2 derived for the partition NP2 and the partition NP3. It may be derived by taking the average of the derived prediction direction vector d NP3 and the prediction direction vector already derived for the target partition NP1 (ie, the upper left partition of the target partition), It is good also as a structure derived
  • the edge-based prediction unit 32c3 may be configured to set the estimated edge direction vector d OP ′ for the target partition to a vector having a larger norm among the prediction direction vectors d NP2 and d NP3 . If the vector norm cannot be obtained, such as the prediction direction selected in the basic prediction mode, either take a predetermined value, or the norm so that it increases as the prediction residual decreases. It is good to define.
  • the derivation process of deriving the estimated edge direction vector for the target partition based on the predicted direction derived for the decoded adjacent partition omitting the processes of steps S301 to S305 described above.
  • This may be referred to as a simplified derivation process of the estimated edge direction vector.
  • the edge-based prediction unit 32c3 adds the correction angle (direction) represented by the additional index AI to the angle ⁇ OP indicated by the estimated edge direction vector d OP ′. Correction) The angle ⁇ OP + ⁇ obtained by adding ⁇ is calculated, and the direction represented by the angle ⁇ OP + ⁇ is set as the predicted direction vector d OP .
  • the processing related to the correction direction by the edge-based prediction unit 32c3 is the same as the processing by the edge-based prediction unit 12c3, and thus the description thereof is omitted.
  • the prediction image generation processing by the intra prediction image generation unit 32c is the same as the prediction image generation processing by the intra prediction image generation unit 12c except for the processing by the edge-based prediction unit 32c3, and thus description thereof is omitted.
  • the edge-based prediction unit 32c3 is an adjacent partition adjacent to the target partition, and the normalized prediction residual for each of the adjacent partitions for which the prediction direction vector has been derived is equal to or less than a predetermined threshold value.
  • the estimated edge direction vector for the target partition may be derived based on the prediction direction vector derived for those neighboring partitions.
  • the estimated edge direction vector for the target partition based on the predicted direction vector derived for the normalized partition with a small prediction residual, the actual edge direction in the target partition can be more appropriately determined.
  • An approximated estimated edge direction vector can be calculated. Therefore, with such a configuration, prediction accuracy can be improved and coding efficiency can be increased.
  • the edge-based prediction unit 32c3 calculates the estimated edge direction vector for the target partition as a weighted average according to the normalized prediction residual of the prediction direction vector already derived for each partition adjacent to the target partition. It is good also as a structure derived
  • the edge-based prediction unit 32c3 calculates the estimated edge direction (estimated edge direction vector d OP ′) for the target partition and the predicted direction vector d NP2 that has been derived for the partition NP2.
  • the edge-based prediction unit 32c3 is weighted according to the normalized prediction residual between the vector obtained by normalizing the prediction direction vector d NP2 and the vector obtained by normalizing the prediction direction vector d NP3.
  • a small normalized prediction residual for a certain partition indicates that the prediction accuracy of the predicted image in the partition is high. Therefore, the prediction direction assigned to a partition with a smaller normalized prediction residual is a more appropriate prediction direction for generating a predicted image.
  • the coding efficiency can be improved by contributing a more appropriate prediction direction for the adjacent partition with a larger weight to the estimated edge direction vector for the target partition.
  • the edge-based prediction unit 32c3 sets a prediction direction vector having the smallest prediction residual among prediction direction vectors derived for adjacent partitions adjacent to the target partition as an estimated edge direction vector for the target partition. It is good.
  • the moving image encoding device 4 includes H.264 as a part thereof.
  • KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group)
  • TMuC Traffic Model under Consideration
  • FIG. 14 is a block diagram showing a configuration of the moving image encoding device 4.
  • the moving image encoding device 4 includes an intra predicted image generation unit 41 a instead of the intra predicted image generation unit 21 a included in the moving image encoding device 2.
  • the prediction residual D is supplied to the intra estimated image generation part 41a.
  • Other configurations of the moving image encoding device 4 are the same as those of the moving image encoding device 2.
  • the intra predicted image generation unit 41a generates a predicted image Pred_Intra related to each partition by intra prediction. Specifically, (1) a prediction mode used for intra prediction is selected for each partition, and (2) a prediction image Pred_Intra is generated from the decoded image P using the selected prediction mode. The intra predicted image generation unit 21a supplies the generated intra predicted image Pred_Intra to the prediction method control unit 21d.
  • the intra-prediction image generation unit 21a selects any one of the prediction modes included in the above-described basic prediction mode set and the prediction mode included in the extended set including the edge-based prediction mode.
  • the intra prediction image Pred_Intra is generated according to the method indicated by the selected prediction mode.
  • FIG. 15 is a block diagram illustrating a configuration of the intra predicted image generation unit 41a.
  • the intra predicted image generation unit 41a includes a prediction mode determination unit 21a1, a basic prediction unit 21a2, an edge-based prediction unit 41a3, a prediction direction storage unit 21a4, and a prediction residual storage unit 41a5. .
  • the prediction direction indicated by the basic prediction mode assigned to the target partition by the basic prediction unit 21a2 and used for generating the predicted image is also stored in the prediction direction storage unit 21a4.
  • the prediction residual storage unit 41a5 stores the prediction residual D supplied from the inverse quantization / inverse transformation unit 23, and the edge-based prediction unit 41a3 performs prediction for each partition.
  • the residual D j (j is an index for identifying each partition) can be read from the prediction residual storage 41a5.
  • the edge-based prediction unit 41a3 (1) decoded pixel values around the target partition, or (2) a prediction direction (prediction direction vector) derived for an adjacent partition that is adjacent to the target partition and has a small prediction residual. Then, an estimated edge direction to be allocated to the target partition is derived based on the prediction direction used for generating the prediction image in the adjacent partition.
  • the predicted image generation processing by the edge-based prediction unit 41a3 is the same as the edge-based prediction unit 32c3 provided in the video decoding device 3, description thereof is omitted here.
  • the configuration of the encoded data # 5 is substantially the same as the configuration of the encoded data # 1, but differs in the following points.
  • the intra prediction parameter PP_Intra of the encoded data # 5 includes a simplified prediction flag SF instead of the edge-based prediction flag EF included in the intra prediction parameter PP_Intra of the encoded data # 1.
  • the simplified prediction flag SF is a flag that specifies whether or not a simplified prediction mode to be described later is applied to a target partition that is a processing target partition. In the following description, it is assumed that the simplified prediction mode is applied to the target partition when the simplified prediction flag is 1.
  • the moving image decoding apparatus 5 includes a part of the H.264 / MPEG-4.
  • Decoding device including technology adopted in KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group), and technology adopted in TMuC (Test Model under Consideration) software which is a successor codec It is.
  • the moving picture decoding apparatus 5 is an apparatus for generating moving picture # 6 by decoding encoded data # 5.
  • FIG. 16 is a block diagram showing a configuration of the video decoding device 5 according to the present embodiment.
  • the video decoding device 5 according to the present embodiment includes an intra-predicted image generation unit 52c instead of the intra-predicted image generation unit 12c included in the video decoding device 1 according to the first embodiment. Yes.
  • Other configurations of the video decoding device 5 are the same as those of the video decoding device 1 according to the first embodiment.
  • the intra predicted image generation unit 52c generates a predicted image Pred_Intra related to each intra prediction partition. Specifically, first, a prediction mode is specified based on the intra prediction parameter PP_Intra supplied from the variable length code decoding unit 11, and the specified prediction mode is assigned to the target partition in, for example, raster scan order. Subsequently, a predicted image Pred_Intra is generated from the (local) decoded image P by intra prediction according to the prediction method indicated by the prediction mode. The intra predicted image Pred_Intra generated by the intra predicted image generation unit 52c is supplied to the prediction method determination unit 12d. Note that the intra predicted image generation unit 52c may be configured to generate a predicted image Pred_Intra from the filtered decoded image P_ALF by intra prediction.
  • FIG. 17 is a block diagram showing a configuration of the intra predicted image generation unit 52c.
  • the intra predicted image generation unit 52c includes a simple prediction flag determination unit 52c1, a basic prediction unit 12c2, a simple prediction unit 52c3, and a prediction direction storage unit 12c4.
  • the prediction direction indicated by the basic prediction mode assigned to the target partition by the basic prediction unit 12c2 and used to generate the prediction image is also stored in the prediction direction storage unit 12c4.
  • the intra predicted image generation unit 52c supplies either the intra predicted image Pred_b generated by the basic prediction unit 12c2 or Pred_e generated by the simplified prediction unit 52c3 to the prediction method determination unit 12d as an intra predicted image Pred_Intra. .
  • the additional prediction flag determination unit 52c1 refers to the simple prediction flag SF included in the intra prediction parameter PP_Intra, and when the simple prediction flag is 1, that is, the simple prediction applies the simple prediction mode to the target partition. In the case where it is indicated, the simple prediction unit 52c3 is instructed to generate an intra prediction image for the target partition, and the intra prediction parameter PP_Intra is supplied. On the other hand, when the simple prediction flag is 0, that is, when the simple prediction flag indicates that the simple prediction mode is not applied to the target partition, the simple prediction flag determination unit 52c1 performs basic prediction. The unit 12c2 is instructed to generate an intra prediction image for the target partition, and the intra prediction parameter PP_Intra is supplied.
  • the simplified prediction unit 52c3 is a prediction direction assigned to an adjacent partition adjacent to the target partition, and a main direction vector assigned to the target partition based on the prediction direction used to generate a prediction image in the adjacent partition , And decoding around the target partition along the prediction direction indicated by the main direction vector (or the prediction direction indicated by the sub-direction obtained by adding a direction correction described later to the main direction vector)
  • the intra predicted image Pred_e in the target partition is generated by extrapolating the completed pixel values.
  • the prediction direction for the adjacent partition referred to for deriving the main direction vector may be the prediction direction selected in the basic prediction mode or the prediction direction derived in the simple prediction mode. It may be. If there are decoded pixels on both sides along the prediction direction, a predicted image may be generated by interpolating the pixel values of these pixels.
  • the simple prediction unit 52c3 is closest to the pixel among the decoded pixels that are located on the virtual line segment that faces the reverse direction of the prediction direction starting from the pixel position of the prediction target pixel in the target partition.
  • the pixel value of the pixel hereinafter also referred to as the nearest pixel
  • the intra prediction image Pred_e in the target partition is generated.
  • the pixel value of the prediction target pixel may be a value calculated using the pixel value of the nearest pixel and the pixel values of the pixels around the nearest pixel.
  • the prediction direction vector derived for the target partition is assigned to the target partition and stored in the prediction direction storage unit 12c4.
  • the simplified prediction unit 52c3 derives a main direction vector for the target partition by taking the average of the prediction directions assigned to the decoded adjacent partitions and used for generating the predicted image.
  • the simple prediction unit 52c3 calculates the main direction vector d OP ′ for the target partition using the formula (1-1) or the formula (1-2). .
  • d NP2 and d NP3 in (b), Equation (1-1), and Equation (1-2) in FIG. 6 are prediction direction vectors selected in the basic prediction mode. It may be a prediction direction vector derived using the simple prediction mode.
  • the simplified prediction unit 52c3 derives the main direction vector d OP ′ for the target partition, the prediction direction vector d NP2 derived for the partition NP2, and the partition NP3.
  • the prediction direction vector d NP3 of the target partition NP1 ie, the upper left partition of the target partition
  • the simplified prediction unit 52c3 may be configured to set the main direction vector d OP ′ for the target partition to a vector having a larger norm among the prediction direction vectors d NP2 and d NP3 . If the vector norm cannot be obtained, such as the prediction direction selected in the basic prediction mode, either take a predetermined value, or the norm so that it increases as the prediction residual decreases. It is good to define.
  • the simplified prediction unit 52c3 corrects the angle ⁇ OP indicated by the main direction vector d OP ′ with a correction angle (direction correction) represented by the additional index AI.
  • An angle ⁇ OP + ⁇ obtained by adding ⁇ is calculated, and the direction represented by the angle ⁇ OP + ⁇ is set as the predicted direction vector d OP . Since the process regarding the correction direction by the simple prediction unit 52c3 is the same as the process by the edge-based prediction unit 12c3 in the first embodiment, the description thereof is omitted.
  • the prediction image generation processing by the intra prediction image generation unit 52c is the same as the prediction image generation processing by the intra prediction image generation unit 12c in the first embodiment except for the processing by the simple prediction unit 52c3, and thus the description thereof is omitted.
  • the moving picture encoding device 6 includes H.264 as a part thereof.
  • KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group)
  • TMuC Traffic Model under Consideration
  • FIG. 18 is a block diagram illustrating a configuration of the moving image encoding device 6.
  • the moving image encoding device 6 includes an intra predicted image generation unit 61 a instead of the intra predicted image generation unit 21 a included in the moving image encoding device 2.
  • Other configurations of the moving image encoding device 6 are the same as those of the moving image encoding device 2.
  • the intra predicted image generation unit 61a generates a predicted image Pred_Intra for each partition by intra prediction. Specifically, (1) a prediction mode used for intra prediction is selected for each partition, and (2) a prediction image Pred_Intra is generated from the decoded image P using the selected prediction mode. The intra predicted image generation unit 61a supplies the generated intra predicted image Pred_Intra to the prediction method control unit 21d.
  • the intra predicted image generation unit 61a selects any one of the prediction modes included in the basic prediction mode set described above and the prediction modes included in the extended set including the simplified prediction mode. Then, the intra predicted image Pred_Intra is generated according to the method indicated by the selected prediction mode.
  • FIG. 19 is a block diagram illustrating a configuration of the intra predicted image generation unit 61a.
  • the intra predicted image generation unit 61a includes a prediction mode determination unit 61a1, a basic prediction unit 21a2, a simple prediction unit 61a3, and a prediction direction storage unit 21a4.
  • the prediction direction indicated by the basic prediction mode assigned to the target partition by the basic prediction unit 21a2 and used to generate the prediction image is also stored in the prediction direction storage unit 21a4.
  • the simplified prediction unit 61a3 is a prediction direction assigned to an adjacent partition adjacent to the target partition, and a main direction vector assigned to the target partition based on the prediction direction used to generate a prediction image in the adjacent partition , And decoding around the target partition along the prediction direction indicated by the main direction vector (or the prediction direction indicated by the sub-direction obtained by adding a direction correction described later to the main direction vector)
  • the intra predicted image Pred_e in the target partition is generated by extrapolating the completed pixel values. If there are decoded pixels on both sides along the prediction direction, a predicted image may be generated by interpolating the pixel values of these pixels.
  • the above-described moving image encoding device 2 and moving image decoding device 1 can be used by being mounted on various devices that perform transmission, reception, recording, and reproduction of moving images.
  • a usage example of the video encoding device 2 and the video decoding device 1 will be described, but the same applies to the video encoding devices 4 and 6 and the video decoding devices 3 and 5.
  • moving image encoding device 2 and moving image decoding device 1 can be used for transmission and reception of moving images.
  • FIG. 21 is a block diagram illustrating a configuration of a transmission device PROD_A in which the moving image encoding device 2 is mounted.
  • the transmission device PROD_A modulates a carrier wave with an encoding unit PROD_A1 that obtains encoded data by encoding a moving image and the encoded data obtained by the encoding unit PROD_A1.
  • a modulation unit PROD_A2 that obtains a modulation signal and a transmission unit PROD_A3 that transmits the modulation signal obtained by the modulation unit PROD_A2 are provided.
  • the moving image encoding apparatus 2 described above is used as the encoding unit PROD_A1.
  • the transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, and an input terminal PROD_A6 for inputting the moving image from the outside as a supply source of the moving image input to the encoding unit PROD_A1. May be further provided.
  • FIG. 21A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but some of them may be omitted.
  • the recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.
  • FIG. 21 is a block diagram illustrating a configuration of the receiving device PROD_B in which the moving image decoding device 1 is mounted.
  • the receiving device PROD_B includes a receiving unit PROD_B1 that receives a modulated signal, a demodulating unit PROD_B2 that obtains encoded data by demodulating the modulated signal received by the receiving unit PROD_B1, and a demodulator.
  • a decoding unit PROD_B3 that obtains a moving image by decoding the encoded data obtained by the unit PROD_B2.
  • the moving picture decoding apparatus 1 described above is used as the decoding unit PROD_B3.
  • the receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3.
  • PROD_B6 may be further provided.
  • FIG. 21B illustrates a configuration in which the reception device PROD_B includes all of these, but a part of the configuration may be omitted.
  • the recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.
  • the transmission medium for transmitting the modulation signal may be wireless or wired.
  • the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.
  • a terrestrial digital broadcast broadcasting station (broadcasting equipment or the like) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting.
  • a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.
  • a server workstation etc.
  • Client television receiver, personal computer, smart phone etc.
  • VOD Video On Demand
  • video sharing service using the Internet is a transmitting device for transmitting and receiving modulated signals by communication.
  • PROD_A / reception device PROD_B usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN.
  • the personal computer includes a desktop PC, a laptop PC, and a tablet PC.
  • the smartphone also includes a multi-function mobile phone terminal.
  • the video sharing service client has a function of encoding a moving image captured by the camera and uploading it to the server. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.
  • FIG. 22 is a block diagram showing a configuration of a recording apparatus PROD_C equipped with the moving picture encoding apparatus 2 described above.
  • the recording device PROD_C has an encoding unit PROD_C1 that obtains encoded data by encoding a moving image, and the encoded data obtained by the encoding unit PROD_C1 on the recording medium PROD_M.
  • a writing unit PROD_C2 for writing.
  • the moving image encoding apparatus 2 described above is used as the encoding unit PROD_C1.
  • the recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of the type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disk) or BD (Blu-ray Disk: registration) Or a drive device (not shown) built in the recording device PROD_C.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • SD memory such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disk) or BD (Blu-ray Disk: registration) Or a drive device (not shown) built in the recording device PROD_C.
  • the recording device PROD_C receives a moving image as a supply source of a moving image to be input to the encoding unit PROD_C1, a camera PROD_C3 that captures a moving image, an input terminal PROD_C4 for inputting a moving image from the outside, and a moving image.
  • the receiving unit PROD_C5 may be further provided.
  • FIG. 22A illustrates a configuration in which the recording apparatus PROD_C includes all of these, but a part of the configuration may be omitted.
  • the receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.
  • Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HD (Hard Disk) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main source of moving images).
  • a camcorder in this case, the camera PROD_C3 is a main source of moving images
  • a personal computer in this case, the receiving unit PROD_C5 is a main source of moving images
  • a smartphone in this case, the camera PROD_C3 or The receiving unit PROD_C5 is a main source of moving images
  • the recording apparatus PROD_C is an example of such a recording apparatus PROD_C.
  • FIG. 22 is a block showing a configuration of a playback device PROD_D in which the above-described video decoding device 1 is mounted.
  • the playback device PROD_D reads a moving image by decoding a read unit PROD_D1 that reads encoded data written on the recording medium PROD_M and a coded data read by the read unit PROD_D1. And a decoding unit PROD_D2 to be obtained.
  • the moving picture decoding apparatus 1 described above is used as the decoding unit PROD_D2.
  • the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.
  • the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2.
  • PROD_D5 may be further provided.
  • FIG. 22B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but a part of the configuration may be omitted.
  • the transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.
  • Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images). .
  • a television receiver in this case, the display PROD_D3 is a main destination of moving images
  • a desktop PC in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is a main destination of moving images
  • Laptop type or tablet type PC in this case, display PROD_D3 or transmission unit PROD_D5 is the main supply destination of moving images
  • smartphone in this case, display PROD_D3 or transmission unit PROD_D5 is the main supply destination of moving images)
  • each block of the above-described moving picture decoding devices 1, 3, 5 and moving picture coding devices 2, 4, 6 is realized in hardware by a logic circuit formed on an integrated circuit (IC chip). Alternatively, it may be realized by software using a CPU (Central Processing Unit).
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • each device includes a CPU that executes instructions of a program that realizes each function, a ROM (Read (Memory) that stores the program, a RAM (Random Memory) that expands the program, the program, and various types
  • a storage device such as a memory for storing data is provided.
  • An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of each of the above devices, which is software that realizes the above-described functions, is recorded so as to be readable by a computer. This can also be achieved by supplying to each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
  • Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R.
  • IC cards including memory cards
  • semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, or PLD (Programmable logic device) or FPGA (Field Programmable Gate Array) Logic circuits can be used.
  • each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited as long as it can transmit the program code.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network (Virtual Private Network), telephone line network, mobile communication network, satellite communication network, etc. can be used.
  • the transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by wireless such as High Data Rate, NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, and terrestrial digital network.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by wireless such as High Data Rate, NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, and terrestrial digital network.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line,
  • the prediction residual belonging to the prediction mode group is added to the prediction residual decoded from the encoded data together with the prediction mode specification information, according to the prediction mode specified by the prediction mode specification information.
  • a derivation unit that derives a prediction parameter corresponding to an additional prediction mode to be added to a prediction mode group related to a target prediction unit
  • the prediction mode designated by the prediction mode designation information among the prediction modes belonging to the prediction mode group related to the adjacent prediction unit adjacent to the target prediction unit is set as the reference prediction mode, and the prediction parameter corresponding to the additional prediction mode is referred to
  • a picture characterized by comprising deriving means for deriving from a prediction parameter corresponding to the prediction mode. Decoding apparatus is described.
  • a prediction parameter corresponding to a prediction mode specified by prediction mode designation information that is a prediction mode belonging to a prediction mode group and decoded from encoded data is included in a prediction residual decoded from encoded data.
  • the prediction mode group includes a basic prediction mode corresponding to a predetermined prediction parameter and an adjacent target prediction unit.
  • An additional prediction mode in which a prediction parameter is derived from the adjacent prediction unit, and a derivation means for deriving a prediction parameter corresponding to the additional prediction mode, wherein the prediction mode of the adjacent prediction unit adjacent to the target prediction unit is The reference prediction mode is set, and the prediction parameter corresponding to the additional prediction mode is the prediction parameter corresponding to the reference prediction mode.
  • the image decoding apparatus comprising a derivation means for deriving from the meter is described.
  • the image coding apparatus uses prediction mode designation information for designating a prediction mode used for generating a prediction image in an adjacent prediction unit, that is, a prediction mode having a higher prediction accuracy than other prediction modes belonging to a prediction mode group related to the adjacent prediction unit. Is encoded.
  • the additional prediction mode is derived from the prediction parameter corresponding to the prediction mode with higher prediction accuracy than the other prediction modes belonging to the prediction mode group related to the adjacent prediction unit. For this reason, the prediction accuracy of the additional prediction mode is likely to exceed the prediction accuracy of other prediction modes belonging to the prediction mode group related to the target prediction unit.
  • the prediction parameters corresponding to the additional prediction mode are not derived from the decoded image as in the conventional case, but are derived from the prediction parameters corresponding to the reference prediction mode, the calculation cost required for generating the prediction image is reduced. can do.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
  • the prediction mode group related to the adjacent prediction unit includes a basic prediction mode corresponding to a predetermined prediction parameter and a derived prediction mode corresponding to a prediction parameter derived from the decoded image. It is preferable that the deriving unit derives the prediction parameter corresponding to the additional prediction mode from the prediction parameter corresponding to the reference prediction mode only when the reference prediction mode is the derived prediction mode.
  • the derivation unit includes a unit that derives a prediction parameter from a decoded image of an adjacent prediction unit adjacent to the target prediction unit, and the derivation unit includes the reference prediction mode. Only in the prediction mode, it is preferable to derive the prediction parameter corresponding to the additional prediction mode from the prediction parameter corresponding to the reference prediction mode.
  • the prediction parameter corresponding to the derived prediction mode supports the additional prediction mode If the prediction parameter to be derived is derived, there is a high possibility that the prediction accuracy of the additional prediction mode exceeds the prediction accuracy of the basic prediction mode even in the target prediction unit.
  • the reference prediction mode is the basic prediction mode, that is, when the prediction accuracy of the derived prediction mode is lower than the prediction accuracy of the basic prediction mode in the adjacent prediction unit, the additional prediction is performed from the prediction parameter corresponding to the derived prediction mode.
  • the additional prediction mode is highly likely to be used for generation of a predicted image.
  • the reference prediction mode is the basic prediction mode, the additional prediction mode is predicted. It is unlikely to be used for image generation.
  • the prediction parameter corresponding to the additional prediction mode is derived from the prediction parameter corresponding to the derived prediction mode only when there is a high possibility that the additional prediction mode is used for generating a predicted image. That is, the prediction parameter corresponding to the additional prediction mode that is unlikely to be used for generating the predicted image is not wasted from the prediction parameter corresponding to the derived prediction mode.
  • the derivation unit may (1) derive a prediction parameter corresponding to the additional prediction mode with reference to the decoded image, or (2 )
  • the prediction mode may not be added (for example, only the basic prediction mode is used to generate a prediction image).
  • the former case it is possible to generate a prediction image with higher prediction accuracy than in the latter case.
  • a predicted image can be generated at a lower calculation cost than in the former case.
  • the calculation cost required for generating the predicted image can be reduced as compared with the conventional configuration in which the additional prediction mode is derived from the decoded image in all prediction units. This is because when the reference prediction mode is the derived prediction mode, the derivation process for deriving the prediction parameter corresponding to the additional prediction mode from the prediction parameter corresponding to the reference prediction mode is omitted.
  • the derivation means (1) is only when the reference prediction mode belonging to the prediction mode group related to each adjacent prediction unit is “all” derived prediction mode.
  • the prediction parameter corresponding to the additional prediction mode may be derived from the prediction parameters corresponding to these reference prediction modes, or (2) “specific” adjacent prediction units (for example, adjacent to the left side of the target prediction unit)
  • the prediction parameter corresponding to the additional prediction mode is derived from the prediction parameter corresponding to the reference prediction mode only when the reference prediction mode belonging to the prediction mode group regarding the adjacent prediction unit) is the derived prediction mode. May be.
  • the basic prediction mode is a prediction mode in which, for example, a prediction image related to the adjacent prediction unit is generated by extrapolating or interpolating the pixel values of the decoded image along a predetermined direction.
  • the said basic prediction mode is not limited to this, What is necessary is just to respond
  • the derived prediction mode is, for example, that the edge direction of the adjacent prediction unit estimated from the pixel value of the decoded image is ⁇ * , the quantization step size is ⁇ , and the pixel value of the decoded image is the prediction direction ⁇ * ⁇ .
  • This is a prediction mode for generating a prediction image related to the adjacent prediction unit by extrapolating along k ⁇ ⁇ (0 ⁇ k ⁇ N).
  • a prediction image may be generated by interpolating both pixel values along the prediction direction.
  • the basic prediction mode is not limited to this, and may be a prediction mode corresponding to a prediction parameter derived from the decoded image.
  • the prediction mode group related to the adjacent prediction unit is obtained by extrapolating or interpolating the pixel value of the decoded image along a specific prediction direction, thereby predicting the prediction image related to the adjacent prediction unit.
  • a non-direction prediction mode for generating a prediction image related to the adjacent prediction unit by averaging pixel values of the decoded image over a specific region, and the derivation means includes Only when the reference prediction mode is the direction prediction mode, it is preferable to derive the prediction direction corresponding to the additional prediction mode from the prediction direction corresponding to the reference prediction mode.
  • the prediction parameter corresponding to the direction prediction mode is changed to the additional prediction mode. If the corresponding prediction parameter is derived, there is a high possibility that the prediction accuracy in the additional prediction mode will exceed the prediction accuracy in the non-directional prediction mode even in the target prediction unit.
  • the reference prediction mode is the non-directional prediction mode
  • the prediction accuracy of the directional prediction mode is lower than the prediction accuracy of the non-directional prediction mode in the adjacent prediction unit
  • the prediction parameter corresponding to the additional prediction mode is derived, there is a high possibility that the prediction accuracy of the additional prediction mode is lower than the prediction accuracy of the non-directional prediction mode even in the target prediction unit. That is, when the reference prediction mode is the directional prediction mode, the additional prediction mode is highly likely to be used for generation of a predicted image. When the reference prediction mode is the non-directional prediction mode, the additional prediction mode is It is unlikely to be used to generate a predicted image.
  • the prediction direction corresponding to the additional prediction mode is derived from the prediction direction corresponding to the direction prediction mode only when there is a high possibility that the additional prediction mode is used for generation of a prediction image. That is, the prediction direction corresponding to the additional prediction mode that is unlikely to be used for generating a predicted image is not wasted from the prediction direction corresponding to the direction prediction mode.
  • the derivation unit may (1) derive a prediction parameter corresponding to the additional prediction mode with reference to the decoded image, or (2) The prediction mode may not be added.
  • the prediction mode may not be added.
  • the former case it is possible to generate a prediction image with higher prediction accuracy than in the latter case.
  • a predicted image can be generated at a lower calculation cost than in the former case. Even in the former case, the calculation cost required for generating the predicted image can be reduced as compared with the conventional configuration in which the additional prediction mode is derived from the decoded image in all prediction units.
  • the derivation means (1) sets the prediction directions corresponding to the additional prediction mode only when the reference prediction mode belonging to the prediction mode group related to each adjacent prediction unit is the “all” direction prediction mode. It may be derived from the prediction direction corresponding to the reference prediction mode, or (2) belongs to a prediction mode group related to a “specific” adjacent prediction unit (for example, an adjacent prediction unit adjacent to the left side of the target prediction unit). Only when the reference prediction mode is the direction prediction mode, the prediction direction corresponding to the additional prediction mode may be derived from the prediction parameters corresponding to the reference prediction mode.
  • a prediction image related to the adjacent prediction unit is generated by extrapolating or interpolating the pixel value of the decoded image along a predetermined prediction direction (see “ Direction prediction mode), or the edge direction of the adjacent prediction unit estimated from the pixel value of the decoded image is ⁇ * , the quantization step size is ⁇ , and the pixel value of the decoded image is the prediction direction ⁇ * ⁇ .
  • This is a prediction mode in which a prediction image related to the adjacent prediction unit is generated by extrapolation along k ⁇ ⁇ (0 ⁇ k ⁇ N) (corresponding to “edge-based prediction mode” in Non-Patent Document 2).
  • a prediction image may be generated by interpolating both pixel values along the prediction direction.
  • the direction prediction mode is not limited to this, and may be a prediction mode that generates a prediction image related to the adjacent prediction unit by extrapolating or interpolating the pixel values of the decoded image along a specific prediction direction. That's fine.
  • the basic prediction mode is a prediction mode for generating a prediction image related to the adjacent prediction unit by extrapolating or interpolating pixel values of the decoded image along a predetermined direction.
  • the mode is such that the edge direction of the adjacent prediction unit estimated from the pixel value of the decoded image is ⁇ * , the quantization step size is ⁇ , and the pixel value of the decoded image is the prediction direction ⁇ * ⁇ k ⁇ ⁇ (0 ⁇ k It is preferable that it is a prediction mode which produces
  • the derivation unit may perform the additional prediction only when the adjacent prediction unit satisfies a predetermined condition or when the reference prediction mode satisfies a predetermined condition. It is preferable to derive the prediction parameter corresponding to the mode from the prediction parameter corresponding to the reference prediction mode.
  • the reference prediction mode has a desired prediction accuracy depends on whether or not the adjacent prediction unit satisfies a predetermined condition, or whether or not the reference prediction mode satisfies a predetermined condition. It can be determined accordingly. Therefore, only when the adjacent prediction unit satisfies a predetermined condition or when the reference prediction mode satisfies a predetermined condition, the prediction parameter corresponding to the additional prediction mode is set to the reference prediction mode. If the prediction parameter is derived from the prediction parameter corresponding to, the prediction corresponding to the additional prediction mode is predicted from the prediction parameter corresponding to the reference prediction mode only when the additional prediction mode is highly likely to be used for generation of a prediction image.
  • the parameter may be derived, otherwise the prediction parameter corresponding to the additional prediction mode may not be derived. That is, the waste of deriving the prediction parameter corresponding to the additional prediction mode that is unlikely to be used for generating the predicted image from the prediction parameter corresponding to the reference prediction mode can be eliminated.
  • the derivation means determines the prediction parameter corresponding to the additional prediction mode only when the prediction residual related to the adjacent prediction unit is smaller than a predetermined threshold. It is preferable to derive from the prediction parameters corresponding to.
  • the additional prediction mode (reference prediction mode prediction) is also applied to the target prediction unit.
  • the prediction accuracy (corresponding to the prediction parameter derived from the parameter) exceeds the prediction accuracy of the other prediction modes, and the additional prediction mode is highly likely to be used for generation of the prediction image.
  • the prediction parameter corresponding to the additional prediction mode is derived from the prediction parameter corresponding to the reference prediction mode only when there is a high possibility that the additional prediction mode is used to generate a prediction image. That is, the prediction parameter corresponding to the additional prediction mode that is unlikely to be used for generating the predicted image is not wasted from the prediction parameter corresponding to the reference prediction mode.
  • the derivation means determines the prediction parameter corresponding to the additional prediction mode only when the size of the adjacent prediction unit is the same as the size of the target prediction unit. It is preferable to derive from the prediction parameters corresponding to.
  • the decoded adjacent prediction units adjacent to the target prediction unit are two adjacent to the left side and the upper side of the target prediction unit. (Decoding order is raster scan order). Therefore, according to said structure, the prediction parameter corresponding to additional prediction mode can be derived
  • the derivation unit supports the additional prediction mode only when the maximum coding unit to which the adjacent prediction unit belongs is the same as the maximum coding unit to which the target prediction unit belongs. It is preferable that the prediction parameter to be derived is derived from the prediction parameter corresponding to the reference prediction mode.
  • the prediction parameter used for generating the prediction image in the first prediction unit is referred to the derivation of the prediction parameter corresponding to the additional prediction mode in the second prediction unit adjacent to the first prediction unit.
  • the prediction parameter used for generating the prediction image in the second prediction unit is referred to in the derivation of the prediction parameter corresponding to the additional prediction mode in the third prediction unit adjacent to the second prediction unit.
  • a chain of references like this does not occur beyond the maximum coding unit.
  • the derivation means uses a prediction parameter corresponding to the additional prediction mode as a prediction residual among N adjacent prediction units adjacent to the target prediction unit. It is preferable to derive from prediction parameters corresponding to M reference prediction modes belonging to each of M (M ⁇ N) adjacent prediction units smaller than one adjacent prediction unit.
  • the prediction accuracy is higher in the reference prediction mode belonging to the prediction mode group related to the prediction unit having a smaller prediction residual. Therefore, as described above, by referring to the prediction parameters corresponding to the M reference prediction modes belonging to each of the M adjacent prediction units whose prediction residuals are smaller than the other NM adjacent prediction units. Further, it is possible to derive an additional prediction mode with higher prediction accuracy than the case of referring to a reference prediction mode other than these reference prediction modes.
  • the prediction parameter corresponding to the additional prediction mode is an average value of prediction parameters corresponding to each of the plurality of reference prediction modes, or a prediction parameter corresponding to each of the plurality of reference prediction modes.
  • the weighted average value is preferably a weighted average value with the certainty factor of each prediction parameter as a weight.
  • an appropriate prediction parameter corresponding to the additional prediction mode can be derived from a prediction parameter corresponding to each of the plurality of reference prediction modes by a simple calculation.
  • a more appropriate prediction parameter corresponding to the additional prediction mode can be derived without impairing the simplicity of calculation.
  • the image coding apparatus selects a prediction residual obtained by subtracting a prediction image generated according to a prediction mode selected from a prediction mode group for each prediction unit from an original image.
  • An image encoding device that generates encoded data by encoding together with prediction mode specifying information that specifies the prediction mode, and includes a prediction parameter corresponding to the additional prediction mode to be added to the prediction mode group related to the target prediction unit.
  • Deriving means for deriving wherein a prediction mode selected from a prediction mode group related to an adjacent prediction unit adjacent to the target prediction unit is set as a reference prediction mode, and a prediction parameter corresponding to the additional prediction mode corresponds to the reference prediction mode.
  • Deriving means for deriving from the prediction parameter is provided.
  • the data structure of the encoded data according to the present invention includes a prediction residual obtained by subtracting a prediction image generated according to a prediction mode selected from a prediction mode group for each prediction unit from an original image.
  • the data structure of the encoded data generated by encoding together with the prediction mode specifying information specifying the selected prediction mode, and the prediction parameter corresponding to the prediction mode to be added to the prediction mode group related to the target prediction unit is , And implicitly expressed by prediction mode designation information for designating a prediction mode selected from a prediction mode group related to an adjacent prediction unit adjacent to the target prediction unit.
  • encoded data that can be decoded by the image decoding device described above can be realized.
  • the present invention can be suitably applied to a decoding device that decodes encoded data and an encoding device that generates encoded data. Further, the present invention can be suitably applied to the data structure of encoded data generated by the encoding device and referenced by the decoding device.
  • variable length code decoding unit 11 variable length code decoding unit 12 predicted image generation unit 12b inter prediction image generation unit 12c intra prediction image generation unit (derivation unit) 15 frame memory 2 moving picture coding apparatus (picture coding apparatus) 21 predicted image generation unit 21a intra predicted image generation unit (derivation means) 21c Inter prediction image generation unit 25 Frame memory 27 Variable length code encoding unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 動画像復号装置1は、対象予測単位の予測モード群に追加する追加予測モードに対応する予測パラメータを導出するイントラ予測画像生成部12cであって、隣接予測単位の予測モード群に属する予測モードのうちで予測モード指定情報により指定された予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出するイントラ予測画像生成部(12c)を備えている。

Description

画像復号装置、画像符号化装置、および、符号化データのデータ構造
 本発明は、符号化データを復号する画像復号装置、および、符号化データを生成する画像符号化装置に関する。また、画像符号化装置によって生成され、画像復号装置によって参照される符号化データのデータ構造に関する。
 動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置(画像符号化装置)、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置(画像復号装置)が用いられている。具体的な動画像符号化方式としては、例えば、H.264/MPEG-4.AVC(非特許文献1)、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている方式、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている方式などが挙げられる。
 このような符号化方式において、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られる符号化単位(マクロブロックまたはコーディングユニット(Coding Unit)と呼ばれることもある)、及び、符号化単位を分割することより得られるブロックおよびパーティションからなる階層構造により管理され、普通、ブロックごとに符号化される。
 また、このような符号化方式においては、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測残差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。
 インター予測においては、復号済みのフレームを参照フレームとして、動きベクトルを用いた動き補償を適用することによって、復号中のフレーム内の予測画像が予測単位毎に生成される。
 一方、イントラ予測においては、復号中のフレームの復号済領域に基づいて、復号中のフレーム内の予測画像が予測単位毎に生成される。H.264/MPEG-4.AVCに用いられているイントラ予測の一例としては、予測単位(例えば、パーティション)毎に、(1)予め定められた予測モード群から何れかの予測モードを選択し、(2)復号済領域の画素値を選択した予測モードに対応する外挿方向(予測方向)に外挿することによって、該予測単位上の画素値を生成する方法(「基本予測」とも呼ぶことがある)が挙げられる。
 非特許文献2には、予測単位毎に、該予測単位の周辺に位置する画素の画素値に基づき該予測単位におけるエッジ方向を推定し、復号済領域の画素値を推定したエッジ方向に外挿することによって、該予測単位上の画素値を生成する方法(Differential Coding of Intra Modes(DCIM)とも呼ばれる方法、「エッジ予測」または「エッジベース予測」とも呼ぶことがある)が開示されている。
 以下では、図20の(a)~(b)を参照して、非特許文献2に開示されている予測画像生成方法についてより具体的に説明する。図20の(a)は、処理対象の予測単位(CurrentBlock)と、該予測単位の周辺に位置する画素とを模式的に示す図である。
 非特許文献2に開示されている方法によれば、まず、該予測単位の周辺に位置する画素の各々について、エッジベクトルai(i=1~N、Nは参照する周辺画素の総数)が算出される。ここで、エッジベクトルaiの算出には、ソーベル演算子(Sobel operators、ソーベルフィルタとも呼ぶ)が用いられる。
 続いて、関数S(θ)=Σ<e,ai2が導出される。ここで、eは、自身の方向と水平方向とのなす角がθである単位ベクトルを表しており、記号<,>は、両者のベクトルの内積を表している。また、記号Σは、添え字iについて1からNまでの和をとることを示している。
 続いて、関数S(θ)を最大化する引数θ*=argmaxS(θ)が算出され、θ*によって表される方向が予測方向に設定される。最後に、復号済領域の画素値を、当該予測方向に外挿することによって、該予測単位上の画素値が生成される。ここで、関数S(θ)を最大化する引数θ*は、処理対象の予測単位におけるエッジ方向の推定値を表し、「近傍により示された予測方向」(neighbors' suggested prediction direction)とも呼ばれる。なお、引数θ*の算出は、符号化装置、および、復号装置の双方において行われるため、引数θ*自体は符号化されない。
 また、非特許文献2に開示されている方法によれば、予測方向として、θ*+Δθによって表される方向を用いることもできる。ここで、Δθは、方向補正(direction adjustment)を示しており、符号化装置にて用いられたΔθは、符号化され復号装置に伝送される必要がある。具体的には、Δθは、量子化ステップサイズδθを用いて量子化され、以下の量子化インデックスk=Δθ/δθが符号化される。復号装置は、θ*+k×δθを予測方向に設定する。図20の(b)には、量子化インデックスk(k=-2、-1、0、1、2)によって指定される予測方向の例が示されている。
 また、非特許文献2に開示されている方法では、上述したエッジベース予測を用いるイントラ予測を行うのか、または、H.264/MPEG-4.AVCにおいて用いられている基本予測を行うのかを指定する1ビットのフラグが予測単位毎に符号化される。
 以上のように、非特許文献2に開示されている方法によれば、エッジベース予測、または、H.264/MPEG-4.AVCにおいて用いられている基本予測の何れか一方を選択的に用いることによってイントラ予測画像が生成される。また、エッジベース予測を用いる場合には、量子化インデックスkのみを符号化すればよいので、予測画像の生成において、エッジベース予測が頻繁に用いられる場合には、H.264/MPEG-4.AVCにおいて用いられている基本予測のみを用いる場合に比べて、符号化データの符号量を削減することが可能になる。
「Recommendation ITU-T H.264」,Telecommunication Standardization Sector of ITU,03/2009(2009年3月公開) 「JCTVC-B109」,Joint Collaborative Team on Video Coding(JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11,2nd Meeting:Geneva,CH,07/2010(2010年7月公開)
 しかしながら、非特許文献2に記載の予測画像生成方法を用いた場合、画像符号化装置と画像復号装置との双方において、予測単位毎にS(θ)=Σ<e,ai2を最小化するθ*を導出する必要があり、計算量が増大してしまうという問題があった。
 本発明は上記の問題に鑑みてなされたものであり、その目的は、従来(非特許文献2に記載の予測画像生成方法等)よりも少ない計算量で、従来(非特許文献2に記載の予測画像生成方法等)と同等の符号化効率を達成する画像符号化装置および画像復号装置を実現することにある。
 上記課題を解決するために、本発明に係る画像復号装置は、符号化データから復号した予測残差に、予測モード群に属する予測モードであって符号化データから復号した予測モード指定情報により指定される予測モードに対応する予測パラメータに従って予測単位毎に生成した予測画像を加算することによって復号画像を生成する画像復号装置において、上記予測モード群には、予め定められた予測パラメータに対応する基本予測モードと、対象予測単位に隣接する隣接予測単位から予測パラメータが導出される追加予測モードが含まれ、上記追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位の予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えていることを特徴とする。
 画像符号化装置は、隣接予測単位における予測画像の生成に利用した予測モード、すなわち、隣接予測単位に関する予測モード群に属する他の予測モードよりも予測精度の高い予測モードを指定する予測モード指定情報を符号化する。
 したがって、上記の構成によれば、追加予測モードは、隣接予測単位に関する予測モード群に属する他の予測モードよりも予測精度の高い予測モードに対応する予測パラメータから導出される。このため、追加予測モードの予測精度は、対象予測単位に関する予測モード群に属する他の予測モードの予測精度を上回る可能性が高い。
 このような予測精度の高い予測モードを対象予測単位に関する予測モード群に追加することによって、予測誤差を小さくし、もって、符号化効率を向上させることができる。しかも、追加予測モードに対応する予測パラメータを、従来のように復号画像から導出するのではなく、参照予測モードに対応する予測パラメータから導出しているので、予測画像の生成に要する計算コストを削減することができる。
 なお、上記予測単位は、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。
 上記課題を解決するために、本発明に係る画像符号化装置は、予測単位毎に予測モード群から選択した予測モードに従って生成した予測画像を原画像から減算して得られる予測残差を、選択した予測モードを指定する予測モード指定情報と共に符号化することによって、符号化データを生成する画像符号化装置であって、対象予測単位に関する予測モード群に追加する追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位に関する予測モード群から選択した予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えていることを特徴とする。
 上記の構成によれば、上記の画像復号装置にて復号可能な符号化データを生成する画像符号化装置を実現することができる。
 上記課題を解決するために、本発明に係る符号化データのデータ構造は、予測単位毎に予測モード群から選択した予測モードに従って生成した予測画像を原画像から減算して得られる予測残差を、選択した予測モードを指定する予測モード指定情報と共に符号化することによって生成された符号化データのデータ構造であって、対象予測単位に関する予測モード群に追加すべき予測モードに対応する予測パラメータが、該対象予測単位に隣接する隣接予測単位に関する予測モード群から選択した予測モードを指定する予測モード指定情報によって陰的に表現されている、ことを特徴とする。
 上記の構成によれば、上記の画像復号装置にて復号可能な符号化データを実現することができる。
 以上のように、本発明に係る画像復号装置は、予測モード指定情報と共に符号化データから復号した予測残差に、予測モード群に属する予測モードであって、上記予測モード指定情報により指定される予測モードに従って予測単位毎に生成した予測画像を加算することによって復号画像を生成する画像復号装置において、対象予測単位に関する予測モード群に追加する追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位に関する予測モード群に属する予測モードのうちで上記予測モード指定情報により指定された予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えている。
 また、本発明に係る画像符号化装置は、予測単位毎に予測モード群から選択した予測モードに従って生成した予測画像を原画像から減算して得られる予測残差を、選択した予測モードを指定する予測モード指定情報と共に符号化することによって符号化データを生成する画像符号化装置であって、対象予測単位に関する予測モード群に追加する追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位に関する予測モード群から選択した予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えている。
 したがって、従来よりも少ない計算量で、従来と同等の符号化効率を達成することができる。
本発明の第1の実施形態に係る動画像復号装置の備えるイントラ予測画像生成部の構成を示すブロック図である。 本発明の第1の実施形態に係る動画像符号化装置によって生成され、本発明の実施形態に係る動画像復号装置によって参照される符号化データのデータ構造を示すものであって、(a)は、符号化データのピクチャレイヤの構成を示す図であり、(b)は、ピクチャレイヤに含まれるスライスレイヤの構成を示す図であり、(c)は、スライスレイヤに含まれるLCUレイヤを構成する各CUの構成を示す図であり、(d)は、CUレイヤに含まれるリーフCUの構成を示す図であり、(e)は、リーフCUについてのインター予測情報の構成を示す図であり、(f)は、リーフCUについてのイントラ予測情報の構成を示す図である。 本発明の第1の実施形態に係る動画像復号装置の構成を示すブロック図である。 本発明の第1の実施形態に係る動画像復号装置の動作を説明するための図であって、(a)は、本発明の実施形態に係る動画像復号装置が参照する予測モードであって、複数の基本予測モード、および、1つのエッジベース予測モードよりなる拡張セットに含まれる予測モードを、予測モードインデックスと共に示す図であり、(b)は、対象パーティションに属する画素、および、その周辺の復号済み画素を示す図である。 本発明の第1の実施形態に係る動画像復号装置による推定エッジ方向の導出処理の流れを示すフローチャートである。 本発明の第1の実施形態に係る動画像復号装置において、エッジベース予測モードが選択された場合の、イントラ予測画像の生成処理を説明するための図であって、(a)は、対象パーティションと対象パーティションの周辺のパーティションとを示す図であり、(b)は、対象パーティションに隣接するパーティションに割り付けられた予測方向と、対象パーティションについて簡略的に導出される推定エッジ方向とを示す図であり、(c)は、補正角度を指定するパラメータを、補正後の予測方向と共に示す図である。 本発明の第1の実施形態に係る動画像復号装置によるイントラ予測画像生成処理の流れを示すフローチャートである。 本発明の第1の実施形態に係る動画像復号装置による推定エッジ方向の導出処理を説明するための図であって、(a)は、対象パーティションの上辺および左辺にそれぞれ隣接する複数のパーティションを示す図であり、(b)は、対象パーティションに隣接するパーティションが、隣のLCUに属している場合を示す図であり、(c)は、対象パーティションの左辺に隣接するパーティションについて簡略的導出処理が適用された場合を示す図である。 本発明の第1の実施形態に係る動画像符号化装置の構成を示すブロック図である。 本発明の第1の実施形態に係る動画像符号化装置の備えるイントラ予測画像生成部の構成を示すブロック図である。 本発明の第2の実施形態に係る動画像復号装置の構成を示すブロック図である。 本発明の第2の実施形態に係る動画像復号装置の備えるイントラ予測画像生成部の構成を示すブロック図である。 本発明の第2の実施形態に係る動画像復号装置による推定エッジ方向の導出処理の流れを示すフローチャートである。 本発明の第2の実施形態に係る動画像符号化装置の構成を示すブロック図である。 本発明の第2の実施形態に係る動画像符号化装置の備えるイントラ予測画像生成部の構成を示すブロック図である。 本発明の第3の実施形態に係る動画像復号装置の構成を示すブロック図である。 本発明の第3の実施形態に係る動画像復号装置の備えるイントラ予測画像生成部の構成を示すブロック図である。 本発明の第3の実施形態に係る動画像符号化装置の構成を示すブロック図である。 本発明の第3の実施形態に係る動画像符号化装置の備えるイントラ予測画像生成部の構成を示すブロック図である。 従来の動画像復号装置において、エッジベース予測モードが選択された場合の、イントラ予測画像の生成処理を説明するための図であって、(a)は、対象パーティションを対象パーティションの周辺のパーティションと共に示す図であり、(b)は、補正角度を指定するパラメータを、補正後の予測方向と共に示す図である。 本発明の実施形態に係る動画像復号装置および動画像符号化装置が、動画像の送受信に利用できることを説明するための図であり、(a)は、動画像符号化装置を搭載した送信装置の構成を示したブロック図であり、(b)は、動画像復号装置を搭載した受信装置の構成を示したブロック図である。 本発明の実施形態に係る動画像復号装置および動画像符号化装置が、動画像の記録および再生に利用できることを説明するための図であり、(a)は、動画像符号化装置を搭載した記録装置の構成を示したブロック図であり、(b)は、動画像復号装置を搭載した再生装置の構成を示したブロックである。
 本発明に係る画像復号装置および画像符号化装置の実施形態について図面に基づいて説明すれば以下のとおりである。なお、本実施形態に係る画像復号装置は、符号化データから動画像を復号するものである。したがって、以下では、これを「動画像復号装置」と呼称する。また、本実施形態に係る画像符号化装置は、動画像を符号化することによって符号化データを生成するものである。したがって、以下では、これを「動画像符号化装置」と呼ぶ。
 ただし、本発明の適用範囲はこれに限定されるものではない。すなわち、以下の説明からも明らかなように、本発明の特徴はイントラ予測にあり、複数のフレームを前提としなくとも成立するものである。すなわち、動画像を対象とするか静止画像を対象とするかを問わず、画像復号装置一般および画像符号化装置一般に適用できるものである。
 〔実施形態1〕
 以下では、本発明の第1の実施形態について説明する。
 (符号化データ#1の構成)
 本実施形態に係る動画像復号装置1の説明に先立ち、本実施形態に係る動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成について、図2を参照して説明する。符号化データ#1は、シーケンスレイヤ、GOP(Group Of Pictures)レイヤ、ピクチャレイヤ、スライスレイヤ、及び、最大符号化単位(LCU:Largest Coding Unit)レイヤからなる階層構造を有している。
 符号化データ#1におけるピクチャレイヤ以下の階層の構造を図2に示す。図2(a)~(f)は、それぞれ、ピクチャレイヤP、スライスレイヤS、LCUレイヤに含まれるCU、CUに含まれるリーフCU(図2(d)ではCULと表記)、インター予測(画面間予測)パーティションについての予測情報PIであるインター予測情報PI_Inter、イントラ予測(画面内予測)パーティションについての予測情報PIであるイントラ予測情報PI_Intraの構造を示す図である。
 (ピクチャレイヤ)
 ピクチャレイヤPは、処理対象のピクチャである対象ピクチャを復号するために動画像復号装置1が参照するデータの集合である。ピクチャレイヤPは、図2(a)に示すように、ピクチャヘッダPH、及び、スライスレイヤS1~SNsを含んでいる(NsはピクチャレイヤPに含まれるスライスレイヤの総数)。
 ピクチャヘッダPHには、対象ピクチャの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれている。例えば、動画像符号化装置2が符号化の際に用いた可変長符号化のモードを示す符号化モード情報(entropy_coding_mode_flag)は、ピクチャヘッダPHに含まれる符号化パラメータの一例である。entropy_coding_mode_flagが0の場合、当該ピクチャは、CAVLC(Context-based Adaptive Variable Length Coding)によって符号化されており、entropy_coding_mode_flagが1である場合、当該ピクチャは、CABAC(Context-based Adaptive Binary Arithmetic Coding)によって符号化されている。
 (スライスレイヤ)
 ピクチャレイヤPに含まれる各スライスレイヤSは、処理対象のスライスである対象スライスを復号するために動画像復号装置1が参照するデータの集合である。スライスレイヤSは、図2(b)に示すように、スライスヘッダSH、及び、LCUレイヤLCU1~LCUNc(NcはスライスSに含まれるLCUの総数)を含んでいる。
 スライスヘッダSHには、対象スライスの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。また、スライスヘッダSHには、動画像復号装置1の備えるループフィルタによって参照されるフィルタパラメータFPが含まれる。
 なお、スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、又は、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、又は、イントラ予測を用いるBスライスなどが挙げられる。
 (LCUレイヤ)
 スライスレイヤSに含まれる各LCUレイヤLCUは、処理対象のLCUである対象LCUを復号するために動画像復号装置1が参照するデータの集合である。
 LCUレイヤLCUは、当該LCUを階層的に4分木分割することにより得られる複数の符号化単位(CU:Coding Unit)より構成される。換言すれば、LCUレイヤLCUは、複数のCUを再帰的に含む階層構造のうち、最上位にあたる符号化単位である。LCUレイヤLCUに含まれる各CUは、図2(c)に示すように、CUヘッダCUH、および、当該CUを4分木分割することにより得られる複数のCUを再帰的に含む階層構造を有している。
 LCUを除く各CUのサイズは、当該CUが直接に属するCU(すなわち、当該CUの1階層上位のCU)のサイズの縦横とも半分であり、各CUのとり得るサイズは、符号化データ#1のシーケンスパラメータセットSPSに含まれる、LCUのサイズおよび階層深度(hierarchical depth)に依存する。例えば、LCUのサイズが128×128画素であって、最大階層深度が5である場合には、当該LCU以下の階層におけるCUは、5種類のサイズ、すなわち、128×128画素、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。また、それ以上分割されないCUをリーフCUと呼ぶことにする。
 (CUヘッダ)
 CUヘッダCUHには、対象CUの復号方法を決定するために動画像復号装置1が参照する符号化パラメータが含まれる。具体的には、図2(c)に示すように、対象CUをさらに下位のCUへ4分割するか否かを指定するCU分割フラグSP_CUが含まれる。CU分割フラグSP_CUが0である場合、すなわち、それ以上CUが分割されない場合、当該CUはリーフCUである。
 (リーフCU)
 それ以上分割されないCU(CUのリーフ)は予測単位(PU:Prediction Unit)、および、変換単位(TU:Transform Unit)として取り扱われる。
 図2(d)に示すように、リーフCU(図2(d)においてはCULと表記)は、(1)動画像復号装置1により予測画像を生成する際に参照されるPU情報PUI、および、(2)動画像復号装置1により残差データを復号する際に参照されるTU情報TUIを含んでいる。
 スキップフラグSKIPは、対象のPUについて、スキップモードが適用されているか否かを示すフラグであり、スキップフラグSKIPの値が1の場合、すなわち、対象のリーフにスキップモードが適用されている場合、そのリーフCUにおけるPU情報PUI、および、TU情報TUIは省略される。なお、スキップフラグSKIPは、Iスライスでは省略される。
 PU情報PUIは、図2(d)に示すように、スキップフラグSKIP、予測タイプ情報PT、および、予測情報PIを含んでいる。予測タイプ情報PTは、対象リーフCU(対象PU)についての予測画像生成方法として、イントラ予測を用いるのか、または、インター予測を用いるのかを指定する情報である。予測情報PIは、予測タイプ情報PTが何れの予測方法を指定するのかに応じて、イントラ予測情報PI_Intra、または、インター予測情報PI_Interより構成される。以下では、イントラ予測が適用されるPUをイントラPUとも呼称し、インター予測が適用されるPUをインターPUとも呼称する。
 PU情報PUIには、対象PUに含まれる各パーティションの形状、サイズ、および、対象PU内での位置を指定する情報が含まれる。ここで、パーティションとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測画像の生成は、パーティションを単位として行われる。
 TU情報TUIは、図2(d)に示すように、量子化ステップの大きさを指定する量子化パラメータ差分Δqp(tu_qp_delta)、対象リーフCU(対象TU)の各ブロックへの分割パターンを指定するTU分割情報SP_TU、および、量子化予測残差QD1~QDNT(NTは、対象TUに含まれるブロックの総数)を含んでいる。
 量子化パラメータ差分Δqpは、対象TUにおける量子化パラメータqpと、そのTUの直前に符号化されたTUにおける量子化パラメータqp’との差分qp-qp’である。
 TU分割情報SP_TUは、具体的には、対象TUに含まれる各ブロックの形状、サイズ、および、対象TU内での位置を指定する情報である。各TUは、例えば、64×64画素から2×2画素までのサイズをとり得る。ここで、ブロックとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測残差の符号化・復号は、ブロックを単位として行われる。
 各量子化予測残差QDは、動画像符号化装置2が以下の処理1~3を、処理対象のブロックである対象ブロックに施すことによって生成した符号化データである。処理1:符号化対象画像から予測画像を減算した予測残差をDCT変換(Discrete Cosine Transform)する。処理2:処理1にて得られたDCT係数を量子化する。処理3:処理2にて量子化されたDCT係数を可変長符号化する。上述した量子化パラメータqpは、動画像符号化装置2がDCT係数を量子化する際に用いた量子化ステップQPの大きさを表す(QP=2qp/6)。
 (インター予測情報PI_Inter)
 インター予測情報PI_Interは、動画像復号装置1が、インター予測によってインター予測画像を生成する際に参照される符号化パラメータが含まれる。図2(e)に示すように、インター予測情報PI_Interは、対象PUの各パーティションへの分割パターンを指定するインターPU分割情報SP_Inter、および、各パーティションについてのインター予測パラメータPP_Inter1~PP_InterNe(Neは、対象PUに含まれるインター予測パーティションの総数)を含んでいる。
 インターPU分割情報SP_Interは、具体的には、対象PU(インターPU)に含まれる各インター予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。
 インターPUは、2N×2N画素、2N×N画素、N×2N画素、およびN×N画素の4つの対称的分割(symmetric splittings)、並びに、2N×nU画素、2N×nD画素、nL×2N画素、およびnR×2N画素の4つの非対称的分割(asymmetric splittings)により、合計8種類のパーティションに分割することが可能である。ここで、Nの具体的な値は、当該PUが属するCUのサイズによって規定され、nU、nD、nL、および、nRの具体的な値は、Nの値に応じて定められる。例えば、128×128画素のインターPUは、128×128画素、128×64画素、64×128画素、64×64画素、128×32画素、128×96画素、32×128画素、および、96×128画素のインター予測パーティションへ分割することが可能である。
 (インター予測パラメータ)
 インター予測パラメータPP_Interは、図2(e)に示すように、参照画像インデックスRIと、推定動きベクトルインデックスPMVIと、動きベクトル残差MVDとを含んでいる。
 (イントラ予測情報PI_Intra)
 イントラ予測情報PI_Intraは、動画像復号装置1が、イントラ予測によってイントラ予測画像を生成する際に参照される符号化パラメータが含まれる。図2(f)に示すように、イントラ予測情報PI_Intraは、対象PU(イントラPU)の各パーティションへの分割パターンを指定するイントラPU分割情報SP_Intra、および、各パーティションについてのイントラ予測パラメータPP_Intra1~PP_IntraNa(Naは、対象PUに含まれるイントラ予測パーティションの総数)を含んでいる。
 イントラPU分割情報SP_Intraは、具体的には、対象PUに含まれる各イントラ予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。イントラPU分割情報SP_Intraには、対象PUをパーティションに分割するか否かを指定するイントラ分割フラグ(intra_split_flag)が含まれている。イントラ分割フラグが1であれば、対象PUは、4つのパーティションへと対称的に分割され、イントラ分割フラグが0であれば、対象PUは、分割されることなく、対象PU自身が1つのパーティションとして取り扱われる。したがって、対象PUのサイズを2N×2N画素とすると、イントラ予測パーティションは、2N×2N画素(分割なし)、および、N×N画素(4分割)の何れかのサイズを取り得る(ここで、N=2n、nは1以上の任意の整数)。例えば、128×128画素のイントラPUは、128×128画素、および、64×64画素のイントラ予測パーティションへ分割することが可能である。
 (イントラ予測パラメータPP_Intra)
 イントラ予測パラメータPP_Intraは、図2(f)に示すように、エッジベース予測フラグEF、追加インデックスAI、推定フラグMPM、および、残余予測モードインデックスRIPMを含んでいる。イントラ予測パラメータPP_Intraは、各パーティションについてのイントラ予測方法(予測モード)を指定するためのパラメータである。
 エッジベース予測フラグEFは、処理対象のパーティションである対象パーティションについて、エッジベース予測モードを適用するのか否かを指定するフラグである。以下の説明では、エッジベース予測フラグが1であるときに、対象パーティションについてエッジベース予測モードが適用されるものとする。
 補正方向インデックス(追加インデックスとも呼ぶ)AIは、対象パーティションについてエッジベース予測モードが適用される場合に、予測パラメータPP_Intraに含められるインデックスであり、エッジベース予測モードにて導出される主方向に対して補正方向を加算するか否かを指定すると共に、補正方向を加算する場合には、加算する補正方向を指定するためのインデックスである。
 推定フラグMPMは、対象パーティションについてエッジベース予測モードが適用されない場合に、予測パラメータPP_Intraに含められるフラグであり、対象パーティションの周辺のパーティションに割り付けられた予測モードに基づいて推定された推定予測モードと当該対象パーティションについての予測モードとが同じであるか否かを示すフラグである。
 残余予測モードインデックスRIPMは、対象パーティションについてエッジベース予測モードが適用されない場合であって、推定された予測モードと対象パーティションについての予測モードとが異なる場合に、当該対象パーティションに割り付けられる予測モードを指定するためのインデックスである。
 (動画像復号装置1)
 以下では、本実施形態に係る動画像復号装置1について図1~図8を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む復号装置である。
 図3は、動画像復号装置1の構成を示すブロック図である。図3に示すように、動画像復号装置1は、可変長符号復号部11、予測画像生成部12、逆量子化・逆変換部13、加算器14、フレームメモリ15、および、ループフィルタ16を備えている。また、図3に示すように、予測画像生成部12は、動きベクトル復元部12a、インター予測画像生成部12b、イントラ予測画像生成部12c、および、予測方式決定部12dを備えている。動画像復号装置1は、符号化データ#1を復号することによって動画像#2を生成するための装置である。
 (可変長符号復号部11)
 可変長符号復号部11は、各パーティションに関する予測パラメータPPを、符号化データ#1から復号し、予測画像生成部12に供給する。具体的には、可変長符号復号部11は、インター予測パーティションに関しては、参照画像インデックスRI、推定動きベクトルインデックスPMVI、及び、動きベクトル残差MVDを含むインター予測パラメータPP_Interを符号化データ#1から復号し、これらを動きベクトル復元部12aに供給する。一方、イントラ予測パーティションに関しては、推定フラグMPM、残余インデックスRIPM、および、追加インデックスAIを含むイントラ予測パラメータPP_Intraを符号化データ#1から復号し、これらをイントラ予測画像生成部12cに供給する。また、可変長符号復号部11は、パーティションのサイズを指定するサイズ指定情報をイントラ予測画像生成部12cに供給する(図示省略)。
 また、可変長符号復号部11は、各パーティションについての予測タイプ情報PTを符号化データ#1から復号し、これを予測方式決定部12dに供給する。更に、可変長符号復号部11は、各ブロックに関する量子化予測残差QD、及び、そのブロックを含むLCUに関する量子化パラメータ差分Δqpを符号化データ#1から復号し、これらを逆量子化・逆変換部13に供給する。また、可変長符号復号部11は、符号化データ#1からフィルタパラメータFPを復号し、これをループフィルタ16に供給する。
 なお、可変長符号復号部11による具体的な復号方式としては、算術符号化/復号の一方式であるCABAC(Context-based Adaptive Binary Arithmetic Coding)、または、非算術符号化/復号の一方式であるCAVLC(Context-based Adaptive Variable Length Coding)が用いられる。ここで、CABACとは、コンテキストに基づく適応的なバイナリー算術符号化を行う符号化/復号方式であり、CALVCとは、コンテキストを適応的に切り替える可変長符号のセットを利用する符号化・復号方式である。
 可変長符号復号部11は、符号化データ#1のピクチャヘッダPHに含まれる符号化モード情報(entropy_coding_mode_flag)を参照することにより、対象ピクチャがCABACにより符号化されたものであるのか、CAVLCにより符号化されたものであるのかを識別することができる。また、可変長符号復号部11は、識別した符号化方式に対応する復号方式により、対象ピクチャを復号する。
 (予測画像生成部12)
 予測画像生成部12は、各パーティションについての予測タイプ情報PTに基づいて、各パーティションがインター予測を行うべきインター予測パーティションであるのか、イントラ予測を行うべきイントラ予測パーティションであるのかを識別する。そして、前者の場合には、インター予測画像Pred_Interを生成すると共に、生成したインター予測画像Pred_Interを予測画像Predとして加算器14に供給し、後者の場合には、イントラ予測画像Pred_Intraを生成すると共に、生成したイントラ予測画像Pred_Intraを加算器14に供給する。なお、予測画像生成部12は、処理対象LCUに対してスキップモードが適用されている場合には、当該PUに属する他のパラメータの復号を省略する。
 (動きベクトル復元部12a)
 動きベクトル復元部12aは、各インター予測パーティションに関する動きベクトルmvを、そのパーティションに関する動きベクトル残差MVDと、他のパーティションに関する復元済みの動きベクトルmv’とから復元する。具体的には、(1)推定動きベクトルインデックスPMVIにより指定される推定方法に従って、復元済みの動きベクトルmv’から推定動きベクトルpmvを導出し、(2)導出した推定動きベクトルpmvと動きベクトル残差MVDとを加算することによって動きベクトルmvを得る。なお、他のパーティションに関する復元済みの動きベクトルmv’は、フレームメモリ15から読み出すことができる。動きベクトル復元部12aは、復元した動きベクトルmvを、対応する参照画像インデックスRIと共に、インター予測画像生成部12bに供給する。
 (インター予測画像生成部12b)
 インター予測画像生成部12bは、画面間予測によって、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、動きベクトル復元部12aから供給された動きベクトルmvを用いて、同じく動きベクトル復元部12aから供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_ALF’から動き補償画像mcを生成する。ここで、フィルタ済復号画像P_ALF’は、既にフレーム全体の復号が完了した復号済みの復号画像に対して、ループフィルタ16によるフィルタ処理を施すことによって得られる画像であり、インター予測画像生成部12bは、フィルタ済復号画像P_ALF’を構成する各画素の画素値をフレームメモリ15から読み出すことができる。インター予測画像生成部12bによって生成された動き補償画像mcは、インター予測画像Pred_Interとして予測方式決定部12dに供給される。
 (イントラ予測画像生成部12c)
 イントラ予測画像生成部12cは、各イントラ予測パーティションに関する予測画像Pred_Intraを生成する。具体的には、まず、可変長符号復号部11から供給されたイントラ予測パラメータPP_Intraに基づいて予測モードを特定し、特定された予測モードを対象パーティションに対して、例えば、ラスタスキャン順に割り付ける。続いて、当該予測モードの示す予測方法に従って、画面内予測によって、(局所)復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部12cによって生成されたイントラ予測画像Pred_Intraは、予測方式決定部12dに供給される。なお、イントラ予測画像生成部12cは、画面内予測によって、フィルタ済復号画像P_ALFから予測画像Pred_Intraを生成する構成とすることも可能である。
 イントラ予測画像生成部12cの具体的な構成については後述するため、ここでは説明を省略する。
 (予測方式決定部12d)
 予測方式決定部12dは、各パーティションが属するPUについての予測タイプ情報PTに基づいて、各パーティションがインター予測を行うべきインター予測パーティションであるのか、イントラ予測を行うべきイントラ予測パーティションであるのかを決定する。そして、前者の場合には、インター予測画像生成部12bにて生成されたインター予測画像Pred_Interを予測画像Predとして加算器14に供給し、後者の場合には、イントラ予測画像生成部12cにて生成されたイントラ予測画像Pred_Intraを予測画像Predとして加算器14に供給する。
 (逆量子化・逆変換部13)
 逆量子化・逆変換部13は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器14に供給する。なお、量子化予測残差QDを逆量子化する際に、逆量子化・逆変換部13は、可変長符号復号部11から供給された量子化パラメータ差分Δqpから量子化ステップQPを導出する。量子化パラメータqpは、直前に逆量子化/逆DCT変換したTUに関する量子化パラメータqp’に量子化パラメータ差分Δqpを加算することによって導出でき、量子化ステップQPは、量子化ステップqpから例えばQP=2pq/6によって導出できる。また、逆量子化・逆変換部13による予測残差Dの生成は、TUあるいはTUを分割したブロックを単位として行われる。
 (加算器14)
 加算器14は、予測画像生成部12から供給された予測画像Predと、逆量子化・逆変換部13から供給された予測残差Dとを加算することによって復号画像Pを生成する。生成された復号画像Pは、フレームメモリ15に格納される。
 (ループフィルタ16)
 ループフィルタ16は、フレームメモリ15から復号画像Pを読み出し、復号画像Pのパーティション境界およびブロック境界の何れか一方若しくは双方におけるブロックノイズ低減処理を施す。また、ループフィルタ16は、ブロックノイズ低減処理が施された復号画像に対して、符号化データ#1から復号されるフィルタパラメータFPを用いた適応的なフィルタ処理を施し、当該適応的なフィルタ処理が施された復号画像Pをフィルタ済復号画像P_ALFとしてフレームメモリ15に出力する。
 (イントラ予測画像生成部12cの構成)
 以下では、イントラ予測画像生成部12cの具体的な構成について、図1を参照して説明する。図1は、イントラ予測画像生成部12cの構成を示すブロック図である。
 図1に示すように、イントラ予測画像生成部12cは、エッジベース予測フラグ判定部12c1、基本予測部12c2、エッジベース予測部12c3、および、予測方向格納部12c4を備えている。
 イントラ予測画像生成部12cは、基本予測部12c2によって生成されるイントラ予測画像Pred_b、および、エッジベース予測部12c3によって生成されるPred_eの何れか一方をイントラ予測画像Pred_Intraとして予測方式決定部12dに供給する。
 (エッジベース予測フラグ判定部12c1)
 エッジベース予測フラグ判定部12c1は、イントラ予測パラメータPP_Intraに含まれるエッジベース予測フラグEFを参照し、当該エッジベース予測フラグが1である場合、すなわち、当該フラグが、対象パーティションに対してエッジベース予測モードを適用することを示している場合に、エッジベース予測部12c3に対して、当該対象パーティションについてのイントラ予測画像を生成する旨を指示すると共に、イントラ予測パラメータPP_Intraを供給する。一方で、エッジベース予測フラグ判定部12c1は、当該エッジベース予測フラグが0である場合、すなわち、当該フラグが、対象パーティションに対してエッジベース予測モードを適用しないことを示している場合に、基本予測部12c2に対して、当該対象パーティションについてのイントラ予測画像を生成する旨を指示すると共に、イントラ予測パラメータPP_Intraを供給する。
 (基本予測部12c2)
 基本予測部12c2は、基本予測モードセットに含まれる予測モード(基本予測モードとも呼ぶ)であって、イントラ予測パラメータPP_Intraによって指定される予測モードを用いて、画面内予測によりイントラ予測画像Pred_bを生成する。
 ここで、基本予測モードセットとは、(1)対象パーティションの周辺の復号済み画像を、予め定められた予測方向に沿って外挿することによって当該対象パーティションについての予測画像を生成する方向予測モード、および、(2)対象パーティションの周辺の復号済み画素値の平均値をとることによって、当該対象パーティションについての予測画像を生成するDC予測モードより構成される。なお、(1)については、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによって予測画像を生成してもよい。
 図4の(a)は、本実施形態における基本予測モードセットに含まれる予測モードを、予測モードインデックスと共に例示する図である。また、図4の(a)においては、各方向予測モードの予測方向が示されている。図4の(a)に示すように、本実施形態における基本予測モードセットには、インデックス0、1、3~8によってそれぞれ指定される方向予測モード、および、インデックス2によって指定されるDC予測モードが含まれる。
 また、対象パーティションについての予測モードの選択は、基本予測部12c2により以下のように行われる。
 まず、基本予測部12c2は、イントラ予測パラメータPP_Intraに含まれる推定フラグMPMを参照し、当該推定フラグMPMが、対象パーティションの周辺のパーティションに割り付けられた予測モードに基づいて推定された推定予測モードと当該対象パーティションについての予測モードとが同じであることを示している場合には、当該推定予測モードを、当該対象パーティションに割り付ける。
 もし、当該推定フラグMPMが、上記推定予測モードと当該対象パーティションについての予測モードとが同じでないことを示している場合には、残余予測モードインデックスRIPMを参照し、当該残余予測モードインデックスRIPMによって指定される予測モードを、当該対象パーティションに割り付ける。
 基本予測部12c2は、対象パーティションについて、DC予測モードが選択された場合、対象パーティションの周辺の復号済みの画素値の平均値をとることによって、当該対象パーティションについてのイントラ予測画像Pred_bを生成する。
 また、基本予測部12c2は、インデックス0、1、3~8の何れかによって指定される方向予測モードが選択された場合、選択された方向予測モードの示す予測方向に沿って、対象パーティションの周辺の復号済みの画素値を外挿することによって、当該対象パーティションについてのイントラ予測画像Pred_bを生成する。
 以下では、図4の(b)を参照して、基本予測部12c2による予測画像の算出処理例についてより具体的に説明する。なお、以下の例では、対象パーティションのサイズを4×4画素であるとして説明を行うが、これは本実施形態を限定するものではない。
 図4の(b)は、4×4画素である対象パーティションの各画素(予測対象画素)と、当該対象パーティションの周辺の画素(参照画素)とを示す図である。図4の(b)に示すように、予測対象画素には符号a~p、参照画素には符号A~Mを付し、画素X(Xはa~p、A~Mの何れか)の画素値をXと表すことにする。また、参照画素A~Mは、何れも復号済みであるとする。
 (予測モード0)
 割り付けられた予測モードのインデックスが0である場合、イントラ予測画像生成部12cは、画素値a~pを、以下の式
 a,e,i,m=A,
 b,f,j,n=B,
 c,g,k,o=C,
 d,h,l,p=D
によって生成する。
 (予測モード2)
 割り付けられた予測モードのインデックスが2(DC予測)である場合、基本予測部12c2は、画素値a~pを以下の式
 a~p=ave(A,B,C,D,I,J,K,L)
によって生成する。ここで、ave(…)は、括弧内に含まれる要素の平均をとることを示している。
 (予測モード4)
 割り付けられた予測モードのインデックスが4である場合、基本予測部12c2は、画素値a~pを以下の式
 d=(B+(C×2)+D+2)>>2,
 c,h=(A+(B×2)+C+2)>>2,
 b,g,l=(M+(A×2)+B+2)>>2,
 a,f,k,p=(I+(M×2)+A+2)>>2,
 e,j,o=(J+(I×2)+M+2)>>2,
 i,n=(K+(J×2)+I+2)>>2,
 m=(L+(K×2)+J+2)>>2
によって生成する。ここで、「>>」は右シフト演算を表し、任意の正の整数x、sに対し、x>>sの値は、x÷(2^s)の少数部分を切り捨てた値と等しい。
 また、基本予測部12c2は、上記の予測モード以外の基本予測モードに対しても、同様の方法によって画素値a~pを算出することができる。
 なお、図4においては、基本予測モードセットが、互いに異なる8つの方向予測の何れかを指定する予測モードを含んでいる場合を例に挙げたが、本実施形態はこれに限定されるものではない。例えば、基本予測モードセットとして、互いに異なる9以上の方向の何れかを指定する予測モードを含むセットを用いてもよい。そのような例としては、例えば、互いに異なる16方向の何れかを指定する予測モードや、互いに異なる32方向の何れかを指定する予測モードを含むセットが挙げられる。
 (エッジベース予測部12c3)
 エッジベース予測部12c3は、(1)対象パーティションの周辺の復号済みの画素値、または、(2)対象パーティションに隣接する隣接パーティションについてエッジベース予測モードを用いて導出された予測方向(予測方向ベクトル)であって、当該隣接パーティションにおける予測画像を生成するために用いられた予測方向、に基づいて、対象パーティションに割り付ける推定エッジ方向を導出し、当該推定エッジ方向の示す予測方向(または、当該推定エッジ方向ベクトルに、後述する方向補正を加えることによって得られる予測方向)に沿って、当該対象パーティションの周辺の復号済みの画素値を外挿することにより当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによって予測画像を生成してもよい。
 例えば、エッジベース予測部12c3は、当該対象パーティションにおける予測対象画素の画素位置を始点とする、上記予測方向の逆方向を向いた仮想線分上に位置する復号済み画素のうち、当該画素に最も近い画素(以下、最近接画素とも呼ぶ)の画素値を、当該予測対象画素の画素値に設定することにより、当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。また、最近接画素の画素値、および、最近接画素の周辺の画素の画素値を用いて算出される値を、当該予測対象画素の画素値としてもよい。
 なお、上記推定エッジ方向とは、予測対象のパーティションにおける実際のエッジ方向を近似するものであり、推定エッジ方向と実際のエッジ方向との類似度が高いほど、予測画像の予測精度が高くなるという傾向がある。
 また、対象パーティションについて導出された予測方向ベクトルは、当該対象パーティションに割り付けられると共に、予測方向格納部12c4に格納される。
 以下では、図5および図6の(a)~(b)を参照して、エッジベース予測部12c3により行われる推定エッジ方向(推定エッジ方向ベクトル)導出処理について説明する。また、以下では、対象パーティションについて導出された予測方向ベクトルをdj(jは各パーティションを互いに識別するためのインデックス)と表し、対象パーティションについて導出された推定エッジ方向ベクトルをdj’と表すことにする。
 図5は、エッジベース予測部12c3による推定エッジ方向導出処理の流れを示すフローチャートである。
 (ステップS101)
 まず、エッジベース予測部12c3は、対象パーティションに隣接するパーティション(隣接パーティション)であって、復号済みの隣接パーティションの全てについて、エッジベース予測モードが適用されていたかを判定する。
 (ステップS102)
 復号済みの隣接パーティションの何れかについて、エッジベース予測モードが適用されていなかった場合(ステップS101のNo)には、エッジベース予測部12c3は、ループ変数iの値を1に初期化し、i≦Mを満たすjについて、ループ毎のループ変数iの増分値を1とするループ処理を開始する。ここで、Mは、対象パーティションについての推定エッジ方向を導出するために参照される参照画素の数である。
 図6の(a)は、対象パーティションOPを、対象パーティションOPに隣接する隣接パーティションNP2およびNP3、並びに、対象パーティションの左上の頂点を共有するパーティションNP1と共に示す図である。ここで、図6の(a)に示す隣接パーティションNP1~3に含まれる画素の画素値は、何れも復号済みであるものとする。図6の(a)に示すように、対象パーティションOPの周辺のパーティションNP1~NP3に含まれる画素を参照画素とすることができる。なお、図6の(a)においては、対象パーティションOP、および、隣接パーティションNP1~3が何れも4×4画素である場合を示すが、本実施形態はこれに限定されるものではなく、後述するように、対象パーティションOPが4×4画素以外のサイズである場合や、隣接パーティションNP1~3が4×4画素以外のサイズである場合にも適用することができる。
 (ステップS103)
 続いて、エッジベース予測部12c3は、i番目の参照画素について、エッジベクトルbiを算出する。ここで、エッジベクトルbiの算出には、ソーベル演算子(Sobel operators、ソーベルフィルタとも呼ぶ)Gx、および、Gyを用いればよい。ここでソーベルフィルタGx、および、Gyは、それぞれ、x方向に沿った画像勾配、および、y方向に沿った画像勾配を算出するために用いられるフィルタ行列であり、例えば、3×3行列として、
Figure JPOXMLDOC01-appb-M000001
によって与えられる。エッジベース予測部12c3は、算出されたx方向についての画像勾配、および、y方向に沿った画像勾配によって表される画像勾配に直交するエッジベクトルbiを算出する。
 (ステップS104)
 本ステップはループの終端である。
 (ステップS105)
 続いて、エッジベース予測部12c3は、以下に示す関数T(α)
 T(α)=Σ<e,bi2
を定義する。ここで、eは、自身の方向と水平方向(x方向)とのなす角がαである単位ベクトルを表しており、記号<,>は、両者のベクトルの内積を表している。また、記号Σは、添え字iについて1からMまでの和をとることを示している。
 また、エッジベース予測部12c3は、関数T(α)を最大化する引数α*
 α*=argmaxS(α)
を算出し、α*によって表される方向を、対象パーティションについての推定エッジ方向ベクトルdOP’に設定する。なお、角度α*は、水平右向きを0度とし、時計回りを正として表されるものとする(以下の角度の表現についても同様)。
 なお、推定エッジ方向ベクトルdOP’は、正規化されたベクトル(大きさが1に規格化されたベクトル、以下同様)であってもよいし、そうでなくてもよいものとする。推定エッジ方向ベクトルdOP’が正規化されていない場合の例としては、推定エッジ方向ベクトルdOP’の大きさを、上記参照画素から構成される参照領域におけるエッジの強度と正の相関を有するように設定する構成が挙げられる。
 また、推定エッジ方向ベクトルdOP’の導出方法は、上記の例に限られるものではなく、他の導出方法を用いてもよい。例えば、各参照画素について導出されたエッジベクトルbiのうち、大きさが最大(ベクトルのノルムが最大)であるエッジベクトルを、推定エッジ方向ベクトルdOP’に設定する構成としてもよい。
 また、上記の説明では、エッジベース予測部12c3が推定エッジ方向を算出する際に、対象パーティションの上辺に隣接するパーティション、対象パーティションの左辺に隣接するパーティション、および、対象パーティションの左上の頂点を共有するパーティションに属する画素の画素値を参照する場合を例に挙げたが、本実施形態はこれに限定されるものではなく、エッジベース予測部12c3は、より一般に、対象パーティションの周辺に設定される参照領域に属する復号済みの画素値を参照して、当該対象パーティションについての推定エッジ方向を算出する構成とすることができる。
 (ステップS106)
 一方で、対象パーティションに隣接する隣接パーティションであって、復号済みの隣接パーティションの全てについて、エッジベース予測モードが適用されていた場合(ステップS101のYes)には、エッジベース予測部12c3は、復号済みの隣接パーティションについて導出済みの予測方向の平均をとることによって、当該対象パーティションについての推定エッジ方向ベクトルを導出する。すなわち、対象パーティションに隣接する隣接パーティションであって、復号済みの隣接パーティションの全てについて、エッジベース予測モードが適用されていた場合には、エッジベース予測部12c3は、上述したステップS101~S105の処理を省略し、復号済みの隣接パーティションについて導出済みの予測方向に基づいて、当該対象パーティションについての推定エッジ方向ベクトルを簡略的に導出する。
 図6の(b)は、対象パーティションOPを、対象パーティションOPに隣接する隣接パーティションNP2およびNP3、並びに、対象パーティションの左上の頂点を共有するパーティションNP1と共に示す図である。図6の(b)においては、対象パーティションに隣接する隣接パーティションのうち、対象パーティションOPの上辺に隣接する隣接パーティションNP2、および、対象パーティションOPの左辺に隣接する隣接パーティションNP3について、何れも、推定エッジ方向が導出済みであるとする。また、図6の(b)に示すように、隣接パーティションNP2について導出済みの予測方向ベクトル(推定エッジ方向ベクトル、または、推定エッジ方向ベクトル+補正方向)をdNP2と表し、隣接パーティションNP3について導出済みの予測方向ベクトル(推定エッジ方向ベクトル、または、推定エッジ方向+補正方向)をdNP3と表すことにする。エッジベース予測部12c3は、対象パーティションに隣接するパーティションについて導出済みの予測方向ベクトルを、予測方向格納部12c4から読み出すことができる。
 図6の(b)に示す例においては、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向(推定エッジ方向ベクトルdOP’)を、隣接パーティションNP2について導出済みの予測方向ベクトルdNP2と、隣接パーティションNP3について導出済みの予測方向ベクトルdNP3との平均をとることによって導出する。すなわち、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=(dNP2+dNP3)/2   …(1-1)
に設定する。また、エッジベース予測部12c3は、予測方向ベクトルdNP2を正規化して得られるベクトルと、予測方向ベクトルdNP3を正規化して得られるベクトルとの平均をとることによって、対象パーティションについての推定エッジ方向ベクトルdOP’を導出する構成としてもよい。すなわち、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=((dNP2/|dNP2|)+(dNP3/|dNP3|))/2   …(1-2)
に設定する構成としてもよい。
 なお、予測方向ベクトルdNP2およびdNP3の大きさが、それぞれの参照領域におけるエッジの強度と正の相関を有するように設定されている場合には、数式(1-1)を用いることによって、推定エッジ方向ベクトルdOP’に対して、エッジの強度が大きい方の予測方向ベクトルがより大きく寄与することになるので、予測精度のより高い推定エッジ方向ベクトルdOP’を導出することができる。
 また、図6の(b)に示す例においては、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、パーティションNP2について導出済みの予測方向ベクトルdNP2と、パーティションNP3について導出済みの予測方向ベクトルdNP3と、対象パーティションNP1(すなわち、対象パーティションの左上のパーティション)について導出済みの予測方向ベクトルとの平均をとることによって導出してもよいし、それらの予測方向ベクトルをそれぞれ正規化して得られる予測方向ベクトルの平均をとることによって導出する構成としてもよい。
 また、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、予測方向ベクトルdNP2およびdNP3のうち、ノルムがより大きいベクトルに設定する構成としてもよい。
 なお、本ステップのように、上述したステップS101~S105の処理を省略し、復号済みの隣接パーティションについて導出済みの予測方向に基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する導出処理を、以下では、推定エッジ方向ベクトルの簡略的導出処理と呼ぶことがある。
 以上が、エッジベース予測部12c3による推定エッジ方向導出処理の流れである。
 (方向補正)
 イントラ予測パラメータPP_Intraに追加インデックスAIが含まれている場合には、エッジベース予測部12c3は、推定エッジ方向ベクトルdOP’の示す角度αOPに、当該追加インデックスAIにより表される補正角度(方向補正)Δαを加算して得られる角度αOP+Δαを算出し、当該角度αOP+Δαにより表される方向を予測方向ベクトルdOPに設定する。なお、このように、推定エッジ方向に方向補正を行うことによって得られる方向を予測方向に設定し、当該予測方向を用いて予測画像を生成する方法を副方向予測モードと呼ぶこともある。また、副方向モードにおいて、予測方向に設定される方向(推定エッジ方向+方向補正)を副方向と呼ぶこともある。
 一方で、イントラ予測パラメータPP_Intraに追加インデックスAIが含まれていない場合には、推定エッジ方向ベクトルdOP’をそのまま予測方向ベクトルdOPに設定する。なお、このように、推定エッジ方向をそのまま予測方向に設定し、当該予測方向を用いて予測画像を生成する方法を主方向予測モードと呼ぶこともある。また、主方向モードにおいて、予測方向に設定される推定エッジ方向を主方向と呼ぶこともある。
 なお、補正角度Δαは、例えば、追加インデックスAIの示す値をtと表すことにすると、Δα=t×δαによって与えられる。ここで、δαは、補正角度を量子化する際の量子化の粗さを指定する量子化ステップサイズを表しており、本実施形態においては、δαは、以下に示す確信度(confidence measure)s
Figure JPOXMLDOC01-appb-M000002
の関数として、パーティション毎に個別に算出される。なお、量子化ステップサイズδαは、確信度sの減少関数であるという性質がある。また、エッジベース予測部12c3は、量子化ステップサイズδαを、パーティション毎に個別に算出する構成に代えて、例えば、予め定められた量子化ステップサイズδαを用いる構成としてもよい。また、符号化データ#1を生成する動画像符号化装置において、スライス毎やLCU毎に量子化ステップサイズδαを符号化し、当該量子化ステップを符号化データ#1に含めておき、エッジベース予測部12c3が、符号化データ#1から復号された量子化ステップサイズδαを用いる構成としてもよい。
 図6の(c)は、追加インデックスAIの示す値t(t=-2、-1、0、1、2)によって指定される予測方向の例を示している。
 エッジベース予測部12c3は、以上のようにして決定された予測方向に、対象パーティションの周辺の画素についての復号済みの画素値を外挿することによって、当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。
 (イントラ予測画像生成部12cによる予測画像の生成処理の流れ)
 以下では、イントラ予測画像生成部12cによる予測画像Pred_Intraの生成処理の流れについて参照する図面を代えて説明する。図7は、イントラ予測画像生成部12cによる予測画像Pred_Intraの生成処理の流れを示すフローチャートである。
 (ステップS201)
 まず、イントラ予測画像生成部12cは、ループ変数jの値を1に初期化し、j≦Npartを満たすjについて、ループ毎のループ変数jの増分値を1とするループ処理を開始する。ここで、ループ変数jは、各パーティションを互いに識別するためのインデックスであり、Npartは、処理対象となるパーティションの総数である。Npartは、例えば、処理対象スライスに含まれるパーティションの総数としてもよいし、処理対象フレームに含まれるパーティションの総数としてもよい。また、Npartは、後述するように、処理対象LCUに含まれるパーティションの総数としてもよい。また、Npartは、処理対象のリーフCUに含まれるパーティションの総数としてもよい。
 (ステップS202)
 続いて、イントラ予測画像生成部12cは、エッジベース予測フラグ判定部12c1にて、イントラ予測パラメータPP_Intraに含まれるエッジベース予測フラグEFを参照し、対象パーティション(j番目のパーティション)について、エッジベース予測モードが適用されているか否かを判別する。
 (ステップS203)
 対象パーティションについて、エッジベース予測モードが適用されていない場合(ステップS202でNo)には、基本予測部12c2にて、イントラ予測パラメータPP_Intraを参照し、対象パーティションについて方向予測モードが適用されているか否かを判別する。
 (ステップS204)
 対象パーティションについて方向予測モードが適用されていない場合、すなわち、対象パーティションについてDC予測モードが適用されている場合(ステップS203でNo)には、基本予測部12c2にて上述した処理を行い、DC予測により、対象パーティションについてのイントラ予測画像の生成を行う。
 (ステップS205)
 対象パーティションについて方向予測モードが適用されている場合(ステップS203でYes)には、基本予測部12c2が、イントラ予測パラメータPP_Intraによって指定される予測モードの示す方向を予測方向に設定する。
 (ステップS206)
 一方で、ステップS202にて、対象パーティションについてエッジベース予測モードが適用されていると判定された場合(ステップS202でYes)には、エッジベース予測部12c3にて、上述したステップS101~S106の処理を行い、推定エッジ方向ベクトル(主方向ベクトル)の導出を行う。
 (ステップS207)
 続いて、エッジベース予測部12c3にて、対象パーティションについて主方向予測モードが適用されているか否かを判別する。ここで、主方向予測モードが適用されているか否かの判別は、イントラ予測パラメータPP_Intraに追加インデックスが含まれているか否かを判別することによって行うことができる。
 (ステップS208)
 対象パーティションについて主方向予測モードが適用されている場合(ステップS207でYes)には、ステップS206にて導出された推定エッジ方向を予測方向に設定する。
 (ステップS209)
 一方で、対象パーティションについて主方向予測モードが適用されていない場合、すなわち、対象パーティションについて副方向予測モードが適用されている場合(ステップS207でNo)には、エッジベース予測部12c3にて、追加インデックスAIを参照し、補正角度Δαを導出する。
 (ステップS210)
 続いて、ステップS206にて導出された推定エッジ方向に、補正角度Δαの示す方向を加えたもの(副方向)を予測方向に設定する。
 (ステップS211)
 ステップS205、ステップS208、および、ステップS210の何れかにおいて設定された予測方向に、対象パーティションの周辺の復号済み画素値を外挿することによって、対象パーティションについてのイントラ予測画像を生成する。
 (ステップS212)
 本ステップはループの終端である。
 (エッジベース予測部12c3についての付記事項1)
 以上の説明では、対象パーティションに隣接する隣接パーティションが、何れも当該対象パーティションと同じサイズである場合を例に挙げたが、一般には、対象パーティションのサイズと、隣接パーティションのサイズは異なりうる。また、対象パーティションに隣接する隣接パーティションの数も、対象パーティションのサイズと隣接パーティションのサイズとに応じて変化する。
 図8の(a)は、対象パーティションOPの左辺に複数のパーティションNP31~NPNP34が隣接し、対象パーティションOPの上辺に複数のパーティションNP21~NP22が隣接する場合を示している。
 このような場合であっても、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、各隣接パーティションについて導出済みの予測方向ベクトル(推定エッジ方向ベクトル、または、推定エッジ方向ベクトル+補正方向)dNP31~dNP34、および、dNP21~dNP22の平均をとることによって導出することができる。すなわち、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=(dNP31+dNP23+dNP33+dNP34+dNP21+dNP22)/6
によって導出することができる。また、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、各隣接パーティションについて導出済みの予測方向ベクトルを正規化することによって得られるベクトルの平均をとることによっても導出することができる。
 ここで、予測方向ベクトルdNP31~dNP34は、それぞれ、隣接パーティションNP31~NPNP34について導出済みの予測方向ベクトルを表すものとし、予測方向ベクトルdNP21~dNP22は、隣接パーティションNP21~NPNP22のそれぞれについて導出済みの予測方向ベクトルを表すものとする。
 また、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、各隣接パーティションについて導出済みの予測方向ベクトルのメジアンをとることによって導出することもできる。すなわち、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=median(dNP31,dNP23,dNP33,dNP34,dNP21,dNP22
によって導出することもできる。ここで、median(…)は、括弧内の要素の中央値をとる演算記号を表している。なお、ベクトルのメジアンとは、対応する成分ごとに中央値をとったベクトルのことである。
 また、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、予測方向ベクトルdNP31~dNP34、および、dNP21~dNP22のうち、ノルムが最大のベクトルに設定する構成としてもよい。
 また、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、当該対象パーティションに隣接するパーティションの各々について導出済みの予測方向ベクトルと、当該対象パーティションと頂点を共有するパーティションの各々について導出済みの予測方向ベクトルとの平均をとることによって導出する構成としてもよいし、それらの予測方向ベクトルを正規化して得られるベクトルの平均をとることによって導出する構成としてもよい。
 また、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、当該対象パーティションに隣接するパーティションの各々について導出済みの予測方向ベクトルと、当該対象パーティションと頂点を共有するパーティションの各々について導出済みの予測方向ベクトルとのメジアンをとることによって導出する構成としてもよいし、それらの予測方向ベクトルのうちノルムが最大のベクトルを、対象パーティションについての推定エッジ方向ベクトルdOP’に設定する構成としてもよい。
 このように、エッジベース予測部12c3は、対象パーティションの周辺のパーティションについて導出済みの予測方向ベクトルに基づいて、対象パーティションについての推定エッジ方向ベクトルを導出する。
 (エッジベース予測部12c3についての付記事項2)
 また、エッジベース予測部12c3は、対象パーティションのサイズと、当該対象パーティションに隣接する隣接パーティションであって、予測方向ベクトルが導出済みの隣接パーティションのサイズが同じであるときのみ、当該隣接パーティションについて導出済みの予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する構成としてもよい。
 このような構成とすることによって、対象パーティションについての推定エッジ方向ベクトルを導出する際に参照する予測方向ベクトルの数を制限することができるので、計算量を削減することができる。
 (エッジベース予測部12c3についての付記事項3)
 また、エッジベース予測部12c3は、対象パーティションに隣接する隣接パーティションの各々について導出済みの予測方向ベクトルの方向のばらつきが、予め定められた閾値以下である場合にのみ、それらの予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する構成としてもよい。
 ここで、予測方向ベクトルの方向のばらつきは、例えば、各予測方向ベクトルの方向の分散によって表現することができる。より具体的には、各予測方向ベクトルdk(k=1~Nd、Ndは、対象パーティションについての推定エッジ方向ベクトルを算出する際に参照する予測方向ベクトルの総数)の向きを、基準となる方向とのなす角度Akによって表したとすると、予測方向ベクトルd1~dNdの方向のばらつきは、例えば、角度A1~ANdの分散によって表すことができる。エッジベース予測部12c3は、角度A1~ANdの分散が予め定められた閾値以下である場合にのみ、予測方向ベクトルd1~dNdに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する構成とすることができる。
 一般に、対象パーティションに隣接する隣接パーティションの各々について導出済みの予測方向ベクトルの方向のばらつきが大きい場合には、当該対象パーティションにおける推定エッジ方向は、隣接パーティションについて導出済みの予測方向ベクトルとの相関が低いという傾向がある。したがって、そのようにばらつきの大きい予測方向ベクトルに基づいて導出された推定エッジ方向ベクトルは、対象パーティションにおける実際のエッジ方向との相関が低いという傾向がある。
 上記のように、隣接パーティションの各々について導出済みの予測方向ベクトルの方向のばらつきが予め定められた閾値以下である場合にのみ、それらの予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出することによって、対象パーティションにおける実際のエッジ方向をより適切に近似する推定エッジ方向ベクトルを算出することができる。したがって、このような構成とすることによって、予測精度が向上し、符号化効率を高めることができる。
 (エッジベース予測部12c3についての付記事項4)
 また、エッジベース予測部12c3は、対象パーティションに隣接する隣接パーティションであって、予測方向ベクトルが導出済みの隣接パーティションが、何れも、当該対象パーティションの属するLCUと同じLCUに属する場合にのみ、当該隣接パーティションの各々について導出済みの予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する構成としてもよい。
 図8の(b)は、対象パーティションOPに隣接する隣接パーティションであって、予測方向ベクトルが導出済みの隣接パーティションNP2およびNP3のうち、隣接パーティションNP2のみが、対象パーティションOPが属するLCU1に属している場合を示す図である。
 図8の(b)に示すような場合、エッジベース予測部12c3は、隣接パーティションNP2およびNP3についてそれぞれ導出済みの予測方向ベクトルdNP2およびdNP3の何れをも用いることなく、上述したステップS101~S105の処理を行って、対象パーティションについての推定エッジ方向を導出する。
 このように、予測方向ベクトルが導出済みの隣接パーティションが、何れも、当該対象パーティションの属するLCUと同じLCUに属する場合にのみ、当該隣接パーティションの各々について導出済みの予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出することによって、先に導出された予測方向ベクトルの方向性がLCUの境界を跨いで伝播することを抑止することができる。
 したがって、上記のような構成をとることによって、先に導出された予測方向ベクトルの方向性が過剰に伝播することによる、予測精度の低下を抑止することができる。
 (エッジベース予測部12c3についての付記事項5)
 また、エッジベース予測部12c3は、対象パーティションに隣接する隣接パーティションであって、予測方向ベクトルが導出済みの隣接パーティションにおいて、当該予測方向ベクトルが、上述したステップS101~S105の処理を行うことによって導出された予測方向ベクトル(推定エッジ方向ベクトル、または、推定エッジ方向+補正方向)である場合にのみ、当該予測方向ベクトル予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する構成としてもよい。
 換言すれば、上記隣接パーティションについての予測方向ベクトルが、簡略的導出処理によって導出されたものである場合には、エッジベース予測部12c3は、上記隣接パーティションについて導出された予測方向ベクトルを用いることなく、上述したステップS101~S105の処理を行うことによって、上記対象パーティションについての推定エッジ方向ベクトルを算出する。
 図8の(c)は、対象パーティションOPに隣接する隣接パーティションNP2およびNP3についてそれぞれ導出された予測方向ベクトルdNP2およびdNP3のうち、予測方向ベクトルdNP2のみが、上述したステップS101~S105の処理を行うことによって導出されたものであり、予測方向ベクトルdNP3は、隣接パーティションNP3に隣接するパーティションについて導出された予測方向ベクトルを用いて導出されたものである場合を示す図である。
 図8の(c)に示すような場合、エッジベース予測部12c3は、隣接パーティションNP2およびNP3についてそれぞれ導出済みの予測方向ベクトルdNP2およびdNP3の何れをも用いることなく、上述したステップS101~S105の処理を行って、対象パーティションについての推定エッジ方向を導出する。
 このように、エッジベース予測部12c3は、対象パーティションに隣接する隣接パーティションのうち、何れかの隣接パーティションにおいて予測方向ベクトルが簡略的導出処理によって導出されている場合には、当該対象パーティションについての推定エッジ方向ベクトルを、簡略的導出処理ではなく、上述したステップS101~S105の処理を行うことによって導出する。
 隣接する複数のパーティションに対して、簡略的導出処理が連続的に適用されると、先に導出された予測方向ベクトルの方向性が過剰に伝播することになるので、予測精度の低下を将来することがある。
 上記のような構成をとることによって、先に導出された予測方向ベクトルの方向性が過剰に伝播することによる、予測精度の低下を抑止することができる。
 (エッジベース予測部12c3についての付記事項6)
 また、エッジベース予測部12c3は、対象パーティションに隣接する隣接パーティションであって、予測方向ベクトルが導出済みの隣接パーティションの数が3以上である場合には、予測方向ベクトルの平均操作に代えて、以下の処理を行うことによって当該対象パーティションについての推定エッジ方向ベクトルdOP’を導出する構成としてもよい。
 すなわち、エッジベース予測部12c3は、各隣接パーティションNPn(n=1~NNP、NNPは、対象パーティションに隣接する隣接パーティションであって、予測方向ベクトル(推定エッジ方向、または、推定エッジ方向+方向補正)が導出済みの隣接パーティションの総数)について導出済みの予測方向ベクトルdnを用いて表現される関数U(γ)、
 U(γ)=Σ<e,dn2
を最大化する引数γ*
 γ*=argmaxU(γ)
を算出し、γ*によって表される方向を、対象パーティションについての推定エッジ方向ベクトルdOP’に設定する構成としてもよい。
 なお、関数U(γ)の定義式におけるΣは、添え字nについて1からNNPまでの和をとることを示しており、eは、自身の方向と水平方向(x方向)とのなす角がγである単位ベクトルを表しており、記号<,>は、両者のベクトルの内積を表している。
 このように、各隣接パーティションについて導出済みの予測方向ベクトルdnとの内積の二乗和が最小となる単位ベクトルの示す方向を用いることによって、対象パーティションにおける実際のエッジ方向により近似する推定エッジ方向ベクトルを算出することができるので、予測精度および符号化効率が向上する。
 (エッジベース予測部12c3についての付記事項7)
 また、エッジベース予測部12c3は、対象パーティションに隣接する隣接パーティションであって、予測方向ベクトルが導出済みの隣接パーティションの各々についての確信度が予め定められた閾値以上である場合にのみ、それらの隣接パーティションについて導出された予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する構成としてもよい。
 ここで、上記確信度は、数式(1-3)に示した確信度(confidence measure)sを用いて表現することもできるし、各参照画素について算出されたエッジベクトルbiの方向の分散(の逆数)を用いて表現することもできる。
 このように、確信度が高いパーティションについて導出された予測方向ベクトルに基づいて、対象パーティションについての推定エッジ方向ベクトルを導出することによって、対象パーティションにおける実際のエッジ方向をより適切に近似する推定エッジ方向ベクトルを算出することができる。したがって、このような構成とすることによって、予測精度が向上し、符号化効率を高めることができる。
 (エッジベース予測部12c3についての付記事項8)
 また、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルを、当該対象パーティションに隣接するパーティションの各々について導出済みの予測方向ベクトルの、確信度に応じた重み付き平均を用いることによって導出する構成としてもよい。
 例えば、図6の(b)に示す例においては、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向(推定エッジ方向ベクトルdOP’)を、パーティションNP2について導出済みの予測方向ベクトルdNP2と、パーティションNP3について導出済みの予測方向ベクトルdNP3との、確信度に応じた重み付き平均をとることによって導出してもよい。すなわち、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=CNP2×dNP2+CNP3×dNP3   …(1-4)
に設定する構成としてもよい。また、エッジベース予測部12c3は、予測方向ベクトルdNP2を正規化して得られるベクトルと、予測方向ベクトルdNP3を正規化して得られるベクトルとの確信度に応じた重み付き平均をとることによって、対象パーティションについての推定エッジ方向ベクトルdOPを導出する構成としてもよい。すなわち、エッジベース予測部12c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=CNP2×(dNP2/|dNP2|)+CNP3×(dNP3/|dNP3|)   …(1-5)
に設定する構成としてもよい。
 ここで、上記数式(1-4)および(1-5)における係数CNP2およびCNP3は、それぞれ、予測方向ベクトルdNP2およびdNP3の確信度に応じて定まる重み係数であり、CNP2+CNP3=1を満たすように定められる。
 また、上記確信度とは、数式(1-3)に示した確信度(confidence measure)sを用いて表現することもできるし、各参照画素について算出されたエッジベクトルbiの方向の分散を用いて表現することもできる。
 例えば、予測方向ベクトルdNP2の確信度がsNP2であり予測方向ベクトルdNP3の確信度がsNP3であるとすると、上記数式(1-4)および(1-5)における係数CNP2およびCNP3を、それぞれ、
 CNP2=sNP2/(sNP2+sNP3
 CNP3=sNP3/(sNP2+sNP3
と定めることができる。隣接パーティションの数が3以上である場合についても同様である。
 なお、簡略的導出処理によって導出された予測方向ベクトルについては、確信度を決定することができない場合が生じるが、そのような場合には、当該簡略的導出処理によって導出された予測方向ベクトルについての確信度として、所定の0に近い値wa(例えば、wa=0.1~0.2)を用いればよい。
 具体的には、図6の(b)に示す例において、予測方向ベクトルdNP3が、簡略的導出処理によって導出されたものである場合には、当該予測方向ベクトルdNP3に乗ぜられる重み係数CNP3をCNP3=waによって設定すればよい。また、wa=0ととることもできるが、その場合の処理は、(エッジベース予測部12c3についての付記事項7)において説明した処理と同様の処理になる。
 一般に、隣接パーティションの各々について導出された予測ベクトルのうち、確信度のより高い予測方向ベクトルは、対象パーティションにおける実際のエッジ方向とより高い相関を有するという傾向がある。
 上記の構成においては、隣接パーティションの各々について導出された予測ベクトルを、対象パーティションにおける実際のエッジ方向との相関の大小に応じた重み付き平均をとることによって、対象パーティションについての推定エッジ方向ベクトルを導出するので、予測精度および符号化効率が向上する。
 (エッジベース予測部12c3についての付記事項9)
 また、エッジベース予測部12c3は、対象パーティションに隣接する隣接パーティションについて導出された予測方向ベクトルのうち、確信度が最も高い予測方向ベクトルを、当該対象パーティションについての推定エッジ方向ベクトルに設定する構成としてもよい。
 このような構成によって、計算量を削減しつつ、予測精度および符号化効率の向上を図ることができる。
 (動画像符号化装置2)
 本実施形態に係る動画像符号化装置2の構成について図9を参照して説明する。動画像符号化装置2は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む符号化装置である。以下では、既に説明した部分と同じ部分には同じ符号を付し、その説明を省略する。
 図9は、動画像符号化装置2の構成を示すブロック図である。図9に示すように、動画像符号化装置2は、予測画像生成部21、変換・量子化部22、逆量子化・逆変換部23、加算器24、フレームメモリ25、ループフィルタ26、可変長符号符号化部27、および、減算器28を備えている。また、図9に示すように、予測画像生成部21は、イントラ予測画像生成部21a、動きベクトル検出部21b、インター予測画像生成部21c、予測方式制御部21d、および、動きベクトル冗長性削除部21eを備えている。動画像符号化装置2は、動画像#10(符号化対象画像)を符号化することによって、符号化データ#1を生成する装置である。
 (予測画像生成部21)
 予測画像生成部21は、処理対象LCUを、1または複数の下位CUに再帰的に分割し、各リーフCUをさらに1または複数のパーティションに分割し、パーティション毎に、画面間予測を用いたインター予測画像Pred_Inter、または、画面内予測を用いたイントラ予測画像Pred_Intraを生成する。生成されたインター予測画像Pred_Interおよびイントラ予測画像Pred_Intraは、予測画像Predとして、加算器24および減算器28に供給される。
 なお、予測画像生成部21は、スキップモードの適応されたPUについては、当該PUに属する他のパラメータの符号化を省略する。また、(1)対象LCUにおける下位CUおよびパーティションへの分割の態様、(2)スキップモードを適用するか否か、および、(3)パーティション毎にインター予測画像Pred_Interおよびイントラ予測画像Pred_Intraの何れを生成するか、は、符号化効率を最適化するように決定される。
 (イントラ予測画像生成部21a)
 イントラ予測画像生成部21aは、画面内予測によって、各パーティションに関する予測画像Pred_Intraを生成する。具体的には、(1)各パーティションついてイントラ予測に用いる予測モードを選択し、(2)選択した予測モードを用いて、復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部21aは、生成したイントラ予測画像Pred_Intraを、予測方式制御部21dに供給する。
 より具体的には、イントラ予測画像生成部21aは、上述した基本予測モードセットに含まれる予測モード、および、エッジベース予測モードよりなる拡張セットに含まれる予測モードのうち、何れかの予測モードを選択し、選択した予測モードの示す方法に従って、イントラ予測画像Pred_Intraを生成する。
 イントラ予測画像生成部21aの具体的な構成については後述するためここでは説明を省略する。
 (動きベクトル検出部21b)
 動きベクトル検出部21bは、各パーティションに関する動きベクトルmvを検出する。具体的には、(1)参照画像として利用するフィルタ済復号画像P_ALF’を選択し、(2)選択したフィルタ済復号画像P_ALF’において対象パーティションを最良近似する領域を探索することによって、対象パーティションに関する動きベクトルmvを検出する。ここで、フィルタ済復号画像P_ALF’は、既にフレーム全体の復号が完了した復号済みの復号画像に対して、ループフィルタ26による適応的フィルタ処理を施すことによって得られる画像であり、動きベクトル検出部21bは、フィルタ済復号画像P_ALF’を構成する各画素の画素値をフレームメモリ25から読み出すことができる。動きベクトル検出部21bは、検出した動きベクトルmvを、参照画像として利用したフィルタ済復号画像P_ALF’を指定する参照画像インデックスRIと共に、インター予測画像生成部21c及び動きベクトル冗長性削除部21eに供給する。
 (インター予測画像生成部21c)
 インター予測画像生成部21cは、画面間予測によって、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、動きベクトル検出部21bから供給された動きベクトルmvを用いて、動きベクトル検出部21bから供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_ALF’から動き補償画像mcを生成する。動きベクトル検出部21bと同様に、インター予測画像生成部21cは、フィルタ済復号画像P_ALF’を構成する各画素の画素値をフレームメモリ25から読み出すことができる。インター予測画像生成部21cは、生成した動き補償画像mc(インター予測画像Pred_Inter)を、動きベクトル検出部21bから供給された参照画像インデックスRIと共に、予測方式制御部21dに供給する。
 (予測方式制御部21d)
 予測方式制御部21dは、イントラ予測画像Pred_Intra及びインター予測画像Pred_Interを符号化対象画像と比較し、イントラ予測を行うかインター予測を行うかを選択する。イントラ予測を選択した場合、予測方式制御部21dは、イントラ予測画像Pred_Intraを予測画像Predとして加算器24及び減算器28に供給すると共に、イントラ予測画像生成部21aから供給されるイントラ予測パラメータPP_Intraを可変長符号符号化部27に供給する。一方、インター予測を選択した場合、予測方式制御部21dは、インター予測画像Pred_Interを予測画像Predとして加算器24及び減算器28に供給すると共に、参照画像インデックスRI、並びに、後述する動きベクトル冗長性削除部21eから供給された推定動きベクトルインデックスPMVI及び動きベクトル残差MVDをインター予測パラメータPP_Interとして可変長符号符号化部27に供給する。
 (動きベクトル冗長性削除部21e)
 動きベクトル冗長性削除部21eは、動きベクトル検出部21bによって検出された動きベクトルmvにおける冗長性を削除する。具体的には、(1)動きベクトルmvの推定に用いる推定方法を選択し、(2)選択した推定方法に従って推定動きベクトルpmvを導出し、(3)動きベクトルmvから推定動きベクトルpmvを減算することにより動きベクトル残差MVDを生成する。動きベクトル冗長性削除部21eは、生成した動きベクトル残差MVDを、選択した推定方法を示す推定動きベクトルインデックスPMVIと共に、予測方式制御部21dに供給する。
 (変換・量子化部22)
 変換・量子化部22は、(1)符号化対象画像から予測画像Predを減算した予測残差Dをブロック毎にDCT変換(Discrete Cosine Transform)し、(2)DCT変換により得られたDCT係数を量子化し、(3)量子化により得られた量子化予測残差QDを可変長符号符号化部27及び逆量子化・逆変換部23に供給する。なお、変換・量子化部22は、(1)量子化の際に用いる量子化ステップQPをTU毎に選択し、(2)選択した量子化ステップQPの大きさを示す量子化パラメータ差分Δqpを可変長符号符号化部28に供給し、(3)選択した量子化ステップQPを逆量子化・逆変換部23に供給する。ここで、量子化パラメータ差分Δqpとは、DCT変換/量子化するマクロブロックに関する量子化パラメータqp(例えばQP=2pq/6)の値から、直前にDCT変換/量子化したTUに関する量子化パラメータqp’の値を減算して得られる差分値のことを指す。
 (逆量子化・逆変換部23)
 逆量子化・逆変換部23は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器24に供給する。量子化予測残差QDを逆量子化する際には、変換・量子化部22から供給された量子化ステップQPを利用する。なお、逆量子化・逆変換部23から出力される予測残差Dは、変換・量子化部22に入力される予測残差Dに量子化誤差が加わったものであるが、ここでは簡単のために共通の呼称を用いる。
 (加算器24)
 加算器24は、予測方式制御部21dにて選択された予測画像Predを、逆量子化・逆変換部23にて生成された予測残差Dに加算することによって、(局所)復号画像Pを生成する。加算器24にて生成された(局所)復号画像Pは、ループフィルタ26に供給されると共にフレームメモリ25に格納され、イントラ予測における参照画像として利用される。
 (可変長符号符号化部27)
 可変長符号符号化部27は、(1)変換・量子化部22から供給された量子化予測残差QD並びにΔqp、(2)予測方式制御部21dから供給された量子化パラメータPP(インター予測パラメータPP_Inter、および、イントラ予測パラメータPP_Intra)、および、(3)ループフィルタ26から供給されたフィルタパラメータFPを可変長符号化することによって、符号化データ#1を生成する。
 なお、可変長符号符号化部27による具体的な符号化方式としては、算術符号化/復号の一方式であるCABAC(Context-based Adaptive Binary Arithmetic Coding)、または、非算術符号化/復号の一方式であるCAVLC(Context-based Adaptive VLC)が用いられる。
 可変長符号符号化部27は、ピクチャ毎に、CABACおよびCAVLCの何れの符号化方式を用いるのかを決定し、決定した符号化方式により符号化すると共に、決定した符号化方式を指定する符号化モード情報(entropy_coding_mode_flag)を符号化データ#1のピクチャヘッダPHに含める。
 (減算器28)
 減算器28は、予測方式制御部21dにて選択された予測画像Predを、符号化対象画像から減算することによって、予測残差Dを生成する。減算器28にて生成された予測残差Dは、変換・量子化部22によってDCT変換/量子化される。
 (ループフィルタ26)
 ループフィルタ26は、フレームメモリ25から復号画像Pを読み出し、復号画像Pのパーティション境界およびブロック境界の何れか一方若しくは双方におけるブロックノイズ低減処理を施す。また、ループフィルタ26は、ブロックノイズ低減処理が施された復号画像に対して、適応的に算出されるフィルタパラメータFPを用いた適応的なフィルタ処理を施し、当該適応的なフィルタ処理が施された復号画像Pをフィルタ済復号画像P_ALFとしてフレームメモリ25に出力する。フィルタ済復号画像P_ALFは、主に、インター予測画像生成部21cにおいて、参照画像として用いられる。
 (イントラ予測画像生成部21aの構成)
 以下では、イントラ予測画像生成部21aの構成について、図10を参照して説明する。図10は、イントラ予測画像生成部21aの構成を示すブロック図である。図10に示すように、イントラ予測画像生成部21aは、予測モード決定部21a1、基本予測部21a2、エッジベース予測部21a3、予測方向格納部21a4を備えている。
 (予測モード決定部21a1)
 予測モード決定部21a1は、各パーティションついてイントラ予測に用いる予測モードを決定する。その際、各パーティションについて、何れの予測モードを選択するかの決定は、符号化効率がより高くなるように行われる。また、予測モード決定部21a1は、決定された予測モードを指定するイントラ予測パラメータPP_Intraを予測方式制御部21dに供給する。ここで、イントラ予測パラメータPP_Intraには、予測モード決定部21a1によって決定された予測モードがエッジベース予測モードであるか否かを示すエッジベース予測フラグEFが含まれる。
 (決定された予測モードが基本予測モードである場合)
 予測モード決定部21a1は、対象パーティションについての予測モードを、基本予測モードセットに含まれる何れかの予測モードに決定した場合には、基本予測部21a2に対して、決定された予測モードを供給すると共に、当該決定された予測モードを用いてイントラ予測画像Pred_bを生成するように指示する。
 また、予測モード決定部21a1は、対象パーティションの周辺のパーティションであって、符号化済みのパーティションについて決定された基本予測モードのインデックスに基づき、当該対象パーティションについての基本予測モードのインデックスの推定値(推定予測モード)を算出する。また、当該推定予測モードと、対象パーティションについて決定された基本予測モードが同じであるか否かを示す推定フラグMPMを、イントラ予測パラメータPP_Intraに含める。
 上記推定予測モードと、対象パーティションについて決定された基本予測モードが異なる場合には、当該対象パーティションついて決定された基本予測モードを指定するためのインデックスである残余予測モードインデックスRIPMを、イントラ予測パラメータPP_Intraに含める。
 (決定された予測モードがエッジベース予測モードである場合)
 一方で、予測モード決定部21a1は、対象パーティションについての予測モードを、エッジベース予測モードに決定した場合には、エッジベース予測部21a3に対して、エッジベース予測モードを用いてイントラ予測画像Pred_eを生成するように指示する。
 また、予測モード決定部21a1が、対象パーティションについての予測モードをエッジベース予測モードに決定した場合であって、推定エッジ方向に対して、補正角度Δαを用いた補正を行う場合には、補正角度Δαを量子化ステップサイズδαで除算して得られるパラメータ(量子化インデックス)tを、イントラ予測パラメータPP_Intraに含める。なお、量子化ステップサイズδαの決定の仕方は、動画像復号装置1の備えるエッジベース予測部12c3の説明において述べた方法と同様の方法を用いればよい。
 なお、予測モード決定部21a1は、複数の補正角度候補を設定し、当該複数の補正角度候補のうち、符号化効率がより高くなるものを選択する構成とすることができる。
 (基本予測部21a2)
 基本予測部21a2は、予測モード決定部21a1から供給される基本予測モードに基づいて、画面内予測によりイントラ予測画像Pred_bを生成する。基本予測部21a2によるイントラ予測画像Pred_bの生成処理は、動画像復号装置1の備える基本予測部12c2と同様であるので、ここでは説明を省略する。
 (エッジベース予測部21a3)
 エッジベース予測部21a3は、(1)対象パーティションの周辺の復号済みの画素値、または、(2)対象パーティションに隣接する隣接パーティションに割り付けられた推定エッジ方向(若しくは推定エッジ方向に後述する方向補正を加えたもの)であって、当該隣接パーティションにおける予測画像を生成するために用いられた推定エッジ方向、に基づいて、対象パーティションに割り付ける予測方向ベクトルを導出し、当該予測方向ベクトルの示す予測方向に沿って、当該対象パーティションの周辺の復号済みの画素値を外挿することにより当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによって予測画像を生成してもよい。
 エッジベース予測部21a3によるイントラ予測画像Pred_eの生成処理は、動画像復号装置1の備えるエッジベース予測部12c3と同様であるので、ここでは説明を省略する。
 基本予測部21a2によって生成されたイントラ予測画像Pred_b、および、エッジベース予測部21a3によって生成されたイントラ予測画像Pred_eは、イントラ予測画像Pred_Intraとして、予測方式制御部21dに供給される。
 〔実施形態2〕
 以下では、本発明の第2の実施形態について説明する。なお、以下では、既に説明した部分と同じ部分については、同じ符号を付し、その説明を省略する。
 (動画像復号装置3)
 以下では、本実施形態に係る動画像復号装置3について図11~図13を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む復号装置である。
 図11は、動画像復号装置3の構成を示すブロック図である。図11に示すように、動画像復号装置3は、動画像復号装置1の備えるイントラ予測画像生成部12cに代えて、イントラ予測画像生成部32cを備えている。また、図11に示すように、イントラ予測画像生成部32cには、逆量子化・逆変換部13より予測残差Dが供給される。
 動画像復号装置3のその他の構成は、実施形態1に係る動画像復号装置1の構成と同様である。
 (イントラ予測画像生成部32c)
 図12は、動画像復号装置3の備えるイントラ予測画像生成部32cの構成を示すブロック図である。図12に示すように、イントラ予測画像生成部32cは、エッジベース予測フラグ判定部12c1、基本予測部12c2、エッジベース予測部32c3、予測方向格納部12c4、および、予測残差格納部32c5を備えている。
 図12に示すように、本実施形態においては、基本予測部12c2にて対象パーティションに割り付けられ、予測画像の生成に用いられた基本予測モードの示す予測方向も、予測方向格納部12c4に格納される。
 また、図12に示すように、予測残差格納部32c5には、逆量子化・逆変換部13より供給された予測残差Dが格納され、エッジベース予測部32c3は、各パーティションについての予測残差Dj(jは、各パーティションを互いに識別するためのインデックス)を予測残差格納部32c5から読み出すことができる。
 なお、あるパーティションについての予測残差Djとは、例えば、当該パーティションに属する各画素に割り付けられた画素毎の予測残差の集合のことを指す。
 また、本実施形態においては、エッジベース予測モードを用いて導出されたのか、基本予測モードセットから選択されたのかに関わらず、対象パーティションに割り付けられ、予測画像の生成に用いられた予測方向を示す予測方向ベクトルをdjと表すことにする。また、実施形態1と同様に、対象パーティションについて導出された推定エッジ方向ベクトルをdj’と表すことにする。
 (エッジベース予測部32c3)
 エッジベース予測部32c3は、(1)対象パーティションの周辺の復号済みの画素値、または、(2)対象パーティションに隣接し、予測残差が小さい隣接パーティションについて導出された予測方向(予測方向ベクトル)であって、当該隣接パーティションにおける予測画像を生成するために用いられた予測方向、に基づいて、対象パーティションに割り付ける推定エッジ方向を導出する。
 ここで、あるパーティションについての予測残差が小さいとは、例えば、当該パーティションについての正規化された予測残差が所定の閾値以下であることを指す。より具体的には、当該パーティションについての正規化された予測残差をDj’と表すことにすると、
 Dj’≦ThD   …(2-1)
を満たす場合に、当該パーティションについての予測残差が小さいと表現することができる。
 また、例えば、あるパーティションについての正規化された予測残差が、所定の領域(例えば、対象LCUや対象スライスなど)に属する各パーティションについての正規化された予測残差のうち、小さい方から数えて所定の順位までに入る場合に、当該パーティションについての予測残差が小さいと表現することもできる。より具体的には、上記所定の領域に属するパーティションPt1,Pt2,...,PtW(Wは上記所定の領域に属するパーティションの総数)についての正規化された予測残差を、D1’,D2’,...,DW’と表すことにし、正規化された各予測残差がD1’≦D2’≦...≦DW’を満たしているとすると、予測残差D1’,D2’,...,DU’(ここで、U<W)は、小さい予測残差であると表現することもできる。なお、Uの値としては、U<Wを満たすものであって、予め定められたものを用いてもよいし、Wに対する相対的な割合を示す係数rを用いて、U=r×Wと表されるようなものを用いてもよい。
 また、あるパーティションについての正規化された予測残差Dj’は、例えば、当該パーティションに属する各画素に割り付けられた画素毎の予測残差の絶対値の総和(SAD、Sum of Absolute Difference)を、当該パーティションに属する画素の数Npixで除算することによって得ることができる。
 Dj’=Σ|Dj(x、y)|/Npix   …(2-2)
なお、上記式(2-2)において、Dj(x、y)は、当該パーティションに属する画素であって、座標(x、y)における画素についての画素毎の予測残差を表している。また、上記式(2-2)において、記号Σは、当該パーティションに属する画素についての上記画素毎の予測残差の絶対値の総和をとることを示している。
 また、エッジベース予測部32c3は、エッジベース予測部12c3と同様に、導出された推定エッジ方向の示す予測方向(または、当該推定エッジ方向ベクトルに、方向補正を加えることによって得られる予測方向)に沿って、当該対象パーティションの周辺の復号済みの画素値を外挿することにより当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによって予測画像を生成してもよい。
 また、対象パーティションについて導出された予測方向ベクトルは、当該対象パーティションに割り付けられると共に、予測方向格納部12c4に格納される。
 以下では、図13を参照して、エッジベース予測部12c3により行われる推定エッジ方向(推定エッジ方向ベクトル)導出処理について説明する。
 図13は、エッジベース予測部32c3による推定エッジ方向導出処理の流れを示すフローチャートである。
 (ステップS301)
 まず、エッジベース予測部32c3は、対象パーティションに隣接する隣接パーティション(隣接パーティション)の各々に割り付けられた予測残差を評価し、全ての隣接パーティションについての正規化された予測残差が小さいか否かを判別する。ここで、各隣接パーティションについての正規化された予測残差の評価には、上述した方法を用いることができる。
 (ステップS302)
 復号済みの隣接パーティションの何れかについての正規化された予測残差が小さくない場合(ステップS301のNo)、エッジベース予測部12c3は、ループ変数iの値を1に初期化し、i≦Mを満たすjについて、ループ毎のループ変数iの増分値を1とするループ処理を開始する。ここで、Mは、対象パーティションについての推定エッジ方向を導出するために参照される参照画素の数である。図6の(a)に示したように、例えば、対象パーティションOPの周辺のパーティションNP1~NP3に含まれる画素を参照画素とすることができる。
 (ステップS303)
 エッジベース予測部32c3は、既に説明したエッジベース予測部12c3の(ステップS103)と同様の処理を行う。
 (ステップS304)
 エッジベース予測部32c3は、既に説明したエッジベース予測部12c3の(ステップS104)と同様の処理を行う。
 (ステップS305)
 エッジベース予測部32c3は、既に説明したエッジベース予測部12c3の(ステップS105)と同様の処理を行う。
 (ステップS306)
 一方で、対象パーティションに隣接する隣接パーティションであって、復号済みの隣接パーティションの全てについての予測残差が小さい場合(ステップS301のYes)には、エッジベース予測部32c3は、復号済みの隣接パーティションについて導出済みの予測方向の平均をとることによって、当該対象パーティションについての隣接エッジ方向ベクトルを導出する。すなわち、対象パーティションに隣接する隣接パーティションであって、復号済みの隣接パーティションの全てについての予測残差が小さい場合には、エッジベース予測部32c3は、上述したステップS301~S305の処理を省略し、復号済みの隣接パーティションについて導出済みの予測方向に基づいて、当該対象パーティションについての推定エッジ方向ベクトルを簡略的に導出する。ここで、本実施形態においては、隣接パーティションについて導出済みの予測方向とは、基本予測モードにて選択された予測方向であってもよいし、エッジベース予測モードを用いて導出された予測方向であってもよい。ただし、隣接パーティションについて導出済みの予測モードが、例えばDC予測モードなど、方向性を持たない予測モードであった場合には利用しないようにするとよい。
 例えば、図6の(b)に示す例においては、エッジベース予測部32c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、数式(1-1)または数式(1-2)を用いて算出する。
 ただし、本実施形態においては、図6の(b)に示す隣接パーティションNP1~NP3は、何れも、予測残差の小さいパーティションであるとする。また、図6の(b)、数式(1-1)、および、数式(1-2)におけるdNP2およびdNP3は、本実施形態においては、基本予測モードにて選択された予測方向ベクトルであってもよいし、エッジベース予測モードを用いて導出された予測方向ベクトルであってもよいものとする。
 また、図6の(b)に示す例においては、エッジベース予測部32c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、パーティションNP2について導出済みの予測方向ベクトルdNP2と、パーティションNP3について導出済みの予測方向ベクトルdNP3と、対象パーティションNP1(すなわち、対象パーティションの左上のパーティション)について導出済みの予測方向ベクトルとの平均をとることによって導出してもよいし、それらの予測方向ベクトルをそれぞれ正規化して得られる予測方向ベクトルの平均をとることによって導出する構成としてもよい。
 また、エッジベース予測部32c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、予測方向ベクトルdNP2およびdNP3のうち、ノルムがより大きいベクトルに設定する構成としてもよい。なお、基本予測モードにて選択された予測方向など、ベクトルのノルムが得られない場合には、予め定められた値をとるようにするか、あるいは、予測残差が小さいほど大きくなるようにノルムを定めるとよい。
 なお、本ステップのように、上述したステップS301~S305の処理を省略し、復号済みの隣接パーティションについて導出済みの予測方向に基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する導出処理を、推定エッジ方向ベクトルの簡略的導出処理と呼ぶことがある。
 以上が、エッジベース予測部32c3によるエッジ方向導出処理の流れである。
 (方向補正)
 イントラ予測パラメータPP_Intraに追加インデックスAIが含まれている場合には、エッジベース予測部32c3は、推定エッジ方向ベクトルdOP’の示す角度αOPに、当該追加インデックスAIにより表される補正角度(方向補正)Δαを加算して得られる角度αOP+Δαを算出し、当該角度αOP+Δαにより表される方向を予測方向ベクトルdOPに設定する。エッジベース予測部32c3による補正方向に関する処理は、エッジベース予測部12c3による処理と同様であるので、説明を省略する。
 (イントラ予測画像生成部32cによる予測画像の生成処理の流れ)
 イントラ予測画像生成部32cによる予測画像の生成処理は、エッジベース予測部32c3による処理を除き、イントラ予測画像生成部12cによる予測画像の生成処理と同様であるので、説明を省略する。
 (エッジベース予測部32c3についての付記事項1~6)
 エッジベース予測部12c3についての付記事項1~6と同様であるので説明を省略する。
 (エッジベース予測部32c3についての付記事項7)
 また、エッジベース予測部32c3は、対象パーティションに隣接する隣接パーティションであって、予測方向ベクトルが導出済みの隣接パーティションの各々についての正規化された予測残差が予め定められた閾値以下である場合にのみ、それらの隣接パーティションについて導出された予測方向ベクトルに基づいて、当該対象パーティションについての推定エッジ方向ベクトルを導出する構成としてもよい。
 このように、正規化された予測残差が小さいパーティションについて導出された予測方向ベクトルに基づいて、対象パーティションについての推定エッジ方向ベクトルを導出することによって、対象パーティションにおける実際のエッジ方向をより適切に近似する推定エッジ方向ベクトルを算出することができる。したがって、このような構成とすることによって、予測精度が向上し、符号化効率を高めることができる。
 (エッジベース予測部32c3についての付記事項8)
 また、エッジベース予測部32c3は、対象パーティションについての推定エッジ方向ベクトルを、当該対象パーティションに隣接するパーティションの各々について導出済みの予測方向ベクトルの、正規化された予測残差に応じた重み付き平均を用いることによって導出する構成としてもよい。
 例えば、図6の(b)に示す例においては、エッジベース予測部32c3は、対象パーティションについての推定エッジ方向(推定エッジ方向ベクトルdOP’)を、パーティションNP2について導出済みの予測方向ベクトルdNP2と、パーティションNP3について導出済みの予測方向ベクトルdNP3との、正規化された予測残差に応じた重み付き平均をとることによって導出してもよい。すなわち、エッジベース予測部32c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=CNP2’×dNP2+CNP3’×dNP3   …(2-3)
に設定する構成としてもよい。また、エッジベース予測部32c3は、予測方向ベクトルdNP2を正規化して得られるベクトルと、予測方向ベクトルdNP3を正規化して得られるベクトルとの、正規化された予測残差に応じた重み付き平均をとることによって、対象パーティションについての推定エッジ方向ベクトルdOPを導出する構成としてもよい。すなわち、エッジベース予測部32c3は、対象パーティションについての推定エッジ方向ベクトルdOP’を、
 dOP’=CNP2’×(dNP2/|dNP2|)+CNP3’×(dNP3/|dNP3|)  …(2-4)
に設定する構成としてもよい。
 ここで、上記数式(2-3)および(2-4)における係数CNP2’およびCNP3’は、それぞれ、隣接パーティションNP2およびNP3についての正規化された予測残差と負の相関を有するように定まる重み係数であり、CNP2’+CNP3’=1を満たすように定められる。
 例えば、隣接パーティションNP2およびNP3についての正規化された予測残差がそれぞれ、DNP2’およびDNP3’であるとすると、上記数式(2-3)および(2-4)における係数CNP2’およびCNP3’を、それぞれ、
 CNP2=DNP3’/(DNP2’+DNP3’)
 CNP3=DNP2’/(DNP2’+DNP3’)
と定めることができる。隣接パーティションの数が3以上である場合についても同様である。
 一般に、あるパーティションについての正規化された予測残差が小さいことは、当該パーティションにおける予測画像の予測精度が高いことを示している。したがって、正規化された予測残差がより小さいパーティションに割り付けられた予測方向は、予測画像を生成するためのより適切な予測方向である。
 上記の構成によれば、対象パーティションについての推定エッジ方向ベクトルに対して、隣接パーティションについてのより適切な予測方向をより大きい重みで寄与させることにより符号化効率を向上させることができる。
 (エッジベース予測部32c3についての付記事項9)
 また、エッジベース予測部32c3は、対象パーティションに隣接する隣接パーティションについて導出された予測方向ベクトルのうち、予測残差が最も小さい予測方向ベクトルを、当該対象パーティションについての推定エッジ方向ベクトルに設定する構成としてもよい。
 このような構成によって、計算量を削減しつつ、予測精度および符号化効率の向上を図ることができる。
 (動画像符号化装置4)
 本実施形態に係る動画像符号化装置4の構成について図14~図15を参照して説明する。動画像符号化装置4は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む符号化装置である。以下では、既に説明した部分と同じ部分には同じ符号を付し、その説明を省略する。
 図14は、動画像符号化装置4の構成を示すブロック図である。図14に示すように、動画像符号化装置4は、動画像符号化装置2の備えるイントラ予測画像生成部21aに代えて、イントラ予測画像生成部41aを備えている。また、図14に示すように、イントラ予測画像生成部41aには、予測残差Dが供給される。動画像符号化装置4のその他の構成は、動画像符号化装置2と同様である。
 (イントラ予測画像生成部41a)
 イントラ予測画像生成部41aは、画面内予測によって、各パーティションに関する予測画像Pred_Intraを生成する。具体的には、(1)各パーティションついてイントラ予測に用いる予測モードを選択し、(2)選択した予測モードを用いて、復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部21aは、生成したイントラ予測画像Pred_Intraを、予測方式制御部21dに供給する。
 より具体的には、イントラ予測画像生成部21aは、上述した基本予測モードセットに含まれる予測モード、および、エッジベース予測モードよりなる拡張セットに含まれる予測モードのうち、何れかの予測モードを選択し、選択した予測モードの示す方法に従って、イントラ予測画像Pred_Intraを生成する。
 以下では、イントラ予測画像生成部41aの構成について、図15を参照して説明する。図15は、イントラ予測画像生成部41aの構成を示すブロック図である。図15に示すように、イントラ予測画像生成部41aは、予測モード決定部21a1、基本予測部21a2、エッジベース予測部41a3、予測方向格納部21a4、および、予測残差格納部41a5を備えている。
 図15に示すように、本実施形態においては、基本予測部21a2にて対象パーティションに割り付けられ、予測画像の生成に用いられた基本予測モードの示す予測方向も、予測方向格納部21a4に格納される。
 また、図15に示すように、予測残差格納部41a5には、逆量子化・逆変換部23より供給された予測残差Dが格納され、エッジベース予測部41a3は、各パーティションについての予測残差Dj(jは、各パーティションを互いに識別するためのインデックス)を予測残差格納部41a5から読み出すことができる。
 (エッジベース予測部41a3)
 エッジベース予測部41a3は、(1)対象パーティションの周辺の復号済みの画素値、または、(2)対象パーティションに隣接し、予測残差が小さい隣接パーティションについて導出された予測方向(予測方向ベクトル)であって、当該隣接パーティションにおける予測画像を生成するために用いられた予測方向、に基づいて、対象パーティションに割り付ける推定エッジ方向を導出する。
 エッジベース予測部41a3による予測画像生成処理は、動画像復号装置3の備えるエッジベース予測部32c3と同様であるので、ここでは説明を省略する。
 〔実施形態3〕
 以下では、本発明の第3の実施形態について説明する。なお、以下では、既に説明した部分と同じ部分については、同じ符号を付し、その説明を省略する。
 本実施形態に係る動画像復号装置5の説明に先立ち、本実施形態に係る動画像符号化装置6によって生成され、動画像復号装置5によって復号される符号化データ#5の構成について説明する。
 符号化データ#5の構成は、符号化データ#1の構成とほぼ同様であるが、以下の点において異なる。
 すなわち、符号化データ#5のイントラ予測パラメータPP_Intraには、符号化データ#1のイントラ予測パラメータPP_Intraに含まれるエッジベース予測フラグEFに代えて、簡略予測フラグSFが含まれている。
 簡略予測フラグSFは、処理対象のパーティションである対象パーティションについて、後述する簡略予測モードを適用するのか否かを指定するフラグである。以下の説明では、簡略予測フラグが1であるときに、対象パーティションについて簡略予測モードが適用されるものとする。
 (動画像復号装置5)
 以下では、本実施形態に係る動画像復号装置5について図16~図17を参照して説明する。動画像復号装置5は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む復号装置である。動画像復号装置5は、符号化データ#5を復号することによって動画像#6を生成するための装置である。
 図16は、本実施形態に係る動画像復号装置5の構成を示すブロック図である。図16に示すように、本実施形態に係る動画像復号装置5は、実施形態1に係る動画像復号装置1の備えるイントラ予測画像生成部12cに代えて、イントラ予測画像生成部52cを備えている。動画像復号装置5のその他の構成は、実施形態1に係る動画像復号装置1と同様である。
 (イントラ予測画像生成部52c)
 イントラ予測画像生成部52cは、各イントラ予測パーティションに関する予測画像Pred_Intraを生成する。具体的には、まず、可変長符号復号部11から供給されたイントラ予測パラメータPP_Intraに基づいて予測モードを特定し、特定された予測モードを対象パーティションに対して、例えば、ラスタスキャン順に割り付ける。続いて、当該予測モードの示す予測方法に従って、画面内予測によって、(局所)復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部52cによって生成されたイントラ予測画像Pred_Intraは、予測方式決定部12dに供給される。なお、イントラ予測画像生成部52cは、画面内予測によって、フィルタ済復号画像P_ALFから予測画像Pred_Intraを生成する構成とすることも可能である。
 図17は、イントラ予測画像生成部52cの構成を示すブロック図である。図17に示すように、イントラ予測画像生成部52cは、簡略予測フラグ判定部52c1、基本予測部12c2、簡略予測部52c3、および、予測方向格納部12c4を備えている。
 図17に示すように、本実施形態においては、基本予測部12c2にて対象パーティションに割り付けられ、予測画像の生成に用いられた基本予測モードの示す予測方向も、予測方向格納部12c4に格納される。
 イントラ予測画像生成部52cは、基本予測部12c2によって生成されるイントラ予測画像Pred_b、および、簡略予測部52c3によって生成されるPred_eの何れか一方をイントラ予測画像Pred_Intraとして予測方式決定部12dに供給する。
 (追加予測フラグ判定部52c1)
 追加予測フラグ判定部52c1は、イントラ予測パラメータPP_Intraに含まれる簡略予測フラグSFを参照し、当該簡略予測フラグが1である場合、すなわち、当該簡略予測が、対象パーティションに対して簡略予測モードを適用することを示している場合に、簡略予測部52c3に対して、当該対象パーティションについてのイントラ予測画像を生成する旨を指示すると共に、イントラ予測パラメータPP_Intraを供給する。一方で、簡略予測フラグ判定部52c1は、当該簡略予測フラグが0である場合、すなわち、当該簡略予測フラグが、対象パーティションに対して簡略予測モードを適用しないことを示している場合に、基本予測部12c2に対して、当該対象パーティションについてのイントラ予測画像を生成する旨を指示すると共に、イントラ予測パラメータPP_Intraを供給する。
 (簡略予測部52c3)
 簡略予測部52c3は、対象パーティションに隣接する隣接パーティションに割り付けられた予測方向であって、当該隣接パーティションにおける予測画像を生成するために用いられた予測方向に基づいて、対象パーティションに割り付ける主方向ベクトルを導出し、当該主方向ベクトルの示す予測方向(または、当該主方向ベクトルに、後述する方向補正を加算することによって得られる副方向の示す予測方向)に沿って、当該対象パーティションの周辺の復号済みの画素値を外挿することにより当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。ここで、上記主方向ベクトルを導出するために参照される隣接パーティションについての予測方向は、基本予測モードにて選択された予測方向であってもよいし、簡略予測モードにて導出された予測方向であってもよい。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによって予測画像を生成してもよい。
 簡略予測部52c3は、例えば、当該対象パーティションにおける予測対象画素の画素位置を始点とする、上記予測方向の逆方向を向いた仮想線分上に位置する復号済み画素のうち、当該画素に最も近い画素(以下、最近接画素とも呼ぶ)の画素値を、当該予測対象画素の画素値に設定することにより、当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。また、最近接画素の画素値、および、最近接画素の周辺の画素の画素値を用いて算出される値を、当該予測対象画素の画素値としてもよい。
 また、対象パーティションについて導出された予測方向ベクトルは、当該対象パーティションに割り付けられると共に、予測方向格納部12c4に格納される。
 以下では、簡略予測部52c3により行われる、対象パーティションについての主方向の導出処理について説明する。
 簡略予測部52c3は、復号済みの隣接パーティションに割り付けられ、予測画像の生成に用いられた予測方向の平均をとることによって、当該対象パーティションについての主方向ベクトルを導出する。
 例えば、図6の(b)に示す例においては、簡略予測部52c3は、対象パーティションについての主方向ベクトルdOP’を、数式(1-1)または数式(1-2)を用いて算出する。
 ただし、本実施形態においては、図6の(b)、数式(1-1)、および、数式(1-2)におけるdNP2およびdNP3は、基本予測モードにて選択された予測方向ベクトルであってもよいし、簡略予測モードを用いて導出された予測方向ベクトルであってもよいものとする。
 また、図6の(b)に示す例においては、簡略予測部52c3は、対象パーティションについての主方向ベクトルdOP’を、パーティションNP2について導出済みの予測方向ベクトルdNP2と、パーティションNP3について導出済みの予測方向ベクトルdNP3と、対象パーティションNP1(すなわち、対象パーティションの左上のパーティション)について導出済みの予測方向ベクトルとの平均をとることによって導出してもよいし、それらの予測方向ベクトルをそれぞれ正規化して得られる予測方向ベクトルの平均をとることによって導出する構成としてもよい。
 また、簡略予測部52c3は、対象パーティションについての主方向ベクトルdOP’を、予測方向ベクトルdNP2およびdNP3のうち、ノルムがより大きいベクトルに設定する構成としてもよい。なお、基本予測モードにて選択された予測方向など、ベクトルのノルムが得られない場合には、予め定められた値をとるようにするか、あるいは、予測残差が小さいほど大きくなるようにノルムを定めるとよい。
 (方向補正)
 イントラ予測パラメータPP_Intraに追加インデックスAIが含まれている場合には、簡略予測部52c3は、主方向ベクトルdOP’の示す角度αOPに、当該追加インデックスAIにより表される補正角度(方向補正)Δαを加算して得られる角度αOP+Δαを算出し、当該角度αOP+Δαにより表される方向を予測方向ベクトルdOPに設定する。簡略予測部52c3による補正方向に関する処理は、実施形態1におけるエッジベース予測部12c3による処理と同様であるので、説明を省略する。
 (イントラ予測画像生成部52cによる予測画像の生成処理の流れ)
 イントラ予測画像生成部52cによる予測画像の生成処理は、簡略予測部52c3による処理を除き、実施形態1におけるイントラ予測画像生成部12cによる予測画像の生成処理と同様であるので、説明を省略する。
 (エッジベース予測部52c3についての付記事項1~6)
 エッジベース予測部12c3についての付記事項1~6と同様であるので説明を省略する。ただし、エッジベース予測部12c3についての付記事項1における「推定エッジ方向」を、「主方向」と読み替えるものとする。
 (動画像符号化装置6)
 本実施形態に係る動画像符号化装置6の構成について図18~図19を参照して説明する。動画像符号化装置6は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む符号化装置である。以下では、既に説明した部分と同じ部分には同じ符号を付し、その説明を省略する。
 図18は、動画像符号化装置6の構成を示すブロック図である。図16に示すように、動画像符号化装置6は、動画像符号化装置2の備えるイントラ予測画像生成部21aに代えて、イントラ予測画像生成部61aを備えている。動画像符号化装置6のその他の構成は、動画像符号化装置2と同様である。
 (イントラ予測画像生成部61a)
 イントラ予測画像生成部61aは、画面内予測によって、各パーティションに関する予測画像Pred_Intraを生成する。具体的には、(1)各パーティションついてイントラ予測に用いる予測モードを選択し、(2)選択した予測モードを用いて、復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部61aは、生成したイントラ予測画像Pred_Intraを、予測方式制御部21dに供給する。
 より具体的には、イントラ予測画像生成部61aは、上述した基本予測モードセットに含まれる予測モード、および、簡略予測モードよりなる拡張セットに含まれる予測モードのうち、何れかの予測モードを選択し、選択した予測モードの示す方法に従って、イントラ予測画像Pred_Intraを生成する。
 以下では、イントラ予測画像生成部61aの構成について、図19を参照して説明する。図19は、イントラ予測画像生成部61aの構成を示すブロック図である。図19に示すように、イントラ予測画像生成部61aは、予測モード決定部61a1、基本予測部21a2、簡略予測部61a3、および、予測方向格納部21a4を備えている。
 図19に示すように、本実施形態においては、基本予測部21a2にて対象パーティションに割り付けられ、予測画像の生成に用いられた基本予測モードの示す予測方向も、予測方向格納部21a4に格納される。
 (簡略予測部61a3)
 簡略予測部61a3は、対象パーティションに隣接する隣接パーティションに割り付けられた予測方向であって、当該隣接パーティションにおける予測画像を生成するために用いられた予測方向に基づいて、対象パーティションに割り付ける主方向ベクトルを導出し、当該主方向ベクトルの示す予測方向(または、当該主方向ベクトルに、後述する方向補正を加算することによって得られる副方向の示す予測方向)に沿って、当該対象パーティションの周辺の復号済みの画素値を外挿することにより当該対象パーティションにおけるイントラ予測画像Pred_eを生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによって予測画像を生成してもよい。
 簡略予測部61a3による予測画像生成処理は、動画像復号装置5の備える簡略予測部52c3と同様であるので、ここでは説明を省略する。
 〔応用例〕
 上述した動画像符号化装置2及び動画像復号装置1は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。以下では、動画像符号化装置2及び動画像復号装置1の利用例について説明するが、動画像符号化装置4,6及び動画像復号装置3,5についても同様である。
 まず、上述した動画像符号化装置2及び動画像復号装置1を、動画像の送信及び受信に利用できることを、図21を参照して説明する。
 図21の(a)は、動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。図21の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_A1として利用される。
 送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、及び、動画像を外部から入力するための入力端子PROD_A6を更に備えていてもよい。図21の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。
 なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。
 図21の(b)は、動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図21の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3と、を備えている。上述した動画像復号装置1は、この復号部PROD_B3として利用される。
 受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図21の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。
 なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。
 なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。
 例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。
 また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。
 なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。
 次に、上述した動画像符号化装置2及び動画像復号装置1を、動画像の記録及び再生に利用できることを、図22を参照して説明する。
 図22の(a)は、上述した動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。図22の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_C1として利用される。
 なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)などのように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリなどのように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disk:登録商標)などのように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。
 また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、及び、動画像を受信するための受信部PROD_C5を更に備えていてもよい。図22の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。
 なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。
 このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HD(Hard Disk)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。
 図22の(b)は、上述した動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図22の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した動画像復号装置1は、この復号部PROD_D2として利用される。
 なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。
 また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図22の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。
  なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。
 このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。
 (付記事項1)
 最後に、上述した動画像復号装置1,3,5および動画像符号化装置2,4,6の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
 後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
 また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
 (付記事項2)
 以上のように、本明細書には、予測モード指定情報と共に符号化データから復号した予測残差に、予測モード群に属する予測モードであって、上記予測モード指定情報により指定される予測モードに従って予測単位毎に生成した予測画像を加算することによって復号画像を生成する画像復号装置において、対象予測単位に関する予測モード群に追加する追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位に関する予測モード群に属する予測モードのうちで上記予測モード指定情報により指定された予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えていることを特徴とする画像復号装置が記載されている。
 また、本明細書には、符号化データから復号した予測残差に、予測モード群に属する予測モードであって符号化データから復号した予測モード指定情報により指定される予測モードに対応する予測パラメータに従って予測単位毎に生成した予測画像を加算することによって復号画像を生成する画像復号装置において、上記予測モード群には、予め定められた予測パラメータに対応する基本予測モードと、対象予測単位に隣接する隣接予測単位から予測パラメータが導出される追加予測モードが含まれ、上記追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位の予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えている画像復号装置が記載されている。
 画像符号化装置は、隣接予測単位における予測画像の生成に利用した予測モード、すなわち、隣接予測単位に関する予測モード群に属する他の予測モードよりも予測精度の高い予測モードを指定する予測モード指定情報を符号化する。
 したがって、上記の構成によれば、追加予測モードは、隣接予測単位に関する予測モード群に属する他の予測モードよりも予測精度の高い予測モードに対応する予測パラメータから導出される。このため、追加予測モードの予測精度は、対象予測単位に関する予測モード群に属する他の予測モードの予測精度を上回る可能性が高い。
 このような予測精度の高い予測モードを対象予測単位に関する予測モード群に追加することによって、予測誤差を小さくし、もって、符号化効率を向上させることができる。しかも、追加予測モードに対応する予測パラメータを、従来のように復号画像から導出するのではなく、参照予測モードに対応する予測パラメータから導出しているので、予測画像の生成に要する計算コストを削減することができる。
 なお、上記予測単位は、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。
 本発明に係る画像復号装置において、上記隣接予測単位に関する予測モード群には、予め定められた予測パラメータに対応する基本予測モードと、上記復号画像から導出した予測パラメータに対応する導出予測モードとが含まれ、上記導出手段は、上記参照予測モードが導出予測モードである場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出することが好ましい。
 また、本発明に係る画像復号装置において、上記導出手段は、上記対象予測単位に隣接する隣接予測単位の復号画像から予測パラメータを導出する手段を備え、上記導出手段は、上記参照予測モードが追加予測モードである場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出する、ことが好ましい。
 参照予測モードが導出予測モードである場合、すなわち、隣接予測単位において導出予測モードの予測精度が基本予測モードの予測精度を上回っている場合、導出予測モードに対応する予測パラメータから追加予測モードに対応する予測パラメータを導出すれば、対象予測単位においても追加予測モードの予測精度が基本予測モードの予測精度を上回る可能性が高い。逆に、参照予測モードが基本予測モードである場合、すなわち、隣接予測単位において導出予測モードの予測精度が基本予測モードの予測精度を下回っている場合、導出予測モードに対応する予測パラメータから追加予測モードに対応する予測パラメータを導出すれば、対象予測単位おいても追加予測モードの予測精度が基本予測モードの予測精度を下回る可能性が高い。すなわち、参照予測モードが導出予測モードである場合には、追加予測モードが予測画像の生成に利用される可能性が高く、参照予測モードが基本予測モードである場合には、追加予測モードが予測画像の生成に利用される可能性が低い。
 上記構成によれば、追加予測モードが予測画像の生成に利用される可能性が高い場合に限って、導出予測モードに対応する予測パラメータから追加予測モードに対応する予測パラメータを導出する。すなわち、予測画像の生成に利用される可能性の低い追加予測モードに対応する予測パラメータを、導出予測モードに対応する予測パラメータから無駄に導出することがない。
 なお、上記導出手段は、上記参照予測モードが基本予測モードである場合に、(1)復号画像を参照して追加予測モードに対応する予測パラメータを導出するものであってもよいし、(2)予測モードの追加を行わない(例えば、予測画像の生成に基本予測モードのみを利用する)ものであってもよい。前者の場合には、後者の場合よりも予測精度の高い予測画像を生成することができる。後者の場合には、前者の場合よりもより小さい計算コストで予測画像を生成することができる。なお、前者の場合であっても、全ての予測単位において復号画像から追加予測モードを導出する従来の構成と比べれば、予測画像の生成に必要な計算コストを削減することができる。参照予測モードが導出予測モードである場合に、追加予測モードに対応する予測パラメータを参照予測モードに対応する予測パラメータから導出する導出処理が省略されるためである。
 また、複数の隣接予測単位を考慮して言うと、上記導出手段は、(1)各隣接予測単位に関する予測モード群に属する参照予測モードが「全て」導出予測モードである場合に限って、上記追加予測モードに対応する予測パラメータをこれらの参照予測モードに対応する予測パラメータから導出するものであってもよいし、(2)「特定の」隣接予測単位(例えば、対象予測単位の左辺に隣接する隣接予測単位)に関する予測モード群に属する参照予測モードが導出予測モードである場合に限って、上記追加予測モードに対応する予測パラメータをこの参照予測モードに対応する予測パラメータから導出するものであってもよい。
 なお、上記基本予測モードは、例えば、上記復号画像の画素値を予め定められた方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードである。ただし、上記基本予測モードは、これに限定されず、予め定められた予測パラメータに対応するものであればよい。
 また、上記導出予測モードは、例えば、上記復号画像の画素値から推定した上記隣接予測単位のエッジ方向をθ*、量子化ステップサイズをδθとして、上記復号画像の画素値を予測方向θ*±k×δθ(0≦k≦N)に沿って外挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードである。あるいは、前記方向の両側に復号済み画素がある場合は、両方の画素値を上記予測方向に沿って内挿することによって予測画像を生成してもよい。ただし、上記基本予測モードは、これに限定されず、上記復号画像から導出された予測パラメータに対応する予測モードであればよい。
 本発明に係る画像復号装置において、上記隣接予測単位に関する予測モード群には、上記復号画像の画素値を特定の予測方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する方向予測モードと、上記復号画像の画素値を特定の領域上で平均することによって、上記隣接予測単位に関する予測画像を生成する非方向予測モードとが含まれ、上記導出手段は、上記参照予測モードが方向予測モードである場合に限って、上記追加予測モードに対応する予測方向を上記参照予測モードに対応する予測方向から導出することが好ましい。
 参照予測モードが方向予測モードである場合、すなわち、隣接予測単位において方向予測モードの予測精度が非方向予測モードの予測精度を上回っている場合、方向予測モードに対応する予測パラメータから追加予測モードに対応する予測パラメータを導出すれば、対象予測単位においても追加予測モードの予測精度が非方向予測モードの予測精度を上回る可能性が高い。逆に、参照予測モードが非方向予測モードである場合、すなわち、隣接予測単位において方向予測モードの予測精度が非方向予測モードの予測精度を下回っている場合、方向予測モードに対応する予測パラメータから追加予測モードに対応する予測パラメータを導出すれば、対象予測単位おいても追加予測モードの予測精度が非方向予測モードの予測精度を下回る可能性が高い。すなわち、参照予測モードが方向予測モードである場合には、追加予測モードが予測画像の生成に利用される可能性が高く、参照予測モードが非方向予測モードである場合には、追加予測モードが予測画像の生成に利用される可能性が低い。
 上記構成によれば、追加予測モードが予測画像の生成に利用される可能性が高い場合に限って、方向予測モードに対応する予測方向から追加予測モードに対応する予測方向を導出する。すなわち、予測画像の生成に利用される可能性の低い追加予測モードに対応する予測方向を、方向予測モードに対応する予測方向から無駄に導出することがない。
 なお、上記導出手段は、参照予測モードが方向予測モードである場合に、(1)復号画像を参照して追加予測モードに対応する予測パラメータを導出するものであってもよいし、(2)予測モードの追加を行わないものであってもよい。前者の場合、後者の場合よりも予測精度の高い予測画像を生成することができる。後者の場合、前者の場合よりもより小さい計算コストで予測画像を生成することができる。なお、前者の場合であっても、全ての予測単位において復号画像から追加予測モードを導出する従来の構成と比べれば、予測画像の生成に必要な計算コストを削減することができる。
 また、上記導出手段は、(1)各隣接予測単位に関する予測モード群に属する参照予測モードが「全て」方向予測モードである場合に限って、上記追加予測モードに対応する予測方向を、これらの参照予測モードに対応する予測方向から導出するものであってもよいし、(2)「特定の」隣接予測単位(例えば、対象予測単位の左辺に隣接する隣接予測単位)に関する予測モード群に属する参照予測モードが方向予測モードである場合に限って、上記追加予測モードに対応する予測方向を、この参照予測モードに対応する予測パラメータから導出するものであってもよい。
 なお、上記方向予測モードは、例えば、上記復号画像の画素値を予め定められた予測方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成するか(H264における「方向予測モード」に相当)、または、上記復号画像の画素値から推定した上記隣接予測単位のエッジ方向をθ*、量子化ステップサイズをδθとして、上記復号画像の画素値を予測方向θ*±k×δθ(0≦k≦N)に沿って外挿することによって、上記隣接予測単位に関する予測画像を生成する(非特許文献2における「エッジベース予測モード」に相当)予測モードである。あるいは、前記方向の両側に復号済み画素がある場合は、両方の画素値を上記予測方向に沿って内挿することによって予測画像を生成してもよい。ただし、方向予測モードは、これに限定されず、上記復号画像の画素値を特定の予測方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードであればよい。
 また、上記基本予測モードは、上記復号画像の画素値を予め定められた方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードであり、上記追加予測モードは、上記復号画像の画素値から推定した上記隣接予測単位のエッジ方向をθ*、量子化ステップサイズをδθとして、上記復号画像の画素値を予測方向θ*±k×δθ(0≦k≦N)に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードである、ことが好ましい。
 本発明に係る画像復号装置において、上記導出手段は、上記隣接予測単位が予め定められた条件を満たす場合、または、上記参照予測モードが予め定められた条件を満たす場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出することが好ましい。
 上記参照予測モードが所望の予測精度を有するか否かは、上記隣接予測単位が予め定められた条件を満たすか否か、または、上記参照予測モードが予め定められた条件を満たすか否かに応じて判定することができる。このため、上記隣接予測単位が予め定められた条件を満たす場合、または、上記参照予測モードが予め定められた条件を満たす場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出するようにすれば、追加予測モードが予測画像の生成に利用される可能性が高い場合に限って、参照予測モードに対応する予測パラメータから追加予測モードに対応する予測パラメータを導出し、そうでない場合は、追加予測モードに対応する予測パラメータを導出しないようにすることができる。すなわち、予測画像の生成に利用される可能性の低い追加予測モードに対応する予測パラメータを参照予測モードに対応する予測パラメータから導出するという無駄を省くことができる。
 本発明に係る画像復号装置において、上記導出手段は、上記隣接予測単位に関する予測残差が予め定められた閾値よりも小さい場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出することが好ましい。
 上記隣接予測単位に関する予測残差が予め定められた閾値よりも小さい場合、すなわち、参照予測モードの予測精度が一定以上である場合には、対象予測単位においても追加予測モード(参照予測モードの予測パラメータから導出された予測パラメータに対応)の予測精度が他の予測モードの予測精度を上回り、追加予測モードが予測画像の生成に利用される可能性が高い。
 上記構成によれば、追加予測モードが予測画像の生成に利用される可能性が高い場合に限って、参照予測モードに対応する予測パラメータから追加予測モードに対応する予測パラメータを導出する。すなわち、予測画像の生成に利用される可能性の低い追加予測モードに対応する予測パラメータを参照予測モードに対応する予測パラメータから無駄に導出することがない。
 本発明に係る画像復号装置において、上記導出手段は、上記隣接予測単位のサイズが上記対象予測単位のサイズと同一である場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出することが好ましい。
 対象予測単位のサイズと隣接予測単位のサイズとが同一である場合、対象予測単位に隣接する復号済みの隣接予測単位は、対象予測単位の左辺に隣接するものと上辺に隣接するものとの2つに限定される(復号順序がラスタスキャン順の場合)。したがって、上記の構成によれば、計算コストの小さい簡単なアルゴリズムで、追加予測モードに対応する予測パラメータを参照予測モードに対応する予測パラメータから導出することができる。
 本発明に係る画像復号装置において、上記導出手段は、上記隣接予測単位の属する最大符号化単位が上記対象予測単位の属する最大符号化単位と同一である場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出することが好ましい。
 上記構成によれば、第1の予測単位において予測画像の生成に利用された予測パラメータが、第1の予測単位に隣接する第2の予測単位において追加予測モードに対応する予測パラメータの導出に参照され、第2の予測単位において予測画像の生成に利用された予測パラメータが、第2の予測単位に隣接する第3の予測単位において追加予測モードに対応する予測パラメータの導出に参照され、・・・というような参照の連鎖が最大符号化単位を超えて生じることがない。すなわち、ある予測単位における追加予測モードに対応する予測パラメータを導出するために、その予測単位との相関が切れるほど遠く離れた予測単位において予測画像の生成に利用された予測パラメータを参照することによって、例えば、予測パラメータがスライス全体で一様化してしまう事態を防止することができる。
 本発明に係る画像復号装置において、上記導出手段は、上記追加予測モードに対応する予測パラメータを、上記対象予測単位に隣接するN個の隣接予測単位のうち、予測残差が他のN-M個の隣接予測単位よりも小さいM個(M<N)の隣接予測単位の各々に属するM個の参照予測モードに対応する予測パラメータから導出することが好ましい。
 予測残差が小さい予測単位に関する予測モード群に属する参照予測モードほど、予測精度が高い。したがって、上記のように、予測残差が他のN-M個の隣接予測単位よりも小さいM個の隣接予測単位の各々に属するM個の参照予測モードに対応する予測パラメータを参照することによって、これらの参照予測モード以外の参照予測モードを参照する場合よりも予測精度の高い追加予測モードを導出することができる。
 本発明に係る画像復号装置において、追加予測モードに対応する予測パラメータは、複数の参照予測モードの各々に対応する予測パラメータの平均値、または、複数の参照予測モードの各々に対応する予測パラメータの重み付き平均値であって、各予測パラメータの確信度を重みとする重み付平均値であることが好ましい。
 上記の構成によれば、複数の参照予測モードの各々に対応する予測パラメータから、追加予測モードに対応する適切な予測パラメータを単純な演算で導出することができる。特に、各予測パラメータの確信度に応じた重み付けを行うことにより、演算の単純性を損なうことなく、追加予測モードに対応するより適切な予測パラメータを導出することができる。
 上記課題を解決するために、本発明に係る画像符号化装置は、予測単位毎に予測モード群から選択した予測モードに従って生成した予測画像を原画像から減算して得られる予測残差を、選択した予測モードを指定する予測モード指定情報と共に符号化することによって、符号化データを生成する画像符号化装置であって、対象予測単位に関する予測モード群に追加する追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位に関する予測モード群から選択した予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えていることを特徴とする。
 上記の構成によれば、上記の画像復号装置にて復号可能な符号化データを生成する画像符号化装置を実現することができる。
 上記課題を解決するために、本発明に係る符号化データのデータ構造は、予測単位毎に予測モード群から選択した予測モードに従って生成した予測画像を原画像から減算して得られる予測残差を、選択した予測モードを指定する予測モード指定情報と共に符号化することによって生成された符号化データのデータ構造であって、対象予測単位に関する予測モード群に追加すべき予測モードに対応する予測パラメータが、該対象予測単位に隣接する隣接予測単位に関する予測モード群から選択した予測モードを指定する予測モード指定情報によって陰的に表現されている、ことを特徴とする。
 上記の構成によれば、上記の画像復号装置にて復号可能な符号化データを実現することができる。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、符号化データを復号する復号装置、および、符号化データを生成する符号化装置に好適に適用することができる。また、符号化装置によって生成され、復号装置によって参照される符号化データのデータ構造に好適に適用することができる。
1      動画像復号装置(画像復号装置)
11     可変長符号復号部
12     予測画像生成部
12b    インター予測画像生成部
12c    イントラ予測画像生成部(導出手段)
15     フレームメモリ
2      動画像符号化装置(画像符号化装置)
21     予測画像生成部
21a    イントラ予測画像生成部(導出手段)
21c    インター予測画像生成部
25     フレームメモリ
27     可変長符号符号化部

Claims (13)

  1.  符号化データから復号した予測残差に、予測モード群に属する予測モードであって符号化データから復号した予測モード指定情報により指定される予測モードに対応する予測パラメータに従って予測単位毎に生成した予測画像を加算することによって復号画像を生成する画像復号装置において、
     上記予測モード群には、予め定められた予測パラメータに対応する基本予測モードと、対象予測単位に隣接する隣接予測単位から予測パラメータが導出される追加予測モードが含まれ、
     上記追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位の予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えている、
    ことを特徴とする画像復号装置。
  2.  上記導出手段は、上記対象予測単位に隣接する隣接予測単位の復号画像から予測パラメータを導出する手段を備え、
     上記導出手段は、上記参照予測モードが追加予測モードである場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出する、
    ことを特徴とする請求項1に記載の画像復号装置。
  3.  上記基本予測モードは、上記復号画像の画素値を予め定められた方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードであり、上記追加予測モードは、上記復号画像の画素値から推定した上記隣接予測単位のエッジ方向をθ*、量子化ステップサイズをδθとして、上記復号画像の画素値を予測方向θ*±k×δθ(0≦k≦N)に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードである、
    ことを特徴とする請求項2に記載の画像復号装置。
  4.  上記隣接予測単位に関する予測モード群には、上記復号画像の画素値を特定の予測方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する方向予測モードと、上記復号画像の画素値を特定の領域上で平均することによって、上記隣接予測単位に関する予測画像を生成する非方向予測モードとが含まれ、
     上記導出手段は、上記参照予測モードが方向予測モードである場合に限って、上記追加予測モードに対応する予測方向を上記方向予測モードに対応する予測方向から導出する、
    ことを特徴とする請求項1に記載の画像復号装置。
    に記載の画像復号装置。
  5.  上記方向予測モードは、上記復号画像の画素値を予め定められた予測方向に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成するか、または、上記復号画像の画素値から推定した上記隣接予測単位のエッジ方向をθ*、量子化ステップサイズをδθとして、上記復号画像の画素値を予測方向θ*±k×δθ(0≦k≦N)に沿って外挿または内挿することによって、上記隣接予測単位に関する予測画像を生成する予測モードである、
    ことを特徴とする請求項4に記載の画像復号装置。
  6.  上記導出手段は、上記隣接予測単位が予め定められた条件を満たす場合、または、上記参照予測モードが予め定められた条件を満たす場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出する、
    ことを特徴とする請求項1から5までの何れか1項に記載の画像復号装置。
  7.  上記導出手段は、上記隣接予測単位に関する予測残差が予め定められた閾値よりも小さい場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出する、
    ことを特徴とする請求項6に記載の画像復号装置。
  8.  上記導出手段は、上記隣接予測単位のサイズが上記対象予測単位のサイズと同一である場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出する、
    ことを特徴とする請求項6に記載の画像復号装置。
  9.  上記導出手段は、上記隣接予測単位の属する最大符号化単位が上記対象予測単位の属する最大符号化単位と同一である場合に限って、上記追加予測モードに対応する予測パラメータを上記参照予測モードに対応する予測パラメータから導出する、
    ことを特徴とする請求項6に記載の画像復号装置。
  10.  上記導出手段は、上記追加予測モードに対応する予測パラメータを、上記対象予測単位に隣接するN個の隣接予測単位のうち、予測残差が他のN-M個の隣接予測単位よりも小さいM個(M<N)の隣接予測単位の各々に属するM個の参照予測モードに対応する予測パラメータから導出する、
    ことを特徴とする請求項1から5までの何れか1項に記載の画像復号装置。
  11.  追加予測モードに対応する予測パラメータは、複数の参照予測モードの各々に対応する予測パラメータの平均値、または、複数の参照予測モードの各々に対応する予測パラメータの重み付き平均値であって、各予測パラメータの確信度を重みとする重み付平均値である、
    ことを特徴とする請求項1から10までの何れか1項に記載の画像復号装置。
  12.  予測単位毎に予測モード群から選択した予測モードに従って生成した予測画像を原画像から減算して得られる予測残差を、選択した予測モードを指定する予測モード指定情報と共に符号化することによって符号化データを生成する画像符号化装置であって、
     対象予測単位に関する予測モード群に追加する追加予測モードに対応する予測パラメータを導出する導出手段であって、該対象予測単位に隣接する隣接予測単位に関する予測モード群から選択した予測モードを参照予測モードとし、該追加予測モードに対応する予測パラメータを該参照予測モードに対応する予測パラメータから導出する導出手段を備えている、
    ことを特徴とする画像符号化装置。
  13.  予測単位毎に予測モード群から選択した予測モードに従って生成した予測画像を原画像から減算して得られる予測残差を、選択した予測モードを指定する予測モード指定情報と共に符号化することによって生成された符号化データのデータ構造であって、
     対象予測単位に関する予測モード群に追加すべき予測モードに対応する予測パラメータが、該対象予測単位に隣接する隣接予測単位に関する予測モード群から選択した予測モードを指定する予測モード指定情報によって陰的に表現されている、ことを特徴とする符号化データのデータ構造。
PCT/JP2011/072465 2010-09-29 2011-09-29 画像復号装置、画像符号化装置、および、符号化データのデータ構造 WO2012043766A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-219714 2010-09-29
JP2010219714 2010-09-29

Publications (1)

Publication Number Publication Date
WO2012043766A1 true WO2012043766A1 (ja) 2012-04-05

Family

ID=45893203

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/072465 WO2012043766A1 (ja) 2010-09-29 2011-09-29 画像復号装置、画像符号化装置、および、符号化データのデータ構造

Country Status (1)

Country Link
WO (1) WO2012043766A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246431A (ja) * 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
JP2009111691A (ja) * 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
JP2010056701A (ja) * 2008-08-27 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> 画面内予測符号化方法,画面内予測復号方法,これらの装置,およびそれらのプログラム並びにプログラムを記録した記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246431A (ja) * 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
JP2009111691A (ja) * 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
JP2010056701A (ja) * 2008-08-27 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> 画面内予測符号化方法,画面内予測復号方法,これらの装置,およびそれらのプログラム並びにプログラムを記録した記録媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Test Model under Consideration, Output Document (draft000)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-B205, 2ND MEETING, July 2010 (2010-07-01), GENEVA, CH, pages 1 - 14,53-67,132-136 *
EHSAN MAANI ET AL.: "Differential Coding of Intra Modes (DCIM)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-B109, 2ND MEETING, July 2010 (2010-07-01), GENEVA, CH, pages 1 - 7 *
TOMOYUKI YAMAMOTO ET AL.: "Flexible Representation of Intra Prediction Modes", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-B063, 2ND MEETING, July 2010 (2010-07-01), GENEVA, CH, pages 1 - 7 *

Similar Documents

Publication Publication Date Title
JP6957715B2 (ja) 画像フィルタ装置、フィルタ方法および動画像復号装置
US11627337B2 (en) Image decoding device
US10547861B2 (en) Image decoding device
JP5551274B2 (ja) 画像フィルタ装置
WO2017068856A1 (ja) 予測画像生成装置、画像復号装置および画像符号化装置
WO2017195532A1 (ja) 画像復号装置及び画像符号化装置
WO2012077719A1 (ja) 画像復号装置、および画像符号化装置
JP7139144B2 (ja) 画像フィルタ装置
TW202133613A (zh) 圖像解碼裝置及圖像編碼裝置
WO2013046990A1 (ja) オフセット復号装置、オフセット符号化装置、画像フィルタ装置、および、データ構造
WO2018110281A1 (ja) 符号予測装置、画像復号装置および画像符号化装置
JP2013223050A (ja) フィルタ装置、復号装置、および符号化装置
JP2013141094A (ja) 画像復号装置、画像符号化装置、画像フィルタ装置、および符号化データのデータ構造
WO2012121352A1 (ja) 動画像復号装置、動画像符号化装置、および、データ構造
JP2013187868A (ja) 画像復号装置、画像符号化装置、およびデータ構造
WO2012077795A1 (ja) 画像符号化装置、画像復号装置、およびデータ構造
WO2012090962A1 (ja) 画像復号装置、画像符号化装置、および符号化データのデータ構造、ならびに、算術復号装置、算術符号化装置
WO2012043766A1 (ja) 画像復号装置、画像符号化装置、および、符号化データのデータ構造
WO2013161689A1 (ja) 動画像復号装置、および動画像符号化装置
WO2012081706A1 (ja) 画像フィルタ装置、フィルタ装置、復号装置、符号化装置、および、データ構造
WO2012043676A1 (ja) 復号装置、符号化装置、および、データ構造
WO2012043678A1 (ja) 画像復号装置、画像符号化装置、および、データ構造
JP2013251827A (ja) 画像フィルタ装置、画像復号装置、画像符号化装置、およびデータ構造

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11829319

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11829319

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP