WO2012043676A1 - Decoding device, encoding device, and data structure - Google Patents

Decoding device, encoding device, and data structure Download PDF

Info

Publication number
WO2012043676A1
WO2012043676A1 PCT/JP2011/072280 JP2011072280W WO2012043676A1 WO 2012043676 A1 WO2012043676 A1 WO 2012043676A1 JP 2011072280 W JP2011072280 W JP 2011072280W WO 2012043676 A1 WO2012043676 A1 WO 2012043676A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
prediction mode
unit
intra
parameter
Prior art date
Application number
PCT/JP2011/072280
Other languages
French (fr)
Japanese (ja)
Inventor
将伸 八杉
山本 智幸
知宏 猪飼
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2012043676A1 publication Critical patent/WO2012043676A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Definitions

  • the present invention relates to a decoding device that decodes encoded data and an encoding device that generates encoded data.
  • the present invention also relates to the data structure of encoded data generated by the encoding device and referenced by the decoding device.
  • a moving image encoding device that generates encoded data by encoding the moving image, and decoding by decoding the encoded data
  • a video decoding device (decoding device) that generates an image is used.
  • As a specific moving picture encoding method for example, H.264 is used. H.264 / MPEG-4.
  • AVC Non-Patent Document 1
  • VCEG Video Coding Expert Group
  • KTA Key Integrity Expert Group
  • TMuC Test Model Under Consideration
  • an image (picture) constituting a moving image is a slice obtained by dividing the image, a coding unit obtained by dividing the slice (macroblock or coding unit (Coding Unit)) And is managed by a hierarchical structure composed of blocks and partitions obtained by dividing an encoding unit, and is normally encoded block by block.
  • a predicted image is usually generated based on a local decoded image obtained by encoding / decoding an input image, and a difference image (“residual” between the predicted image and the input image is generated.
  • difference image or “prediction residual”.
  • inter prediction inter-screen prediction
  • intra-screen prediction intra-screen prediction
  • a prediction image in a prediction target frame is generated for each prediction unit by applying motion compensation using a motion vector to a reference image in a reference frame (decoded image) obtained by decoding the entire frame. Is done.
  • intra prediction predicted images in the frame are sequentially generated based on locally decoded images in the same frame.
  • H. H.264 / MPEG-4 As an example of intra prediction used in AVC, any prediction direction is selected from prediction directions included in a predetermined prediction direction group for each prediction unit (for example, partition), and a locally decoded image is used. And a method of generating a pixel value on the prediction unit by extrapolating the pixel value of the reference pixel in the selected prediction direction (sometimes referred to as “basic prediction”).
  • Non-Patent Document 2 for each prediction unit, an edge direction is calculated based on pixel values of pixels around the prediction unit, and a pixel value of a reference pixel in the locally decoded image is extrapolated to the calculated edge direction.
  • a method of generating a pixel value on the prediction unit (a method called Differential Coding of Intra Modes (DCIM), sometimes called “edge prediction” or “edge-based prediction”) is disclosed.
  • DCIM Differential Coding of Intra Modes
  • Non-Patent Document 2 is a diagram schematically showing a prediction unit CurrentBlock to be processed and pixels located around the prediction unit.
  • an edge vector a i 1 to N, N is the total number of surrounding pixels to be referred to).
  • a Sobel operator also referred to as a Sobel filter
  • the direction represented by ⁇ * + ⁇ can be used as the prediction direction.
  • indicates direction adjustment, and ⁇ used in the encoding device needs to be encoded and transmitted to the decoding device.
  • the decoding apparatus sets ⁇ * + k ⁇ ⁇ as the prediction direction.
  • Non-Patent Document 2 intra prediction using the edge-based prediction described above is performed, or H.264 / MPEG-4.
  • a 1-bit flag specifying whether to perform basic prediction used in AVC is encoded for each prediction unit.
  • (C) of FIG. 10 is a table showing each syntax disclosed in Non-Patent Document 2 together with a descriptor associated with each syntax.
  • Descriptor ae (v) shown in (c) of FIG. 10 indicates that the syntax associated with the descriptor is arithmetically encoded.
  • the flag use_neighbor_dir is decoded first, and when the flag use_neighbor_dir indicates that edge-based prediction is used, the syntax adjust_neighbor_dir representing the quantization index k described above is decoded. .
  • the syntax most_prob_mode is decoded.
  • the syntax most_prob_mode is a flag indicating whether or not the estimated prediction mode estimated from the prediction mode used for prediction of a partition around the target partition is the same as the prediction mode of the target partition.
  • the syntax rem_intra_pred_mode that specifies the prediction mode assigned to the target partition is subsequently decoded.
  • edge-based prediction or H.264 H.264 / MPEG-4 An intra-predicted image is generated by selectively using one of basic predictions used in AVC. Further, when edge-based prediction is used, only the quantization index k needs to be encoded. Therefore, when edge-based prediction is frequently used in the generation of a predicted image, H.264 is used. H.264 / MPEG-4. Compared to the case where only basic prediction used in AVC is used, the amount of encoded data can be reduced.
  • edge-based prediction may not be frequently used depending on the characteristics of the image to be encoded.
  • edge-based prediction and H.264 H.264 / MPEG-4 Since it is necessary to encode a flag that designates one of basic predictions used in AVC, there has been a problem that the amount of encoded data is not reduced or not as much as expected.
  • the present invention has been made in view of the above-mentioned problems, and the object thereof is edge-based prediction or H.264. H.264 / MPEG-4.
  • Encoding apparatus, decoding apparatus, and encoded data capable of reducing the code amount of encoded data while selectively improving any one of basic predictions used in AVC It is to realize the data structure.
  • the decoding apparatus specifies a prediction mode set element composed of a first prediction mode group element and a second prediction mode group element by a single code.
  • a decoding device that decodes encoded data obtained by encoding together with prediction mode designation information, and generates a decoded image by adding a prediction image generated for each prediction unit to a prediction residual decoded from the encoded data.
  • a prediction mode specifying means for specifying a prediction mode specified by the prediction mode specification information from the code according to a predetermined correspondence between the code and a prediction mode specified by the code; And a prediction mode designated by the prediction mode designation information from the code in accordance with a predetermined correspondence relationship between the prediction mode group to which the prediction mode designated by the code belongs.
  • a prediction mode group specifying means for specifying a prediction mode group to which the user belongs, and a prediction parameter selection means for selecting a prediction parameter, wherein the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group Selecting a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying means from a first prediction parameter group consisting of one or more prediction parameters corresponding to the first prediction mode group, and the prediction mode group specifying means
  • the prediction mode specifying means includes the second prediction parameter group including one or more predetermined prediction parameters corresponding to the second prediction mode group.
  • a prediction parameter selection means for selecting a prediction parameter corresponding to the prediction mode specified by the prediction parameter, and a prediction parameter selected by the prediction parameter selection means.
  • the predicted image generating means for generating the predicted image.
  • the prediction mode designation information included in the encoded data decoded by the decoding apparatus configured as described above includes elements of a prediction mode set including elements of the first prediction mode group and elements of the second prediction mode group. Is specified by a single code.
  • the prediction mode group specifying unit included in the decoding device has the prediction mode designation information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode designated by the code belongs. A prediction mode group to which the designated prediction mode belongs is specified. Therefore, in the encoded data decoded by the decoding apparatus configured as described above, the prediction modes to be referred to when generating a prediction image are the first prediction mode group and the second prediction mode group. Of these, a code for designating which prediction mode group belongs is not necessary.
  • the encoded data referred to by the decoding apparatus configured as described above selectively uses the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group.
  • Generating a prediction image requires a code for designating which prediction mode group the prediction mode to be referred to when generating the prediction image belongs while improving the prediction accuracy of the prediction image Compared with the structure to perform, reduction of the code amount of coding data can be aimed at.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
  • An encoding apparatus is an encoding apparatus that generates encoded data by encoding residual data between an original image and a predicted image generated for each prediction unit, and includes a prediction parameter.
  • Prediction parameter selection means for selecting a prediction parameter for selecting a prediction parameter from a first prediction parameter group consisting of one or more prediction parameters or a second prediction parameter group consisting of one or more predetermined prediction parameters
  • Prediction mode specification information encoding means for encoding the prediction mode specification information to be specified, and the single code
  • the single code Are elements of a first prediction mode group consisting of prediction modes corresponding to the first prediction parameter group and elements of a second prediction mode group consisting of prediction modes corresponding to each element of the second prediction parameter group It is characterized in that the elements of the prediction mode set consisting of
  • prediction is performed by selectively using the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group.
  • the prediction accuracy of the predicted image can be improved.
  • the prediction mode corresponding to the selected prediction parameter is specified by a single code, encoded data with a small code amount can be generated.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment or a partition obtained by dividing the PU.
  • a prediction parameter to be selected by the decoding device to generate a predicted image is set.
  • Prediction mode designation information that designates a corresponding prediction mode by a single code, and the single code is determined in advance as an element of a first prediction mode group consisting of prediction modes corresponding to one or more prediction parameters.
  • a data structure of encoded data characterized in that elements of a prediction parameter set comprising elements of a second prediction mode group consisting of a prediction mode corresponding to each of the predicted parameters are identified from each other.
  • the decoding apparatus uses the residual data between the original image and the prediction image generated for each prediction unit as the elements of the first prediction mode group and the elements of the second prediction mode group.
  • a decoding apparatus that decodes encoded data obtained by encoding together with prediction mode specifying information that specifies elements of a prediction mode set consisting of a single code, and the prediction mode specified by the code and the code;
  • a prediction mode specifying means for specifying a prediction mode specified by the prediction mode specifying information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode specified by the code and the code belongs.
  • Prediction mode group specifying means for specifying a prediction mode group to which the prediction mode specified by the prediction mode specification information belongs from the code according to a predetermined correspondence relationship between Prediction parameter selection means for selecting a meter, and when the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group, the prediction parameter selection means includes one or more prediction parameters derived with reference to a decoded image.
  • a prediction parameter selection unit that selects a prediction parameter corresponding to the prediction mode specified by the prediction mode specification unit from a second prediction parameter group that includes one or more predetermined prediction parameters, and a prediction parameter selection unit selected And a predicted image generating means for generating the predicted image according to a prediction parameter.
  • a code for designating which prediction mode group a prediction mode to be referred to when generating a prediction image belongs while improving the prediction accuracy of the prediction image Compared to a configuration that requires the above, the amount of encoded data can be reduced.
  • FIG. 4 is a diagram illustrating a configuration of a picture layer of encoded data
  • (b) is a diagram illustrating a configuration of a slice layer included in the picture layer
  • (c) is a configuration of an LCU layer included in the slice layer.
  • (D) is a figure which shows the structure of the leaf CU contained in a CU layer
  • (e) is a figure which shows the structure of the inter prediction information about leaf CU
  • (F) is a figure which shows the structure of the intra prediction information about leaf CU. It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on embodiment of this invention.
  • (B) is a figure which shows the parameter which designates a correction angle with the prediction direction after correction
  • FIG. 4 is a diagram illustrating prediction modes included in an extended set including a plurality of basic prediction modes and a plurality of edge-based prediction modes, together with a prediction mode index
  • FIG. 5B is referenced by a video decoding device according to a modified example.
  • FIG. 1 It is a figure which shows the structure of the intra prediction parameter to perform. It is a block diagram which shows the structure of the moving image encoder which concerns on embodiment of this invention.
  • the conventional moving image decoding apparatus it is a figure for demonstrating the production
  • FIG. 2B is a block diagram showing a configuration of a receiving device equipped with a video decoding device.
  • BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for demonstrating that the moving image decoding apparatus and moving image encoding apparatus which concern on embodiment of this invention can be utilized for recording and reproduction
  • Embodiments of a decoding apparatus and an encoding apparatus according to the present invention will be described below with reference to the drawings.
  • the decoding apparatus according to the present embodiment decodes a moving image from encoded data. Therefore, hereinafter, this is referred to as “moving image decoding apparatus”.
  • the encoding device according to the present embodiment generates encoded data by encoding a moving image. Therefore, in the following, this is referred to as a “video encoding device”.
  • the scope of application of the present invention is not limited to this. That is, as will be apparent from the following description, the feature of the present invention lies in intra prediction, and is established without assuming a plurality of frames. That is, the present invention can be applied to a general decoding apparatus and a general encoding apparatus regardless of whether the target is a moving image or a still image.
  • the encoded data # 1 has a hierarchical structure including a sequence layer, a GOP (Group Of Pictures) layer, a picture layer, a slice layer, and a maximum coding unit (LCU: Large Coding Unit) layer.
  • GOP Group Of Pictures
  • LCU Large Coding Unit
  • FIG. 2 shows the hierarchical structure below the picture layer in the encoded data # 1.
  • FIGS. 2A to 2F are a picture layer P, a slice layer S, an LCU layer LCU, a leaf CU included in the LCU (denoted as CUL in FIG. 2D), and inter prediction (inter-screen prediction), respectively. It is a figure which shows the structure of inter prediction information PI_Inter which is the prediction information PI about a partition, and intra prediction information PI_Intra which is the prediction information PI about an intra prediction (prediction in a screen) partition.
  • PI_Inter is the prediction information PI about a partition
  • intra prediction information PI_Intra which is the prediction information PI about an intra prediction (prediction in a screen) partition.
  • the picture layer P is a set of data that is referenced by the video decoding device 1 in order to decode a target picture that is a processing target picture. As shown in FIG. 2A, the picture layer P includes a picture header PH and slice layers S1 to SNs (Ns is the total number of slice layers included in the picture layer P).
  • the picture header PH includes a coding parameter group that is referred to by the video decoding device 1 in order to determine a decoding method of the target picture.
  • the encoding mode information (entropy_coding_mode_flag) indicating the variable length encoding mode used in encoding by the moving image encoding device 2 is an example of an encoding parameter included in the picture header PH.
  • entropy_coding_mode_flag When entropy_coding_mode_flag is 0, the picture is CAVLC (Context-based Adaptive Variable Length Coding).
  • entropy_coding_mode_flag is 1, the picture is encoded by CABAC (Context-based Adaptive Binary Arithmetic Coding).
  • Each slice layer S included in the picture layer P is a set of data referred to by the video decoding device 1 in order to decode a target slice that is a slice to be processed.
  • the slice layer S includes a slice header SH and LCU layers LCU1 to LCUn (Nc is the total number of LCUs included in the slice S).
  • the slice header SH includes a coding parameter group that the moving image decoding apparatus 1 refers to in order to determine a decoding method of the target slice.
  • Slice type designation information (slice_type) for designating a slice type is an example of an encoding parameter included in the slice header SH.
  • the slice header SH includes a filter parameter FP that is referred to by a loop filter included in the video decoding device 1.
  • slice types that can be specified by the slice type specification information, (1) I slice using only intra prediction at the time of encoding, and (2) P using unidirectional prediction or intra prediction at the time of encoding. Slice, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding.
  • Each LCU layer LCU included in the slice layer S is a set of data that the video decoding device 1 refers to in order to decode the target LCU that is the processing target LCU.
  • the LCU layer LCU is composed of a plurality of coding units (CU: Coding Units) obtained by hierarchically dividing the LCU into a quadtree.
  • the LCU layer LCU is a coding unit corresponding to the highest level in a hierarchical structure that recursively includes a plurality of CUs.
  • each CU included in the LCU layer LCU has a hierarchical structure that recursively includes a CU header CUH and a plurality of CUs obtained by dividing the CU into quadtrees. is doing.
  • each CU excluding the LCU is half the size of the CU to which the CU directly belongs (that is, the CU one layer higher than the CU), and the size that each CU can take is encoded data # 1.
  • a CU that is not further divided is called a leaf CU.
  • the CU header CUH includes a coding parameter referred to by the video decoding device 1 in order to determine a decoding method of the target CU. Specifically, as shown in FIG. 2C, a CU division flag SP_CU that specifies whether or not the target CU is further divided into four subordinate CUs is included. When the CU division flag SP_CU is 0, that is, when the CU is not further divided, the CU is a leaf CU.
  • CU leaf A CU (CU leaf) that is not further divided is handled as a prediction unit (PU: Prediction Unit) and a transform unit (TU: Transform Unit).
  • PU Prediction Unit
  • TU Transform Unit
  • the leaf CU (denoted as CUL in FIG. 2 (d)) includes (1) PU information PUI that is referred to when the moving image decoding apparatus 1 generates a predicted image, and (2) The TU information TUI that is referred to when the residual data is decoded by the moving picture decoding apparatus 1 is included.
  • the skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target PU.
  • the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target leaf, PU information PUI and TU information TUI in the leaf CU are omitted. Note that the skip flag SKIP is omitted for the I slice.
  • the PU information PUI includes a skip flag SKIP, prediction type information PT, and prediction information PI as shown in FIG.
  • the prediction type information PT is information that specifies whether intra prediction or inter prediction is used as a predicted image generation method for the target leaf CU (target PU).
  • the prediction information PI includes intra prediction information PI_Intra or inter prediction information PI_Inter depending on which prediction method is specified by the prediction type information PT.
  • a PU to which intra prediction is applied is also referred to as an intra PU
  • a PU to which inter prediction is applied is also referred to as an inter PU.
  • the PU information PUI includes information specifying the shape and size of each partition included in the target PU and the position in the target PU.
  • the partition is one or a plurality of non-overlapping areas constituting the target leaf CU, and the generation of the predicted image is performed in units of partitions.
  • the TU information TUI specifies a quantization parameter difference ⁇ qp (tu_qp_delta) that specifies the magnitude of the quantization step, and a division pattern for each block of the target leaf CU (target TU).
  • TU partition information SP_TU and quantized prediction residuals QD1 to QDNT are included.
  • the quantization parameter difference ⁇ qp is a difference qp ⁇ qp ′ between the quantization parameter qp in the target TU and the quantization parameter qp ′ in the TU encoded immediately before the TU.
  • TU partition information SP_TU is information that specifies the shape and size of each block included in the target TU and the position in the target TU.
  • Each TU can be, for example, a size from 64 ⁇ 64 pixels to 2 ⁇ 2 pixels.
  • the block is one or a plurality of non-overlapping areas constituting the target leaf CU, and encoding / decoding of the prediction residual is performed in units of blocks.
  • Each quantized prediction residual QD is encoded data generated by the moving image encoding apparatus 2 performing the following processes 1 to 3 on a target block that is a processing target block.
  • Process 1 DCT transform (Discrete Cosine Transform) is performed on the prediction residual obtained by subtracting the prediction image from the encoding target image.
  • Process 2 The DCT coefficient obtained in Process 1 is quantized.
  • Process 3 The DCT coefficient quantized in Process 2 is variable length encoded.
  • the inter prediction information PI_Inter includes a coding parameter that is referred to when the video decoding device 1 generates an inter prediction image by inter prediction. As shown in FIG. 2 (e), the inter prediction information PI_Inter includes inter PU partition information SP_Inter that specifies a partition pattern for each partition of the target PU, and inter prediction parameters PP_Inter1 to PP_InterNe (Ne for each partition). The total number of inter prediction partitions included in the target PU).
  • the inter-PU partition information SP_Inter is information for designating the shape and size of each inter prediction partition included in the target PU (inter PU) and the position in the target PU.
  • the inter PU is composed of four symmetric splittings of 2N ⁇ 2N pixels, 2N ⁇ N pixels, N ⁇ 2N pixels, and N ⁇ N pixels, and 2N ⁇ nU pixels, 2N ⁇ nD pixels, and nL ⁇ 2N. It is possible to divide into 8 types of partitions in total by four asymmetric splits of pixels and nR ⁇ 2N pixels.
  • the specific value of N is defined by the size of the CU to which the PU belongs, and the specific values of nU, nD, nL, and nR are determined according to the value of N.
  • an inter PU of 128 ⁇ 128 pixels is 128 ⁇ 128 pixels, 128 ⁇ 64 pixels, 64 ⁇ 128 pixels, 64 ⁇ 64 pixels, 128 ⁇ 32 pixels, 128 ⁇ 96 pixels, 32 ⁇ 128 pixels, and 96 ⁇ It is possible to divide into 128-pixel inter prediction partitions.
  • the inter prediction parameter PP_Inter includes a reference image index RI, an estimated motion vector index PMVI, and a motion vector residual MVD.
  • the intra prediction information PI_Intra includes an encoding parameter that is referred to when the video decoding device 1 generates an intra predicted image by intra prediction.
  • the intra prediction information PI_Intra includes intra PU partition information SP_Intra that specifies a partition pattern of the target PU (intra PU) into each partition, and intra prediction parameters PP_Intra1 to PP_IntraNa for each partition. (Na is the total number of intra prediction partitions included in the target PU).
  • the intra-PU partition information SP_Intra is information that specifies the shape and size of each intra-predicted partition included in the target PU, and the position in the target PU.
  • the intra PU split information SP_Intra includes an intra split flag (intra_split_flag) that specifies whether or not the target PU is split into partitions. If the intra partition flag is 1, the target PU is divided symmetrically into four partitions. If the intra partition flag is 0, the target PU is not divided and the target PU itself is one partition.
  • N 2 n , n is an arbitrary integer of 1 or more.
  • a 128 ⁇ 128 pixel intra PU can be divided into 128 ⁇ 128 pixel and 64 ⁇ 64 pixel intra prediction partitions.
  • the intra prediction parameter PP_Intra includes an estimation flag MPM, a residual prediction mode index RIPM, and an additional index AI.
  • the intra prediction parameter PP_Intra is a parameter for designating an intra prediction method (prediction mode) for each partition.
  • the estimation flag MPM is a flag indicating whether or not the prediction mode estimated based on the prediction mode allocated to the peripheral partition of the target partition that is the processing target is the same as the prediction mode for the target partition.
  • examples of partitions around the target partition include a partition adjacent to the upper side of the target partition and a partition adjacent to the left side of the target partition.
  • the residual prediction mode index RIPM is an index included in the intra prediction parameter PP_Intra when the estimated prediction mode and the prediction mode for the target partition are different, and is an index for designating a prediction mode assigned to the target partition. It is.
  • the additional index AI is an index for specifying the intra prediction method for the target partition in more detail when the prediction mode assigned to the target partition is a predetermined prediction mode.
  • the moving picture decoding apparatus 1 includes H.264 as a part thereof. H.264 / MPEG-4.
  • Decoding device including technology adopted in KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group), and technology adopted in TMuC (Test Model under Consideration) software which is a successor codec It is.
  • FIG. 3 is a block diagram showing a configuration of the moving picture decoding apparatus 1.
  • the video decoding device 1 includes a variable length code decoding unit 11, a predicted image generation unit 12, an inverse quantization / inverse conversion unit 13, an adder 14, a frame memory 15, and a loop filter 16.
  • the predicted image generation unit 12 includes a motion vector restoration unit 12a, an inter predicted image generation unit 12b, an intra predicted image generation unit 12c, and a prediction method determination unit 12d.
  • the moving picture decoding apparatus 1 is an apparatus for generating moving picture # 2 by decoding encoded data # 1.
  • variable-length code decoding unit 11 decodes the prediction parameter PP related to each partition from the encoded data # 1, and supplies the decoded prediction parameter PP to the predicted image generation unit 12. Specifically, for the inter prediction partition, the variable length code decoding unit 11 receives the inter prediction parameter PP_Inter including the reference image index RI, the estimated motion vector index PMVI, and the motion vector residual MVD from the encoded data # 1. These are decoded and supplied to the motion vector restoration unit 12a.
  • the intra prediction parameter PP_Intra including the estimation flag MPM, the residual index RIPM, and the additional index AI is decoded from the encoded data # 1, and these are supplied to the intra prediction image generation unit 12c.
  • the variable length code decoding unit 11 supplies size designation information for designating the size of the partition to the intra predicted image generation unit 12c (not shown).
  • variable length code decoding unit 11 decodes the prediction type information PT for each partition from the encoded data # 1, and supplies this to the prediction method determination unit 12d. Further, the variable length code decoding unit 11 decodes the quantization prediction residual QD for each block and the quantization parameter difference ⁇ qp for the TU including the block from the encoded data # 1, and performs inverse quantization / inverse This is supplied to the conversion unit 13. Further, the variable length code decoding unit 11 decodes the filter parameter FP from the encoded data # 1 and supplies this to the loop filter 16.
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • CALVC Context-based Adaptive Variable Variable Length Coding
  • CABAC is an encoding / decoding scheme that performs adaptive binary arithmetic coding based on context
  • CALVC is an encoding / decoding scheme that uses a set of variable length codes that adaptively switch contexts. It is.
  • CABAC has a larger code amount reduction effect than CAVLC, but also has an aspect of increasing the processing amount.
  • variable length code decoding unit 11 refers to the encoding mode information (entropy_coding_mode_flag) included in the picture header PH of the encoded data # 1 to determine whether the target picture has been encoded by CABAC or by CAVLC. Can be identified. In addition, the variable length code decoding unit 11 decodes the target picture using a decoding method corresponding to the identified encoding method.
  • encoding mode information entropy_coding_mode_flag
  • the predicted image generation unit 12 identifies whether each partition is an inter prediction partition for performing inter prediction or an intra prediction partition for performing intra prediction based on the prediction type information PT for each partition. In the former case, the inter prediction image Pred_Inter is generated, and the generated inter prediction image Pred_Inter is supplied to the adder 14 as the prediction image Pred. In the latter case, the intra prediction image Pred_Intra is generated, The generated intra predicted image Pred_Intra is supplied to the adder 14. Note that, when the skip mode is applied to the processing target PU, the predicted image generation unit 12 omits decoding of other parameters belonging to the PU.
  • the motion vector restoration unit 12a restores the motion vector mv related to each inter prediction partition from the motion vector residual MVD related to that partition and the restored motion vector mv ′ related to another partition. Specifically, (1) the estimated motion vector pmv is derived from the restored motion vector mv ′ according to the estimation method specified by the estimated motion vector index PMVI, and (2) the derived estimated motion vector pmv and the motion vector remaining are derived. The motion vector mv is obtained by adding the difference MVD. It should be noted that the restored motion vector mv ′ relating to other partitions can be read from the frame memory 15. The motion vector restoration unit 12a supplies the restored motion vector mv to the inter predicted image generation unit 12b together with the corresponding reference image index RI.
  • the inter prediction image generation unit 12b generates a motion compensated image mc related to each inter prediction partition by inter-screen prediction. Specifically, using the motion vector mv supplied from the motion vector restoration unit 12a, the motion compensation image mc from the filtered decoded image P_ALF ′ designated by the reference image index RI supplied from the motion vector restoration unit 12a. Is generated.
  • the filtered decoded image P_ALF ′ is an image obtained by performing the filtering process by the loop filter 16 on the decoded image that has already been decoded for the entire frame, and the inter predicted image generation unit 12b. Can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 15.
  • the motion compensated image mc generated by the inter predicted image generation unit 12b is supplied to the prediction method determination unit 12d as an inter predicted image Pred_Inter.
  • the intra predicted image generation unit 12c generates a predicted image Pred_Intra related to each intra prediction partition. Specifically, first, a prediction mode is specified based on the intra prediction parameter PP_Intra supplied from the variable length code decoding unit 11, and the specified prediction mode is assigned to the target partition in, for example, raster scan order. Subsequently, a predicted image Pred_Intra is generated from the (local) decoded image P by intra prediction according to the prediction method indicated by the prediction mode. The intra predicted image Pred_Intra generated by the intra predicted image generation unit 12c is supplied to the prediction method determination unit 12d. Note that the intra predicted image generation unit 12c may be configured to generate the predicted image Pred_Intra from the filtered decoded image P_ALF by intra prediction.
  • the prediction method determination unit 12d determines whether each partition is an inter prediction partition that should perform inter prediction or an intra prediction partition that should perform intra prediction based on the prediction type information PT about the PU to which each partition belongs. To do. In the former case, the inter prediction image Pred_Inter generated by the inter prediction image generation unit 12b is supplied to the adder 14 as the prediction image Pred. In the latter case, the inter prediction image generation unit 12c generates the inter prediction image Pred_Inter. The intra predicted image Pred_Intra that has been processed is supplied to the adder 14 as the predicted image Pred.
  • the inverse quantization / inverse transform unit 13 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transform on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 14.
  • the inverse quantization / inverse transform unit 13 derives the quantization step QP from the quantization parameter difference ⁇ qp supplied from the variable length code decoding unit 11.
  • the generation of the prediction residual D by the inverse quantization / inverse transform unit 13 is performed in units of blocks obtained by dividing TUs or TUs.
  • the adder 14 generates the decoded image P by adding the prediction image Pred supplied from the prediction image generation unit 12 and the prediction residual D supplied from the inverse quantization / inverse conversion unit 13.
  • the generated decoded image P is stored in the frame memory 15.
  • loop filter 16 The loop filter 16 reads the decoded image P from the frame memory 15 and performs block noise reduction processing at one or both of the partition boundary and the block boundary of the decoded image P. In addition, the loop filter 16 performs adaptive filter processing using the filter parameter FP decoded from the encoded data # 1 on the decoded image subjected to the block noise reduction processing, and the adaptive filter processing Is output to the frame memory 15 as a filtered decoded image P_ALF.
  • the intra-predicted image generation unit 12c (1) a basic prediction mode that designates one or more predetermined prediction directions and DC prediction, and (2) calculation using pixel values around the target partition Prediction mode that determines the prediction direction by, for example, an edge whose prediction direction is the edge direction calculated from pixel values around the target partition (or the direction represented by the sum of the angle indicated by the edge direction and the correction angle) Based on the prediction mode specified by the intra prediction parameter PP_Intra among the base prediction modes, the intra prediction image Pred_Intra in the target partition is generated.
  • the intra-predicted image generation unit 12c is designated by an intra-prediction parameter PP_Intra from a set of prediction modes (hereinafter also referred to as “extended set”) including one or a plurality of basic prediction modes and an edge-based prediction mode.
  • extended set including one or a plurality of basic prediction modes and an edge-based prediction mode.
  • a prediction mode to be selected is selected, and an intra prediction image Pred_Intra in the target partition is generated based on the selected prediction mode.
  • a set of basic prediction modes that specify one or more predetermined prediction directions and DC prediction is also referred to as a basic prediction mode set. That is, the extended set includes a prediction mode included in the basic prediction mode set and an edge-based prediction mode.
  • FIG. 4 shows each prediction mode contained in an extended set with the prediction mode index attached
  • 4A shows each direction prediction mode belonging to the basic prediction mode set and the prediction direction indicated by each direction prediction mode.
  • the edge-based prediction mode is specified by index 1
  • the DC prediction mode included in the basic prediction mode is specified by index 0
  • each directional prediction included in the basic prediction mode set is included.
  • the mode is specified by indexes 2-9.
  • the information indicating the correspondence between each index and each prediction mode, and the information indicating the correspondence between each direction prediction mode belonging to the basic prediction mode set and each prediction direction are moving images that generate encoded data # 1.
  • a common configuration can be used for both the image encoding device and the moving image decoding device 1 that decodes the encoded data # 1.
  • the moving picture decoding apparatus 1 stores such information in its own memory, and whether the prediction mode specified by the decoded index is the edge-based prediction mode, the DC prediction mode, or It is possible to identify the direction prediction mode, and when the prediction mode specified by the decoded index is the direction prediction mode, which prediction direction the direction prediction mode specifies. Can be identified.
  • the information indicating the correspondence between each index and each prediction mode, and the information indicating the correspondence between each direction prediction mode belonging to the basic prediction mode set and each prediction direction are, for example, for each sequence, for each picture, or Further, a configuration may be adopted in which, for each slice, transmission is performed from the moving image encoding device to the moving image decoding device 1.
  • the edge-based prediction mode is assigned to index 1, but the present embodiment is not limited to this, and the characteristics of the image to be decoded and the edge-based prediction mode are An optimum index can be assigned according to the frequency selected. For example, in the configuration in which the prediction mode specified by a smaller index among the prediction modes assigned to the partitions around the target partition is set as the estimated prediction mode for the target partition, the prediction mode with the smaller index is selected. Will be more frequent. In the case of such a configuration, when the decoding target image includes many edges, it is preferable to assign a smaller index to the edge-based prediction mode. On the other hand, when the prediction mode having a smaller index is selected at a higher frequency and the image to be decoded includes many edges, the edge-based prediction mode is selected. It is preferable to assign a larger index to this.
  • the case where the basic prediction mode set includes a prediction mode that specifies any one of eight different direction predictions is taken as an example, but the present embodiment is limited to this. Is not to be done.
  • the basic prediction mode set a set including a prediction mode that specifies any of nine or more different directions may be used. As such an example, for example, a set including a prediction mode for designating any of 16 different directions and a prediction mode for designating any of 32 different directions can be given.
  • a prediction mode included in the basic prediction mode set one of one or more predetermined directions or one or more non-directional prediction modes (for example, DC prediction) is designated.
  • the present embodiment is not limited by the number of prediction modes included in the basic prediction mode set.
  • the intra-predicted image generation unit 12c will specifically describe the processing for generating the intra-predicted image Pred_Intra in the edge-based prediction mode and the basic prediction mode, and then refer to the intra-predicted image generation unit 12c.
  • Each syntax included in the intra-prediction parameter PP_Intra to be performed and a specific flow of the intra-prediction image Pred_Intra generation process by the intra-prediction image generation unit 12c will be described.
  • prediction image calculation processing in edge-based prediction mode First, prediction image calculation processing by the intra-prediction image generation unit 12c in the edge-based prediction mode will be specifically described with reference to (a) to (b) of FIG.
  • FIG. 5A shows the target partition OP together with the partitions NP2 and NP3 adjacent to the target partition OP and the partition NP1 sharing the top left vertex of the target partition.
  • FIG. 5A shows a case where the target partition OP and the partitions NP1 to NP3 are all 4 ⁇ 4 pixels, but the present embodiment is not limited to this, and the target partition OP is four.
  • the present invention can also be applied when the size is other than ⁇ 4 pixels or when the partitions NP1 to NP3 are other than 4 ⁇ 4 pixels. It is assumed that the pixel values of the pixels included in the partitions NP1 to NP3 shown in FIG. 5A have been decoded.
  • the calculation of the edge vectors b i is Sobel operator (Sobel operators, also referred to as a Sobel filter) Gx, and may be used to Gy.
  • the Sobel filters Gx and Gy are filter matrices used for calculating the image gradient along the x direction and the image gradient along the y direction, respectively. For example, as a 3 ⁇ 3 matrix, ,
  • the intra predicted image generation unit 12c calculates, as the edge direction, a direction orthogonal to the calculated image gradient in the x direction and the image gradient represented by the image gradient along the y direction.
  • the intra predicted image generation unit 12c has a function T ( ⁇ ) shown below.
  • T ( ⁇ ) ⁇ ⁇ e, b i > 2
  • e represents a unit vector whose angle between its own direction and the horizontal direction (x direction) is ⁇
  • represents the inner product of both vectors.
  • the symbol ⁇ indicates that the subscript i is to be summed from 1 to M.
  • the intra predicted image generation unit 12c sets an argument ⁇ * that maximizes the function T ( ⁇ ) .
  • ⁇ * argmaxS ( ⁇ )
  • the direction represented by ⁇ * is set to the edge direction for the target partition.
  • the intra predicted image generation unit 12c corrects the angle (direction correction) indicated by the syntax adjust_neighb_dir. ⁇ is added to the angle indicated by the edge direction calculated for the target partition, and the direction represented by ⁇ * + ⁇ is set as the prediction direction for the target partition.
  • represents a quantization step size for designating the roughness of quantization when the correction angle is quantized.
  • is a certainty factor s shown below.
  • the quantization step size ⁇ has a property that it is a decreasing function of the certainty factor s.
  • the intra predicted image generation unit 12c may be configured to use, for example, a predetermined quantization step size ⁇ instead of the configuration in which the quantization step size ⁇ is calculated individually for each partition.
  • the quantization step size ⁇ is encoded for each slice or for each LCU, the quantization step is included in the encoded data # 1, and the intra prediction image
  • the generation unit 12c may be configured to use the quantization step size ⁇ decoded from the encoded data # 1.
  • the intra-predicted image generation unit 12c extrapolates the decoded pixel values for pixels around the target partition in the prediction direction determined as described above, so that An intra prediction image Pred_Intra is generated. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
  • the intra-predicted image generation unit 12c sets the pixel among the decoded pixels that are located on the virtual line segment that faces the reverse direction of the prediction direction, starting from the pixel position of the prediction target pixel in the target partition.
  • the intra predicted image Pred_Intra in the target partition is generated by setting the pixel value of the closest pixel (hereinafter also referred to as the closest pixel) to the pixel value of the prediction target pixel.
  • the pixel value of the prediction target pixel may be a value calculated using the pixel value of the nearest pixel and the pixel values of the pixels around the nearest pixel.
  • the intra predicted image generation unit 12c calculates the edge direction
  • the partition adjacent to the upper side of the target partition, the partition adjacent to the left side of the target partition, and the upper left vertex of the target partition are shared.
  • the pixel values of the pixels belonging to the partition to be referred to is taken as an example, the present embodiment is not limited to this, and the intra-predicted image generation unit 12c is more generally set around the target partition.
  • the edge direction can be calculated with reference to the decoded pixel values belonging to the reference region.
  • the intra predicted image generation unit 12c When the DC prediction mode is selected for the target partition, the intra predicted image generation unit 12c generates an intra predicted image Pred_Intra for the target partition by taking an average value of decoded pixel values around the target partition. .
  • the intra predicted image generation unit 12c decodes the periphery of the target partition along the prediction direction indicated by the selected direction prediction mode.
  • the intra predicted image Pred_Intra for the target partition is generated by extrapolating the completed pixel values. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
  • FIG. 4B is a diagram showing each pixel (prediction target pixel) of the target partition, which is 4 ⁇ 4 pixels, and pixels (reference pixels) around the target partition.
  • the prediction target pixels are denoted by a to p
  • the reference pixels are denoted by A to M
  • the pixel X (X is any of a to p or A to M). Let the pixel value be represented by X. Further, it is assumed that the reference pixels A to M have all been decoded.
  • ave Indicates that an element included in parentheses is averaged.
  • “>>” represents a right shift operation, and for any positive integer x, s, the value of x >> s is equal to the value obtained by rounding down the decimal part of x ⁇ (2 ⁇ s).
  • the intra predicted image generation unit 12c can calculate the pixel values a to p by the same method for the basic prediction modes other than the above prediction modes.
  • the intra predicted image generation unit 12c generates an intra predicted image Pred_Intra in the edge-based prediction mode by performing substantially the same process as described above using the prediction direction calculated in the edge-based prediction mode. Can do.
  • FIG. 6A is a diagram showing each syntax included in the intra prediction parameter PP_Intra (indicated as read_intra_pred_mode () in FIG. 6A) together with a corresponding descriptor.
  • the intra prediction parameter PP_Intra includes the syntax most_prob_mode ′, rem_intra_pred_mode ′, and adjust_neighb_dir.
  • Each syntax is associated with one of a descriptor ae (v) and a descriptor vlc (v).
  • the descriptor ae (v) is obtained by performing arithmetic coding (CABAC coding) on the syntax associated with the descriptor by the moving picture coding apparatus that generates the coded data # 1.
  • CABAC coding arithmetic coding
  • vlc has been subjected to non-arithmetic coding (CAVLC coding) in the moving picture coding apparatus that generates the coded data # 1. It is a thing.
  • vlc (1) is 1-bit fixed length coding
  • vlc (v) is variable length coding.
  • the syntax most_prob_mode ′ shown in (a) of FIG. 6 includes an estimated prediction mode estimated for the target partition based on prediction modes assigned to the peripheral partitions of the target partition, and a prediction mode for the target partition.
  • the syntax is 1 when they are the same, and 0 when the estimated prediction mode is different from the prediction mode for the target partition.
  • the syntax most_prob_mode ′ corresponds to the estimation flag MPM described above.
  • a prediction mode specified by a small index can be used.
  • FIG. 6B shows a prediction mode in which a prediction mode with an index of 1 is assigned to a partition adjacent to the upper side of the target partition, and a prediction mode of 5 with respect to a partition adjacent to the left side of the target partition. It is a figure which shows the case where is allocated. In the example shown in FIG. 6B, a prediction mode with an index of 1 is used as the estimated prediction mode for the target partition.
  • the syntax rem_intra_pred_mode ′ shown in FIG. 6A is a syntax included in the intra prediction parameter PP_Intra when the estimated prediction mode is different from the prediction mode for the target partition, and is assigned to the target partition. Is a syntax for specifying the prediction mode to be performed.
  • FIG. 6 is a table
  • FIG. As shown in (c) of FIG. 6, an estimated prediction mode (prediction mode specified by index 1 in (c) of FIG. 6) among the prediction modes included in the extended set by the syntax rem_intra_pred_mode ′. Any prediction mode is specified except for. Therefore, when the number of prediction modes included in the extended set is 10, rem_intra_pred_mode ′ specifies any one of the nine prediction modes excluding the estimated prediction mode among the ten prediction modes. become.
  • FIG. 6 is a table exemplifying the correspondence between each possible value (0 to 8) of the syntax rem_intra_pred_mode 'and each binary code (Binary Code) included in the encoded data # 1.
  • the syntax rem_intra_pred_mode ′ 7, 8 corresponds to a 4-bit code.
  • the method of specifying the prediction mode by the syntax rem_intra_pred_mode ′ is not limited to the above-described example.
  • the prediction mode with low usage frequency is deleted from the prediction modes included in the extension set so that the number of prediction modes specified by the syntax rem_intra_pred_mode 'is 2 n -1 (n is a natural number), and the remaining It is good also as a structure which designates prediction mode with syntax rem_intra_pred_mode '.
  • the intra predicted image generation unit 12c can determine the frequency of use of the prediction mode, for example, based on the appearance frequency of the prediction mode assigned to the already decoded partition in the target frame. In such a configuration, the prediction mode to be deleted is determined for each partition.
  • the intra predicted image generation unit 12c can determine the use frequency of the prediction mode according to the appearance frequency of the prediction mode in a frame decoded immediately before the target frame or in a plurality of frames that have already been decoded. .
  • the prediction mode to be deleted is determined for each frame.
  • the syntax adjust_neighb_dir shown in FIG. 6A is a syntax included in the intra prediction parameter PP_Intra when the edge-based prediction mode is designated for the target partition.
  • the intra prediction image generation unit 12c sets the direction obtained by adding the correction angle indicated by the syntax adjust_neighb_dir to the calculated edge direction. Set the prediction direction for.
  • the value that can be taken by the syntax adjust_neighb_dir is not limited to the example shown in FIG. 5B. In general, any one of ⁇ A to + A is designated. Can do.
  • FIG. 1 is a flowchart showing a flow of processing for generating an intra predicted image Pred_Intra by the intra predicted image generation unit 12c.
  • Step S101 the intra predicted image generation unit 12c determines whether or not the syntax most_prob_mode ′ decoded from the encoded data # 1 and supplied from the variable length code decoding unit 11 is “1”.
  • Step S102 If the syntax most_prob_mode ′ is 1 (Yes in step S101), the estimated prediction mode is set to the temporary prediction mode for the target partition.
  • Step S103 If the syntax most_prob_mode ′ is not 1 (No in step S101), the syntax rem_intra_pred_mode ′ decoded from the encoded data # 1 and supplied from the variable length code decoding unit 11 is referred to by the syntax rem_intra_pred_mode ′.
  • the designated prediction mode is set to the temporary prediction mode for the target partition.
  • Step S104 it is determined whether or not the temporary prediction mode is an edge-based prediction mode.
  • whether or not the temporary prediction mode is the edge-based prediction mode can be determined by referring to information indicating a correspondence relationship between each index and each prediction mode. For example, when the extended set shown in FIG. 4A is used, when the index assigned to the temporary prediction mode is 1, it can be determined that the temporary prediction mode is the edge-based prediction mode. .
  • Step S105 When the temporary prediction mode is the edge-based prediction mode (Yes in step S104), the edge direction is calculated. For specific edge direction calculation, the method described in (Prediction image calculation processing in edge-based prediction mode) may be used.
  • Step S106 When the temporary prediction mode is the edge-based prediction mode and the intra prediction parameter PP_Intra includes the syntax adjust_neighb_dir, the correction angle specified by the syntax adjust_neighb_dir is added to the edge direction. Then, the prediction direction assigned to the target partition is determined. For the specific calculation of the correction angle, the method described in (Prediction image calculation processing in edge-based prediction mode) may be used.
  • Step S107 When the temporary prediction mode is not the edge-based prediction mode (No in step S104), the temporary prediction mode is set to the prediction mode (target prediction mode) for the target partition. That is, the prediction direction indicated by the temporary prediction mode is assigned to the target partition.
  • the provisional prediction mode not being the edge-based prediction mode corresponds to the provisional prediction mode being one of the basic prediction modes included in the basic prediction mode set described above.
  • the intra prediction image Pred_Intra for the target partition is generated by extrapolating the pixel values of pixels around the target partition in the prediction direction assigned to the target partition. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
  • the above is the flow of processing for generating the intra predicted image Pred_Intra by the intra predicted image generation unit 12c.
  • each prediction mode included in the extended set is specified by the index shown in FIG. 4 is taken as an example, but the present embodiment is not limited to this.
  • the index assigned to the edge-based prediction mode may be configured to be changeable depending on the characteristics of the decoding target image. Specifically, when the decoding target image includes more edges, the edge-based prediction mode may be specified by a smaller index.
  • the extended set is configured by the basic prediction mode and the edge-based prediction mode has been described.
  • the present embodiment is not limited to this, and in general, the extended set The present invention can be widely applied when the set is composed of a predetermined basic prediction mode and a prediction mode using a parameter (for example, prediction direction) calculated for each partition.
  • the video decoding device 1 uses the residual data between the original image and the prediction image generated for each prediction unit as the elements of the first prediction mode group and the second prediction mode.
  • a decoding apparatus that decodes encoded data obtained by encoding together with prediction mode specifying information that specifies elements of a prediction mode set consisting of elements of a group by a single code, and the code and the code specify Prediction mode specifying means for specifying a prediction mode specified by the prediction mode designation information from the code according to a predetermined correspondence relationship with the prediction mode, and a prediction mode to which the prediction mode designated by the code and the code belongs
  • Prediction mode group specifying means for specifying a prediction mode group to which the prediction mode specified by the prediction mode specifying information belongs from the code according to a predetermined correspondence relationship with the group
  • a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying means is selected from the first prediction parameter group, and the prediction mode group specified by the prediction mode group specifying means is the second prediction mode group.
  • a prediction parameter selection unit that selects a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying unit from a second prediction parameter group including one or more predetermined prediction parameters, and a prediction parameter selection unit.
  • Prediction image generation means for generating the prediction image according to the selected prediction parameter. It can be expressed as a decoding device according to.
  • the first prediction mode group is a group composed of one edge-based prediction mode, but in ⁇ Modification 3> described later, a group composed of a plurality of edge-based prediction modes. It is.
  • the second prediction mode group refers to the basic prediction mode set in the above-described example.
  • the single code refers to, for example, the binary code shown in FIG. 6D, and a predetermined correspondence between the code and the prediction mode specified by the code. Indicates, for example, a correspondence relationship between rem_intra_pred_mode ′ illustrated in FIG. 6C and the prediction mode index.
  • each index and each prediction mode described in step S104 It is determined by the information indicating the correspondence relationship.
  • the intra prediction image generation processing by the intra prediction image generation unit according to the comparative example will be described.
  • the intra predicted image generation unit according to the comparative example generates an intra predicted image with reference to an intra prediction parameter having a conventional syntax shown in FIG.
  • FIG. 7 is a flowchart showing a flow of intra prediction image generation processing by the intra prediction image generation unit according to the comparative example.
  • the intra predicted image generation unit refers to the syntax use_neighb_dir shown in (c) of FIG. 10 and determines whether or not the syntax use_neighb_dir specifies the edge-based prediction mode for the target partition.
  • the syntax use_neighb_dir is a 1-bit syntax that takes 1 when the edge-based prediction mode is designated and takes 0 when the basic prediction mode is designated.
  • the syntax use_neighb_dir is a syntax that specifies whether the prediction mode to be allocated to the target partition is selected from the basic prediction mode or the edge-based prediction mode.
  • Step S202 If the edge-based prediction mode is specified for the target partition (Yes in step S201), the edge direction is calculated.
  • Step S203 When the edge-based prediction mode is specified for the target partition and the encoded data includes the syntax adjust_neighb_dir, the correction angle specified by the syntax adjust_neighb_dir is added in the edge direction. To determine the prediction direction to be assigned to the target partition.
  • Step S204 If the edge-based prediction mode is not specified for the target partition (No in step S201), it is determined whether or not the syntax most_prob_mode is 1.
  • Step S205 When the syntax most_prob_mode is 1 (Yes in step S204), the prediction mode is assigned to a partition around the target partition, and is specified by a smaller index among the prediction modes included in the basic prediction mode set.
  • the estimated prediction mode that is the prediction mode to be set is set to the prediction mode (target prediction mode) for the target partition. That is, the prediction direction indicated by the estimated prediction mode is assigned to the target partition.
  • Step S206 If the syntax most_prob_mode is not 1 (No in step S204), the syntax rem_intra_pred_mode is referred to, and the prediction mode specified by the syntax rem_intra_pred_mode is set as the prediction mode for the target partition. That is, the prediction direction indicated by the prediction mode specified by the syntax rem_intra_pred_mode is assigned to the target partition.
  • the prediction mode specified by the syntax rem_intra_pred_mode is a prediction mode included in the basic prediction mode set.
  • an intra prediction image for the target partition is generated by extrapolating the pixel values of pixels around the target partition in the prediction direction assigned to the target partition. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
  • the above is the flow of intra prediction image generation processing by the intra prediction image generation unit according to the comparative example.
  • the code amount of the intra prediction parameter referred to by the intra prediction image generation unit according to the comparative example is compared with the code amount of the intra prediction parameter PP_Intra referred to by the intra prediction image generation unit 12c according to the present embodiment.
  • the intra prediction parameters according to the comparative example and the intra prediction parameter PP_Intra according to the present embodiment are non-arithmetic coded (CAVLC coding) will be described as an example. However, it can be estimated in the same way when arithmetic coding (CABAC coding) is performed.
  • CABAC coding arithmetic coding
  • the syntax use_neighb_dir is expressed by a 1-bit code
  • the syntax most_prob_mode is also expressed by a 1-bit code.
  • the syntax rem_intra_pred_mode for specifying any one of the nine prediction modes excluding the estimated prediction mode is represented by a 3-bit code. Expressed. In the following description, it is assumed that the syntax adjust_neighb_dir is expressed by a p-bit code.
  • an average ratio in which the edge-based prediction mode is selected is expressed as u
  • an average ratio in which the estimated prediction mode is not selected is expressed as v.
  • the code amount Q per partition of the intra prediction parameters referred to by the intra prediction image generation unit according to the comparative example can be estimated as follows.
  • the first term of Expression (1) represents the contribution of the syntax use_neighb_dir
  • the second term represents the contribution of the syntax adjust_neighb_dir when the edge-based prediction mode is selected.
  • the third term of Equation (1) represents the contribution when the basic prediction mode set is selected.
  • the first term in the second parenthesis of the third term of Equation (1) represents the contribution of the syntax most_prob_mode
  • the second term in the second parenthesis of the third term of Equation (1) is the syntax. It represents the contribution of rem_intra_pred_mode.
  • the syntax most_prob_mode ′ in the intra prediction parameter PP_Intra is expressed by a 1-bit code.
  • the syntax rem_intra_pred_mode ′ in the intra prediction parameter PP_Intra is represented on the average by a 3 + w bit code.
  • the value of w depends on how the code length corresponding to each value of the syntax rem_intra_pred_mode ′ is set. For example, the code length of the syntax rem_intra_pred_mode ′ is shown in FIG. If it is set as shown, the specific value of w can be estimated to be about 0.1 to 0.2.
  • an average ratio in which the edge-based prediction mode is selected in the intra-predicted image generation unit 12c is expressed as u ′
  • an average ratio in which the estimated prediction mode is not selected in the intra-predicted image generation unit 12c is expressed as v ′.
  • the code amount Q ′ per partition of the intra prediction parameter PP_Intra referred to by the intra prediction image generation unit 12c can be estimated as follows.
  • the code amount Q of the intra prediction parameter referred to by the intra predicted image generation unit according to the comparative example is considered to be substantially equal to u and v in Expression (1), respectively.
  • the code amount Q ′ of the intra prediction parameter PP_Intra referred to by the intra predicted image generation unit 12c can be expressed as follows.
  • Q ⁇ Q ′ is a decreasing function of u, v, and w in the range of u ⁇ 0, v ⁇ 0, and w ⁇ 0. Therefore, the smaller the u, v, and w, the smaller the code amount Q ′ of the intra prediction parameter PP_Intra compared to the comparative example.
  • the smaller the average rate at which the edge-based prediction mode is selected and the smaller the average rate at which the estimated prediction mode is not selected the more the code amount Q ′ of the intra prediction parameter PP_Intra is in the comparative example. Smaller than that.
  • the smaller the value of w the smaller the code amount Q ′ of the intra prediction parameter PP_Intra compared to the comparative example.
  • the code amount can be reduced for an image with a low frequency in which the edge-based prediction mode is selected.
  • the amount of codes can be reduced for an image with a high frequency of selecting the estimated prediction mode.
  • An example of an image with a low frequency in which the edge-based prediction mode is selected is a relatively flat image.
  • An example of an image with a high frequency of selecting the estimated prediction mode is an image with high spatial correlation.
  • the code amount is higher than that of the intra prediction parameter according to the comparative example for an image having a high spatial correlation and a relatively flat image. Reduced.
  • generation part 12c in this embodiment the intra estimated image Pred_Intra can be produced
  • the effect of code amount reduction in the intra prediction parameter PP_Intra is that, when each syntax included in the intra prediction parameter PP_Intra and the intra prediction parameter according to the comparative example is subjected to non-arithmetic coding (CAVLC coding). It will be bigger. This is because the intra prediction parameter according to the comparative example always requires a 1-bit code when encoding the syntax use_neighb_dir, whereas the intra prediction parameter PP_Intra according to the present embodiment This is because the syntax is unnecessary.
  • the intra prediction parameter PP_Intra since the edge-based prediction mode is included as an estimation target in the estimated prediction mode, if the estimated prediction mode is selected, edge-based prediction is performed with 1 bit.
  • the mode can be described, and in this respect, even with arithmetic coding (CABAC coding), the code amount can be reduced.
  • ⁇ Modification 1> The structure of the moving image decoding apparatus 1 which concerns on this embodiment, and intra prediction parameter PP_Intra is not limited to the example mentioned above. Below, the 1st of the moving image decoding apparatus which concerns on this embodiment, and the modification of intra prediction parameter PP_Intra are demonstrated.
  • the intra prediction parameter PP_Intra included in the encoded data # 1 is arithmetically encoded / decoded (CABAC encoding / decoding)
  • the intra prediction parameter PP_Intra is illustrated in (c) of FIG.
  • intra prediction parameters that is, the same as the intra prediction parameters according to the comparative example
  • the intra prediction parameter PP_Intra is non-arithmetic encoded / decoded (CAVLC encoded / decoded)
  • CAVLC encoded / decoded Uses an intra prediction parameter composed of the syntax shown in FIG. 6A as the intra prediction parameter PP_Intra.
  • the intra prediction image generation unit 12c refers to the encoding mode information (entropy_coding_mode_flag) included in the picture header of the encoded data, and identifies which encoding method is used to encode the intra prediction parameter PP_Intra. be able to.
  • encoding mode information entropy_coding_mode_flag
  • the video decoding device determines whether the intra prediction parameter PP_Intra is arithmetically encoded or non-arithmographically encoded, respectively.
  • the processing shown in FIGS. 7 and 1 may be performed.
  • the intra prediction parameter shown in FIG. 6A has a large code amount reduction effect particularly in non-arithmetic coding / decoding (CAVLC coding / decoding). In addition, it is possible to effectively reduce the code amount of the encoded data # 1.
  • the configuration shown in (a) of FIG. 6 and the configuration shown in (c) of FIG. 10 are selectively used as the intra prediction parameter PP_Intra.
  • a flag indicating which intra prediction parameter is used is included in the encoded data.
  • selection of which configuration is used as the intra prediction parameter PP_Intra is adaptively performed so that the coding efficiency is further increased.
  • the moving picture decoding apparatus can identify the configuration of the intra-prediction parameter PP_Intra by referring to the above flag, so that the intra-prediction image can be appropriately generated. it can.
  • the code amount of the encoded data # 1 is more effectively reduced, so that the encoding efficiency can be improved more effectively.
  • an extended set is configured by adding a plurality of edge-based prediction modes to the basic prediction mode set.
  • FIG. 8 is a figure which illustrates the prediction mode contained in the extended set in this modification.
  • this modification for example, three edge-based prediction modes are added to the basic prediction mode set.
  • “edge-based prediction” is an edge-based prediction mode that has already been described, and indicates a prediction mode in which correction by the correction angle ⁇ is not performed.
  • “edge-based prediction ⁇ ” is the edge-based prediction mode already described, and indicates a prediction mode in which correction of “ ⁇ ” is performed using the correction angle ⁇ .
  • “Edge-based prediction + ⁇ ” is an edge-based prediction mode that has already been described, and indicates a prediction mode in which “+ ⁇ ” is corrected using the correction angle ⁇ .
  • three edge-based prediction modes are designated by indexes 1 to 3, respectively, and prediction modes included in the basic prediction mode set are designated by indexes 0 and 4 to 11, respectively.
  • FIG. 8B is a table
  • the intra prediction parameters according to this modification include the syntax most_prob_mode ′′ and the syntax rem_intra_pred_mode ′′, but the syntax shown in FIG. Does not include the tax adjust_neighb_dir.
  • the syntax most_prob_mode '' is the same as the syntax most_prob_mode 'described above, and the estimated prediction mode estimated from the prediction modes assigned to the surrounding partitions of the target partition is the same as the prediction mode for the target partition.
  • This is a syntax that takes 1 when it is and 0 otherwise. Since any of a plurality of edge-based prediction modes may be assigned to a partition around the target partition, when the syntax most_prob_mode '' is 1, a plurality of edge-based prediction modes are set for the target partition. Any of the modes may be selected.
  • syntax rem_intra_pred_mode '' is a syntax for designating one of the prediction modes other than the estimated prediction mode among the prediction modes included in the extended set, almost the same as the syntax rem_intra_pred_mode ′ already described. . Note that, unlike the syntax rem_intra_pred_mode ', the syntax rem_intra_pred_mode' 'may specify any of the plurality of edge-based prediction modes.
  • the intra prediction parameter according to the present modification, only the syntax most_prob_mode '' and the syntax rem_intra_pred_mode '' are used to change from the plurality of basic prediction modes and the plurality of edge-based prediction modes to the target partition.
  • a prediction mode to be assigned can be selected. Therefore, according to the present modification, the configuration of the intra prediction parameter can be simplified.
  • information indicating which index corresponds to the edge-based prediction mode can be configured to be shared between the video encoding device and the video decoding device.
  • the moving image encoding apparatus 2 includes H.264 as a part thereof.
  • FIG. 9 is a block diagram showing a configuration of the moving picture encoding apparatus 2.
  • the moving image encoding apparatus 2 includes a predicted image generation unit 21, a transform / quantization unit 22, an inverse quantization / inverse transform unit 23, an adder 24, a frame memory 25, a loop filter 26, a variable A long code encoding unit 27 and a subtracter 28 are provided.
  • the predicted image generation unit 21 includes an intra predicted image generation unit 21 a, a motion vector detection unit 21 b, an inter predicted image generation unit 21 c, a prediction method control unit 21 d, and a motion vector redundancy deletion unit. 21e.
  • the moving image encoding device 2 is a device that generates encoded data # 1 by encoding moving image # 10 (encoding target image).
  • the predicted image generation unit 21 recursively divides the processing target LCU into one or a plurality of lower-order CUs, further divides each leaf CU into one or a plurality of partitions, and uses an inter-screen prediction for each partition.
  • a predicted image Pred_Inter or an intra predicted image Pred_Intra using intra prediction is generated.
  • the generated inter prediction image Pred_Inter and intra prediction image Pred_Intra are supplied to the adder 24 and the subtracter 28 as the prediction image Pred.
  • the prediction image generation unit 21 omits encoding of other parameters belonging to the PU for the PU to which the skip mode is applied. Also, (1) the mode of division into lower CUs and partitions in the target LCU, (2) whether to apply the skip mode, and (3) which of the inter predicted image Pred_Inter and the intra predicted image Pred_Intra for each partition Whether to generate is determined so as to optimize the encoding efficiency.
  • the intra predicted image generation unit 21a generates a predicted image Pred_Intra for each partition by intra prediction. Specifically, (1) a prediction mode used for intra prediction is selected for each partition, and (2) a prediction image Pred_Intra is generated from the decoded image P using the selected prediction mode. The intra predicted image generation unit 21a supplies the generated intra predicted image Pred_Intra to the prediction method control unit 21d.
  • the intra-prediction image generation unit 21a selects any one of the prediction modes included in the above-described basic prediction mode set and the prediction mode included in the extended set including the edge-based prediction mode.
  • the intra prediction image Pred_Intra is generated according to the method indicated by the selected prediction mode.
  • the intra-prediction image Pred_Intra generation processing is almost the same as the generation processing by the intra-prediction image generation unit 12c included in the video decoding device 1. It is.
  • the intra predicted image generation unit 21a determines an estimated prediction mode for the target partition from the prediction modes assigned to the peripheral partitions of the target partition, and the estimated prediction mode and the prediction mode actually selected for the target partition Are supplied as a part of the intra prediction parameter PP_Intra to the variable length code encoding unit 27 via the prediction scheme control unit 21d, and the variable length code encoding unit 27
  • the flag is included in the encoded data # 1 as syntax most_prob_mode ′.
  • the intra predicted image generation unit 21a sets a residual prediction mode index indicating the prediction mode for the target partition, As a part of the intra prediction parameter PP_Intra, it is supplied to the variable length code encoding unit 27 via the prediction scheme control unit 21d, and the variable length code encoding unit 27 encodes the residual prediction mode index as syntax rem_intra_pred_mode '.
  • the configuration includes data # 1.
  • the correction angle ⁇ is quantized.
  • a parameter (quantization index) t obtained by dividing by the size ⁇ is supplied as a part of the intra prediction parameter PP_Intra to the variable length code encoding unit 27 via the prediction scheme control unit 21d, and variable length code encoding is performed.
  • the unit 27 is configured to include the parameter t in the encoded data # 1 as the syntax adjust_neighb_dir.
  • the quantization step size ⁇ may be determined using a method similar to the method described in the description of the intra predicted image generation unit 12c.
  • the intra-predicted image generation unit 21a may be configured to set a plurality of correction angle candidates and select a plurality of correction angle candidates that have higher encoding efficiency.
  • the intra prediction parameter PP_Intra supplied from the intra predicted image generation unit 21a to the variable length code encoding unit 27 is configured to have the syntaxes illustrated in FIG.
  • the motion vector detection unit 21b detects a motion vector mv regarding each partition. Specifically, (1) the filtered decoded image P_ALF ′ used as the reference image is selected, and (2) the target partition is searched by searching for the region that best approximates the target partition in the selected filtered decoded image P_ALF ′. Detects a motion vector mv.
  • the filtered decoded image P_ALF ′ is an image obtained by performing adaptive filter processing by the loop filter 26 on the decoded image that has already been decoded for the entire frame, and is a motion vector detection unit. 21b can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 25.
  • the motion vector detection unit 21b supplies the detected motion vector mv to the inter predicted image generation unit 21c and the motion vector redundancy deletion unit 21e together with the reference image index RI that specifies the filtered decoded image P_ALF ′ used as the reference image. To do.
  • the inter prediction image generation unit 21c generates a motion compensated image mc related to each inter prediction partition by inter-screen prediction. Specifically, the motion compensation image mc is obtained from the filtered decoded image P_ALF ′ designated by the reference image index RI supplied from the motion vector detection unit 21b, using the motion vector mv supplied from the motion vector detection unit 21b. Generate. Similar to the motion vector detection unit 21b, the inter prediction image generation unit 21c can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 25. The inter prediction image generation unit 21c supplies the generated motion compensated image mc (inter prediction image Pred_Inter) together with the reference image index RI supplied from the motion vector detection unit 21b to the prediction method control unit 21d.
  • inter prediction image Pred_Inter inter prediction image Pred_Inter
  • the prediction scheme control unit 21d compares the intra predicted image Pred_Intra and the inter predicted image Pred_Inter with the encoding target image, and selects whether to perform intra prediction or inter prediction.
  • the prediction scheme control unit 21d supplies the intra prediction image Pred_Intra as the prediction image Pred to the adder 24 and the subtracter 28, and sets the intra prediction parameter PP_Intra supplied from the intra prediction image generation unit 21a. This is supplied to the variable length code encoding unit 27.
  • the prediction scheme control unit 21d supplies the inter prediction image Pred_Inter as the prediction image Pred to the adder 24 and the subtracter 28, and the reference image index RI and motion vector redundancy described later.
  • the estimated motion vector index PMVI and the motion vector residual MVD supplied from the deletion unit 21e are supplied to the variable length code encoding unit 27 as an inter prediction parameter PP_Inter.
  • the motion vector redundancy deletion unit 21e deletes redundancy in the motion vector mv detected by the motion vector detection unit 21b. Specifically, (1) an estimation method used for estimating the motion vector mv is selected, (2) an estimated motion vector pmv is derived according to the selected estimation method, and (3) the estimated motion vector pmv is subtracted from the motion vector mv. As a result, a motion vector residual MVD is generated. The motion vector redundancy deleting unit 21e supplies the generated motion vector residual MVD to the prediction method control unit 21d together with the estimated motion vector index PMVI indicating the selected estimation method.
  • the transform / quantization unit 22 performs (1) DCT transform (Discrete Cosine Transform) for each block (transform unit) on the prediction residual D obtained by subtracting the predicted image Pred from the encoding target image, and (2) obtains the DCT transform.
  • the obtained DCT coefficients are quantized, and (3) the quantized prediction residual QD obtained by the quantization is supplied to the variable length code encoding unit 27 and the inverse quantization / inverse transform unit 23.
  • the transform / quantization unit 22 (1) selects a quantization step QP to be used for quantization for each TU, and (2) sets a quantization parameter difference ⁇ qp indicating the size of the selected quantization step QP.
  • the variable length code encoding unit 28 is supplied, and (3) the selected quantization step QP is supplied to the inverse quantization / inverse transform unit 23.
  • the inverse quantization / inverse transform unit 23 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transformation on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 24.
  • the quantization prediction residual QD is inversely quantized, the quantization step QP supplied from the transform / quantization unit 22 is used.
  • the prediction residual D output from the inverse quantization / inverse transform unit 23 is obtained by adding a quantization error to the prediction residual D input to the transform / quantization unit 22. Common names are used for this purpose.
  • the adder 24 adds the predicted image Pred selected by the prediction scheme control unit 21d to the prediction residual D generated by the inverse quantization / inverse transform unit 23, thereby obtaining the (local) decoded image P. Generate.
  • the (local) decoded image P generated by the adder 24 is supplied to the loop filter 26 and stored in the frame memory 25, and is used as a reference image in intra prediction.
  • variable-length code encoding unit 27 (Variable-length code encoding unit 27) The variable length code encoding unit 27 (1) the quantization prediction residual QD and ⁇ qp supplied from the transform / quantization unit 22, and (2) the quantization parameter PP (inter prediction) supplied from the prediction scheme control unit 21d. The parameter PP_Inter and the intra prediction parameter PP_Intra) and (3) the filter parameter FP supplied from the loop filter 26 are variable-length-encoded to generate encoded data # 1.
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • CAVLC Context-based Adaptive VLC
  • the variable length code encoding unit 27 determines which encoding method of CABAC or CAVLC is to be used for each picture, performs encoding using the determined encoding method, and specifies the determined encoding method
  • the mode information (entropy_coding_mode_flag) is included in the picture header PH of the encoded data # 1.
  • the subtracter 28 generates the prediction residual D by subtracting the prediction image Pred selected by the prediction method control unit 21d from the encoding target image.
  • the prediction residual D generated by the subtracter 28 is DCT transformed / quantized by the transform / quantization unit 22.
  • the loop filter 26 reads the decoded image P from the frame memory 25 and performs block noise reduction processing at one or both of the partition boundary and the block boundary of the decoded image P.
  • the loop filter 26 performs adaptive filter processing using the adaptively calculated filter parameter FP on the decoded image subjected to block noise reduction processing, and the adaptive filter processing is performed.
  • the decoded image P is output to the frame memory 25 as a filtered decoded image P_ALF.
  • the filtered decoded image P_ALF is mainly used as a reference image in the inter predicted image generation unit 21c.
  • the configuration of the intra prediction parameters encoded by the moving image encoding device 2 is not limited to the example illustrated in FIG.
  • the intra prediction parameter PP_Intra is arithmetically encoded (CABAC encoding) in the moving image encoding device 2
  • the intra prediction parameter including each syntax shown in FIG. 10C is used as the intra prediction parameter PP_Intra.
  • the intra prediction parameter PP_Intra is obtained when the intra prediction parameter PP_Intra is non-arithmetic encoded (CAVLC encoded).
  • the encoded data # 1 may include intra prediction parameters including the syntaxes illustrated in FIG. Note that assigning different contexts to each syntax is effective in improving the arithmetic coding efficiency.
  • the intra prediction parameter shown in FIG. 6A has a large code amount reduction effect particularly in non-arithmetic coding / decoding (CAVLC coding / decoding). In addition, it is possible to effectively reduce the code amount of the encoded data # 1.
  • the moving picture encoding apparatus 2 uses the configuration illustrated in FIG. 6A and the configuration illustrated in FIG. 10C as the intra prediction parameter PP_Intra. May be selectively used, and a flag indicating which intra prediction parameter is used may be included in the encoded data # 1.
  • the selection of which configuration is used as the intra prediction parameter PP_Intra is adaptively performed by the video encoding device 2 so that the encoding efficiency is further increased.
  • the code amount of the encoded data # 1 is more effectively reduced, so that the encoding efficiency can be improved more effectively.
  • the moving picture encoding apparatus 2 is configured to select a prediction mode for each partition from the prediction modes included in the extended set illustrated in FIG.
  • the intra prediction parameter PP_Intra having the syntax shown in FIG. 8B may be included in the encoded data # 1.
  • the configuration of the intra prediction parameter PP_Intra can be simplified.
  • the above-described moving image encoding device 2 and moving image decoding device 1 can be used by being mounted on various devices that perform transmission, reception, recording, and reproduction of moving images.
  • moving image encoding device 2 and moving image decoding device 1 can be used for transmission and reception of moving images.
  • FIG. 11 is a block diagram showing a configuration of a transmission apparatus PROD_A in which the moving picture encoding apparatus 2 is mounted.
  • the transmission device PROD_A modulates a carrier wave with an encoding unit PROD_A1 that obtains encoded data by encoding a moving image, and with the encoded data obtained by the encoding unit PROD_A1.
  • a modulation unit PROD_A2 that obtains a modulation signal and a transmission unit PROD_A3 that transmits the modulation signal obtained by the modulation unit PROD_A2 are provided.
  • the moving image encoding apparatus 2 described above is used as the encoding unit PROD_A1.
  • the transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, and an input terminal PROD_A6 for inputting the moving image from the outside as a supply source of the moving image input to the encoding unit PROD_A1. May be further provided.
  • FIG. 11A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but some of them may be omitted.
  • the recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.
  • FIG. 11 is a block diagram illustrating a configuration of a receiving device PROD_B in which the moving image decoding device 1 is mounted.
  • the receiving device PROD_B includes a receiving unit PROD_B1 that receives a modulated signal, a demodulating unit PROD_B2 that obtains encoded data by demodulating the modulated signal received by the receiving unit PROD_B1, and a demodulator.
  • a decoding unit PROD_B3 that obtains a moving image by decoding the encoded data obtained by the unit PROD_B2.
  • the moving picture decoding apparatus 1 described above is used as the decoding unit PROD_B3.
  • the receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3.
  • PROD_B6 may be further provided.
  • FIG. 11B illustrates a configuration in which all of these are provided in the receiving device PROD_B, but some of them may be omitted.
  • the recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.
  • the transmission medium for transmitting the modulation signal may be wireless or wired.
  • the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.
  • a terrestrial digital broadcast broadcasting station (broadcasting equipment or the like) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting.
  • a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.
  • a server workstation etc.
  • Client television receiver, personal computer, smart phone etc.
  • VOD Video On Demand
  • video sharing service using the Internet is a transmitting device for transmitting and receiving modulated signals by communication.
  • PROD_A / reception device PROD_B usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN.
  • the personal computer includes a desktop PC, a laptop PC, and a tablet PC.
  • the smartphone also includes a multi-function mobile phone terminal.
  • the video sharing service client has a function of encoding a moving image captured by the camera and uploading it to the server. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.
  • moving image encoding device 2 and moving image decoding device 1 can be used for recording and reproduction of moving images.
  • FIG. 12 is a block diagram showing a configuration of a recording apparatus PROD_C in which the above-described moving picture encoding apparatus 2 is mounted.
  • the recording device PROD_C has an encoding unit PROD_C1 that obtains encoded data by encoding a moving image, and the encoded data obtained by the encoding unit PROD_C1 on the recording medium PROD_M.
  • a writing unit PROD_C2 for writing.
  • the moving image encoding apparatus 2 described above is used as the encoding unit PROD_C1.
  • the recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of the type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disk) or BD (Blu-ray Disk: registration) Or a drive device (not shown) built in the recording device PROD_C.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • SD memory such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disk) or BD (Blu-ray Disk: registration) Or a drive device (not shown) built in the recording device PROD_C.
  • the recording device PROD_C receives a moving image as a supply source of a moving image to be input to the encoding unit PROD_C1, a camera PROD_C3 that captures a moving image, an input terminal PROD_C4 for inputting a moving image from the outside, and a moving image.
  • the receiving unit PROD_C5 may be further provided.
  • FIG. 12A illustrates a configuration in which the recording apparatus PROD_C includes all of these, but some of them may be omitted.
  • the receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.
  • Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HD (Hard Disk) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main source of moving images).
  • a camcorder in this case, the camera PROD_C3 is a main source of moving images
  • a personal computer in this case, the receiving unit PROD_C5 is a main source of moving images
  • a smartphone in this case, the camera PROD_C3 or The receiving unit PROD_C5 is a main source of moving images
  • the recording apparatus PROD_C is an example of such a recording apparatus PROD_C.
  • FIG. 12 is a block showing a configuration of a playback device PROD_D equipped with the above-described video decoding device 1.
  • the playback device PROD_D reads a moving image by decoding a read unit PROD_D1 that reads encoded data written on the recording medium PROD_M and a coded data read by the read unit PROD_D1. And a decoding unit PROD_D2 to be obtained.
  • the moving picture decoding apparatus 1 described above is used as the decoding unit PROD_D2.
  • the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.
  • the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2.
  • PROD_D5 may be further provided.
  • FIG. 12B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but a part of the configuration may be omitted.
  • the transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.
  • Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images). .
  • a television receiver in this case, the display PROD_D3 is a main destination of moving images
  • a desktop PC in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is a main destination of moving images
  • Laptop type or tablet type PC in this case, display PROD_D3 or transmission unit PROD_D5 is the main supply destination of moving images
  • smartphone in this case, display PROD_D3 or transmission unit PROD_D5 is the main supply destination of moving images)
  • each block of the moving picture decoding apparatus 1 and the moving picture encoding apparatus 2 described above may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or may be a CPU (Central It may be realized by software using a Processing Unit).
  • each device includes a CPU that executes instructions of a program that realizes each function, a ROM (Read (Memory) that stores the program, a RAM (Random Memory) that expands the program, the program, and various types
  • a storage device such as a memory for storing data is provided.
  • An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of each of the above devices, which is software that realizes the above-described functions, is recorded so as to be readable by a computer. This can also be achieved by supplying to each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
  • Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R.
  • IC cards including memory cards
  • semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, or PLD (Programmable logic device) or FPGA (Field Programmable Gate Array) Logic circuits can be used.
  • each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited as long as it can transmit the program code.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network (Virtual Private Network), telephone line network, mobile communication network, satellite communication network, etc. can be used.
  • the transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by wireless such as High Data Rate, NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, and terrestrial digital network.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by wireless such as High Data Rate, NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, and terrestrial digital network.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line,
  • the decoding apparatus has the prediction mode designation information for designating the elements of the prediction mode set including the elements of the first prediction mode group and the elements of the second prediction mode group by a single code.
  • a decoding device for generating a decoded image by decoding encoded data obtained by encoding together with a prediction image generated for each prediction unit to a prediction residual decoded from the encoded data,
  • Prediction mode specifying means for specifying a prediction mode specified by the prediction mode specification information from the code according to a predetermined correspondence between the code and a prediction mode specified by the code;
  • a prediction mode group specifying means for specifying a group of commands and a prediction parameter selection means for selecting a prediction parameter, wherein the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group, The prediction mode corresponding to the prediction mode specified by the prediction mode specifying means
  • the prediction mode designation information included in the encoded data decoded by the decoding apparatus configured as described above includes elements of a prediction mode set including elements of the first prediction mode group and elements of the second prediction mode group. Is specified by a single code.
  • the prediction mode group specifying unit included in the decoding device has the prediction mode designation information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode designated by the code belongs. A prediction mode group to which the designated prediction mode belongs is specified. Therefore, in the encoded data decoded by the decoding apparatus configured as described above, the prediction modes to be referred to when generating a prediction image are the first prediction mode group and the second prediction mode group. Of these, a code for designating which prediction mode group belongs is not necessary.
  • the encoded data referred to by the decoding apparatus configured as described above selectively uses the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group.
  • Generating a prediction image requires a code for designating which prediction mode group the prediction mode to be referred to when generating the prediction image belongs while improving the prediction accuracy of the prediction image Compared with the structure to perform, reduction of the code amount of coding data can be aimed at.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
  • the single code is composed of first designation information and second designation information
  • the prediction mode specifying unit is configured such that the first designation information is a target prediction unit.
  • the estimated prediction mode estimated based on the prediction mode assigned to the surrounding prediction units is the same as the target prediction mode assigned to the target prediction unit, the estimated prediction mode is selected.
  • the estimated prediction mode and the target prediction mode are different, it is preferable to further decode the second designation information and select a prediction mode using the estimated prediction mode and the second designation information.
  • designated information is estimated based on the prediction mode allocated to the prediction unit of the circumference
  • the number of the first prediction parameters is greater than 1, and the prediction parameter selection unit is configured such that the prediction mode group specified by the prediction mode group specifying unit is the first prediction mode.
  • the prediction parameter selection unit is configured such that the prediction mode group specified by the prediction mode group specifying unit is the first prediction mode.
  • the prediction mode group specified by the prediction mode group specifying unit is the first prediction mode group
  • the second code different from the single code is decoded, and the first code Since the prediction parameter corresponding to the second code is selected from one prediction parameter group, the prediction parameter can be appropriately decoded.
  • the first prediction parameter group includes a prediction direction derived by referring to a decoded pixel value located around a target prediction unit that is a processing target prediction unit.
  • the predicted image generation means includes a decoded pixel value positioned around the target prediction unit along the direction indicated by the prediction parameter when the prediction parameter selection means selects the prediction parameter. It is preferable to generate a prediction image for the target prediction unit by extrapolating or interpolating.
  • the first prediction parameter group includes a prediction parameter indicating a prediction direction derived with reference to a decoded pixel value located around the target prediction unit that is a prediction unit to be processed. included.
  • the prediction image generation unit when the prediction parameter selection unit selects the prediction parameter, the target prediction unit along the direction indicated by the prediction parameter.
  • a predicted image for the target prediction unit is generated by extrapolating or interpolating the decoded pixel values located in the vicinity of.
  • the directionality of the image in the decoded image around the target prediction unit tends to have a high correlation with the directionality of the prediction target image in the target prediction unit. Therefore, according to the above configuration, by using the prediction parameter indicating the prediction direction derived by referring to the decoded pixel values located around the target prediction unit, prediction with high prediction accuracy for the target prediction unit is performed. An image can be generated.
  • the first prediction parameter group includes a prediction direction indicating a prediction direction derived with reference to a decoded image located around a target prediction unit that is a prediction unit to be processed.
  • a prediction parameter indicating a prediction direction obtained by adding one or a plurality of correction directions to the prediction direction, and the prediction image generation unit selects the prediction parameter by the prediction parameter selection unit.
  • the first prediction parameter group includes a prediction parameter indicating a prediction direction derived by referring to a decoded image located around the target prediction unit that is a processing target prediction unit; A prediction parameter indicating a prediction direction obtained by adding one or a plurality of correction directions to the prediction direction.
  • the prediction image generation unit extrapolates or decodes a decoded pixel value located around the target prediction unit along the direction indicated by the prediction parameter.
  • a prediction image for the target prediction unit is generated by interpolation.
  • the correction direction is more accurate in predicting the predicted image than in using only the predicted direction derived with reference to the decoded image located around the target prediction unit in the encoding device that generates encoded data. Selected to increase.
  • the above configuration it is possible to further improve the prediction accuracy of the predicted image as compared with the configuration in which the first prediction parameter group includes only the prediction parameter indicating the prediction direction.
  • the decoding apparatus further comprises an encoding scheme identifying means for identifying whether or not the encoded data is arithmetically encoded, and the prediction parameter selecting means includes the encoded data It is preferable to select a prediction parameter in accordance with the prediction mode specified by the prediction mode specifying unit and the prediction mode group specified by the prediction mode group specifying unit only when it is not arithmetically encoded.
  • the decoding apparatus when the encoded data is non-arithmetic encoded, the effect of reducing the code amount of the encoded data tends to increase.
  • the prediction parameter selecting means specifies the prediction mode for the target prediction unit. Only when the information is not arithmetically encoded, it is sufficient to select the prediction mode specified by the prediction mode specifying unit and the prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying unit. The amount of code can be reduced.
  • the prediction parameter selection unit includes the prediction mode specified by the prediction mode specifying unit and the prediction mode only when the predetermined flag included in the encoded data has a predetermined value. It is preferable to select a prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying means.
  • the said encoding data designates the prediction mode designation
  • the decoding apparatus performs a decoding process with reference to the single code when the predetermined flag has a predetermined value. Can do.
  • An encoding apparatus is an encoding apparatus that generates encoded data by encoding residual data between an original image and a predicted image generated for each prediction unit, and includes a prediction parameter.
  • Prediction parameter selection means for selecting a prediction parameter for selecting a prediction parameter from a first prediction parameter group consisting of one or more prediction parameters or a second prediction parameter group consisting of one or more predetermined prediction parameters
  • Prediction mode specification information encoding means for encoding the prediction mode specification information to be specified, and the single code
  • the single code Are elements of a first prediction mode group consisting of prediction modes corresponding to the first prediction parameter group and elements of a second prediction mode group consisting of prediction modes corresponding to each element of the second prediction parameter group It is characterized in that the elements of the prediction mode set consisting of
  • prediction is performed by selectively using the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group.
  • the prediction accuracy of the predicted image can be improved.
  • the prediction mode corresponding to the selected prediction parameter is specified by a single code, encoded data with a small code amount can be generated.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment or a partition obtained by dividing the PU.
  • a prediction parameter to be selected by the decoding device to generate a predicted image is set.
  • Prediction mode designation information that designates a corresponding prediction mode by a single code, and the single code is determined in advance as an element of a first prediction mode group consisting of prediction modes corresponding to one or more prediction parameters.
  • a data structure of encoded data characterized in that elements of a prediction parameter set comprising elements of a second prediction mode group consisting of a prediction mode corresponding to each of the predicted parameters are identified from each other.
  • the first prediction mode group includes a prediction parameter indicating a prediction direction derived by referring to a pixel value of a decoded image located around a target prediction unit that is a processing target prediction unit.
  • the first prediction mode group includes a prediction parameter indicating a prediction direction derived by referring to a pixel value of a decoded image located around a target prediction unit that is a processing target prediction unit.
  • An encoding comprising: a corresponding prediction mode; and a prediction mode corresponding to a prediction parameter indicating a prediction direction obtained by adding one or a plurality of correction directions to the prediction direction.
  • the data structure of the data is a prediction parameter indicating a prediction direction derived by referring to a pixel value of a decoded image located around a target prediction unit that is a processing target prediction unit.
  • the encoded data has the same estimated prediction mode estimated based on the prediction mode assigned to the prediction units around the target prediction unit and the prediction mode assigned to the target prediction unit.
  • 1st designation designated information which shows whether it exists, and when the said estimation prediction mode and the prediction mode allocated to the said object prediction unit differ, the prediction mode allocated to the said object prediction unit is designated.
  • a decoding apparatus for decoding encoded data obtained by encoding together with prediction mode specifying information specifying elements of a prediction mode set by a single code, between the code and the prediction mode specified by the code between the prediction mode specifying means for specifying the prediction mode specified by the prediction mode specification information from the code and the prediction mode group to which the prediction mode specified by the code belongs.
  • a prediction mode group specifying means for specifying a prediction mode group to which the prediction mode specified by the prediction mode specification information belongs from the code and a prediction parameter are selected according to a predetermined correspondence.
  • a first parameter including one or more prediction parameters derived with reference to the decoded image is selected.
  • a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying unit is selected from the prediction parameter group, and the prediction mode group specified by the prediction mode group specifying unit is the second prediction mode group, it is determined in advance.
  • a prediction image generating means for generating the prediction image according to the above description. It has been.
  • the prediction mode designation information included in the encoded data decoded by the decoding apparatus configured as described above includes elements of a prediction mode set including elements of the first prediction mode group and elements of the second prediction mode group. Is specified by a single code.
  • the prediction mode group specifying unit included in the decoding device has the prediction mode designation information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode designated by the code belongs. A prediction mode group to which the designated prediction mode belongs is specified. Therefore, in the encoded data decoded by the decoding apparatus configured as described above, the prediction modes to be referred to when generating a prediction image are the first prediction mode group and the second prediction mode group. Of these, a code for designating which prediction mode group belongs is not necessary.
  • the encoded data referred to by the decoding apparatus configured as described above selectively uses the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group.
  • Generating a prediction image requires a code for designating which prediction mode group the prediction mode to be referred to when generating the prediction image belongs while improving the prediction accuracy of the prediction image Compared with the structure to perform, reduction of the code amount of coding data can be aimed at.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
  • the first prediction parameter group includes a prediction direction derived by referring to a decoded pixel value located around a target prediction unit that is a processing target prediction unit.
  • the predicted image generation means includes a decoded pixel value positioned around the target prediction unit along the direction indicated by the prediction parameter when the prediction parameter selection means selects the prediction parameter. It is preferable to generate a prediction image for the target prediction unit by extrapolating or interpolating.
  • the first prediction parameter group includes a prediction parameter indicating a prediction direction derived with reference to a decoded pixel value located around the target prediction unit that is a prediction unit to be processed. included.
  • the prediction image generation unit when the prediction parameter selection unit selects the prediction parameter, the target prediction unit along the direction indicated by the prediction parameter.
  • a predicted image for the target prediction unit is generated by extrapolating or interpolating the decoded pixel values located in the vicinity of.
  • the directionality of the image in the decoded image around the target prediction unit tends to have a high correlation with the directionality of the prediction target image in the target prediction unit. Therefore, according to the above configuration, by using the prediction parameter indicating the prediction direction derived by referring to the decoded pixel values located around the target prediction unit, prediction with high prediction accuracy for the target prediction unit is performed. An image can be generated.
  • the first prediction parameter group includes a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a processing target prediction unit, and the prediction parameter
  • the image generation means extrapolates or interpolates decoded pixel values located around the target prediction unit along the direction indicated by the prediction parameter when the prediction parameter selection means selects the prediction parameter. It is preferable to generate a prediction image for the target prediction unit by the above.
  • the first prediction parameter group includes the prediction parameter indicating the edge direction of the decoded image located around the target prediction unit that is the processing target prediction unit.
  • the prediction image generation unit when the prediction parameter selection unit selects the prediction parameter, the target prediction unit along the direction indicated by the prediction parameter.
  • a predicted image for the target prediction unit is generated by extrapolating or interpolating the decoded pixel values located in the vicinity of.
  • the direction of the edge is highly correlated with the direction of the edge in the prediction target image in the target prediction unit or the directionality of the prediction target image. Tend. Therefore, according to the above configuration, a prediction image with high prediction accuracy can be generated for the target prediction unit by using the prediction parameter indicating the edge direction.
  • the first prediction parameter group includes a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a prediction unit to be processed, and the edge direction.
  • a prediction parameter indicating a prediction direction obtained by adding any one or a plurality of correction directions to the prediction image generation unit, when the prediction parameter selection unit selects the prediction parameter, the prediction parameter generation unit It is preferable to generate a prediction image for the target prediction unit by extrapolating or interpolating decoded pixel values located around the target prediction unit along the direction indicated by.
  • the first prediction parameter group includes the prediction parameter indicating the edge direction of the decoded image located around the target prediction unit that is the prediction unit to be processed, and 1 or 1 in the edge direction. And a prediction parameter indicating a prediction direction obtained by adding any of a plurality of correction directions.
  • the prediction image generation unit extrapolates or decodes a decoded pixel value located around the target prediction unit along the direction indicated by the prediction parameter.
  • a prediction image for the target prediction unit is generated by interpolation.
  • the correction direction is selected so that the prediction accuracy of the prediction image is higher than that in the case of using only the edge direction in the encoding device that generates the encoded data.
  • the above configuration it is possible to further improve the prediction accuracy of the predicted image as compared with the configuration in which the first prediction parameter group includes only the prediction parameter indicating the edge direction.
  • the decoding apparatus further includes an encoding scheme identifying means for identifying whether or not the prediction mode designation information is arithmetically encoded, and the prediction parameter selecting means includes the target prediction unit. Only when the prediction mode designation information is not arithmetically encoded, the prediction mode specified by the prediction mode specifying unit and the prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying unit are selected. It is preferable.
  • the decoding apparatus when the prediction mode designation information is non-arithmetic encoded, the effect of reducing the code amount of the encoded data tends to increase.
  • the encoding mode identifying means for identifying whether or not the prediction mode designation information is arithmetically encoded is further provided, and the prediction parameter selection means includes the prediction mode for the target prediction unit. Only when the designation information is not arithmetically encoded, by selecting the prediction mode specified by the prediction mode specifying means and the prediction parameter according to the prediction mode group specified by the prediction mode group specifying means, A sufficient amount of code can be reduced.
  • the prediction parameter selection unit includes the prediction mode specified by the prediction mode specifying unit and the prediction mode only when the predetermined flag included in the encoded data has a predetermined value. It is preferable to select a prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying means.
  • the said encoding data designates the prediction mode designation
  • the decoding apparatus performs a decoding process with reference to the single code when the predetermined flag has a predetermined value. Can do.
  • An encoding apparatus is an encoding apparatus that generates encoded data by encoding residual data between an original image and a predicted image generated for each prediction unit, and includes a prediction parameter.
  • a first prediction parameter group comprising one or more prediction parameters derived by referring to a locally decoded image, or a second prediction comprising one or more predetermined prediction parameters.
  • Prediction mode designation information code that encodes prediction mode designation information that designates the prediction mode to be performed by a single code
  • the single code is assigned to each element of the first prediction mode group consisting of prediction modes corresponding to each element of the first prediction parameter group and each element of the second prediction parameter group. It is characterized in that the elements of the prediction mode set including the elements of the second prediction mode group consisting of the corresponding prediction modes are distinguished from each other.
  • prediction is performed by selectively using the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group.
  • the prediction accuracy of the predicted image can be improved.
  • the prediction mode corresponding to the selected prediction parameter is specified by a single code, encoded data with a small code amount can be generated.
  • the prediction unit may be a PU (Prediction Unit) described in the embodiment or a partition obtained by dividing the PU.
  • a prediction parameter to be selected by the decoding device to generate a predicted image is set.
  • the elements of the first prediction mode group consisting of the mode and the elements of the prediction parameter set consisting of the elements of the second prediction mode group consisting of the prediction mode corresponding to each of the predetermined prediction parameters are mutually identified. is there, A data structure of encoded data characterized by the above.
  • the first prediction mode group includes a prediction mode corresponding to a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a processing target prediction unit. Data structure of encoded data to be performed.
  • the first prediction mode group includes a prediction mode corresponding to a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a prediction unit to be processed, and one or more in the edge direction.
  • a data structure of encoded data comprising: a prediction mode corresponding to a prediction parameter indicating a prediction direction obtained by adding any of the correction directions.
  • the prediction prediction mode In the encoded data, whether or not the estimated prediction mode estimated based on the prediction mode assigned to the prediction unit around the target prediction unit and the prediction mode assigned to the target prediction unit are the same. Including first designation information to indicate, When the estimated prediction mode is different from the prediction mode assigned to the target prediction unit, the prediction prediction mode further includes second designation information for designating a prediction mode assigned to the target prediction unit. Data structure of encoded data.
  • the present invention can be suitably applied to a decoding device that decodes encoded data and an encoding device that generates encoded data. Further, the present invention can be suitably applied to the data structure of encoded data generated by the encoding device and referenced by the decoding device.
  • Video decoding device (decoding device) 11 Variable length code decoding unit (prediction mode specifying means) 12 Prediction image generation unit 12b Inter prediction image generation unit 12c Intra prediction image generation unit (prediction mode group specifying unit, prediction parameter selection unit, prediction image generation unit) 15 frame memory 2 video encoding device (encoding device) 21 prediction image generation unit 21a intra prediction image generation unit 21c inter prediction image generation unit (prediction parameter selection unit, prediction image generation unit) 25 Frame memory 27 Variable length code encoding unit (prediction mode designation information encoding means)

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An intra-prediction image generation unit (12c) specifies a prediction mode and a prediction mode group, and when the specified prediction mode group is a first prediction mode group, a prediction parameter corresponding to the prediction mode specified by the aforementioned prediction mode specification means is selected from a first prediction parameter group, and when the specified prediction mode group is a second prediction mode group, a prediction parameter corresponding to the prediction mode specified by the aforementioned prediction mode specification means is selected from a second prediction parameter group.

Description

復号装置、符号化装置、および、データ構造Decoding device, encoding device, and data structure
 本発明は、符号化データを復号する復号装置、および、符号化データを生成する符号化装置に関する。また、符号化装置によって生成され、復号装置によって参照される符号化データのデータ構造に関する。 The present invention relates to a decoding device that decodes encoded data and an encoding device that generates encoded data. The present invention also relates to the data structure of encoded data generated by the encoding device and referenced by the decoding device.
 動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置(符号化装置)、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置(復号装置)が用いられている。具体的な動画像符号化方式としては、例えば、H.264/MPEG-4.AVC(非特許文献1)、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている方式、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている方式などが挙げられる。 In order to efficiently transmit or record a moving image, a moving image encoding device (encoding device) that generates encoded data by encoding the moving image, and decoding by decoding the encoded data A video decoding device (decoding device) that generates an image is used. As a specific moving picture encoding method, for example, H.264 is used. H.264 / MPEG-4. AVC (Non-Patent Document 1), VCEG (Video Coding Expert Group) adopted by KTA software, which is a codec for joint development, and TMuC (Test Model Under Consideration) software, a successor codec. There are some methods.
 このような符号化方式において、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られる符号化単位(マクロブロックまたはコーディングユニット(Coding Unit)と呼ばれることもある)、及び、符号化単位を分割することより得られるブロックおよびパーティションからなる階層構造により管理され、普通、ブロックごとに符号化される。 In such an encoding method, an image (picture) constituting a moving image is a slice obtained by dividing the image, a coding unit obtained by dividing the slice (macroblock or coding unit (Coding Unit)) And is managed by a hierarchical structure composed of blocks and partitions obtained by dividing an encoding unit, and is normally encoded block by block.
 また、このような符号化方式においては、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像と入力画像との差分画像(「残差画像」または「予測残差」と呼ぶこともある)が符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)と呼ばれる方法が知られている。 In such an encoding method, a predicted image is usually generated based on a local decoded image obtained by encoding / decoding an input image, and a difference image (“residual” between the predicted image and the input image is generated. (Sometimes referred to as “difference image” or “prediction residual”). As methods for generating a predicted image, methods called inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction) are known.
 インター予測においては、フレーム全体が復号された参照フレーム(復号画像)内の参照画像に対し、動きベクトルを用いた動き補償を適用することによって、予測対象フレーム内の予測画像が予測単位毎に生成される。 In inter prediction, a prediction image in a prediction target frame is generated for each prediction unit by applying motion compensation using a motion vector to a reference image in a reference frame (decoded image) obtained by decoding the entire frame. Is done.
 一方で、イントラ予測においては、同一フレーム内の局所復号画像に基づいて、当該フレームにおける予測画像が順次生成される。H.264/MPEG-4.AVCに用いられているイントラ予測の一例としては、予測単位(例えば、パーティション)毎に、予め定められた予測方向群に含まれる予測方向から何れかの予測方向が選択されると共に、局所復号画像における参照画素の画素値を、選択された予測方向に外挿することによって、該予測単位上の画素値を生成する方法(「基本予測」とも呼ぶことがある)が挙げられる。 On the other hand, in intra prediction, predicted images in the frame are sequentially generated based on locally decoded images in the same frame. H. H.264 / MPEG-4. As an example of intra prediction used in AVC, any prediction direction is selected from prediction directions included in a predetermined prediction direction group for each prediction unit (for example, partition), and a locally decoded image is used. And a method of generating a pixel value on the prediction unit by extrapolating the pixel value of the reference pixel in the selected prediction direction (sometimes referred to as “basic prediction”).
 非特許文献2には、予測単位毎に、該予測単位の周辺の画素の画素値に基づきエッジ方向を算出し、局所復号画像における参照画素の画素値を、算出されたエッジ方向に外挿することによって、該予測単位上の画素値を生成する方法(Differential Coding of Intra Modes(DCIM)とも呼ばれる方法、「エッジ予測」または「エッジベース予測」とも呼ぶことがある)が開示されている。 In Non-Patent Document 2, for each prediction unit, an edge direction is calculated based on pixel values of pixels around the prediction unit, and a pixel value of a reference pixel in the locally decoded image is extrapolated to the calculated edge direction. Thus, a method of generating a pixel value on the prediction unit (a method called Differential Coding of Intra Modes (DCIM), sometimes called “edge prediction” or “edge-based prediction”) is disclosed.
 以下では、図10の(a)~(c)を参照して、非特許文献2に開示されている方法についてより具体的に説明する。図10の(a)は、処理対象の予測単位CurrentBlockと、該予測単位の周辺に位置する画素とを模式的に示す図である。 Hereinafter, the method disclosed in Non-Patent Document 2 will be described in more detail with reference to (a) to (c) of FIG. (A) of FIG. 10 is a diagram schematically showing a prediction unit CurrentBlock to be processed and pixels located around the prediction unit.
 非特許文献2に開示されている方法によれば、まず、該予測単位の周辺に位置する画素の各々について、エッジベクトルai(i=1~N、Nは参照する周辺画素の総数)が算出される。ここで、エッジベクトルaiの算出には、ソーベル演算子(Sobel operators、ソーベルフィルタとも呼ぶ)が用いられる。 According to the method disclosed in Non-Patent Document 2, first, for each pixel located in the vicinity of the prediction unit, an edge vector a i (i = 1 to N, N is the total number of surrounding pixels to be referred to). Calculated. Here, a Sobel operator (also referred to as a Sobel filter) is used to calculate the edge vector a i .
 続いて、以下に示す関数S(θ)
 S(θ)=Σ<e,ai2
が定義される。ここで、eは、自身の方向と水平方向とのなす角がθである単位ベクトルを表しており、記号<,>は、両者のベクトルの内積を表している。また、記号Σは、添え字iについて1からNまでの和をとることを示している。
Subsequently, the function S (θ) shown below
S (θ) = Σ <e, a i > 2
Is defined. Here, e represents a unit vector whose angle between the direction of itself and the horizontal direction is θ, and the symbol <,> represents the inner product of both vectors. The symbol Σ indicates that a sum from 1 to N is taken for the subscript i.
 続いて、関数S(θ)を最大化する引数θ*
 θ*=argmaxS(θ)
が算出され、θ*によって表される方向が予測方向に設定される。最後に、参照画素の画素値を、当該予測方向に外挿することによって、該予測単位上の画素値が生成される。ここで、関数S(θ)を最大化する引数θ*は、「近傍により示された予測方向」(neighbors' suggested prediction direction)とも呼ばれる。なお、引数θ*の算出は、符号化装置、および、復号装置の双方において行われるため、引数θ*自体は符号化されない。
Subsequently, an argument θ * that maximizes the function S (θ) .
θ * = argmaxS (θ)
Is calculated, and the direction represented by θ * is set as the predicted direction. Finally, the pixel value on the prediction unit is generated by extrapolating the pixel value of the reference pixel in the prediction direction. Here, the argument θ * that maximizes the function S (θ) is also referred to as “neighbors' suggested prediction direction”. Note that the calculation of the argument θ * is performed in both the encoding device and the decoding device, and thus the argument θ * itself is not encoded.
 また、非特許文献2に開示されている方法によれば、予測方向として、θ*+Δθによって表される方向を用いることもできる。ここで、Δθは、方向補正(direction adjustment)を示しており、符号化装置にて用いられたΔθは、符号化され復号装置に伝送される必要がある。具体的には、Δθは、量子化ステップサイズδθを用いて量子化され、以下の量子化インデックスk
 k=Δθ/δθ
が符号化される。復号装置は、θ*+k×δθを予測方向に設定する。図10の(b)には、量子化インデックスk(k=-2、-1、0、1、2)によって指定される予測方向の例が示されている。
Further, according to the method disclosed in Non-Patent Document 2, the direction represented by θ * + Δθ can be used as the prediction direction. Here, Δθ indicates direction adjustment, and Δθ used in the encoding device needs to be encoded and transmitted to the decoding device. Specifically, Δθ is quantized using a quantization step size δθ, and the following quantization index k
k = Δθ / δθ
Are encoded. The decoding apparatus sets θ * + k × δθ as the prediction direction. FIG. 10B shows an example of the prediction direction specified by the quantization index k (k = −2, −1, 0, 1, 2).
 また、非特許文献2に開示されている方法では、上述したエッジベース予測を用いるイントラ予測を行うのか、または、H.264/MPEG-4.AVCにおいて用いられている基本予測を行うのかを指定する1ビットのフラグが予測単位毎に符号化される。 Further, in the method disclosed in Non-Patent Document 2, intra prediction using the edge-based prediction described above is performed, or H.264 / MPEG-4. A 1-bit flag specifying whether to perform basic prediction used in AVC is encoded for each prediction unit.
 図10の(c)は、非特許文献2に開示されている各シンタックスを、各シンタックスに関連付けられた記述子と共に示す表である。図10の(c)に示したDescriptor(記述子)ae(v)は、当該記述子に関連付けられたシンタックスが算術符号化されることを示している。 (C) of FIG. 10 is a table showing each syntax disclosed in Non-Patent Document 2 together with a descriptor associated with each syntax. Descriptor ae (v) shown in (c) of FIG. 10 indicates that the syntax associated with the descriptor is arithmetically encoded.
 図10の(c)に示すシンタックスuse_neighbor_dirは、エッジベース予測、および、H.264/MPEG-4.AVCの基本予測のうち、何れか一方を指定するためのフラグである。 The syntax use_neighbor_dir shown in (c) of FIG. H.264 / MPEG-4. This is a flag for designating one of AVC basic predictions.
 復号装置においては、まず、当該フラグuse_neighbor_dirが最初に復号され、当該フラグuse_neighbor_dirが、エッジベース予測を用いることを示している場合には、上述した量子化インデクスkを表すシンタックスadjust_neighbor_dirが復号される。一方で、フラグuse_neighbor_dirが、エッジベース予測を用いないことを示している場合には、シンタックスmost_prob_modeが復号される。ここで、シンタックスmost_prob_modeは、対象パーティションの周辺のパーティションの予測に用いられた予測モードから推定される推定予測モードが、当該対象パーティションの予測モードと同じであるか否かを示すフラグである。シンタックスmost_prob_modeにより、推定予測モードが当該対象パーティションの予測モードと同じではないことが示されている場合には、引き続いて、対象パーティションに割り付けられる予測モードを指定するシンタックスrem_intra_pred_modeが復号される。 In the decoding apparatus, first, the flag use_neighbor_dir is decoded first, and when the flag use_neighbor_dir indicates that edge-based prediction is used, the syntax adjust_neighbor_dir representing the quantization index k described above is decoded. . On the other hand, when the flag use_neighbor_dir indicates that edge-based prediction is not used, the syntax most_prob_mode is decoded. Here, the syntax most_prob_mode is a flag indicating whether or not the estimated prediction mode estimated from the prediction mode used for prediction of a partition around the target partition is the same as the prediction mode of the target partition. When the syntax most_prob_mode indicates that the estimated prediction mode is not the same as the prediction mode of the target partition, the syntax rem_intra_pred_mode that specifies the prediction mode assigned to the target partition is subsequently decoded.
 以上のように、非特許文献2に開示されている方法によれば、エッジベース予測、または、H.264/MPEG-4.AVCにおいて用いられている基本予測の何れか一方を選択的に用いることによってイントラ予測画像が生成される。また、エッジベース予測を用いる場合には、量子化インデックスkのみを符号化すればよいので、予測画像の生成において、エッジベース予測が頻繁に用いられる場合には、H.264/MPEG-4.AVCにおいて用いられている基本予測のみを用いる場合に比べて、符号化データの符号量を削減することが可能になる。 As described above, according to the method disclosed in Non-Patent Document 2, edge-based prediction or H.264 H.264 / MPEG-4. An intra-predicted image is generated by selectively using one of basic predictions used in AVC. Further, when edge-based prediction is used, only the quantization index k needs to be encoded. Therefore, when edge-based prediction is frequently used in the generation of a predicted image, H.264 is used. H.264 / MPEG-4. Compared to the case where only basic prediction used in AVC is used, the amount of encoded data can be reduced.
 しかしながら、符号化対象画像の特性如何によっては、エッジベース予測が頻繁には用いられない場合もある。非特許文献2に開示されている方法においては、このような場合であっても、エッジベース予測、および、H.264/MPEG-4.AVCにおいて用いられている基本予測の何れかを指定するフラグを符号化する必要があるため、符号化データの符号量が削減されない、若しくは、期待される程削減されないといった問題が生じていた。 However, edge-based prediction may not be frequently used depending on the characteristics of the image to be encoded. In the method disclosed in Non-Patent Document 2, even in such a case, edge-based prediction and H.264 H.264 / MPEG-4. Since it is necessary to encode a flag that designates one of basic predictions used in AVC, there has been a problem that the amount of encoded data is not reduced or not as much as expected.
 本発明は上記の問題に鑑みてなされたものであり、その目的は、エッジベース予測、または、H.264/MPEG-4.AVCにおいて用いられている基本予測の何れか一方を選択的に用いることによって予測精度を高めつつ、符号化データの符号量の削減を図ることのできる符号化装置、復号装置、および、符号化データのデータ構造を実現することにある。 The present invention has been made in view of the above-mentioned problems, and the object thereof is edge-based prediction or H.264. H.264 / MPEG-4. Encoding apparatus, decoding apparatus, and encoded data capable of reducing the code amount of encoded data while selectively improving any one of basic predictions used in AVC It is to realize the data structure.
 上記の問題を解決するために、本発明に係る復号装置は、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報と共に符号化して得られた符号化データを復号し、符号化データから復号した予測残差に、予測単位毎に生成された予測画像を加算することによって復号画像を生成する復号装置であって、上記符号と上記符号が指定する予測モードとの間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードを特定する予測モード特定手段と、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定する予測モード群特定手段と、予測パラメータを選択する予測パラメータ選択手段であって、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合、第1の予測モード群に対応する1以上の予測パラメータよりなる第1の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応する予測パラメータを選択し、上記予測モード群特定手段が特定した予測モード群が第2の予測モード群である場合、第2の予測モード群に対応する予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応した予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、を備えていることを特徴としている。 In order to solve the above problem, the decoding apparatus according to the present invention specifies a prediction mode set element composed of a first prediction mode group element and a second prediction mode group element by a single code. A decoding device that decodes encoded data obtained by encoding together with prediction mode designation information, and generates a decoded image by adding a prediction image generated for each prediction unit to a prediction residual decoded from the encoded data. A prediction mode specifying means for specifying a prediction mode specified by the prediction mode specification information from the code according to a predetermined correspondence between the code and a prediction mode specified by the code; And a prediction mode designated by the prediction mode designation information from the code in accordance with a predetermined correspondence relationship between the prediction mode group to which the prediction mode designated by the code belongs. A prediction mode group specifying means for specifying a prediction mode group to which the user belongs, and a prediction parameter selection means for selecting a prediction parameter, wherein the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group Selecting a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying means from a first prediction parameter group consisting of one or more prediction parameters corresponding to the first prediction mode group, and the prediction mode group specifying means When the prediction mode group specified by is the second prediction mode group, the prediction mode specifying means includes the second prediction parameter group including one or more predetermined prediction parameters corresponding to the second prediction mode group. A prediction parameter selection means for selecting a prediction parameter corresponding to the prediction mode specified by the prediction parameter, and a prediction parameter selected by the prediction parameter selection means. Depending on the parameters is characterized in that it comprises a, the predicted image generating means for generating the predicted image.
 上記のように構成された復号装置が復号する符号化データに含まれる上記予測モード指定情報は、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定するものである。また、上記復号装置の備える予測モード群特定手段は、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定するものである。したがって、上記のように構成された復号装置が復号する符号化データには、予測画像を生成する際に参照する予測モードが、上記第1の予測モード群、および、上記第2の予測モード群のうち、何れの予測モード群に属するものであるかを指定するための符号が不要である。 The prediction mode designation information included in the encoded data decoded by the decoding apparatus configured as described above includes elements of a prediction mode set including elements of the first prediction mode group and elements of the second prediction mode group. Is specified by a single code. In addition, the prediction mode group specifying unit included in the decoding device has the prediction mode designation information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode designated by the code belongs. A prediction mode group to which the designated prediction mode belongs is specified. Therefore, in the encoded data decoded by the decoding apparatus configured as described above, the prediction modes to be referred to when generating a prediction image are the first prediction mode group and the second prediction mode group. Of these, a code for designating which prediction mode group belongs is not necessary.
 したがって、上記のように構成された復号装置が参照する符号化データは、上記第1の予測モード群に属する予測パラメータ、および、上記第2の予測モード群に属する予測パラメータを選択的に用いて予測画像を生成することにより、予測画像の予測精度を向上させつつ、予測画像を生成する際に参照する予測モードが何れの予測モード群に属するものであるかを指定するための符号を必要とする構成に比べて、符号化データの符号量の削減を図ることができる。 Therefore, the encoded data referred to by the decoding apparatus configured as described above selectively uses the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group. Generating a prediction image requires a code for designating which prediction mode group the prediction mode to be referred to when generating the prediction image belongs while improving the prediction accuracy of the prediction image Compared with the structure to perform, reduction of the code amount of coding data can be aimed at.
 なお、上記予測単位は、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。 Note that the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
 また、本発明に係る符号化装置は、原画像と予測単位毎に生成された予測画像との残差データを符号化することによって符号化データを生成する符号化装置であって、予測パラメータを選択する予測パラメータ選択手段であって、1以上の予測パラメータよりなる第1の予測パラメータ群、または、予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、上記予測パラメータ選択手段が選択した予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を符号化する予測モード指定情報符号化手段と、を備え、上記単一の符号は、上記第1の予測パラメータ群に対応する予測モードよりなる第1の予測モード群の要素と上記第2の予測パラメータ群の各要素に対応する予測モードよりなる第2の予測モード群の要素とからなる予測モードセットの要素を互いに識別するものである、ことを特徴としている。 An encoding apparatus according to the present invention is an encoding apparatus that generates encoded data by encoding residual data between an original image and a predicted image generated for each prediction unit, and includes a prediction parameter. Prediction parameter selection means for selecting a prediction parameter for selecting a prediction parameter from a first prediction parameter group consisting of one or more prediction parameters or a second prediction parameter group consisting of one or more predetermined prediction parameters The parameter selection means, the prediction image generation means for generating the prediction image according to the prediction parameter selected by the prediction parameter selection means, and the prediction mode corresponding to the prediction parameter selected by the prediction parameter selection means by a single code Prediction mode specification information encoding means for encoding the prediction mode specification information to be specified, and the single code Are elements of a first prediction mode group consisting of prediction modes corresponding to the first prediction parameter group and elements of a second prediction mode group consisting of prediction modes corresponding to each element of the second prediction parameter group It is characterized in that the elements of the prediction mode set consisting of
 上記のように構成された本発明に係る符号化装置によれば、上記第1の予測モード群に属する予測パラメータ、および、上記第2の予測モード群に属する予測パラメータを選択的に用いて予測画像を生成することにより、予測画像の予測精度を向上させることができる。また、選択した予測パラメータに対応する予測モードを単一の符号により指定しているので、符号量の少ない符号化データを生成することができる。 According to the coding apparatus according to the present invention configured as described above, prediction is performed by selectively using the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group. By generating an image, the prediction accuracy of the predicted image can be improved. In addition, since the prediction mode corresponding to the selected prediction parameter is specified by a single code, encoded data with a small code amount can be generated.
 なお、上記予測単位とは、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。 Note that the prediction unit may be a PU (Prediction Unit) described in the embodiment or a partition obtained by dividing the PU.
 また、以下の符号化データのデータ構造も本発明の範疇に含まれる。 The following encoded data structure is also included in the scope of the present invention.
 原画像と予測単位毎に生成された予測画像との残差データを符号化することによって生成された符号化データのデータ構造において、予測画像を生成するために復号装置が選択すべき予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を含み、上記単一の符号は、1以上の予測パラメータに対応する予測モードよりなる第1の予測モード群の要素と、予め定められた予測パラメータの各々に対応する予測モードよりなる第2の予測モード群の要素とからなる予測パラメータセットの要素を互いに識別するものである、ことを特徴とする符号化データのデータ構造。 In a data structure of encoded data generated by encoding residual data between an original image and a predicted image generated for each prediction unit, a prediction parameter to be selected by the decoding device to generate a predicted image is set. Prediction mode designation information that designates a corresponding prediction mode by a single code, and the single code is determined in advance as an element of a first prediction mode group consisting of prediction modes corresponding to one or more prediction parameters. A data structure of encoded data, characterized in that elements of a prediction parameter set comprising elements of a second prediction mode group consisting of a prediction mode corresponding to each of the predicted parameters are identified from each other.
 以上のように、本発明に係る復号装置は、原画像と、予測単位毎に生成された予測画像との残差データを、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報と共に符号化して得られた符号化データを復号する復号装置であって、上記符号と上記符号が指定する予測モードとの間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードを特定する予測モード特定手段と、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定する予測モード群特定手段と、予測パラメータを選択する予測パラメータ選択手段であって、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合、復号画像を参照して導出する1以上の予測パラメータよりなる第1の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応する予測パラメータを選択し、上記予測モード群特定手段が特定した予測モード群が第2の予測モード群である場合、予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応した予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、を備えていることを特徴としている。 As described above, the decoding apparatus according to the present invention uses the residual data between the original image and the prediction image generated for each prediction unit as the elements of the first prediction mode group and the elements of the second prediction mode group. A decoding apparatus that decodes encoded data obtained by encoding together with prediction mode specifying information that specifies elements of a prediction mode set consisting of a single code, and the prediction mode specified by the code and the code; A prediction mode specifying means for specifying a prediction mode specified by the prediction mode specifying information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode specified by the code and the code belongs. Prediction mode group specifying means for specifying a prediction mode group to which the prediction mode specified by the prediction mode specification information belongs from the code according to a predetermined correspondence relationship between Prediction parameter selection means for selecting a meter, and when the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group, the prediction parameter selection means includes one or more prediction parameters derived with reference to a decoded image. When the prediction parameter corresponding to the prediction mode specified by the prediction mode specifying unit is selected from the first prediction parameter group, and the prediction mode group specified by the prediction mode group specifying unit is the second prediction mode group, A prediction parameter selection unit that selects a prediction parameter corresponding to the prediction mode specified by the prediction mode specification unit from a second prediction parameter group that includes one or more predetermined prediction parameters, and a prediction parameter selection unit selected And a predicted image generating means for generating the predicted image according to a prediction parameter. .
 本発明に係る上記復号装置によれば、予測画像の予測精度を向上させつつ、予測画像を生成する際に参照する予測モードが何れの予測モード群に属するものであるかを指定するための符号を必要とする構成に比べて、符号化データの符号量の削減を図ることができる。 According to the decoding apparatus of the present invention, a code for designating which prediction mode group a prediction mode to be referred to when generating a prediction image belongs while improving the prediction accuracy of the prediction image Compared to a configuration that requires the above, the amount of encoded data can be reduced.
本発明の実施形態に係る動画像復号装置によるイントラ予測画像の生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the production | generation process of the intra estimated image by the moving image decoding apparatus which concerns on embodiment of this invention. 本発明の第1の実施形態に係る動画像符号化装置によって生成され、本発明の実施形態に係る動画像復号装置によって参照される符号化データのデータ構造を示すものであって、(a)は、符号化データのピクチャレイヤの構成を示す図であり、(b)は、ピクチャレイヤに含まれるスライスレイヤの構成を示す図であり、(c)は、スライスレイヤに含まれるLCUレイヤを構成する各CUの構成を示す図であり、(d)は、CUレイヤに含まれるリーフCUの構成を示す図であり、(e)は、リーフCUについてのインター予測情報の構成を示す図であり、(f)は、リーフCUについてのイントラ予測情報の構成を示す図である。The data structure of the encoding data produced | generated by the moving image encoder which concerns on the 1st Embodiment of this invention, and referred by the moving image decoder which concerns on embodiment of this invention, Comprising: (a) FIG. 4 is a diagram illustrating a configuration of a picture layer of encoded data, (b) is a diagram illustrating a configuration of a slice layer included in the picture layer, and (c) is a configuration of an LCU layer included in the slice layer. (D) is a figure which shows the structure of the leaf CU contained in a CU layer, (e) is a figure which shows the structure of the inter prediction information about leaf CU. (F) is a figure which shows the structure of the intra prediction information about leaf CU. 本発明の実施形態に係る動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る動画像復号装置の動作を説明するための図であって、(a)は、本発明の実施形態に係る動画像復号装置が参照する予測モードであって、複数の基本予測モード、および、1つのエッジベース予測モードよりなる拡張セットに含まれる予測モードを、予測モードインデックスと共に示す図であり、(b)は、対象パーティションに属する画素、および、その周辺の復号済み画素を示す図である。It is a figure for demonstrating operation | movement of the moving image decoding apparatus which concerns on embodiment of this invention, Comprising: (a) is prediction mode which the moving image decoding apparatus which concerns on embodiment of this invention refers, Comprising: It is a figure which shows the prediction mode contained in the extended set which consists of basic prediction mode and one edge-based prediction mode with a prediction mode index, (b) is the pixel which belongs to an object partition, and its periphery decoded It is a figure which shows a pixel. 本発明の実施形態に係る動画像復号装置において、エッジベース予測モードが選択された場合の、イントラ予測画像の生成処理を説明するための図であって、(a)は、対象パーティションを対象パーティションの周辺のパーティションと共に示す図であり、(b)は、補正角度を指定するパラメータを、補正後の予測方向と共に示す図である。In the moving image decoding apparatus which concerns on embodiment of this invention, it is a figure for demonstrating the production | generation process of an intra estimated image when edge base prediction mode is selected, Comprising: (a) is object partition. (B) is a figure which shows the parameter which designates a correction angle with the prediction direction after correction | amendment. 本発明の実施形態に係る動画像復号装置における予測モード決定処理を説明するためのものであって、(a)は、本発明の実施形態に係る動画像符号化装置によって符号化され、本発明の実施形態に係る動画像復号装置によって参照されるイントラ予測パラメータの構成を示す表であり、(b)は、対象パーティションの周辺のパーティションに割り付けられた予測モード、および、対象パーティションについて決定された推定予測モードの例を示す図であり、(c)は、予測モードインデックス、推定予測モード、および、シンタックスrem_intra_pred_mode'の対応関係の例を示す表であり、(d)は、シンタックスrem_intra_pred_mode'の各値に割り当てられる2進符号の例を示す表である。It is for demonstrating the prediction mode determination process in the moving image decoding apparatus which concerns on embodiment of this invention, Comprising: (a) is encoded by the moving image encoder which concerns on embodiment of this invention, and this invention It is a table | surface which shows the structure of the intra prediction parameter referred by the moving image decoding apparatus which concerns on embodiment of this, (b) is determined about the prediction mode allocated to the partition of the periphery of an object partition, and an object partition It is a figure which shows the example of estimated prediction mode, (c) is a table | surface which shows the example of the correspondence of a prediction mode index, estimated prediction mode, and syntax rem_intra_pred_mode ', (d) is syntax rem_intra_pred_mode'. It is a table | surface which shows the example of the binary code allocated to each value of. 比較例に係る動画像復号装置によるイントラ予測画像の生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the production | generation process of the intra estimated image by the moving image decoding apparatus which concerns on a comparative example. 本発明の実施形態の変形例に係る動画像復号装置における予測モード決定処理を説明するためのものであって、(a)は、変形例に係る動画像復号装置が参照する予測モードであって、複数の基本予測モード、および、複数のエッジベース予測モードよりなる拡張セットに含まれる予測モードを、予測モードインデックスと共に示す図であり、(b)は、変形例に係る動画像復号装置が参照するイントラ予測パラメータの構成を示す図である。It is for demonstrating the prediction mode determination process in the moving image decoding apparatus which concerns on the modification of embodiment of this invention, Comprising: (a) is the prediction mode which the moving image decoding apparatus which concerns on a modification refers. FIG. 4 is a diagram illustrating prediction modes included in an extended set including a plurality of basic prediction modes and a plurality of edge-based prediction modes, together with a prediction mode index, and FIG. 5B is referenced by a video decoding device according to a modified example. It is a figure which shows the structure of the intra prediction parameter to perform. 本発明の実施形態に係る動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder which concerns on embodiment of this invention. 従来の動画像復号装置において、エッジベース予測モードが選択された場合の、イントラ予測画像の生成処理を説明するための図であって、(a)は、対象パーティションを対象パーティションの周辺のパーティションと共に示す図であり、(b)は、補正角度を指定するパラメータを、補正後の予測方向と共に示す図であり、(c)は、従来の動画像復号装置が参照するイントラ予測パラメータの構成を示す表である。In the conventional moving image decoding apparatus, it is a figure for demonstrating the production | generation process of an intra prediction image when edge-based prediction mode is selected, Comprising: (a) is a target partition with the periphery partition of a target partition. (B) is a figure which shows the parameter which designates a correction angle with the prediction direction after correction | amendment, (c) shows the structure of the intra prediction parameter which the conventional moving image decoding apparatus refers to. It is a table. 本発明の実施形態に係る動画像復号装置および動画像符号化装置が、動画像の送受信に利用できることを説明するための図であり、(a)は、動画像符号化装置を搭載した送信装置の構成を示したブロック図であり、(b)は、動画像復号装置を搭載した受信装置の構成を示したブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for demonstrating that the moving image decoding apparatus and moving image encoding apparatus which concern on embodiment of this invention can be utilized for transmission / reception of a moving image, (a) is the transmitter which mounts a moving image encoding apparatus FIG. 2B is a block diagram showing a configuration of a receiving device equipped with a video decoding device. 本発明の実施形態に係る動画像復号装置および動画像符号化装置が、動画像の記録および再生に利用できることを説明するための図であり、(a)は、動画像符号化装置を搭載した記録装置の構成を示したブロック図であり、(b)は、動画像復号装置を搭載した再生装置の構成を示したブロックである。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for demonstrating that the moving image decoding apparatus and moving image encoding apparatus which concern on embodiment of this invention can be utilized for recording and reproduction | regeneration of a moving image, (a) is mounted with the moving image encoding apparatus. It is the block diagram which showed the structure of the recording device, (b) is the block which showed the structure of the reproducing | regenerating apparatus carrying a moving image decoding apparatus.
 本発明に係る復号装置および符号化装置の実施形態について図面に基づいて説明すれば以下のとおりである。なお、本実施形態に係る復号装置は、符号化データから動画像を復号するものである。したがって、以下では、これを「動画像復号装置」と呼称する。また、本実施形態に係る符号化装置は、動画像を符号化することによって符号化データを生成するものである。したがって、以下では、これを「動画像符号化装置」と呼ぶ。 Embodiments of a decoding apparatus and an encoding apparatus according to the present invention will be described below with reference to the drawings. Note that the decoding apparatus according to the present embodiment decodes a moving image from encoded data. Therefore, hereinafter, this is referred to as “moving image decoding apparatus”. In addition, the encoding device according to the present embodiment generates encoded data by encoding a moving image. Therefore, in the following, this is referred to as a “video encoding device”.
 ただし、本発明の適用範囲はこれに限定されるものではない。すなわち、以下の説明からも明らかなように、本発明の特徴はイントラ予測にあり、複数のフレームを前提としなくとも成立するものである。すなわち、動画像を対象とするか静止画像を対象とするかを問わず、復号装置一般および符号化装置一般に適用できるものである。 However, the scope of application of the present invention is not limited to this. That is, as will be apparent from the following description, the feature of the present invention lies in intra prediction, and is established without assuming a plurality of frames. That is, the present invention can be applied to a general decoding apparatus and a general encoding apparatus regardless of whether the target is a moving image or a still image.
 (符号化データ#1の構成)
 本実施形態に係る動画像復号装置1の説明に先立ち、本実施形態に係る動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成について、図2を参照して説明する。符号化データ#1は、シーケンスレイヤ、GOP(Group Of Pictures)レイヤ、ピクチャレイヤ、スライスレイヤ、及び、最大符号化単位(LCU:Largest Coding Unit)レイヤからなる階層構造を有している。
(Configuration of encoded data # 1)
Prior to the description of the moving picture decoding apparatus 1 according to the present embodiment, the configuration of the encoded data # 1 generated by the moving picture encoding apparatus 2 according to the present embodiment and decoded by the moving picture decoding apparatus 1 will be described with reference to FIG. Will be described with reference to FIG. The encoded data # 1 has a hierarchical structure including a sequence layer, a GOP (Group Of Pictures) layer, a picture layer, a slice layer, and a maximum coding unit (LCU: Large Coding Unit) layer.
 符号化データ#1におけるピクチャレイヤ以下の階層の構造を図2に示す。図2(a)~(f)は、それぞれ、ピクチャレイヤP、スライスレイヤS、LCUレイヤLCU、LCUに含まれるリーフCU(図2(d)ではCULと表記)、インター予測(画面間予測)パーティションについての予測情報PIであるインター予測情報PI_Inter、イントラ予測(画面内予測)パーティションについての予測情報PIであるイントラ予測情報PI_Intraの構造を示す図である。 FIG. 2 shows the hierarchical structure below the picture layer in the encoded data # 1. FIGS. 2A to 2F are a picture layer P, a slice layer S, an LCU layer LCU, a leaf CU included in the LCU (denoted as CUL in FIG. 2D), and inter prediction (inter-screen prediction), respectively. It is a figure which shows the structure of inter prediction information PI_Inter which is the prediction information PI about a partition, and intra prediction information PI_Intra which is the prediction information PI about an intra prediction (prediction in a screen) partition.
 (ピクチャレイヤ)
 ピクチャレイヤPは、処理対象のピクチャである対象ピクチャを復号するために動画像復号装置1が参照するデータの集合である。ピクチャレイヤPは、図2(a)に示すように、ピクチャヘッダPH、及び、スライスレイヤS1~SNsを含んでいる(NsはピクチャレイヤPに含まれるスライスレイヤの総数)。
(Picture layer)
The picture layer P is a set of data that is referenced by the video decoding device 1 in order to decode a target picture that is a processing target picture. As shown in FIG. 2A, the picture layer P includes a picture header PH and slice layers S1 to SNs (Ns is the total number of slice layers included in the picture layer P).
 ピクチャヘッダPHには、対象ピクチャの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれている。例えば、動画像符号化装置2が符号化の際に用いた可変長符号化のモードを示す符号化モード情報(entropy_coding_mode_flag)は、ピクチャヘッダPHに含まれる符号化パラメータの一例である。entropy_coding_mode_flagが0の場合、当該ピクチャは、CAVLC(Context-based Adaptive Variable Length Coding)
によって符号化されており、entropy_coding_mode_flagが1である場合、当該ピクチャは、CABAC(Context-based Adaptive Binary Arithmetic Coding)によって符号化されている。
The picture header PH includes a coding parameter group that is referred to by the video decoding device 1 in order to determine a decoding method of the target picture. For example, the encoding mode information (entropy_coding_mode_flag) indicating the variable length encoding mode used in encoding by the moving image encoding device 2 is an example of an encoding parameter included in the picture header PH. When entropy_coding_mode_flag is 0, the picture is CAVLC (Context-based Adaptive Variable Length Coding).
When entropy_coding_mode_flag is 1, the picture is encoded by CABAC (Context-based Adaptive Binary Arithmetic Coding).
 (スライスレイヤ)
 ピクチャレイヤPに含まれる各スライスレイヤSは、処理対象のスライスである対象スライスを復号するために動画像復号装置1が参照するデータの集合である。スライスレイヤSは、図2(b)に示すように、スライスヘッダSH、及び、LCUレイヤLCU1~LCUNc(NcはスライスSに含まれるLCUの総数)を含んでいる。
(Slice layer)
Each slice layer S included in the picture layer P is a set of data referred to by the video decoding device 1 in order to decode a target slice that is a slice to be processed. As shown in FIG. 2B, the slice layer S includes a slice header SH and LCU layers LCU1 to LCUn (Nc is the total number of LCUs included in the slice S).
 スライスヘッダSHには、対象スライスの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。また、スライスヘッダSHには、動画像復号装置1の備えるループフィルタによって参照されるフィルタパラメータFPが含まれる。 The slice header SH includes a coding parameter group that the moving image decoding apparatus 1 refers to in order to determine a decoding method of the target slice. Slice type designation information (slice_type) for designating a slice type is an example of an encoding parameter included in the slice header SH. Further, the slice header SH includes a filter parameter FP that is referred to by a loop filter included in the video decoding device 1.
 なお、スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、又は、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、又は、イントラ予測を用いるBスライスなどが挙げられる。 As slice types that can be specified by the slice type specification information, (1) I slice using only intra prediction at the time of encoding, and (2) P using unidirectional prediction or intra prediction at the time of encoding. Slice, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding.
 (LCUレイヤ)
 スライスレイヤSに含まれる各LCUレイヤLCUは、処理対象のLCUである対象LCUを復号するために動画像復号装置1が参照するデータの集合である。
(LCU layer)
Each LCU layer LCU included in the slice layer S is a set of data that the video decoding device 1 refers to in order to decode the target LCU that is the processing target LCU.
 LCUレイヤLCUは、当該LCUを階層的に4分木分割することにより得られる複数の符号化単位(CU:Coding Unit)より構成される。換言すれば、LCUレイヤLCUは、複数のCUを再帰的に含む階層構造のうち、最上位にあたる符号化単位である。LCUレイヤLCUに含まれる各CUは、図2(c)に示すように、CUヘッダCUH、および、当該CUを4分木分割することにより得られる複数のCUを再帰的に含む階層構造を有している。 The LCU layer LCU is composed of a plurality of coding units (CU: Coding Units) obtained by hierarchically dividing the LCU into a quadtree. In other words, the LCU layer LCU is a coding unit corresponding to the highest level in a hierarchical structure that recursively includes a plurality of CUs. As shown in FIG. 2C, each CU included in the LCU layer LCU has a hierarchical structure that recursively includes a CU header CUH and a plurality of CUs obtained by dividing the CU into quadtrees. is doing.
 LCUを除く各CUのサイズは、当該CUが直接に属するCU(すなわち、当該CUの1階層上位のCU)のサイズの縦横とも半分であり、各CUのとり得るサイズは、符号化データ#1のシーケンスパラメータセットSPSに含まれる、LCUのサイズおよび階層深度(hierarchical depth)に依存する。例えば、LCUのサイズが128×128画素であって、最大階層深度が5である場合には、当該LCU以下の階層におけるCUは、5種類のサイズ、すなわち、128×128画素、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。また、それ以上分割されないCUをリーフCUと呼ぶことにする。 The size of each CU excluding the LCU is half the size of the CU to which the CU directly belongs (that is, the CU one layer higher than the CU), and the size that each CU can take is encoded data # 1. Dependent on the size and hierarchical depth of the LCU included in the sequence parameter set SPS. For example, when the size of the LCU is 128 × 128 pixels and the maximum hierarchical depth is 5, the CUs in the hierarchical level below the LCU have five sizes, that is, 128 × 128 pixels and 64 × 64 pixels. , 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels. A CU that is not further divided is called a leaf CU.
 (CUヘッダ)
 CUヘッダCUHには、対象CUの復号方法を決定するために動画像復号装置1が参照する符号化パラメータが含まれる。具体的には、図2(c)に示すように、対象CUをさらに下位のCUへ4分割するか否かを指定するCU分割フラグSP_CUが含まれる。CU分割フラグSP_CUが0である場合、すなわち、それ以上CUが分割されない場合、当該CUはリーフCUである。
(CU header)
The CU header CUH includes a coding parameter referred to by the video decoding device 1 in order to determine a decoding method of the target CU. Specifically, as shown in FIG. 2C, a CU division flag SP_CU that specifies whether or not the target CU is further divided into four subordinate CUs is included. When the CU division flag SP_CU is 0, that is, when the CU is not further divided, the CU is a leaf CU.
 (リーフCU)
 それ以上分割されないCU(CUのリーフ)は予測単位(PU:Prediction Unit)、および、変換単位(TU:Transform Unit)として取り扱われる。
(Leaf CU)
A CU (CU leaf) that is not further divided is handled as a prediction unit (PU: Prediction Unit) and a transform unit (TU: Transform Unit).
 図2(d)に示すように、リーフCU(図2(d)においてはCULと表記)は、(1)動画像復号装置1により予測画像を生成する際に参照されるPU情報PUI、および、(2)動画像復号装置1により残差データを復号する際に参照されるTU情報TUIを含んでいる。 As shown in FIG. 2 (d), the leaf CU (denoted as CUL in FIG. 2 (d)) includes (1) PU information PUI that is referred to when the moving image decoding apparatus 1 generates a predicted image, and (2) The TU information TUI that is referred to when the residual data is decoded by the moving picture decoding apparatus 1 is included.
 スキップフラグSKIPは、対象のPUについて、スキップモードが適用されているか否かを示すフラグであり、スキップフラグSKIPの値が1の場合、すなわち、対象のリーフにスキップモードが適用されている場合、そのリーフCUにおけるPU情報PUI、および、TU情報TUIは省略される。なお、スキップフラグSKIPは、Iスライスでは省略される。 The skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target PU. When the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target leaf, PU information PUI and TU information TUI in the leaf CU are omitted. Note that the skip flag SKIP is omitted for the I slice.
 PU情報PUIは、図2(d)に示すように、スキップフラグSKIP、予測タイプ情報PT、および、予測情報PIを含んでいる。予測タイプ情報PTは、対象リーフCU(対象PU)についての予測画像生成方法として、イントラ予測を用いるのか、または、インター予測を用いるのかを指定する情報である。予測情報PIは、予測タイプ情報PTが何れの予測方法を指定するのかに応じて、イントラ予測情報PI_Intra、または、インター予測情報PI_Interより構成される。以下では、イントラ予測が適用されるPUをイントラPUとも呼称し、インター予測が適用されるPUをインターPUとも呼称する。 The PU information PUI includes a skip flag SKIP, prediction type information PT, and prediction information PI as shown in FIG. The prediction type information PT is information that specifies whether intra prediction or inter prediction is used as a predicted image generation method for the target leaf CU (target PU). The prediction information PI includes intra prediction information PI_Intra or inter prediction information PI_Inter depending on which prediction method is specified by the prediction type information PT. Hereinafter, a PU to which intra prediction is applied is also referred to as an intra PU, and a PU to which inter prediction is applied is also referred to as an inter PU.
 PU情報PUIには、対象PUに含まれる各パーティションの形状、サイズ、および、対象PU内での位置を指定する情報が含まれる。ここで、パーティションとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測画像の生成は、パーティションを単位として行われる。 The PU information PUI includes information specifying the shape and size of each partition included in the target PU and the position in the target PU. Here, the partition is one or a plurality of non-overlapping areas constituting the target leaf CU, and the generation of the predicted image is performed in units of partitions.
 TU情報TUIは、図2(d)に示すように、量子化ステップの大きさを指定する量子化パラメータ差分Δqp(tu_qp_delta)、対象リーフCU(対象TU)の各ブロックへの分割パターンを指定するTU分割情報SP_TU、および、量子化予測残差QD1~QDNT(NTは、対象TUに含まれるブロックの総数)を含んでいる。 As shown in FIG. 2D, the TU information TUI specifies a quantization parameter difference Δqp (tu_qp_delta) that specifies the magnitude of the quantization step, and a division pattern for each block of the target leaf CU (target TU). TU partition information SP_TU and quantized prediction residuals QD1 to QDNT (NT is the total number of blocks included in the target TU) are included.
 量子化パラメータ差分Δqpは、対象TUにおける量子化パラメータqpと、そのTUの直前に符号化されたTUにおける量子化パラメータqp’との差分qp-qp’である。 The quantization parameter difference Δqp is a difference qp−qp ′ between the quantization parameter qp in the target TU and the quantization parameter qp ′ in the TU encoded immediately before the TU.
 TU分割情報SP_TUは、具体的には、対象TUに含まれる各ブロックの形状、サイズ、および、対象TU内での位置を指定する情報である。各TUは、例えば、64×64画素から2×2画素までのサイズをとり得る。ここで、ブロックとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測残差の符号化・復号は、ブロックを単位として行われる。 TU partition information SP_TU is information that specifies the shape and size of each block included in the target TU and the position in the target TU. Each TU can be, for example, a size from 64 × 64 pixels to 2 × 2 pixels. Here, the block is one or a plurality of non-overlapping areas constituting the target leaf CU, and encoding / decoding of the prediction residual is performed in units of blocks.
 各量子化予測残差QDは、動画像符号化装置2が以下の処理1~3を、処理対象のブロックである対象ブロックに施すことによって生成した符号化データである。処理1:符号化対象画像から予測画像を減算した予測残差をDCT変換(Discrete Cosine Transform)する。処理2:処理1にて得られたDCT係数を量子化する。処理3:処理2にて量子化されたDCT係数を可変長符号化する。上述した量子化パラメータqpは、動画像符号化装置2がDCT係数を量子化する際に用いた量子化ステップQPの大きさを表す(QP=2qp/6)。 Each quantized prediction residual QD is encoded data generated by the moving image encoding apparatus 2 performing the following processes 1 to 3 on a target block that is a processing target block. Process 1: DCT transform (Discrete Cosine Transform) is performed on the prediction residual obtained by subtracting the prediction image from the encoding target image. Process 2: The DCT coefficient obtained in Process 1 is quantized. Process 3: The DCT coefficient quantized in Process 2 is variable length encoded. The quantization parameter qp described above represents the magnitude of the quantization step QP used when the moving picture coding apparatus 2 quantizes the DCT coefficient (QP = 2 qp / 6 ).
 (インター予測情報PI_Inter)
 インター予測情報PI_Interは、動画像復号装置1が、インター予測によってインター予測画像を生成する際に参照される符号化パラメータが含まれる。図2(e)に示すように、インター予測情報PI_Interは、対象PUの各パーティションへの分割パターンを指定するインターPU分割情報SP_Inter、および、各パーティションについてのインター予測パラメータPP_Inter1~PP_InterNe(Neは、対象PUに含まれるインター予測パーティションの総数)を含んでいる。
(Inter prediction information PI_Inter)
The inter prediction information PI_Inter includes a coding parameter that is referred to when the video decoding device 1 generates an inter prediction image by inter prediction. As shown in FIG. 2 (e), the inter prediction information PI_Inter includes inter PU partition information SP_Inter that specifies a partition pattern for each partition of the target PU, and inter prediction parameters PP_Inter1 to PP_InterNe (Ne for each partition). The total number of inter prediction partitions included in the target PU).
 インターPU分割情報SP_Interは、具体的には、対象PU(インターPU)に含まれる各インター予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。 Specifically, the inter-PU partition information SP_Inter is information for designating the shape and size of each inter prediction partition included in the target PU (inter PU) and the position in the target PU.
 インターPUは、2N×2N画素、2N×N画素、N×2N画素、およびN×N画素の4つの対称的分割(symmetric splittings)、並びに、2N×nU画素、2N×nD画素、nL×2N画素、およびnR×2N画素の4つの非対称的分割(asymmetric splittings)により、合計8種類のパーティションに分割することが可能である。ここで、Nの具体的な値は、当該PUが属するCUのサイズによって規定され、nU、nD、nL、および、nRの具体的な値は、Nの値に応じて定められる。例えば、128×128画素のインターPUは、128×128画素、128×64画素、64×128画素、64×64画素、128×32画素、128×96画素、32×128画素、および、96×128画素のインター予測パーティションへ分割することが可能である。 The inter PU is composed of four symmetric splittings of 2N × 2N pixels, 2N × N pixels, N × 2N pixels, and N × N pixels, and 2N × nU pixels, 2N × nD pixels, and nL × 2N. It is possible to divide into 8 types of partitions in total by four asymmetric splits of pixels and nR × 2N pixels. Here, the specific value of N is defined by the size of the CU to which the PU belongs, and the specific values of nU, nD, nL, and nR are determined according to the value of N. For example, an inter PU of 128 × 128 pixels is 128 × 128 pixels, 128 × 64 pixels, 64 × 128 pixels, 64 × 64 pixels, 128 × 32 pixels, 128 × 96 pixels, 32 × 128 pixels, and 96 × It is possible to divide into 128-pixel inter prediction partitions.
 (インター予測パラメータ)
 インター予測パラメータPP_Interは、図2(e)に示すように、参照画像インデックスRIと、推定動きベクトルインデックスPMVIと、動きベクトル残差MVDとを含んでいる。
(Inter prediction parameter)
As illustrated in FIG. 2E, the inter prediction parameter PP_Inter includes a reference image index RI, an estimated motion vector index PMVI, and a motion vector residual MVD.
 (イントラ予測情報PI_Intra)
 イントラ予測情報PI_Intraは、動画像復号装置1が、イントラ予測によってイントラ予測画像を生成する際に参照される符号化パラメータが含まれる。図2(f)に示すように、イントラ予測情報PI_Intraは、対象PU(イントラPU)の各パーティションへの分割パターンを指定するイントラPU分割情報SP_Intra、および、各パーティションについてのイントラ予測パラメータPP_Intra1~PP_IntraNa(Naは、対象PUに含まれるイントラ予測パーティションの総数)を含んでいる。
(Intra prediction information PI_Intra)
The intra prediction information PI_Intra includes an encoding parameter that is referred to when the video decoding device 1 generates an intra predicted image by intra prediction. As shown in FIG. 2 (f), the intra prediction information PI_Intra includes intra PU partition information SP_Intra that specifies a partition pattern of the target PU (intra PU) into each partition, and intra prediction parameters PP_Intra1 to PP_IntraNa for each partition. (Na is the total number of intra prediction partitions included in the target PU).
 イントラPU分割情報SP_Intraは、具体的には、対象PUに含まれる各イントラ予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。イントラPU分割情報SP_Intraには、対象PUをパーティションに分割するか否かを指定するイントラ分割フラグ(intra_split_flag)が含まれている。イントラ分割フラグが1であれば、対象PUは、4つのパーティションへと対称的に分割され、イントラ分割フラグが0であれば、対象PUは、分割されることなく、対象PU自身が1つのパーティションとして取り扱われる。したがって、対象PUのサイズを2N×2N画素とすると、イントラ予測パーティションは、2N×2N画素(分割なし)、および、N×N画素(4分割)の何れかのサイズを取り得る(ここで、N=2n、nは1以上の任意の整数)。例えば、128×128画素のイントラPUは、128×128画素、および、64×64画素のイントラ予測パーティションへ分割することが可能である。 Specifically, the intra-PU partition information SP_Intra is information that specifies the shape and size of each intra-predicted partition included in the target PU, and the position in the target PU. The intra PU split information SP_Intra includes an intra split flag (intra_split_flag) that specifies whether or not the target PU is split into partitions. If the intra partition flag is 1, the target PU is divided symmetrically into four partitions. If the intra partition flag is 0, the target PU is not divided and the target PU itself is one partition. Are treated as Therefore, if the size of the target PU is 2N × 2N pixels, the intra prediction partition can take any of 2N × 2N pixels (no division) and N × N pixels (four divisions) (where, N = 2 n , n is an arbitrary integer of 1 or more). For example, a 128 × 128 pixel intra PU can be divided into 128 × 128 pixel and 64 × 64 pixel intra prediction partitions.
 (イントラ予測パラメータPP_Intra)
 イントラ予測パラメータPP_Intraは、図2(f)に示すように、推定フラグMPM、残余予測モードインデックスRIPM、および、追加インデックスAIを含んでいる。イントラ予測パラメータPP_Intraは、各パーティションについてのイントラ予測方法(予測モード)を指定するためのパラメータである。
(Intra prediction parameter PP_Intra)
As shown in FIG. 2F, the intra prediction parameter PP_Intra includes an estimation flag MPM, a residual prediction mode index RIPM, and an additional index AI. The intra prediction parameter PP_Intra is a parameter for designating an intra prediction method (prediction mode) for each partition.
 推定フラグMPMは、処理対象である対象パーティションの周辺のパーティションに割り付けられた予測モードに基づいて推定された予測モードと当該対象パーティションについての予測モードとが同じであるか否かを示すフラグである。ここで、対象パーティションの周辺のパーティションの例としては、対象パーティションの上辺に隣接するパーティション、および、対象パーティションの左辺に隣接するパーティション等が挙げられる。 The estimation flag MPM is a flag indicating whether or not the prediction mode estimated based on the prediction mode allocated to the peripheral partition of the target partition that is the processing target is the same as the prediction mode for the target partition. . Here, examples of partitions around the target partition include a partition adjacent to the upper side of the target partition and a partition adjacent to the left side of the target partition.
 残余予測モードインデックスRIPMは、推定された予測モードと対象パーティションについての予測モードとが異なる場合に、イントラ予測パラメータPP_Intraに含められるインデックスであり、当該対象パーティションに割り付けられる予測モードを指定するためのインデックスである。 The residual prediction mode index RIPM is an index included in the intra prediction parameter PP_Intra when the estimated prediction mode and the prediction mode for the target partition are different, and is an index for designating a prediction mode assigned to the target partition. It is.
 追加インデックスAIは、対象パーティションに割り付けられた予測モードが、所定の予測モードである場合に、当該対象パーティションについてのイントラ予測方法をより詳細に指定するためのインデックスである。 The additional index AI is an index for specifying the intra prediction method for the target partition in more detail when the prediction mode assigned to the target partition is a predetermined prediction mode.
 (動画像復号装置1)
 以下では、本実施形態に係る動画像復号装置1について図1~図8を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む復号装置である。
(Moving picture decoding apparatus 1)
Hereinafter, the moving picture decoding apparatus 1 according to the present embodiment will be described with reference to FIGS. The moving picture decoding apparatus 1 includes H.264 as a part thereof. H.264 / MPEG-4. Decoding device including technology adopted in KTA software which is a codec for joint development in AVC and VCEG (Video Coding Expert Group), and technology adopted in TMuC (Test Model under Consideration) software which is a successor codec It is.
 図3は、動画像復号装置1の構成を示すブロック図である。図3に示すように、動画像復号装置1は、可変長符号復号部11、予測画像生成部12、逆量子化・逆変換部13、加算器14、フレームメモリ15、および、ループフィルタ16を備えている。また、図3に示すように、予測画像生成部12は、動きベクトル復元部12a、インター予測画像生成部12b、イントラ予測画像生成部12c、および、予測方式決定部12dを備えている。動画像復号装置1は、符号化データ#1を復号することによって動画像#2を生成するための装置である。 FIG. 3 is a block diagram showing a configuration of the moving picture decoding apparatus 1. As illustrated in FIG. 3, the video decoding device 1 includes a variable length code decoding unit 11, a predicted image generation unit 12, an inverse quantization / inverse conversion unit 13, an adder 14, a frame memory 15, and a loop filter 16. I have. As shown in FIG. 3, the predicted image generation unit 12 includes a motion vector restoration unit 12a, an inter predicted image generation unit 12b, an intra predicted image generation unit 12c, and a prediction method determination unit 12d. The moving picture decoding apparatus 1 is an apparatus for generating moving picture # 2 by decoding encoded data # 1.
 (可変長符号復号部11)
 可変長符号復号部11は、各パーティションに関する予測パラメータPPを、符号化データ#1から復号し、予測画像生成部12に供給する。具体的には、可変長符号復号部11は、インター予測パーティションに関しては、参照画像インデックスRI、推定動きベクトルインデックスPMVI、及び、動きベクトル残差MVDを含むインター予測パラメータPP_Interを符号化データ#1から復号し、これらを動きベクトル復元部12aに供給する。一方、イントラ予測パーティションに関しては、推定フラグMPM、残余インデックスRIPM、および、追加インデックスAIを含むイントラ予測パラメータPP_Intraを符号化データ#1から復号し、これらをイントラ予測画像生成部12cに供給する。また、可変長符号復号部11は、パーティションのサイズを指定するサイズ指定情報をイントラ予測画像生成部12cに供給する(図示省略)。
(Variable-length code decoding unit 11)
The variable length code decoding unit 11 decodes the prediction parameter PP related to each partition from the encoded data # 1, and supplies the decoded prediction parameter PP to the predicted image generation unit 12. Specifically, for the inter prediction partition, the variable length code decoding unit 11 receives the inter prediction parameter PP_Inter including the reference image index RI, the estimated motion vector index PMVI, and the motion vector residual MVD from the encoded data # 1. These are decoded and supplied to the motion vector restoration unit 12a. On the other hand, for the intra prediction partition, the intra prediction parameter PP_Intra including the estimation flag MPM, the residual index RIPM, and the additional index AI is decoded from the encoded data # 1, and these are supplied to the intra prediction image generation unit 12c. In addition, the variable length code decoding unit 11 supplies size designation information for designating the size of the partition to the intra predicted image generation unit 12c (not shown).
 また、可変長符号復号部11は、各パーティションについての予測タイプ情報PTを符号化データ#1から復号し、これを予測方式決定部12dに供給する。更に、可変長符号復号部11は、各ブロックに関する量子化予測残差QD、及び、そのブロックを含むTUに関する量子化パラメータ差分Δqpを符号化データ#1から復号し、これらを逆量子化・逆変換部13に供給する。また、可変長符号復号部11は、符号化データ#1からフィルタパラメータFPを復号し、これをループフィルタ16に供給する。 Also, the variable length code decoding unit 11 decodes the prediction type information PT for each partition from the encoded data # 1, and supplies this to the prediction method determination unit 12d. Further, the variable length code decoding unit 11 decodes the quantization prediction residual QD for each block and the quantization parameter difference Δqp for the TU including the block from the encoded data # 1, and performs inverse quantization / inverse This is supplied to the conversion unit 13. Further, the variable length code decoding unit 11 decodes the filter parameter FP from the encoded data # 1 and supplies this to the loop filter 16.
 なお、可変長符号復号部11による具体的な復号方式としては、算術符号化/復号の一方式であるCABAC(Context-based Adaptive Binary Arithmetic Coding)、または、非算術符号化/復号の一方式であるCAVLC(Context-based Adaptive Variable Length Coding)が用いられる。ここで、CABACとは、コンテキストに基づく適応的なバイナリー算術符号化を行う符号化/復号方式であり、CALVCとは、コンテキストを適応的に切り替える可変長符号のセットを利用する符号化・復号方式である。CABACは、CAVLCに比べて、符号量削減効果が大きい半面、処理量が増大するという側面もある。 As a specific decoding method by the variable-length code decoding unit 11, CABAC (Context-based Adaptive Binary Arithmetic Coding) which is one arithmetic coding / decoding method, or one non-arithmetic encoding / decoding method is used. A certain CAVLC (Context-based Adaptive Variable Variable Length Coding) is used. Here, CABAC is an encoding / decoding scheme that performs adaptive binary arithmetic coding based on context, and CALVC is an encoding / decoding scheme that uses a set of variable length codes that adaptively switch contexts. It is. CABAC has a larger code amount reduction effect than CAVLC, but also has an aspect of increasing the processing amount.
 可変長符号復号部11は、符号化データ#1のピクチャヘッダPHに含まれる符号化モード情報(entropy_coding_mode_flag)を参照することにより、対象ピクチャがCABACにより符号化されたものであるのか、CAVLCにより符号化されたものであるのかを識別することができる。また、可変長符号復号部11は、識別した符号化方式に対応する復号方式により、対象ピクチャを復号する。 The variable length code decoding unit 11 refers to the encoding mode information (entropy_coding_mode_flag) included in the picture header PH of the encoded data # 1 to determine whether the target picture has been encoded by CABAC or by CAVLC. Can be identified. In addition, the variable length code decoding unit 11 decodes the target picture using a decoding method corresponding to the identified encoding method.
 (予測画像生成部12)
 予測画像生成部12は、各パーティションについての予測タイプ情報PTに基づいて、各パーティションがインター予測を行うべきインター予測パーティションであるのか、イントラ予測を行うべきイントラ予測パーティションであるのかを識別する。そして、前者の場合には、インター予測画像Pred_Interを生成すると共に、生成したインター予測画像Pred_Interを予測画像Predとして加算器14に供給し、後者の場合には、イントラ予測画像Pred_Intraを生成すると共に、生成したイントラ予測画像Pred_Intraを加算器14に供給する。なお、予測画像生成部12は、処理対象PUに対してスキップモードが適用されている場合には、当該PUに属する他のパラメータの復号を省略する。
(Predicted image generation unit 12)
The predicted image generation unit 12 identifies whether each partition is an inter prediction partition for performing inter prediction or an intra prediction partition for performing intra prediction based on the prediction type information PT for each partition. In the former case, the inter prediction image Pred_Inter is generated, and the generated inter prediction image Pred_Inter is supplied to the adder 14 as the prediction image Pred. In the latter case, the intra prediction image Pred_Intra is generated, The generated intra predicted image Pred_Intra is supplied to the adder 14. Note that, when the skip mode is applied to the processing target PU, the predicted image generation unit 12 omits decoding of other parameters belonging to the PU.
 (動きベクトル復元部12a)
 動きベクトル復元部12aは、各インター予測パーティションに関する動きベクトルmvを、そのパーティションに関する動きベクトル残差MVDと、他のパーティションに関する復元済みの動きベクトルmv’とから復元する。具体的には、(1)推定動きベクトルインデックスPMVIにより指定される推定方法に従って、復元済みの動きベクトルmv’から推定動きベクトルpmvを導出し、(2)導出した推定動きベクトルpmvと動きベクトル残差MVDとを加算することによって動きベクトルmvを得る。なお、他のパーティションに関する復元済みの動きベクトルmv’は、フレームメモリ15から読み出すことができる。動きベクトル復元部12aは、復元した動きベクトルmvを、対応する参照画像インデックスRIと共に、インター予測画像生成部12bに供給する。
(Motion vector restoration unit 12a)
The motion vector restoration unit 12a restores the motion vector mv related to each inter prediction partition from the motion vector residual MVD related to that partition and the restored motion vector mv ′ related to another partition. Specifically, (1) the estimated motion vector pmv is derived from the restored motion vector mv ′ according to the estimation method specified by the estimated motion vector index PMVI, and (2) the derived estimated motion vector pmv and the motion vector remaining are derived. The motion vector mv is obtained by adding the difference MVD. It should be noted that the restored motion vector mv ′ relating to other partitions can be read from the frame memory 15. The motion vector restoration unit 12a supplies the restored motion vector mv to the inter predicted image generation unit 12b together with the corresponding reference image index RI.
 (インター予測画像生成部12b)
 インター予測画像生成部12bは、画面間予測によって、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、動きベクトル復元部12aから供給された動きベクトルmvを用いて、同じく動きベクトル復元部12aから供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_ALF’から動き補償画像mcを生成する。ここで、フィルタ済復号画像P_ALF’は、既にフレーム全体の復号が完了した復号済みの復号画像に対して、ループフィルタ16によるフィルタ処理を施すことによって得られる画像であり、インター予測画像生成部12bは、フィルタ済復号画像P_ALF’を構成する各画素の画素値をフレームメモリ15から読み出すことができる。インター予測画像生成部12bによって生成された動き補償画像mcは、インター予測画像Pred_Interとして予測方式決定部12dに供給される。
(Inter prediction image generation unit 12b)
The inter prediction image generation unit 12b generates a motion compensated image mc related to each inter prediction partition by inter-screen prediction. Specifically, using the motion vector mv supplied from the motion vector restoration unit 12a, the motion compensation image mc from the filtered decoded image P_ALF ′ designated by the reference image index RI supplied from the motion vector restoration unit 12a. Is generated. Here, the filtered decoded image P_ALF ′ is an image obtained by performing the filtering process by the loop filter 16 on the decoded image that has already been decoded for the entire frame, and the inter predicted image generation unit 12b. Can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 15. The motion compensated image mc generated by the inter predicted image generation unit 12b is supplied to the prediction method determination unit 12d as an inter predicted image Pred_Inter.
 (イントラ予測画像生成部12c)
 イントラ予測画像生成部12cは、各イントラ予測パーティションに関する予測画像Pred_Intraを生成する。具体的には、まず、可変長符号復号部11から供給されたイントラ予測パラメータPP_Intraに基づいて予測モードを特定し、特定された予測モードを対象パーティションに対して、例えば、ラスタスキャン順に割り付ける。続いて、当該予測モードの示す予測方法に従って、画面内予測によって、(局所)復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部12cによって生成されたイントラ予測画像Pred_Intraは、予測方式決定部12dに供給される。なお、イントラ予測画像生成部12cは、画面内予測によって、フィルタ済復号画像P_ALFから予測画像Pred_Intraを生成する構成とすることも可能である。
(Intra predicted image generation unit 12c)
The intra predicted image generation unit 12c generates a predicted image Pred_Intra related to each intra prediction partition. Specifically, first, a prediction mode is specified based on the intra prediction parameter PP_Intra supplied from the variable length code decoding unit 11, and the specified prediction mode is assigned to the target partition in, for example, raster scan order. Subsequently, a predicted image Pred_Intra is generated from the (local) decoded image P by intra prediction according to the prediction method indicated by the prediction mode. The intra predicted image Pred_Intra generated by the intra predicted image generation unit 12c is supplied to the prediction method determination unit 12d. Note that the intra predicted image generation unit 12c may be configured to generate the predicted image Pred_Intra from the filtered decoded image P_ALF by intra prediction.
 イントラ予測画像生成部12cによるイントラ予測画像Pred_Intraの生成方法については後述するため、ここでは説明を省略する。 Since the method of generating the intra predicted image Pred_Intra by the intra predicted image generation unit 12c will be described later, the description thereof is omitted here.
 (予測方式決定部12d)
 予測方式決定部12dは、各パーティションが属するPUについての予測タイプ情報PTに基づいて、各パーティションがインター予測を行うべきインター予測パーティションであるのか、イントラ予測を行うべきイントラ予測パーティションであるのかを決定する。そして、前者の場合には、インター予測画像生成部12bにて生成されたインター予測画像Pred_Interを予測画像Predとして加算器14に供給し、後者の場合には、イントラ予測画像生成部12cにて生成されたイントラ予測画像Pred_Intraを予測画像Predとして加算器14に供給する。
(Prediction method determination unit 12d)
The prediction method determination unit 12d determines whether each partition is an inter prediction partition that should perform inter prediction or an intra prediction partition that should perform intra prediction based on the prediction type information PT about the PU to which each partition belongs. To do. In the former case, the inter prediction image Pred_Inter generated by the inter prediction image generation unit 12b is supplied to the adder 14 as the prediction image Pred. In the latter case, the inter prediction image generation unit 12c generates the inter prediction image Pred_Inter. The intra predicted image Pred_Intra that has been processed is supplied to the adder 14 as the predicted image Pred.
 (逆量子化・逆変換部13)
 逆量子化・逆変換部13は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器14に供給する。なお、量子化予測残差QDを逆量子化する際に、逆量子化・逆変換部13は、可変長符号復号部11から供給された量子化パラメータ差分Δqpから量子化ステップQPを導出する。量子化パラメータqpは、直前に逆量子化/逆DCT変換したTUに関する量子化パラメータqp’に量子化パラメータ差分Δqpを加算することによって導出でき、量子化ステップQPは、量子化ステップqpから例えばQP=2pq/6によって導出できる。また、逆量子化・逆変換部13による予測残差Dの生成は、TUあるいはTUを分割したブロックを単位として行われる。
(Inverse quantization / inverse transform unit 13)
The inverse quantization / inverse transform unit 13 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transform on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 14. When the quantization prediction residual QD is inversely quantized, the inverse quantization / inverse transform unit 13 derives the quantization step QP from the quantization parameter difference Δqp supplied from the variable length code decoding unit 11. The quantization parameter qp can be derived by adding the quantization parameter difference Δqp to the quantization parameter qp ′ relating to the TU that has been inversely quantized / inversely DCT transformed immediately before, and the quantization step QP is derived from the quantization step qp, for example, QP = 2 pq / 6 . The generation of the prediction residual D by the inverse quantization / inverse transform unit 13 is performed in units of blocks obtained by dividing TUs or TUs.
 (加算器14)
 加算器14は、予測画像生成部12から供給された予測画像Predと、逆量子化・逆変換部13から供給された予測残差Dとを加算することによって復号画像Pを生成する。生成された復号画像Pは、フレームメモリ15に格納される。
(Adder 14)
The adder 14 generates the decoded image P by adding the prediction image Pred supplied from the prediction image generation unit 12 and the prediction residual D supplied from the inverse quantization / inverse conversion unit 13. The generated decoded image P is stored in the frame memory 15.
 (ループフィルタ16)
 ループフィルタ16は、フレームメモリ15から復号画像Pを読み出し、復号画像Pのパーティション境界およびブロック境界の何れか一方若しくは双方におけるブロックノイズ低減処理を施す。また、ループフィルタ16は、ブロックノイズ低減処理が施された復号画像に対して、符号化データ#1から復号されるフィルタパラメータFPを用いた適応的なフィルタ処理を施し、当該適応的なフィルタ処理が施された復号画像Pをフィルタ済復号画像P_ALFとしてフレームメモリ15に出力する。
(Loop filter 16)
The loop filter 16 reads the decoded image P from the frame memory 15 and performs block noise reduction processing at one or both of the partition boundary and the block boundary of the decoded image P. In addition, the loop filter 16 performs adaptive filter processing using the filter parameter FP decoded from the encoded data # 1 on the decoded image subjected to the block noise reduction processing, and the adaptive filter processing Is output to the frame memory 15 as a filtered decoded image P_ALF.
 (イントラ予測画像生成部12cによるイントラ予測画像Pred_Intraの生成処理)
 以下では、参照する図面を代えて、イントラ予測画像生成部12cによるイントラ予測画像Pred_Intraの生成処理について説明を行う。
(Generation process of intra prediction image Pred_Intra by intra prediction image generation unit 12c)
Hereinafter, the intra-prediction image Pred_Intra generation processing by the intra-prediction image generation unit 12c will be described with reference to different drawings.
 イントラ予測画像生成部12cは、(1)予め定められた1または複数の予測方向およびDC予測の何れかを指定する基本予測モード、および、(2)対象パーティションの周辺の画素値を用いた計算により予測方向を定める予測モード、例えば、対象パーティションの周辺の画素値より算出されるエッジ方向(または、当該エッジ方向の示す角度と補正角度との和によって表される方向)を予測方向とするエッジベース予測モード、のうち、イントラ予測パラメータPP_Intraによって指定される予測モードに基づいて、対象パーティションにおけるイントラ予測画像Pred_Intraを生成する。 The intra-predicted image generation unit 12c (1) a basic prediction mode that designates one or more predetermined prediction directions and DC prediction, and (2) calculation using pixel values around the target partition Prediction mode that determines the prediction direction by, for example, an edge whose prediction direction is the edge direction calculated from pixel values around the target partition (or the direction represented by the sum of the angle indicated by the edge direction and the correction angle) Based on the prediction mode specified by the intra prediction parameter PP_Intra among the base prediction modes, the intra prediction image Pred_Intra in the target partition is generated.
 換言すれば、イントラ予測画像生成部12cは、1または複数の基本予測モード、および、エッジベース予測モードよりなる予測モードのセット(以下、「拡張セット」とも呼ぶ)から、イントラ予測パラメータPP_Intraによって指定される予測モードを選択し、選択された予測モードに基づいて、対象パーティションにおけるイントラ予測画像Pred_Intraを生成する。 In other words, the intra-predicted image generation unit 12c is designated by an intra-prediction parameter PP_Intra from a set of prediction modes (hereinafter also referred to as “extended set”) including one or a plurality of basic prediction modes and an edge-based prediction mode. A prediction mode to be selected is selected, and an intra prediction image Pred_Intra in the target partition is generated based on the selected prediction mode.
 以下では、予め定められた1または複数の予測方向およびDC予測の何れかを指定する基本予測モードよりなるセットを基本予測モードセットとも呼ぶことにする。すなわち、上記拡張セットには、基本予測モードセットに含まれる予測モードと、エッジベース予測モードとが含まれる。 Hereinafter, a set of basic prediction modes that specify one or more predetermined prediction directions and DC prediction is also referred to as a basic prediction mode set. That is, the extended set includes a prediction mode included in the basic prediction mode set and an edge-based prediction mode.
 図4の(a)は、拡張セットに含まれる各予測モードを、当該各予測モードに付される予測モードインデックスと共に示す図である。また、図4の(a)においては、基本予測モードセットに属する各方向予測モードと、当該各方向予測モードの示す予測方向とが示されている。図4の(a)に示すように、エッジベース予測モードは、インデックス1によって指定され、基本予測モードに含まれるDC予測モードは、インデックス0によって指定され、基本予測モードセットに含まれる各方向予測モードは、インデックス2~9によって指定される。 (A) of FIG. 4 is a figure which shows each prediction mode contained in an extended set with the prediction mode index attached | subjected to each said prediction mode. 4A shows each direction prediction mode belonging to the basic prediction mode set and the prediction direction indicated by each direction prediction mode. As shown in FIG. 4A, the edge-based prediction mode is specified by index 1, and the DC prediction mode included in the basic prediction mode is specified by index 0, and each directional prediction included in the basic prediction mode set is included. The mode is specified by indexes 2-9.
 なお、各インデックスと各予測モードとの対応関係を示す情報、および、基本予測モードセットに属する各方向予測モードと各予測方向との対応関係を示す情報は、符号化データ#1を生成する動画像符号化装置、および、符号化データ#1を復号する動画像復号装置1の双方において共通のものを用いる構成とすることができる。動画像復号装置1は、それらの情報を自身の備えるメモリに格納しておき、復号されたインデックスによって指定される予測モードが、エッジベース予測モードであるのか、DC予測モードであるのか、または、方向予測モードであるのかを識別することができ、また、復号されたインデックスが指定する予測モードが方向予測モードである場合には、当該方向予測モードが何れの予測方向を指定するものであるのかを識別することができる。 Note that the information indicating the correspondence between each index and each prediction mode, and the information indicating the correspondence between each direction prediction mode belonging to the basic prediction mode set and each prediction direction are moving images that generate encoded data # 1. A common configuration can be used for both the image encoding device and the moving image decoding device 1 that decodes the encoded data # 1. The moving picture decoding apparatus 1 stores such information in its own memory, and whether the prediction mode specified by the decoded index is the edge-based prediction mode, the DC prediction mode, or It is possible to identify the direction prediction mode, and when the prediction mode specified by the decoded index is the direction prediction mode, which prediction direction the direction prediction mode specifies. Can be identified.
 また、各インデックスと各予測モードとの対応関係を示す情報、および、基本予測モードセットに属する各方向予測モードと各予測方向との対応関係を示す情報は、例えば、シーケンス毎、ピクチャ毎、または、スライス毎に、動画像符号化装置から動画像復号装置1に伝送する構成としてもよい。 The information indicating the correspondence between each index and each prediction mode, and the information indicating the correspondence between each direction prediction mode belonging to the basic prediction mode set and each prediction direction are, for example, for each sequence, for each picture, or Further, a configuration may be adopted in which, for each slice, transmission is performed from the moving image encoding device to the moving image decoding device 1.
 なお、図4の(a)においては、エッジベース予測モードをインデックス1に割り当てたが、本実施形態はこれに限定されるものではなく、復号対象の画像の特性、および、エッジベース予測モードが選択される頻度等に応じて、最適なインデックスを割り当てる構成とすることができる。例えば、対象パーティションの周辺のパーティションに割り付けられた予測モードのうち、より小さいインデックスによって指定される予測モードを当該対象パーティションについての推定予測モードに設定する構成においては、インデックスのより小さな予測モードが選択される頻度が高くなる。このような構成の場合であって、復号対象の画像にエッジが多く含まれているような場合には、エッジベース予測モードに対してより小さなインデックスを割り当てることが好ましい。一方で、インデックスのより小さな予測モードが、より高い頻度で選択されるような構成の場合であって、復号対象の画像にエッジが多く含まれているような場合には、エッジベース予測モードに対してより大きなインデックスを割り当てることが好ましい。 In FIG. 4A, the edge-based prediction mode is assigned to index 1, but the present embodiment is not limited to this, and the characteristics of the image to be decoded and the edge-based prediction mode are An optimum index can be assigned according to the frequency selected. For example, in the configuration in which the prediction mode specified by a smaller index among the prediction modes assigned to the partitions around the target partition is set as the estimated prediction mode for the target partition, the prediction mode with the smaller index is selected. Will be more frequent. In the case of such a configuration, when the decoding target image includes many edges, it is preferable to assign a smaller index to the edge-based prediction mode. On the other hand, when the prediction mode having a smaller index is selected at a higher frequency and the image to be decoded includes many edges, the edge-based prediction mode is selected. It is preferable to assign a larger index to this.
 また、図4の(a)においては、基本予測モードセットが、互いに異なる8つの方向予測の何れかを指定する予測モードを含んでいる場合を例に挙げたが、本実施形態はこれに限定されるものではない。例えば、基本予測モードセットとして、互いに異なる9以上の方向の何れかを指定する予測モードを含むセットを用いてもよい。そのような例としては、例えば、互いに異なる16方向の何れかを指定する予測モードや、互いに異なる32方向の何れかを指定する予測モードを含むセットが挙げられる。 Further, in FIG. 4A, the case where the basic prediction mode set includes a prediction mode that specifies any one of eight different direction predictions is taken as an example, but the present embodiment is limited to this. Is not to be done. For example, as the basic prediction mode set, a set including a prediction mode that specifies any of nine or more different directions may be used. As such an example, for example, a set including a prediction mode for designating any of 16 different directions and a prediction mode for designating any of 32 different directions can be given.
 また、基本予測モードセットに含まれる予測モードとしては、予め定められている1または複数の方向の何れか、または、1または複数の無方向の予測モードの何れか(例えば、DC予測)を指定するものであればよく、本実施形態は、基本予測モードセットに含まれる予測モードの数によって限定されるものではない。 In addition, as a prediction mode included in the basic prediction mode set, one of one or more predetermined directions or one or more non-directional prediction modes (for example, DC prediction) is designated. The present embodiment is not limited by the number of prediction modes included in the basic prediction mode set.
 以下では、まず、イントラ予測画像生成部12cによる、エッジベース予測モード、および、基本予測モードにおけるイントラ予測画像Pred_Intraの生成処理について具体的に説明を行い、その後に、イントラ予測画像生成部12cによって参照されるイントラ予測パラメータPP_Intraに含まれる各シンタックスの説明、および、イントラ予測画像生成部12cによるイントラ予測画像Pred_Intraの生成処理の具体的な流れについての説明を行う。 In the following, first, the intra-predicted image generation unit 12c will specifically describe the processing for generating the intra-predicted image Pred_Intra in the edge-based prediction mode and the basic prediction mode, and then refer to the intra-predicted image generation unit 12c. Each syntax included in the intra-prediction parameter PP_Intra to be performed and a specific flow of the intra-prediction image Pred_Intra generation process by the intra-prediction image generation unit 12c will be described.
 (エッジベース予測モードにおける予測画像の算出処理)
 まず、エッジベース予測モードにおける、イントラ予測画像生成部12cによる予測画像の算出処理について図5の(a)~(b)を参照して、具体的に説明する。
(Prediction image calculation processing in edge-based prediction mode)
First, prediction image calculation processing by the intra-prediction image generation unit 12c in the edge-based prediction mode will be specifically described with reference to (a) to (b) of FIG.
 図5の(a)は、対象パーティションOPを、対象パーティションOPに隣接するパーティションNP2およびNP3、並びに、対象パーティションの左上の頂点を共有するパーティションNP1と共に示す図である。図5(a)においては、対象パーティションOP、および、パーティションNP1~3が何れも4×4画素である場合を示すが、本実施形態はこれに限定されるものではなく、対象パーティションOPが4×4画素以外のサイズである場合や、パーティションNP1~3が4×4画素以外のサイズである場合にも適用することができる。また、図5(a)に示すパーティションNP1~3に含まれる画素の画素値は、何れも復号済みであるものとする。 FIG. 5A shows the target partition OP together with the partitions NP2 and NP3 adjacent to the target partition OP and the partition NP1 sharing the top left vertex of the target partition. FIG. 5A shows a case where the target partition OP and the partitions NP1 to NP3 are all 4 × 4 pixels, but the present embodiment is not limited to this, and the target partition OP is four. The present invention can also be applied when the size is other than × 4 pixels or when the partitions NP1 to NP3 are other than 4 × 4 pixels. It is assumed that the pixel values of the pixels included in the partitions NP1 to NP3 shown in FIG. 5A have been decoded.
 イントラ予測画像生成部12cは、まず、パーティションNP1~3に含まれる各画素について、エッジベクトルbi(i=1~M、MはパーティションNP1~3に含まれる画素の総数)を算出する。ここで、エッジベクトルbiの算出には、ソーベル演算子(Sobel operators、ソーベルフィルタとも呼ぶ)Gx、および、Gyを用いればよい。ここでソーベルフィルタGx、および、Gyは、それぞれ、x方向に沿った画像勾配、および、y方向に沿った画像勾配を算出するために用いられるフィルタ行列であり、例えば、3×3行列として、 First, the intra predicted image generation unit 12c calculates edge vectors b i (i = 1 to M, M is the total number of pixels included in the partitions NP1 to 3) for each pixel included in the partitions NP1 to NP3. Here, the calculation of the edge vectors b i is Sobel operator (Sobel operators, also referred to as a Sobel filter) Gx, and may be used to Gy. Here, the Sobel filters Gx and Gy are filter matrices used for calculating the image gradient along the x direction and the image gradient along the y direction, respectively. For example, as a 3 × 3 matrix, ,
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001
によって与えられる。イントラ予測画像生成部12cは、算出されたx方向についての画像勾配、および、y方向に沿った画像勾配によって表される画像勾配に直交する方向をエッジ方向として算出する。 Given by. The intra predicted image generation unit 12c calculates, as the edge direction, a direction orthogonal to the calculated image gradient in the x direction and the image gradient represented by the image gradient along the y direction.
 続いて、イントラ予測画像生成部12cは、以下に示す関数T(α)
 T(α)=Σ<e,bi2
を定義する。ここで、eは、自身の方向と水平方向(x方向)とのなす角がαである単位ベクトルを表しており、記号<,>は、両者のベクトルの内積を表している。また、記号Σは、添え字iについて1からMまでの和をとることを示している。
Subsequently, the intra predicted image generation unit 12c has a function T (α) shown below.
T (α) = Σ <e, b i > 2
Define Here, e represents a unit vector whose angle between its own direction and the horizontal direction (x direction) is α, and the symbol <,> represents the inner product of both vectors. The symbol Σ indicates that the subscript i is to be summed from 1 to M.
 続いて、イントラ予測画像生成部12cは、関数T(α)を最大化する引数α*
 α*=argmaxS(α)
を算出し、α*によって表される方向を、対象パーティションについてのエッジ方向に設定する。なお、上記の説明において、角度α、および、角度α*は、水平右向きを0度とし、時計回りを正として表されるものとする(以下の角度の表現についても同様)。
Subsequently, the intra predicted image generation unit 12c sets an argument α * that maximizes the function T (α) .
α * = argmaxS (α)
And the direction represented by α * is set to the edge direction for the target partition. In the above description, it is assumed that the angle α and the angle α * are represented with the horizontal right direction being 0 degrees and the clockwise direction being positive (the same applies to the expression of the following angles).
 また、イントラ予測画像生成部12cは、符号化データ#1に、後述するシンタックスadjust_neighb_dir(第2の符号)が含まれている場合には、当該シンタックスadjust_neighb_dirによって示される補正角度(方向補正)Δαを、対象パーティションについて算出したエッジ方向の示す角度に加算し、α*+Δαの表す方向を、対象パーティションについての予測方向に設定する。 In addition, when the encoded data # 1 includes a syntax adjust_neighb_dir (second code) described later, the intra predicted image generation unit 12c corrects the angle (direction correction) indicated by the syntax adjust_neighb_dir. Δα is added to the angle indicated by the edge direction calculated for the target partition, and the direction represented by α * + Δα is set as the prediction direction for the target partition.
 なお、補正角度Δαは、例えば、シンタックスadjust_neighb_dirの示す値をtと表すことにすると、Δα=t×δαによって与えられる。ここで、δαは、補正角度を量子化する際の量子化の粗さを指定する量子化ステップサイズを表しており、本実施形態においては、δαは、以下に示す確信度s The correction angle Δα is given by Δα = t × δα, for example, where the value indicated by the syntax adjust_neighb_dir is represented by t. Here, δα represents a quantization step size for designating the roughness of quantization when the correction angle is quantized. In this embodiment, δα is a certainty factor s shown below.
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000002
の関数として、パーティション毎に個別に算出される。なお、量子化ステップサイズδαは、確信度sの減少関数であるという性質がある。また、イントラ予測画像生成部12cは、量子化ステップサイズδαを、パーティション毎に個別に算出する構成に代えて、例えば、予め定められた量子化ステップサイズδαを用いる構成としてもよい。また、符号化データ#1を生成する動画像符号化装置において、スライス毎やLCU毎に量子化ステップサイズδαを符号化し、当該量子化ステップを符号化データ#1に含めておき、イントラ予測画像生成部12cが、符号化データ#1から復号された量子化ステップサイズδαを用いる構成としてもよい。 As a function of, it is calculated for each partition individually. The quantization step size δα has a property that it is a decreasing function of the certainty factor s. In addition, the intra predicted image generation unit 12c may be configured to use, for example, a predetermined quantization step size δα instead of the configuration in which the quantization step size δα is calculated individually for each partition. Further, in the video encoding device that generates the encoded data # 1, the quantization step size δα is encoded for each slice or for each LCU, the quantization step is included in the encoded data # 1, and the intra prediction image The generation unit 12c may be configured to use the quantization step size δα decoded from the encoded data # 1.
 図5(b)は、シンタックスadjust_neighb_dirの示す値t(t=-2、-1、0、1、2)によって指定される予測方向の例を示している。 FIG. 5B shows an example of the prediction direction specified by the value t (t = −2, −1, 0, 1, 2) indicated by the syntax adjust_neighb_dir.
 イントラ予測画像生成部12cは、エッジベース予測モードにおいて、以上のようにして決定された予測方向に、対象パーティションの周辺の画素についての復号済みの画素値を外挿することによって、当該対象パーティションにおけるイントラ予測画像Pred_Intraを生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによってイントラ予測画像Pred_Intraを生成してもよい。 In the edge-based prediction mode, the intra-predicted image generation unit 12c extrapolates the decoded pixel values for pixels around the target partition in the prediction direction determined as described above, so that An intra prediction image Pred_Intra is generated. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
 例えば、イントラ予測画像生成部12cは、当該対象パーティションにおける予測対象画素の画素位置を始点とする、上記予測方向の逆方向を向いた仮想線分上に位置する復号済み画素のうち、当該画素に最も近い画素(以下、最近接画素とも呼ぶ)の画素値を、当該予測対象画素の画素値に設定することにより、当該対象パーティションにおけるイントラ予測画像Pred_Intraを生成する。また、最近接画素の画素値、および、最近接画素の周辺の画素の画素値を用いて算出される値を、当該予測対象画素の画素値としてもよい。 For example, the intra-predicted image generation unit 12c sets the pixel among the decoded pixels that are located on the virtual line segment that faces the reverse direction of the prediction direction, starting from the pixel position of the prediction target pixel in the target partition. The intra predicted image Pred_Intra in the target partition is generated by setting the pixel value of the closest pixel (hereinafter also referred to as the closest pixel) to the pixel value of the prediction target pixel. Further, the pixel value of the prediction target pixel may be a value calculated using the pixel value of the nearest pixel and the pixel values of the pixels around the nearest pixel.
 なお、上記の説明では、イントラ予測画像生成部12cがエッジ方向を算出する際に、対象パーティションの上辺に隣接するパーティション、対象パーティションの左辺に隣接するパーティション、および、対象パーティションの左上の頂点を共有するパーティションに属する画素の画素値を参照する場合を例に挙げたが、本実施形態はこれに限定されるものではなく、イントラ予測画像生成部12cは、より一般に、対象パーティションの周辺に設定される参照領域に属する復号済みの画素値を参照してエッジ方向を算出する構成とすることができる。 In the above description, when the intra predicted image generation unit 12c calculates the edge direction, the partition adjacent to the upper side of the target partition, the partition adjacent to the left side of the target partition, and the upper left vertex of the target partition are shared. Although the case where the pixel values of the pixels belonging to the partition to be referred to is taken as an example, the present embodiment is not limited to this, and the intra-predicted image generation unit 12c is more generally set around the target partition. The edge direction can be calculated with reference to the decoded pixel values belonging to the reference region.
 (基本予測モードにおける予測画像の算出処理)
 続いて、基本予測モードにおける、イントラ予測画像生成部12cによる予測画像の生成処理について、具体的に説明する。
(Prediction image calculation processing in basic prediction mode)
Next, the prediction image generation processing by the intra prediction image generation unit 12c in the basic prediction mode will be specifically described.
 イントラ予測画像生成部12cは、対象パーティションについて、DC予測モードが選択された場合、対象パーティションの周辺の復号済み画素値の平均値をとることによって、当該対象パーティションについてのイントラ予測画像Pred_Intraを生成する。 When the DC prediction mode is selected for the target partition, the intra predicted image generation unit 12c generates an intra predicted image Pred_Intra for the target partition by taking an average value of decoded pixel values around the target partition. .
 また、イントラ予測画像生成部12cは、インデックス2~9の何れかによって指定される方向予測モードが選択された場合、選択された方向予測モードの示す予測方向に沿って、対象パーティションの周辺の復号済み画素値を外挿することによって、当該対象パーティションについてのイントラ予測画像Pred_Intraを生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによってイントラ予測画像Pred_Intraを生成してもよい。 Further, when the direction prediction mode designated by any of the indexes 2 to 9 is selected, the intra predicted image generation unit 12c decodes the periphery of the target partition along the prediction direction indicated by the selected direction prediction mode. The intra predicted image Pred_Intra for the target partition is generated by extrapolating the completed pixel values. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
 以下では、図4の(b)を参照して、イントラ予測画像生成部12cによる予測画像の算出処理例についてより具体的に説明する。なお、以下の例では、対象パーティションのサイズが4×4画素であるとして説明を行うが、これは本実施形態を限定するものではない。 Hereinafter, with reference to FIG. 4B, an example of a predicted image calculation process performed by the intra predicted image generation unit 12c will be described in more detail. In the following example, the description will be made on the assumption that the size of the target partition is 4 × 4 pixels, but this does not limit the present embodiment.
 図4の(b)は、4×4画素である対象パーティションの各画素(予測対象画素)と、当該対象パーティションの周辺の画素(参照画素)とを示す図である。図4の(b)に示すように、予測対象画素には符号a~p、参照画素には符号A~Mを付し、画素X(Xはa~p、A~Mの何れか)の画素値をXと表すことにする。また、参照画素A~Mは、何れも復号済みであるとする。 FIG. 4B is a diagram showing each pixel (prediction target pixel) of the target partition, which is 4 × 4 pixels, and pixels (reference pixels) around the target partition. As shown in FIG. 4B, the prediction target pixels are denoted by a to p, the reference pixels are denoted by A to M, and the pixel X (X is any of a to p or A to M). Let the pixel value be represented by X. Further, it is assumed that the reference pixels A to M have all been decoded.
 (予測モード0)
 割り付けられた予測モードのインデックスが0(DC予測)である場合、イントラ予測画像生成部12cは、画素値a~pを以下の式
 a~p=ave(A,B,C,D,I,J,K,L)
によって生成する。ここで、ave(…)は、括弧内に含まれる要素の平均をとることを示している。
(Prediction mode 0)
When the index of the allocated prediction mode is 0 (DC prediction), the intra predicted image generation unit 12c converts the pixel values a to p into the following formulas a to p = ave (A, B, C, D, I, J, K, L)
Generate by. Here, ave (...) Indicates that an element included in parentheses is averaged.
 (予測モード2)
 割り付けられた予測モードのインデックスが2である場合、イントラ予測画像生成部12cは、画素値a~pを、以下の式
 a,e,i,m=A,
 b,f,j,n=B,
 c,g,k,o=C,
 d,h,l,p=D
によって生成する。
(Prediction mode 2)
When the allocated prediction mode index is 2, the intra-predicted image generation unit 12c converts the pixel values a to p into the following formulas a, e, i, m = A,
b, f, j, n = B,
c, g, k, o = C,
d, h, l, p = D
Generate by.
 (予測モード5)
 割り付けられた予測モードのインデックスが5である場合、イントラ予測画像生成部12cは、画素値a~pを以下の式
 d=(B+(C×2)+D+2)>>2,
 c,h=(A+(B×2)+C+2)>>2,
 b,g,l=(M+(A×2)+B+2)>>2,
 a,f,k,p=(I+(M×2)+A+2)>>2,
 e,j,o=(J+(I×2)+M+2)>>2,
 i,n=(K+(J×2)+I+2)>>2,
 m=(L+(K×2)+J+2)>>2
によって生成する。ここで、「>>」は右シフト演算を表し、任意の正の整数x、sに対し、x>>sの値は、x÷(2^s)の少数部分を切り捨てた値と等しい。
(Prediction mode 5)
When the allocated prediction mode index is 5, the intra-predicted image generation unit 12c converts the pixel values a to p into the following expression d = (B + (C × 2) + D + 2) >> 2,
c, h = (A + (B × 2) + C + 2) >> 2,
b, g, l = (M + (A × 2) + B + 2) >> 2,
a, f, k, p = (I + (M × 2) + A + 2) >> 2,
e, j, o = (J + (I × 2) + M + 2) >> 2,
i, n = (K + (J × 2) + I + 2) >> 2,
m = (L + (K × 2) + J + 2) >> 2
Generate by. Here, “>>” represents a right shift operation, and for any positive integer x, s, the value of x >> s is equal to the value obtained by rounding down the decimal part of x ÷ (2 ^ s).
 また、イントラ予測画像生成部12cは、上記の予測モード以外の基本予測モードに対しても、同様の方法によって画素値a~pを算出することができる。 Also, the intra predicted image generation unit 12c can calculate the pixel values a to p by the same method for the basic prediction modes other than the above prediction modes.
 また、イントラ予測画像生成部12cは、エッジベース予測モードにおいて算出された予測方向を用いて、上記の処理と略同様の処理を行うことによって、エッジベース予測モードにおけるイントラ予測画像Pred_Intraを生成することができる。 In addition, the intra predicted image generation unit 12c generates an intra predicted image Pred_Intra in the edge-based prediction mode by performing substantially the same process as described above using the prediction direction calculated in the edge-based prediction mode. Can do.
 (イントラ予測パラメータPP_Intraに含まれるシンタックス)
 続いて、図6の(a)~(c)を参照して、イントラ予測画像生成部12cによって参照されるイントラ予測パラメータPP_Intraに含まれるシンタックスについて具体的に説明を行う。
(Syntax included in the intra prediction parameter PP_Intra)
Next, with reference to FIGS. 6A to 6C, the syntax included in the intra prediction parameter PP_Intra referred to by the intra predicted image generation unit 12c will be described in detail.
 図6の(a)は、イントラ予測パラメータPP_Intra(図6の(a)においては、read_intra_pred_mode()と表記)に含まれる各シンタックスを、対応する記述子と共に示す図である。図6の(a)に示すように、イントラ予測パラメータPP_Intraは、シンタックスmost_prob_mode’、rem_intra_pred_mode’、および、adjust_neighb_dirを含んでいる。また、各シンタックスは、記述子ae(v)、および、記述子vlc(v)の何れか一方に関連付けられている。ここで、記述子ae(v)は、当該記述子に関連付けられたシンタックスが、符号化データ#1を生成する動画像符号化装置にて、算術符号化(CABAC符号化)されたものであることを示しており、記述子vlcは、当該記述子に関連付けられたシンタックスが、符号化データ#1を生成する動画像符号化装置にて、非算術符号化(CAVLC符号化)されたものであることを示している。特に、vlc(1)は1ビットの固定長符号化であり、vlc(v)は可変長符号化であることを示している。 6A is a diagram showing each syntax included in the intra prediction parameter PP_Intra (indicated as read_intra_pred_mode () in FIG. 6A) together with a corresponding descriptor. As shown in FIG. 6A, the intra prediction parameter PP_Intra includes the syntax most_prob_mode ′, rem_intra_pred_mode ′, and adjust_neighb_dir. Each syntax is associated with one of a descriptor ae (v) and a descriptor vlc (v). Here, the descriptor ae (v) is obtained by performing arithmetic coding (CABAC coding) on the syntax associated with the descriptor by the moving picture coding apparatus that generates the coded data # 1. The descriptor vlc has been subjected to non-arithmetic coding (CAVLC coding) in the moving picture coding apparatus that generates the coded data # 1. It is a thing. In particular, vlc (1) is 1-bit fixed length coding, and vlc (v) is variable length coding.
 図6の(a)に示すシンタックスmost_prob_mode’は、対象パーティションの周辺のパーティションに割り付けられた予測モードに基づいて当該対象パーティションについて推定された推定予測モードと、当該対象パーティションについての予測モードとが同じである場合に1をとり、当該推定予測モードと、当該対象パーティションについての予測モードが異なる場合に0をとるシンタックスである。シンタックスmost_prob_mode’は、上述した推定フラグMPMに対応する。 The syntax most_prob_mode ′ shown in (a) of FIG. 6 includes an estimated prediction mode estimated for the target partition based on prediction modes assigned to the peripheral partitions of the target partition, and a prediction mode for the target partition. The syntax is 1 when they are the same, and 0 when the estimated prediction mode is different from the prediction mode for the target partition. The syntax most_prob_mode ′ corresponds to the estimation flag MPM described above.
 なお、上記推定予測モードとしては、例えば、対象パーティションの上辺に隣接するパーティションに割り付けられた予測モードのインデックス、および、対象パーティションの左辺に隣接するパーティションに割り付けられた予測モードのインデックスのうち、より小さいインデックスによって指定される予測モードを用いることができる。 As the estimated prediction mode, for example, among the prediction mode index allocated to the partition adjacent to the upper side of the target partition and the prediction mode index allocated to the partition adjacent to the left side of the target partition, A prediction mode specified by a small index can be used.
 図6の(b)は、対象パーティションの上辺に隣接するパーティションに対して、インデックスが1である予測モードが割り付けられ、対象パーティションの左辺に隣接するパーティションに対して、インデックスが5である予測モードが割り付けられている場合を示す図である。図6の(b)に示す例においては、対象パーティションについての推定予測モードとして、インデックスが1である予測モードが用いられる。 FIG. 6B shows a prediction mode in which a prediction mode with an index of 1 is assigned to a partition adjacent to the upper side of the target partition, and a prediction mode of 5 with respect to a partition adjacent to the left side of the target partition. It is a figure which shows the case where is allocated. In the example shown in FIG. 6B, a prediction mode with an index of 1 is used as the estimated prediction mode for the target partition.
 図6の(a)に示すシンタックスrem_intra_pred_mode’は、上記推定予測モードと、当該対象パーティションについての予測モードとが異なる場合に、イントラ予測パラメータPP_Intraに含められるシンタックスであり、当該対象パーティションに割り付けられる予測モードを指定するためのシンタックスである。シンタックスrem_intra_pred_mode’は、上述した残余予測モードインデックスRIPMに対応する。 The syntax rem_intra_pred_mode ′ shown in FIG. 6A is a syntax included in the intra prediction parameter PP_Intra when the estimated prediction mode is different from the prediction mode for the target partition, and is assigned to the target partition. Is a syntax for specifying the prediction mode to be performed. The syntax rem_intra_pred_mode 'corresponds to the above-described residual prediction mode index RIPM.
 図6の(c)は、推定予測モードが、インデックス1によって指定される予測モードである場合に、シンタックスrem_intra_pred_mode’の各値と、各予測モードインデックスとの対応を示す表である。図6の(c)に示すように、シンタックスrem_intra_pred_mode’により、拡張セットに含まれる各予測モードのうち、推定予測モード(図6の(c)においては、インデックス1によって指定される予測モード)を除く、予測モードの何れかが指定される。したがって、拡張セットに含まれる予測モードの数が10である場合には、rem_intra_pred_mode’により、当該10個の予測モードのうち、推定予測モードを除く9個の予測モードの何れかが指定されることになる。 (C) of FIG. 6 is a table | surface which shows a response | compatibility with each value of syntax rem_intra_pred_mode ', and each prediction mode index, when an estimated prediction mode is a prediction mode designated by the index 1. FIG. As shown in (c) of FIG. 6, an estimated prediction mode (prediction mode specified by index 1 in (c) of FIG. 6) among the prediction modes included in the extended set by the syntax rem_intra_pred_mode ′. Any prediction mode is specified except for. Therefore, when the number of prediction modes included in the extended set is 10, rem_intra_pred_mode ′ specifies any one of the nine prediction modes excluding the estimated prediction mode among the ten prediction modes. become.
 図6の(d)は、シンタックスrem_intra_pred_mode’の取り得る各値(0~8)と、符号化データ#1に含まれる各2進符号(Binary Code)との対応を例示する表である。図6の(d)に示すように、シンタックスrem_intra_pred_mode’=0~6に対しては、3ビットの符号が対応し、シンタックスrem_intra_pred_mode’=7、8に対しては、4ビットの符号が対応する。 (D) of FIG. 6 is a table exemplifying the correspondence between each possible value (0 to 8) of the syntax rem_intra_pred_mode 'and each binary code (Binary Code) included in the encoded data # 1. As shown in FIG. 6D, the syntax rem_intra_pred_mode ′ = 0 to 6 corresponds to a 3-bit code, and the syntax rem_intra_pred_mode ′ = 7, 8 corresponds to a 4-bit code. Correspond.
 上述したように、推定予測モードとして、対象パーティションの周辺のパーティションに割り付けられた予測モードのうち、より小さいインデックスによって指定される予測モードを用いる構成においては、インデックスがより小さい予測モードがより高い頻度で選択されるという傾向がある。したがって、図6の(d)に示す例においては、選択される頻度の低い予測モード(シンタックスrem_intra_pred_mode’=7、8によって指定される予測モード)に対して、よりビット数の大きい符号が割り当てられる。このように、選択される頻度に応じて可変な符号長の符号を割り当てることによって、符号化データ#1の符号量の増加を抑制することができる。 As described above, in the configuration using the prediction mode specified by the smaller index among the prediction modes allocated to the peripheral partitions of the target partition as the estimated prediction mode, the prediction mode having a smaller index has a higher frequency. Tend to be selected. Therefore, in the example shown in (d) of FIG. 6, a code having a larger number of bits is assigned to a prediction mode that is selected less frequently (prediction mode specified by the syntax rem_intra_pred_mode ′ = 7, 8). It is done. Thus, by assigning a code having a variable code length according to the frequency selected, an increase in the code amount of encoded data # 1 can be suppressed.
 なお、シンタックスrem_intra_pred_mode’による予測モードの指定の仕方は、上述した例に限定されるものではない。例えば、シンタックスrem_intra_pred_mode’によって指定される予測モードの数が、2n-1(nは自然数)となるように、拡張セットに含まれる予測モードから使用頻度の低い予測モードを削除し、残りの予測モードをシンタックスrem_intra_pred_mode’によって指定する構成としてもよい。 Note that the method of specifying the prediction mode by the syntax rem_intra_pred_mode ′ is not limited to the above-described example. For example, the prediction mode with low usage frequency is deleted from the prediction modes included in the extension set so that the number of prediction modes specified by the syntax rem_intra_pred_mode 'is 2 n -1 (n is a natural number), and the remaining It is good also as a structure which designates prediction mode with syntax rem_intra_pred_mode '.
 ここで、イントラ予測画像生成部12cは、予測モードの使用頻度を、例えば、対象フレームにおいて、既に復号されたパーティションに割り付けられた予測モードの出現頻度によって決定することができる。このような構成の場合、削除される予測モードは、パーティション毎に決定されることになる。 Here, the intra predicted image generation unit 12c can determine the frequency of use of the prediction mode, for example, based on the appearance frequency of the prediction mode assigned to the already decoded partition in the target frame. In such a configuration, the prediction mode to be deleted is determined for each partition.
 また、イントラ予測画像生成部12cは、予測モードの使用頻度を、対象フレームの直前に復号されたフレーム、または、既に復号された複数のフレームにおける予測モードの出現頻度に応じて決定することもできる。このような構成の場合、削除される予測モードは、フレーム毎に決定されることになる。また、予測モードの使用頻度を、シーケンス毎に予め決定しておく構成としてもよい。このような構成の場合、削除される予測モードは、シーケンス毎に決定されることになる。 In addition, the intra predicted image generation unit 12c can determine the use frequency of the prediction mode according to the appearance frequency of the prediction mode in a frame decoded immediately before the target frame or in a plurality of frames that have already been decoded. . In such a configuration, the prediction mode to be deleted is determined for each frame. Moreover, it is good also as a structure which determines beforehand the usage frequency of prediction mode for every sequence. In such a configuration, the prediction mode to be deleted is determined for each sequence.
 図6の(a)に示すシンタックスadjust_neighb_dirは、対象パーティションについて、エッジベース予測モードが指定される場合に、イントラ予測パラメータPP_Intraに含められるシンタックスである。イントラ予測パラメータPP_Intraにシンタックスadjust_neighb_dirが含まれている場合、イントラ予測画像生成部12cは、上述したように、算出したエッジ方向に、当該シンタックスadjust_neighb_dirの示す補正角度を加算した方向を、対象パーティションについての予測方向に設定する。なお、シンタックスadjust_neighb_dirの取り得る値は、図5の(b)に示した例に限定されるものではなく、一般に、-Aから+Aまでの任意の整数の何れかを指定する構成とすることができる。 The syntax adjust_neighb_dir shown in FIG. 6A is a syntax included in the intra prediction parameter PP_Intra when the edge-based prediction mode is designated for the target partition. When the syntax adjust_neighb_dir is included in the intra prediction parameter PP_Intra, as described above, the intra prediction image generation unit 12c sets the direction obtained by adding the correction angle indicated by the syntax adjust_neighb_dir to the calculated edge direction. Set the prediction direction for. Note that the value that can be taken by the syntax adjust_neighb_dir is not limited to the example shown in FIG. 5B. In general, any one of −A to + A is designated. Can do.
 (イントラ予測画像生成部12cによるイントラ予測画像の生成処理の流れ)
 続いて、図1を参照して、イントラ予測画像生成部12cによるイントラ予測画像Pred_Intraの生成処理の流れについて説明する。
(Flow of intra prediction image generation processing by the intra prediction image generation unit 12c)
Next, a flow of processing for generating the intra predicted image Pred_Intra by the intra predicted image generation unit 12c will be described with reference to FIG.
 図1は、イントラ予測画像生成部12cによるイントラ予測画像Pred_Intraの生成処理の流れを示すフローチャートである。 FIG. 1 is a flowchart showing a flow of processing for generating an intra predicted image Pred_Intra by the intra predicted image generation unit 12c.
 (ステップS101)
 まず、イントラ予測画像生成部12cは、符号化データ#1から復号され、可変長符号復号部11より供給されるシンタックスmost_prob_mode’が1であるか否かを判別する。
(Step S101)
First, the intra predicted image generation unit 12c determines whether or not the syntax most_prob_mode ′ decoded from the encoded data # 1 and supplied from the variable length code decoding unit 11 is “1”.
 (ステップS102)
 シンタックスmost_prob_mode’が1である場合には(ステップS101でYes)、推定予測モードを、対象パーティションについての仮予測モードに設定する。
(Step S102)
If the syntax most_prob_mode ′ is 1 (Yes in step S101), the estimated prediction mode is set to the temporary prediction mode for the target partition.
 (ステップS103)
 シンタックスmost_prob_mode’が1でない場合には(ステップS101でNo)、符号化データ#1から復号され、可変長符号復号部11より供給されるシンタックスrem_intra_pred_mode’を参照し、当該シンタックスrem_intra_pred_mode’によって指定される予測モードを、対象パーティションについての仮予測モードに設定する。
(Step S103)
If the syntax most_prob_mode ′ is not 1 (No in step S101), the syntax rem_intra_pred_mode ′ decoded from the encoded data # 1 and supplied from the variable length code decoding unit 11 is referred to by the syntax rem_intra_pred_mode ′. The designated prediction mode is set to the temporary prediction mode for the target partition.
 (ステップS104)
 続いて、仮予測モードがエッジベース予測モードであるか否かを判別する。ここで、仮予測モードがエッジベース予測モードであるか否かの判別は、各インデックスと各予測モードとの対応関係を示す情報を参照することによって行うことができる。例えば、図4の(a)に示した拡張セットを用いる場合には、仮予測モードに付されたインデックスが1であるとき、当該仮予測モードはエッジベース予測モードであると判定することができる。
(Step S104)
Subsequently, it is determined whether or not the temporary prediction mode is an edge-based prediction mode. Here, whether or not the temporary prediction mode is the edge-based prediction mode can be determined by referring to information indicating a correspondence relationship between each index and each prediction mode. For example, when the extended set shown in FIG. 4A is used, when the index assigned to the temporary prediction mode is 1, it can be determined that the temporary prediction mode is the edge-based prediction mode. .
 (ステップS105)
 仮予測モードがエッジベース予測モードである場合(ステップS104でYes)には、エッジ方向を算出する。なお、具体的なエッジ方向の算出については、(エッジベース予測モードにおける予測画像の算出処理)において説明した方法を用いればよい。
(Step S105)
When the temporary prediction mode is the edge-based prediction mode (Yes in step S104), the edge direction is calculated. For specific edge direction calculation, the method described in (Prediction image calculation processing in edge-based prediction mode) may be used.
 (ステップS106)
 仮予測モードがエッジベース予測モードである場合であって、イントラ予測パラメータPP_Intraにシンタックスadjust_neighb_dirが含まれている場合には、当該シンタックスadjust_neighb_dirによって指定される補正角度をエッジ方向に加算することによって、対象パーティションに割り付ける予測方向を決定する。なお、具体的な補正角度の算出については、(エッジベース予測モードにおける予測画像の算出処理)において説明した方法を用いればよい。
(Step S106)
When the temporary prediction mode is the edge-based prediction mode and the intra prediction parameter PP_Intra includes the syntax adjust_neighb_dir, the correction angle specified by the syntax adjust_neighb_dir is added to the edge direction. Then, the prediction direction assigned to the target partition is determined. For the specific calculation of the correction angle, the method described in (Prediction image calculation processing in edge-based prediction mode) may be used.
 (ステップS107)
 仮予測モードがエッジベース予測モードでない場合(ステップS104でNo)には、当該仮予測モードを対象パーティションについての予測モード(対象予測モード)に設定する。すなわち、当該仮予測モードの示す予測方向を、対象パーティションに割り付ける。なお、仮予測モードがエッジベース予測モードでないことは、当該仮予測モードが、上述した基本予測モードセットに含まれる何れかの基本予測モードであることに対応している。
(Step S107)
When the temporary prediction mode is not the edge-based prediction mode (No in step S104), the temporary prediction mode is set to the prediction mode (target prediction mode) for the target partition. That is, the prediction direction indicated by the temporary prediction mode is assigned to the target partition. The provisional prediction mode not being the edge-based prediction mode corresponds to the provisional prediction mode being one of the basic prediction modes included in the basic prediction mode set described above.
 (ステップS108)
 最後に、対象パーティションに割り付けられた予測方向に、対象パーティションの周辺の画素の画素値を外挿することによって、当該対象パーティションについてのイントラ予測画像Pred_Intraを生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによってイントラ予測画像Pred_Intraを生成してもよい。
(Step S108)
Finally, the intra prediction image Pred_Intra for the target partition is generated by extrapolating the pixel values of pixels around the target partition in the prediction direction assigned to the target partition. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
 以上が、イントラ予測画像生成部12cによるイントラ予測画像Pred_Intraの生成処理の流れである。 The above is the flow of processing for generating the intra predicted image Pred_Intra by the intra predicted image generation unit 12c.
 なお、上記の説明においては、拡張セットに含まれる各予測モードが、図4に示したインデックスによって指定される場合を例に挙げたが、本実施形態はこれに限定されるものではない。例えば、エッジベース予測モードに付されるインデックスは、復号対象の画像の特性によって変更可能な構成としてもよい。具体的には、復号対象の画像に、より多くのエッジが含まれているような場合には、より小さいインデックスによってエッジベース予測モードを指定する構成としてもよい。 In the above description, the case where each prediction mode included in the extended set is specified by the index shown in FIG. 4 is taken as an example, but the present embodiment is not limited to this. For example, the index assigned to the edge-based prediction mode may be configured to be changeable depending on the characteristics of the decoding target image. Specifically, when the decoding target image includes more edges, the edge-based prediction mode may be specified by a smaller index.
 また、上記の説明においては、拡張セットが、基本予測モード、および、エッジベース予測モードによって構成される場合について説明を行ったが、本実施形態はこれに限定されるものではなく、一般に、拡張セットが、予め定められた基本予測モード、および、パーティション毎に算出されるパラメータ(例えば予測方向)を用いる予測モードより構成されている場合に広く適用することができる。 Further, in the above description, the case where the extended set is configured by the basic prediction mode and the edge-based prediction mode has been described. However, the present embodiment is not limited to this, and in general, the extended set The present invention can be widely applied when the set is composed of a predetermined basic prediction mode and a prediction mode using a parameter (for example, prediction direction) calculated for each partition.
 このように、本実施形態に係る動画像復号装置1は、原画像と、予測単位毎に生成された予測画像との残差データを、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報と共に符号化して得られた符号化データを復号する復号装置であって、上記符号と上記符号が指定する予測モードとの間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードを特定する予測モード特定手段と、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定する予測モード群特定手段と、予測パラメータを選択する予測パラメータ選択手段であって、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合、復号画像を参照して導出する1以上の予測パラメータよりなる第1の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応する予測パラメータを選択し、上記予測モード群特定手段が特定した予測モード群が第2の予測モード群である場合、予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応した予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、を備えていることを特徴とする復号装置であると表現することができる。 As described above, the video decoding device 1 according to the present embodiment uses the residual data between the original image and the prediction image generated for each prediction unit as the elements of the first prediction mode group and the second prediction mode. A decoding apparatus that decodes encoded data obtained by encoding together with prediction mode specifying information that specifies elements of a prediction mode set consisting of elements of a group by a single code, and the code and the code specify Prediction mode specifying means for specifying a prediction mode specified by the prediction mode designation information from the code according to a predetermined correspondence relationship with the prediction mode, and a prediction mode to which the prediction mode designated by the code and the code belongs Prediction mode group specifying means for specifying a prediction mode group to which the prediction mode specified by the prediction mode specifying information belongs from the code according to a predetermined correspondence relationship with the group One or more prediction parameters derived by referring to a decoded image when the prediction mode group specified by the prediction mode group specifying means is a first prediction mode group, which is a prediction parameter selection means for selecting a prediction parameter. A prediction parameter corresponding to the prediction mode specified by the prediction mode specifying means is selected from the first prediction parameter group, and the prediction mode group specified by the prediction mode group specifying means is the second prediction mode group. A prediction parameter selection unit that selects a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying unit from a second prediction parameter group including one or more predetermined prediction parameters, and a prediction parameter selection unit. Prediction image generation means for generating the prediction image according to the selected prediction parameter. It can be expressed as a decoding device according to.
 ここで、上記第1の予測モード群は、上述した例においては、1つのエッジベース予測モードよりなる群であるが、後述する<変形例3>においては、複数のエッジベース予測モードよりなる群である。 Here, in the above-described example, the first prediction mode group is a group composed of one edge-based prediction mode, but in <Modification 3> described later, a group composed of a plurality of edge-based prediction modes. It is.
 また、上記第2の予測モード群は、上述した例における基本予測モードセットのことを指す。 Further, the second prediction mode group refers to the basic prediction mode set in the above-described example.
 また、上記単一の符号とは、例えば、図6の(d)に示した2進符号のことを指し、上記符号と上記符号が指定する予測モードとの間の予め定められた対応関係とは、例えば、図6の(c)に示したrem_intra_pred_mode’と予測モードインデックスとの対応関係を指す。 The single code refers to, for example, the binary code shown in FIG. 6D, and a predetermined correspondence between the code and the prediction mode specified by the code. Indicates, for example, a correspondence relationship between rem_intra_pred_mode ′ illustrated in FIG. 6C and the prediction mode index.
 また、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係としては、例えば、上述した例において、ステップS104にて説明した、各インデックスと各予測モードとの対応関係を示す情報によって定まる。 Further, as a predetermined correspondence relationship between the code and the prediction mode group to which the prediction mode specified by the code belongs, for example, in the above-described example, each index and each prediction mode described in step S104 It is determined by the information indicating the correspondence relationship.
 (イントラ予測画像生成部12cによるイントラ予測画像の生成処理の効果)
 以下では、イントラ予測画像生成部12cによるイントラ予測画像の生成処理の効果について、比較例に係るイントラ予測画像生成部によるイントラ予測画像の生成処理と対比しつつ説明する。
(Effect of intra prediction image generation processing by the intra prediction image generation unit 12c)
Hereinafter, the effects of the intra prediction image generation processing by the intra prediction image generation unit 12c will be described in comparison with the intra prediction image generation processing by the intra prediction image generation unit according to the comparative example.
 まず、図7を参照して、比較例に係るイントラ予測画像生成部によるイントラ予測画像の生成処理について説明する。当該比較例に係るイントラ予測画像生成部は、例えば、図10の(c)に示す従来のシンタックスよりなるイントラ予測パラメータを参照して、イントラ予測画像を生成するものである。 First, with reference to FIG. 7, the intra prediction image generation processing by the intra prediction image generation unit according to the comparative example will be described. For example, the intra predicted image generation unit according to the comparative example generates an intra predicted image with reference to an intra prediction parameter having a conventional syntax shown in FIG.
 図7は、比較例に係るイントラ予測画像生成部によるイントラ予測画像の生成処理の流れを示すフローチャートである。 FIG. 7 is a flowchart showing a flow of intra prediction image generation processing by the intra prediction image generation unit according to the comparative example.
 (ステップS201)
 まず、比較例に係るイントラ予測画像生成部は、図10の(c)に示すシンタックスuse_neighb_dirを参照し、当該シンタックスuse_neighb_dirが、対象パーティションについてエッジベース予測モードを指定しているか否かを判別する。ここで、シンタックスuse_neighb_dirは、エッジベース予測モードを指定している場合に1をとり、基本予測モードを指定している場合に0をとる1ビットのシンタックスである。したがって、シンタックスuse_neighb_dirは、対象パーティションに割り付ける予測モードを、基本予測モードから選択するのか、エッジベース予測モードとするのかを指定するシンタックスである。
(Step S201)
First, the intra predicted image generation unit according to the comparative example refers to the syntax use_neighb_dir shown in (c) of FIG. 10 and determines whether or not the syntax use_neighb_dir specifies the edge-based prediction mode for the target partition. To do. Here, the syntax use_neighb_dir is a 1-bit syntax that takes 1 when the edge-based prediction mode is designated and takes 0 when the basic prediction mode is designated. Accordingly, the syntax use_neighb_dir is a syntax that specifies whether the prediction mode to be allocated to the target partition is selected from the basic prediction mode or the edge-based prediction mode.
 (ステップS202)
 対象パーティションについてエッジベース予測モードが指定されている場合(ステップS201でYes)には、エッジ方向を算出する。
(Step S202)
If the edge-based prediction mode is specified for the target partition (Yes in step S201), the edge direction is calculated.
 (ステップS203)
 対象パーティションについてエッジベース予測モードが指定されている場合であって、符号化データにシンタックスadjust_neighb_dirが含まれている場合には、当該シンタックスadjust_neighb_dirによって指定される補正角度をエッジ方向に加算することによって、対象パーティションに割り付ける予測方向を決定する。
(Step S203)
When the edge-based prediction mode is specified for the target partition and the encoded data includes the syntax adjust_neighb_dir, the correction angle specified by the syntax adjust_neighb_dir is added in the edge direction. To determine the prediction direction to be assigned to the target partition.
 (ステップS204)
 対象パーティションについてエッジベース予測モードが指定されていない場合(ステップS201でNo)には、シンタックスmost_prob_modeが1であるか否かを判別する。
(Step S204)
If the edge-based prediction mode is not specified for the target partition (No in step S201), it is determined whether or not the syntax most_prob_mode is 1.
 (ステップS205)
 シンタックスmost_prob_modeが1である場合には(ステップS204でYes)、対象パーティションの周辺のパーティションに割り付けられた予測モードであって、基本予測モードセットに含まれる予測モードのうち、より小さいインデックスによって指定される予測モードである推定予測モードを、対象パーティションについての予測モード(対象予測モード)に設定する。すなわち、上記推定予測モードの示す予測方向を、対象パーティションに割り付ける。
(Step S205)
When the syntax most_prob_mode is 1 (Yes in step S204), the prediction mode is assigned to a partition around the target partition, and is specified by a smaller index among the prediction modes included in the basic prediction mode set. The estimated prediction mode that is the prediction mode to be set is set to the prediction mode (target prediction mode) for the target partition. That is, the prediction direction indicated by the estimated prediction mode is assigned to the target partition.
 (ステップS206)
 シンタックスmost_prob_modeが1でない場合には(ステップS204でNo)、シンタックスrem_intra_pred_modeを参照し、当該シンタックスrem_intra_pred_modeによって指定される予測モードを、対象パーティションについての予測モードに設定する。すなわち、当該シンタックスrem_intra_pred_modeによって指定される予測モードの示す予測方向を対象パーティションに割り付ける。ここで、シンタックスrem_intra_pred_modeによって指定される予測モードは、基本予測モードセットに含まれる予測モードである。
(Step S206)
If the syntax most_prob_mode is not 1 (No in step S204), the syntax rem_intra_pred_mode is referred to, and the prediction mode specified by the syntax rem_intra_pred_mode is set as the prediction mode for the target partition. That is, the prediction direction indicated by the prediction mode specified by the syntax rem_intra_pred_mode is assigned to the target partition. Here, the prediction mode specified by the syntax rem_intra_pred_mode is a prediction mode included in the basic prediction mode set.
 (ステップS207)
  最後に、対象パーティションに割り付けられた予測方向に、対象パーティションの周辺の画素の画素値を外挿することによって、当該対象パーティションについてのイントラ予測画像を生成する。なお、予測方向に沿った両側に復号済み画素があれば、それらの画素の画素値を内挿することによってイントラ予測画像Pred_Intraを生成してもよい。
(Step S207)
Finally, an intra prediction image for the target partition is generated by extrapolating the pixel values of pixels around the target partition in the prediction direction assigned to the target partition. Note that if there are decoded pixels on both sides along the prediction direction, the intra predicted image Pred_Intra may be generated by interpolating the pixel values of these pixels.
 以上が、比較例に係るイントラ予測画像生成部によるイントラ予測画像の生成処理の流れである。 The above is the flow of intra prediction image generation processing by the intra prediction image generation unit according to the comparative example.
 以下では、比較例に係るイントラ予測画像生成部が参照するイントラ予測パラメータの符号量と、本実施形態に係るイントラ予測画像生成部12cが参照するイントラ予測パラメータPP_Intraの符号量とを比較し、本実施形態に係るイントラ予測画像生成部12c、および、イントラ予測パラメータPP_Intraの奏する効果について説明する。なお、以下の説明では、比較例に係るイントラ予測パラメータ、および、本実施形態に係るイントラ予測パラメータPP_Intraが非算術符号化(CAVLC符号化)される場合を例に挙げるが、それらのイントラ予測パラメータが、算術符号化(CABAC符号化)される場合についても同様に見積もることができる。 Hereinafter, the code amount of the intra prediction parameter referred to by the intra prediction image generation unit according to the comparative example is compared with the code amount of the intra prediction parameter PP_Intra referred to by the intra prediction image generation unit 12c according to the present embodiment. The effect which the intra estimated image production | generation part 12c which concerns on embodiment, and intra prediction parameter PP_Intra play is demonstrated. In the following description, the case where the intra prediction parameters according to the comparative example and the intra prediction parameter PP_Intra according to the present embodiment are non-arithmetic coded (CAVLC coding) will be described as an example. However, it can be estimated in the same way when arithmetic coding (CABAC coding) is performed.
 (比較例に係るイントラ予測画像生成部が参照するイントラ予測パラメータの符号量)
 まず、比較例に係るイントラ予測画像生成部が参照するイントラ予測パラメータの符号量について説明する。
(Code amount of intra prediction parameter referred to by intra prediction image generating unit according to comparative example)
First, the code amount of the intra prediction parameter referred to by the intra predicted image generation unit according to the comparative example will be described.
 上述のように、シンタックスuse_neighb_dirは、1ビットの符号によって表現され、シンタックスmost_prob_modeも、1ビットの符号によって表現される。一方で、基本予測モードセットに含まれる予測モードの数が9であるとすると、当該9個の予測モードから推定予測モードを除いたものの何れかを指定するシンタックスrem_intra_pred_modeは、3ビットの符号によって表現される。また、以下の説明では、シンタックスadjust_neighb_dirがpビットの符号によって表現されるものとする。 As described above, the syntax use_neighb_dir is expressed by a 1-bit code, and the syntax most_prob_mode is also expressed by a 1-bit code. On the other hand, if the number of prediction modes included in the basic prediction mode set is 9, the syntax rem_intra_pred_mode for specifying any one of the nine prediction modes excluding the estimated prediction mode is represented by a 3-bit code. Expressed. In the following description, it is assumed that the syntax adjust_neighb_dir is expressed by a p-bit code.
 また、エッジベース予測モードが選択される平均的な割合をuと表し、推定予測モードが選択されない平均的な割合をvと表すことにする。ここで、平均的な割合u、vは、例えば、あるシーケンスに含まれるパーティションの総数をNtotと表し、エッジベース予測モードが選択されたパーティションの総数をNedgeと表し、推定予測モードが選択されなかった(推定が当たらなかった)パーティションの総数をNmpmと表すことにすると、u=Nedge/Ntot、v=Nmpm/Ntotと表すことができる。 In addition, an average ratio in which the edge-based prediction mode is selected is expressed as u, and an average ratio in which the estimated prediction mode is not selected is expressed as v. Here, the average ratios u and v represent, for example, the total number of partitions included in a sequence as Ntot, the total number of partitions for which the edge-based prediction mode is selected as Nedge, and the estimated prediction mode is not selected. If the total number of partitions (not estimated) is expressed as Nmpm, it can be expressed as u = Nedge / Ntot, v = Nmpm / Ntot.
 このような前提において、比較例に係るイントラ予測画像生成部が参照するイントラ予測パラメータの、1パーティション当たりの符号量Qは、以下のように見積もることができる。 Under such a premise, the code amount Q per partition of the intra prediction parameters referred to by the intra prediction image generation unit according to the comparative example can be estimated as follows.
 Q=1+u×p+(1-u)×(1+3×v)   …(1)
 ここで、数式(1)の第1項は、シンタックスuse_neighb_dirの寄与を示しており、第2項は、エッジベース予測モードが選択された場合の、シンタックスadjust_neighb_dirの寄与を表している。また、数式(1)の第3項は、基本予測モードセットが選択された場合の寄与を表している。特に、数式(1)の第3項の第2括弧における第1項は、シンタックスmost_prob_modeの寄与を表しており、数式(1)の第3項の第2括弧における第2項は、シンタックスrem_intra_pred_modeの寄与を表している。
Q = 1 + u × p + (1−u) × (1 + 3 × v) (1)
Here, the first term of Expression (1) represents the contribution of the syntax use_neighb_dir, and the second term represents the contribution of the syntax adjust_neighb_dir when the edge-based prediction mode is selected. The third term of Equation (1) represents the contribution when the basic prediction mode set is selected. In particular, the first term in the second parenthesis of the third term of Equation (1) represents the contribution of the syntax most_prob_mode, and the second term in the second parenthesis of the third term of Equation (1) is the syntax. It represents the contribution of rem_intra_pred_mode.
 (イントラ予測画像生成部12cが参照するイントラ予測パラメータPP_Intraの符号量)
 続いて、本実施形態に係るイントラ予測画像生成部12cが参照するイントラ予測パラメータPP_Intraの符号量について説明する。
(Code amount of intra prediction parameter PP_Intra referenced by the intra predicted image generation unit 12c)
Subsequently, the code amount of the intra prediction parameter PP_Intra referred to by the intra predicted image generation unit 12c according to the present embodiment will be described.
 上述のようにイントラ予測パラメータPP_Intraにおけるシンタックスmost_prob_mode’は、1ビットの符号によって表現される。一方で、イントラ予測パラメータPP_Intraにおけるシンタックスrem_intra_pred_mode’は、平均的には、3+wビットの符号によって表現される。ここで、wの値は、シンタックスrem_intra_pred_mode’の各値に対応する符号長をどのように設定するかに依存するが、例えば、シンタックスrem_intra_pred_mode’の符号長を、図6の(d)に示したように設定したとすると、wの具体的な値は、0.1~0.2程度と見積もることができる。 As described above, the syntax most_prob_mode ′ in the intra prediction parameter PP_Intra is expressed by a 1-bit code. On the other hand, the syntax rem_intra_pred_mode ′ in the intra prediction parameter PP_Intra is represented on the average by a 3 + w bit code. Here, the value of w depends on how the code length corresponding to each value of the syntax rem_intra_pred_mode ′ is set. For example, the code length of the syntax rem_intra_pred_mode ′ is shown in FIG. If it is set as shown, the specific value of w can be estimated to be about 0.1 to 0.2.
 また、イントラ予測画像生成部12cにおいてエッジベース予測モードが選択される平均的な割合をu’と表し、イントラ予測画像生成部12cにおいて推定予測モードが選択されない平均的な割合をv’と表すことにする。 In addition, an average ratio in which the edge-based prediction mode is selected in the intra-predicted image generation unit 12c is expressed as u ′, and an average ratio in which the estimated prediction mode is not selected in the intra-predicted image generation unit 12c is expressed as v ′. To.
 このような前提において、イントラ予測画像生成部12cが参照するイントラ予測パラメータPP_Intraの、1パーティション当たりの符号量Q’は、以下のように見積もることができる。 Under such a premise, the code amount Q ′ per partition of the intra prediction parameter PP_Intra referred to by the intra prediction image generation unit 12c can be estimated as follows.
 Q’=1+u’×p+v’×(3+w)   …(2)
 ここで、数式(2)の第1項は、シンタックスmost_prob_mode’の寄与を表しており、第2項は、シンタックスadjust_neighb_dirの寄与を表している。また、数式(3)の第3項は、シンタックスrem_intra_pred_mode’の寄与を表している。
Q ′ = 1 + u ′ × p + v ′ × (3 + w) (2)
Here, the first term of Expression (2) represents the contribution of the syntax most_prob_mode ′, and the second term represents the contribution of the syntax adjust_neighb_dir. In addition, the third term of Expression (3) represents the contribution of the syntax rem_intra_pred_mode ′.
 数式(2)におけるu’およびv’は、それぞれ、数式(1)におけるuおよびvにほぼ等しいと考えられるので、比較例に係るイントラ予測画像生成部によって参照されるイントラ予測パラメータの符号量Qから、イントラ予測画像生成部12cが参照するイントラ予測パラメータPP_Intraの符号量Q’を減じたものを、以下のように表すことができる。 Since u ′ and v ′ in Expression (2) are considered to be substantially equal to u and v in Expression (1), respectively, the code amount Q of the intra prediction parameter referred to by the intra predicted image generation unit according to the comparative example. And the code amount Q ′ of the intra prediction parameter PP_Intra referred to by the intra predicted image generation unit 12c can be expressed as follows.
 Q-Q’=(1-u)×(1+3×v)-v×(3+w)
     =1-u-3×u×v-v×w   …(3)
 数式(3)に示すQ-Q’が正となる範囲において、イントラ予測画像生成部12cが参照するイントラ予測パラメータPP_Intraの符号量Q’は、比較例に係るイントラ予測画像生成部によって参照されるイントラ予測パラメータの符号量Qよりも小さくなる。
QQ ′ = (1−u) × (1 + 3 × v) −v × (3 + w)
= 1−u−3 × u × v−v × w (3)
In the range where QQ ′ shown in Equation (3) is positive, the code amount Q ′ of the intra prediction parameter PP_Intra referred to by the intra prediction image generation unit 12c is referred to by the intra prediction image generation unit according to the comparative example. It becomes smaller than the code amount Q of the intra prediction parameter.
 一方で、数式(3)から明らかなように、u≧0、v≧0、および、w≧0の範囲において、Q-Q’は、u、v、およびwの減少関数である。したがって、u、v、およびwが小さい程、イントラ予測パラメータPP_Intraの符号量Q’は、比較例に比べて小さくなる。換言すれば、エッジベース予測モードが選択される平均的な割合が小さい程、また、推定予測モードが選択されない平均的な割合が小さい程、イントラ予測パラメータPP_Intraの符号量Q’は、比較例に比べて小さくなる。また、wの値が小さい程、イントラ予測パラメータPP_Intraの符号量Q’は、比較例に比べて小さくなる。 On the other hand, as is clear from Equation (3), Q−Q ′ is a decreasing function of u, v, and w in the range of u ≧ 0, v ≧ 0, and w ≧ 0. Therefore, the smaller the u, v, and w, the smaller the code amount Q ′ of the intra prediction parameter PP_Intra compared to the comparative example. In other words, the smaller the average rate at which the edge-based prediction mode is selected and the smaller the average rate at which the estimated prediction mode is not selected, the more the code amount Q ′ of the intra prediction parameter PP_Intra is in the comparative example. Smaller than that. Also, the smaller the value of w, the smaller the code amount Q ′ of the intra prediction parameter PP_Intra compared to the comparative example.
 したがって、本実施形態におけるイントラ予測パラメータPP_Intraの構成によれば、例えば、エッジベース予測モードが選択される頻度の小さい画像に対して、符号量を削減することができる。また、推定予測モードが選択される頻度の大きい画像に対しても、符号量を削減することができる。なお、エッジベース予測モードが選択される頻度の小さい画像の例としては、比較的平坦な画像が挙げられる。また、推定予測モードが選択される頻度の大きい画像の例としては、空間相関性の高い画像が挙げられる。 Therefore, according to the configuration of the intra prediction parameter PP_Intra in the present embodiment, for example, the code amount can be reduced for an image with a low frequency in which the edge-based prediction mode is selected. Also, the amount of codes can be reduced for an image with a high frequency of selecting the estimated prediction mode. An example of an image with a low frequency in which the edge-based prediction mode is selected is a relatively flat image. An example of an image with a high frequency of selecting the estimated prediction mode is an image with high spatial correlation.
 このように、本実施形態におけるイントラ予測パラメータPP_Intraの構成によれば、例えば、空間相関性が高い画像、および、比較的平坦な画像に対して、比較例に係るイントラ予測パラメータよりも符号量が削減される。また、本実施形態におけるイントラ予測画像生成部12cによれば、そのような符号量の小さいイントラ予測パラメータPP_Intraを参照し、イントラ予測画像Pred_Intraを適切に生成することができる。 Thus, according to the configuration of the intra prediction parameter PP_Intra in the present embodiment, for example, the code amount is higher than that of the intra prediction parameter according to the comparative example for an image having a high spatial correlation and a relatively flat image. Reduced. Moreover, according to the intra estimated image production | generation part 12c in this embodiment, the intra estimated image Pred_Intra can be produced | generated appropriately with reference to such intra prediction parameters PP_Intra with small code amount.
 また、イントラ予測パラメータPP_Intraにおける符号量削減の効果は、当該イントラ予測パラメータPP_Intra、および、比較例に係るイントラ予測パラメータに含まれる各シンタックスが非算術符号化(CAVLC符号化)される場合に、より大きなものとなる。これは、比較例に係るイントラ予測パラメータにおいては、シンタックスuse_neighb_dirを符号化する際に、常に1ビットの符号を必要とするのに対し、本実施形態に係るイントラ予測パラメータPP_Intraは、そのようなシンタックスが不要であるためである。 In addition, the effect of code amount reduction in the intra prediction parameter PP_Intra is that, when each syntax included in the intra prediction parameter PP_Intra and the intra prediction parameter according to the comparative example is subjected to non-arithmetic coding (CAVLC coding). It will be bigger. This is because the intra prediction parameter according to the comparative example always requires a 1-bit code when encoding the syntax use_neighb_dir, whereas the intra prediction parameter PP_Intra according to the present embodiment This is because the syntax is unnecessary.
 また、本実施形態に係るイントラ予測パラメータPP_Intraにおいては、上述のように、推定予測モードによる推定の対象としてエッジベース予測モードが含まれるため、推定予測モードが選択されれば1ビットでエッジベース予測モードを記述でき、この点では算術符号化(CABAC符号化)であっても符号量削減に効果を奏する。 Further, in the intra prediction parameter PP_Intra according to the present embodiment, as described above, since the edge-based prediction mode is included as an estimation target in the estimated prediction mode, if the estimated prediction mode is selected, edge-based prediction is performed with 1 bit. The mode can be described, and in this respect, even with arithmetic coding (CABAC coding), the code amount can be reduced.
 <変形例1>
 本実施形態に係る動画像復号装置1、および、イントラ予測パラメータPP_Intraの構成は、上述した例に限定されるものではない。以下では、本実施形態に係る動画像復号装置の第1、および、イントラ予測パラメータPP_Intraの変形例について説明する。
<Modification 1>
The structure of the moving image decoding apparatus 1 which concerns on this embodiment, and intra prediction parameter PP_Intra is not limited to the example mentioned above. Below, the 1st of the moving image decoding apparatus which concerns on this embodiment, and the modification of intra prediction parameter PP_Intra are demonstrated.
 本変形例においては、符号化データ#1に含まれるイントラ予測パラメータPP_Intraが算術符号化/復号(CABAC符号化/復号)される場合には、イントラ予測パラメータPP_Intraとして、図10の(c)に示した各シンタックスからなるイントラ予測パラメータ(すなわち、比較例に係るイントラ予測パラメータと同様のもの)を用い、イントラ予測パラメータPP_Intraが非算術符号化/復号(CAVLC符号化/復号)される場合には、イントラ予測パラメータPP_Intraとして、図6の(a)に示した各シンタックスからなるイントラ予測パラメータを用いる。 In the present modification, when the intra prediction parameter PP_Intra included in the encoded data # 1 is arithmetically encoded / decoded (CABAC encoding / decoding), the intra prediction parameter PP_Intra is illustrated in (c) of FIG. When intra prediction parameters (that is, the same as the intra prediction parameters according to the comparative example) having the syntaxes shown above are used, and the intra prediction parameter PP_Intra is non-arithmetic encoded / decoded (CAVLC encoded / decoded) Uses an intra prediction parameter composed of the syntax shown in FIG. 6A as the intra prediction parameter PP_Intra.
 イントラ予測画像生成部12cは、符号化データのピクチャヘッダに含まれる符号化モード情報(entropy_coding_mode_flag)を参照することによって、イントラ予測パラメータPP_Intraが何れの符号化方式によって符号化されているのかを識別することができる。 The intra prediction image generation unit 12c refers to the encoding mode information (entropy_coding_mode_flag) included in the picture header of the encoded data, and identifies which encoding method is used to encode the intra prediction parameter PP_Intra. be able to.
 イントラ予測パラメータPP_Intraがこのように構成される場合には、動画像復号装置は、イントラ予測パラメータPP_Intraが算術符号化されたものなのか、非算術符号化されたものなのかに応じて、それぞれ、図7および図1に示した処理を行えばよい。 When the intra prediction parameter PP_Intra is configured in this way, the video decoding device determines whether the intra prediction parameter PP_Intra is arithmetically encoded or non-arithmographically encoded, respectively. The processing shown in FIGS. 7 and 1 may be performed.
 上述のように、図6の(a)に示したイントラ予測パラメータは、特に非算術符号化/復号(CAVLC符号化/復号)において、符号量削減効果が大きいので、本例のような構成によっても、符号化データ#1の符号量を効果的に削減することができる。 As described above, the intra prediction parameter shown in FIG. 6A has a large code amount reduction effect particularly in non-arithmetic coding / decoding (CAVLC coding / decoding). In addition, it is possible to effectively reduce the code amount of the encoded data # 1.
 <変形例2>
 続いて、本実施形態に係る動画像復号装置、および、イントラ予測パラメータPP_Intraの第2の変形例について説明する。
<Modification 2>
Subsequently, a moving image decoding apparatus according to the present embodiment and a second modification of the intra prediction parameter PP_Intra will be described.
 本変形例においては、動画像符号化装置において、イントラ予測パラメータPP_Intraとして、図6の(a)に示した構成、および、図10の(c)に示した構成を選択的に用いるものとし、何れのイントラ予測パラメータを用いたのかを示すフラグを符号化データに含めておく。ここで、イントラ予測パラメータPP_Intraとして何れの構成を用いるかの選択は、符号化効率がより高まるように、適応的に行われる。 In this modification, in the video encoding device, the configuration shown in (a) of FIG. 6 and the configuration shown in (c) of FIG. 10 are selectively used as the intra prediction parameter PP_Intra. A flag indicating which intra prediction parameter is used is included in the encoded data. Here, selection of which configuration is used as the intra prediction parameter PP_Intra is adaptively performed so that the coding efficiency is further increased.
 本変形例に係る動画像復号装置は、上記のフラグを参照することによって、イントラ予測パラメータPP_Intraが何れの構成であるのかを識別することができるので、イントラ予測画像の生成を適切に行うことができる。 The moving picture decoding apparatus according to the present modification can identify the configuration of the intra-prediction parameter PP_Intra by referring to the above flag, so that the intra-prediction image can be appropriately generated. it can.
 本変形例の構成によれば、符号化データ#1の符号量がより効果的に削減されるので、符号化効率をより効果的に向上させることができる。 According to the configuration of the present modification, the code amount of the encoded data # 1 is more effectively reduced, so that the encoding efficiency can be improved more effectively.
 <変形例3>
 続いて、本実施形態に係る動画像復号装置、および、イントラ予測パラメータPP_Intraの第3の変形例について、図8の(a)~(b)を参照して説明する。
<Modification 3>
Subsequently, a moving image decoding apparatus according to the present embodiment and a third modification of the intra prediction parameter PP_Intra will be described with reference to (a) to (b) of FIG.
 本変形例においては、基本予測モードセットに対して、複数のエッジベース予測モードを追加することによって、拡張セットが構成される。 In this modification, an extended set is configured by adding a plurality of edge-based prediction modes to the basic prediction mode set.
 図8の(a)は、本変形例における拡張セットに含まれる予測モードを例示する図である。図8の(a)に示すように、本変形例においては、基本予測モードセットに対して、例えば、3つのエッジベース予測モードが追加される。図8の(a)において、「エッジベース予測」は、すでに説明したエッジベース予測モードであって、補正角度Δαによる補正を行わない予測モードを示している。一方、「エッジベース予測-Δα」は、すでに説明したエッジベース予測モードであって、補正角度Δαを用いて「-Δα」の補正が行われる予測モードを示している。また、「エッジベース予測+Δα」は、すでに説明したエッジベース予測モードであって、補正角度Δαを用いて「+Δα」の補正が行われる予測モードを示している。 (A) of FIG. 8 is a figure which illustrates the prediction mode contained in the extended set in this modification. As shown in FIG. 8A, in this modification, for example, three edge-based prediction modes are added to the basic prediction mode set. In FIG. 8A, “edge-based prediction” is an edge-based prediction mode that has already been described, and indicates a prediction mode in which correction by the correction angle Δα is not performed. On the other hand, “edge-based prediction−Δα” is the edge-based prediction mode already described, and indicates a prediction mode in which correction of “−Δα” is performed using the correction angle Δα. “Edge-based prediction + Δα” is an edge-based prediction mode that has already been described, and indicates a prediction mode in which “+ Δα” is corrected using the correction angle Δα.
 図8の(a)に示す例においては、3つのエッジベース予測モードが、インデックス1~3によってそれぞれ指定され、インデックス0、および、4~11によって基本予測モードセットに含まれる予測モードが指定される。 In the example shown in FIG. 8A, three edge-based prediction modes are designated by indexes 1 to 3, respectively, and prediction modes included in the basic prediction mode set are designated by indexes 0 and 4 to 11, respectively. The
 図8の(b)は、本変形例に係るイントラ予測パラメータを構成する各シンタックスを示す表である。図8の(b)に示すように、本変形例に係るイントラ予測パラメータは、シンタックスmost_prob_mode''、および、シンタックスrem_intra_pred_mode''を含んでいるが、図6の(a)に示したシンタックスadjust_neighb_dirを含んでいない。 (B) of FIG. 8 is a table | surface which shows each syntax which comprises the intra prediction parameter which concerns on this modification. As shown in FIG. 8B, the intra prediction parameters according to this modification include the syntax most_prob_mode ″ and the syntax rem_intra_pred_mode ″, but the syntax shown in FIG. Does not include the tax adjust_neighb_dir.
 ここで、シンタックスmost_prob_mode''は、すでに説明したシンタックスmost_prob_mode'と同様に、対象パーティションの周辺のパーティションに割り付けられた予測モードから推定される推定予測モードが、対象パーティションについての予測モードと同じである場合に1をとり、そうでない場合に0をとるシンタックスである。なお、対象パーティションの周辺のパーティションには、複数のエッジベース予測モードの何れかが割り付けられることもあるため、シンタックスmost_prob_mode''が1である場合、対象パーティションに対して、複数のエッジベース予測モードの何れかが選択されることもある。 Here, the syntax most_prob_mode '' is the same as the syntax most_prob_mode 'described above, and the estimated prediction mode estimated from the prediction modes assigned to the surrounding partitions of the target partition is the same as the prediction mode for the target partition. This is a syntax that takes 1 when it is and 0 otherwise. Since any of a plurality of edge-based prediction modes may be assigned to a partition around the target partition, when the syntax most_prob_mode '' is 1, a plurality of edge-based prediction modes are set for the target partition. Any of the modes may be selected.
 また、シンタックスrem_intra_pred_mode''は、すでに説明したシンタックスrem_intra_pred_mode'とほぼ同様に、拡張セットに含まれる予測モードのうち、推定予測モードを除く予測モードの何れかを指定するためのシンタックスである。なお、シンタックスrem_intra_pred_mode'とは異なり、シンタックスrem_intra_pred_mode''は、上記複数のエッジベース予測モードの何れかを指定することもある。 Also, the syntax rem_intra_pred_mode '' is a syntax for designating one of the prediction modes other than the estimated prediction mode among the prediction modes included in the extended set, almost the same as the syntax rem_intra_pred_mode ′ already described. . Note that, unlike the syntax rem_intra_pred_mode ', the syntax rem_intra_pred_mode' 'may specify any of the plurality of edge-based prediction modes.
 このように、本変形例に係るイントラ予測パラメータによれば、シンタックスmost_prob_mode''、および、シンタックスrem_intra_pred_mode''のみによって、複数の基本予測モード、および、複数のエッジベース予測モードから対象パーティションに割り付ける予測モードを選択することができる。したがって、本変形例によれば、イントラ予測パラメータの構成をより簡易なものとすることができる。 As described above, according to the intra prediction parameter according to the present modification, only the syntax most_prob_mode '' and the syntax rem_intra_pred_mode '' are used to change from the plurality of basic prediction modes and the plurality of edge-based prediction modes to the target partition. A prediction mode to be assigned can be selected. Therefore, according to the present modification, the configuration of the intra prediction parameter can be simplified.
 なお、本変形例においても、何れのインデックスがエッジベース予測モードに対応するものであるかの情報を、動画像符号化装置と動画像復号装置とによって共有する構成とすることができる。 Note that, in this modification as well, information indicating which index corresponds to the edge-based prediction mode can be configured to be shared between the video encoding device and the video decoding device.
 (動画像符号化装置2)
 本実施形態に係る動画像符号化装置2の構成について図9を参照して説明する。動画像符号化装置2は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)における共同開発用コーデックであるKTAソフトウェアに採用されている技術、および、その後継コーデックであるTMuC(Test Model under Consideration)ソフトウェアに採用されている技術を含む符号化装置である。
(Moving picture encoding device 2)
A configuration of the moving picture encoding apparatus 2 according to the present embodiment will be described with reference to FIG. The moving image encoding apparatus 2 includes H.264 as a part thereof. H.264 / MPEG-4. Coding including technology adopted in KTA software, which is a codec for joint development in AVC and VCEG (Video Coding Expert Group), and technology adopted in TMuC (Test Model under Consideration) software, which is the successor codec Device.
 図9は、動画像符号化装置2の構成を示すブロック図である。図9に示すように、動画像符号化装置2は、予測画像生成部21、変換・量子化部22、逆量子化・逆変換部23、加算器24、フレームメモリ25、ループフィルタ26、可変長符号符号化部27、および、減算器28を備えている。また、図9に示すように、予測画像生成部21は、イントラ予測画像生成部21a、動きベクトル検出部21b、インター予測画像生成部21c、予測方式制御部21d、および、動きベクトル冗長性削除部21eを備えている。動画像符号化装置2は、動画像#10(符号化対象画像)を符号化することによって、符号化データ#1を生成する装置である。 FIG. 9 is a block diagram showing a configuration of the moving picture encoding apparatus 2. As illustrated in FIG. 9, the moving image encoding apparatus 2 includes a predicted image generation unit 21, a transform / quantization unit 22, an inverse quantization / inverse transform unit 23, an adder 24, a frame memory 25, a loop filter 26, a variable A long code encoding unit 27 and a subtracter 28 are provided. As shown in FIG. 9, the predicted image generation unit 21 includes an intra predicted image generation unit 21 a, a motion vector detection unit 21 b, an inter predicted image generation unit 21 c, a prediction method control unit 21 d, and a motion vector redundancy deletion unit. 21e. The moving image encoding device 2 is a device that generates encoded data # 1 by encoding moving image # 10 (encoding target image).
 (予測画像生成部21)
 予測画像生成部21は、処理対象LCUを、1または複数の下位CUに再帰的に分割し、各リーフCUをさらに1または複数のパーティションに分割し、パーティション毎に、画面間予測を用いたインター予測画像Pred_Inter、または、画面内予測を用いたイントラ予測画像Pred_Intraを生成する。生成されたインター予測画像Pred_Interおよびイントラ予測画像Pred_Intraは、予測画像Predとして、加算器24および減算器28に供給される。
(Predicted image generation unit 21)
The predicted image generation unit 21 recursively divides the processing target LCU into one or a plurality of lower-order CUs, further divides each leaf CU into one or a plurality of partitions, and uses an inter-screen prediction for each partition. A predicted image Pred_Inter or an intra predicted image Pred_Intra using intra prediction is generated. The generated inter prediction image Pred_Inter and intra prediction image Pred_Intra are supplied to the adder 24 and the subtracter 28 as the prediction image Pred.
 なお、予測画像生成部21は、スキップモードの適応されたPUについては、当該PUに属する他のパラメータの符号化を省略する。また、(1)対象LCUにおける下位CUおよびパーティションへの分割の態様、(2)スキップモードを適用するか否か、および、(3)パーティション毎にインター予測画像Pred_Interおよびイントラ予測画像Pred_Intraの何れを生成するか、は、符号化効率を最適化するように決定される。 Note that the prediction image generation unit 21 omits encoding of other parameters belonging to the PU for the PU to which the skip mode is applied. Also, (1) the mode of division into lower CUs and partitions in the target LCU, (2) whether to apply the skip mode, and (3) which of the inter predicted image Pred_Inter and the intra predicted image Pred_Intra for each partition Whether to generate is determined so as to optimize the encoding efficiency.
 (イントラ予測画像生成部21a)
 イントラ予測画像生成部21aは、画面内予測によって、各パーティションに関する予測画像Pred_Intraを生成する。具体的には、(1)各パーティションついてイントラ予測に用いる予測モードを選択し、(2)選択した予測モードを用いて、復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部21aは、生成したイントラ予測画像Pred_Intraを、予測方式制御部21dに供給する。
(Intra predicted image generation unit 21a)
The intra predicted image generation unit 21a generates a predicted image Pred_Intra for each partition by intra prediction. Specifically, (1) a prediction mode used for intra prediction is selected for each partition, and (2) a prediction image Pred_Intra is generated from the decoded image P using the selected prediction mode. The intra predicted image generation unit 21a supplies the generated intra predicted image Pred_Intra to the prediction method control unit 21d.
 より具体的には、イントラ予測画像生成部21aは、上述した基本予測モードセットに含まれる予測モード、および、エッジベース予測モードよりなる拡張セットに含まれる予測モードのうち、何れかの予測モードを選択し、選択した予測モードの示す方法に従って、イントラ予測画像Pred_Intraを生成する。エッジベース予測モードが選択された場合、および、基本予測モードが選択された場合におけるイントラ予測画像Pred_Intraの生成処理については、動画像復号装置1の備えるイントラ予測画像生成部12cによる生成処理とほぼ同様である。 More specifically, the intra-prediction image generation unit 21a selects any one of the prediction modes included in the above-described basic prediction mode set and the prediction mode included in the extended set including the edge-based prediction mode. The intra prediction image Pred_Intra is generated according to the method indicated by the selected prediction mode. When the edge-based prediction mode is selected and when the basic prediction mode is selected, the intra-prediction image Pred_Intra generation processing is almost the same as the generation processing by the intra-prediction image generation unit 12c included in the video decoding device 1. It is.
 また、イントラ予測画像生成部21aは、対象パーティションの周辺のパーティションに割り付けられた予測モードから対象パーティションに対する推定予測モードを決定し、当該推定予測モードと、対象パーティションについて実際に選択された予測モードとが同じであるか否かを示すフラグを、イントラ予測パラメータPP_Intraの一部として、予測方式制御部21dを介して可変長符号符号化部27に供給し、可変長符号符号化部27は、当該フラグを、シンタックスmost_prob_mode'として符号化データ#1に含める構成とする。 In addition, the intra predicted image generation unit 21a determines an estimated prediction mode for the target partition from the prediction modes assigned to the peripheral partitions of the target partition, and the estimated prediction mode and the prediction mode actually selected for the target partition Are supplied as a part of the intra prediction parameter PP_Intra to the variable length code encoding unit 27 via the prediction scheme control unit 21d, and the variable length code encoding unit 27 The flag is included in the encoded data # 1 as syntax most_prob_mode ′.
 また、イントラ予測画像生成部21aは、対象パーティションについての推定予測モードと、対象パーティションについて実際に選択された予測モードとが異なる場合には、対象パーティションについての予測モードを示す残余予測モードインデックスを、イントラ予測パラメータPP_Intraの一部として、予測方式制御部21dを介して可変長符号符号化部27に供給し、可変長符号符号化部27は当該残余予測モードインデックスを、シンタックスrem_intra_pred_mode'として符号化データ#1に含める構成とする。 In addition, when the estimated prediction mode for the target partition is different from the prediction mode actually selected for the target partition, the intra predicted image generation unit 21a sets a residual prediction mode index indicating the prediction mode for the target partition, As a part of the intra prediction parameter PP_Intra, it is supplied to the variable length code encoding unit 27 via the prediction scheme control unit 21d, and the variable length code encoding unit 27 encodes the residual prediction mode index as syntax rem_intra_pred_mode '. The configuration includes data # 1.
 また、イントラ予測画像生成部21aがエッジベース予測モードを選択した場合であって、算出されたエッジ方向に対して、補正角度Δαを用いた補正を行う場合には、補正角度Δαを量子化ステップサイズδαで除算して得られるパラメータ(量子化インデックス)tを、イントラ予測パラメータPP_Intraの一部として、予測方式制御部21dを介して可変長符号符号化部27に供給し、可変長符号符号化部27は、当該パラメータtを、シンタックスadjust_neighb_dirとして符号化データ#1に含める構成とする。なお、量子化ステップサイズδαの決定の仕方は、イントラ予測画像生成部12cの説明において述べた方法と同様の方法を用いればよい。 Further, when the intra-predicted image generation unit 21a selects the edge-based prediction mode and the correction using the correction angle Δα is performed on the calculated edge direction, the correction angle Δα is quantized. A parameter (quantization index) t obtained by dividing by the size δα is supplied as a part of the intra prediction parameter PP_Intra to the variable length code encoding unit 27 via the prediction scheme control unit 21d, and variable length code encoding is performed. The unit 27 is configured to include the parameter t in the encoded data # 1 as the syntax adjust_neighb_dir. Note that the quantization step size δα may be determined using a method similar to the method described in the description of the intra predicted image generation unit 12c.
 なお、イントラ予測画像生成部21aは、複数の補正角度の候補を設定し、当該複数の補正角度候補のうち、符号化効率がより高くなるものを選択する構成とすることができる。 Note that the intra-predicted image generation unit 21a may be configured to set a plurality of correction angle candidates and select a plurality of correction angle candidates that have higher encoding efficiency.
 このように、イントラ予測画像生成部21aが可変長符号符号化部27に供給するイントラ予測パラメータPP_Intraは、図6の(a)に示した各シンタックスを有するように構成される。 As described above, the intra prediction parameter PP_Intra supplied from the intra predicted image generation unit 21a to the variable length code encoding unit 27 is configured to have the syntaxes illustrated in FIG.
 (動きベクトル検出部21b)
 動きベクトル検出部21bは、各パーティションに関する動きベクトルmvを検出する。具体的には、(1)参照画像として利用するフィルタ済復号画像P_ALF’を選択し、(2)選択したフィルタ済復号画像P_ALF’において対象パーティションを最良近似する領域を探索することによって、対象パーティションに関する動きベクトルmvを検出する。ここで、フィルタ済復号画像P_ALF’は、既にフレーム全体の復号が完了した復号済みの復号画像に対して、ループフィルタ26による適応的フィルタ処理を施すことによって得られる画像であり、動きベクトル検出部21bは、フィルタ済復号画像P_ALF’を構成する各画素の画素値をフレームメモリ25から読み出すことができる。動きベクトル検出部21bは、検出した動きベクトルmvを、参照画像として利用したフィルタ済復号画像P_ALF’を指定する参照画像インデックスRIと共に、インター予測画像生成部21c及び動きベクトル冗長性削除部21eに供給する。
(Motion vector detection unit 21b)
The motion vector detection unit 21b detects a motion vector mv regarding each partition. Specifically, (1) the filtered decoded image P_ALF ′ used as the reference image is selected, and (2) the target partition is searched by searching for the region that best approximates the target partition in the selected filtered decoded image P_ALF ′. Detects a motion vector mv. Here, the filtered decoded image P_ALF ′ is an image obtained by performing adaptive filter processing by the loop filter 26 on the decoded image that has already been decoded for the entire frame, and is a motion vector detection unit. 21b can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 25. The motion vector detection unit 21b supplies the detected motion vector mv to the inter predicted image generation unit 21c and the motion vector redundancy deletion unit 21e together with the reference image index RI that specifies the filtered decoded image P_ALF ′ used as the reference image. To do.
 (インター予測画像生成部21c)
 インター予測画像生成部21cは、画面間予測によって、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、動きベクトル検出部21bから供給された動きベクトルmvを用いて、動きベクトル検出部21bから供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_ALF’から動き補償画像mcを生成する。動きベクトル検出部21bと同様に、インター予測画像生成部21cは、フィルタ済復号画像P_ALF’を構成する各画素の画素値をフレームメモリ25から読み出すことができる。インター予測画像生成部21cは、生成した動き補償画像mc(インター予測画像Pred_Inter)を、動きベクトル検出部21bから供給された参照画像インデックスRIと共に、予測方式制御部21dに供給する。
(Inter prediction image generation unit 21c)
The inter prediction image generation unit 21c generates a motion compensated image mc related to each inter prediction partition by inter-screen prediction. Specifically, the motion compensation image mc is obtained from the filtered decoded image P_ALF ′ designated by the reference image index RI supplied from the motion vector detection unit 21b, using the motion vector mv supplied from the motion vector detection unit 21b. Generate. Similar to the motion vector detection unit 21b, the inter prediction image generation unit 21c can read out the pixel value of each pixel constituting the filtered decoded image P_ALF ′ from the frame memory 25. The inter prediction image generation unit 21c supplies the generated motion compensated image mc (inter prediction image Pred_Inter) together with the reference image index RI supplied from the motion vector detection unit 21b to the prediction method control unit 21d.
 (予測方式制御部21d)
 予測方式制御部21dは、イントラ予測画像Pred_Intra及びインター予測画像Pred_Interを符号化対象画像と比較し、イントラ予測を行うかインター予測を行うかを選択する。イントラ予測を選択した場合、予測方式制御部21dは、イントラ予測画像Pred_Intraを予測画像Predとして加算器24及び減算器28に供給すると共に、イントラ予測画像生成部21aから供給されるイントラ予測パラメータPP_Intraを可変長符号符号化部27に供給する。一方、インター予測を選択した場合、予測方式制御部21dは、インター予測画像Pred_Interを予測画像Predとして加算器24及び減算器28に供給すると共に、参照画像インデックスRI、並びに、後述する動きベクトル冗長性削除部21eから供給された推定動きベクトルインデックスPMVI及び動きベクトル残差MVDをインター予測パラメータPP_Interとして可変長符号符号化部27に供給する。
(Prediction method controller 21d)
The prediction scheme control unit 21d compares the intra predicted image Pred_Intra and the inter predicted image Pred_Inter with the encoding target image, and selects whether to perform intra prediction or inter prediction. When the intra prediction is selected, the prediction scheme control unit 21d supplies the intra prediction image Pred_Intra as the prediction image Pred to the adder 24 and the subtracter 28, and sets the intra prediction parameter PP_Intra supplied from the intra prediction image generation unit 21a. This is supplied to the variable length code encoding unit 27. On the other hand, when the inter prediction is selected, the prediction scheme control unit 21d supplies the inter prediction image Pred_Inter as the prediction image Pred to the adder 24 and the subtracter 28, and the reference image index RI and motion vector redundancy described later. The estimated motion vector index PMVI and the motion vector residual MVD supplied from the deletion unit 21e are supplied to the variable length code encoding unit 27 as an inter prediction parameter PP_Inter.
 (動きベクトル冗長性削除部21e)
 動きベクトル冗長性削除部21eは、動きベクトル検出部21bによって検出された動きベクトルmvにおける冗長性を削除する。具体的には、(1)動きベクトルmvの推定に用いる推定方法を選択し、(2)選択した推定方法に従って推定動きベクトルpmvを導出し、(3)動きベクトルmvから推定動きベクトルpmvを減算することにより動きベクトル残差MVDを生成する。動きベクトル冗長性削除部21eは、生成した動きベクトル残差MVDを、選択した推定方法を示す推定動きベクトルインデックスPMVIと共に、予測方式制御部21dに供給する。
(Motion vector redundancy deleting unit 21e)
The motion vector redundancy deletion unit 21e deletes redundancy in the motion vector mv detected by the motion vector detection unit 21b. Specifically, (1) an estimation method used for estimating the motion vector mv is selected, (2) an estimated motion vector pmv is derived according to the selected estimation method, and (3) the estimated motion vector pmv is subtracted from the motion vector mv. As a result, a motion vector residual MVD is generated. The motion vector redundancy deleting unit 21e supplies the generated motion vector residual MVD to the prediction method control unit 21d together with the estimated motion vector index PMVI indicating the selected estimation method.
 (変換・量子化部22)
 変換・量子化部22は、(1)符号化対象画像から予測画像Predを減算した予測残差Dをブロック(変換単位)毎にDCT変換(Discrete Cosine Transform)し、(2)DCT変換により得られたDCT係数を量子化し、(3)量子化により得られた量子化予測残差QDを可変長符号符号化部27及び逆量子化・逆変換部23に供給する。なお、変換・量子化部22は、(1)量子化の際に用いる量子化ステップQPをTU毎に選択し、(2)選択した量子化ステップQPの大きさを示す量子化パラメータ差分Δqpを可変長符号符号化部28に供給し、(3)選択した量子化ステップQPを逆量子化・逆変換部23に供給する。ここで、量子化パラメータ差分Δqpとは、DCT変換/量子化するマクロブロックに関する量子化パラメータqp(例えばQP=2pq/6)の値から、直前にDCT変換/量子化したTUに関する量子化パラメータqp’の値を減算して得られる差分値のことを指す。
(Transformation / quantization unit 22)
The transform / quantization unit 22 performs (1) DCT transform (Discrete Cosine Transform) for each block (transform unit) on the prediction residual D obtained by subtracting the predicted image Pred from the encoding target image, and (2) obtains the DCT transform. The obtained DCT coefficients are quantized, and (3) the quantized prediction residual QD obtained by the quantization is supplied to the variable length code encoding unit 27 and the inverse quantization / inverse transform unit 23. The transform / quantization unit 22 (1) selects a quantization step QP to be used for quantization for each TU, and (2) sets a quantization parameter difference Δqp indicating the size of the selected quantization step QP. The variable length code encoding unit 28 is supplied, and (3) the selected quantization step QP is supplied to the inverse quantization / inverse transform unit 23. Here, the quantization parameter difference Δqp is the quantization parameter related to the TU that has been DCT transformed / quantized immediately before from the value of the quantization parameter qp (for example, QP = 2 pq / 6 ) relating to the macroblock to be DCT transformed / quantized. It refers to the difference value obtained by subtracting the value of qp ′.
 (逆量子化・逆変換部23)
 逆量子化・逆変換部23は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器24に供給する。量子化予測残差QDを逆量子化する際には、変換・量子化部22から供給された量子化ステップQPを利用する。なお、逆量子化・逆変換部23から出力される予測残差Dは、変換・量子化部22に入力される予測残差Dに量子化誤差が加わったものであるが、ここでは簡単のために共通の呼称を用いる。
(Inverse quantization / inverse transform unit 23)
The inverse quantization / inverse transform unit 23 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transformation on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 24. When the quantization prediction residual QD is inversely quantized, the quantization step QP supplied from the transform / quantization unit 22 is used. Note that the prediction residual D output from the inverse quantization / inverse transform unit 23 is obtained by adding a quantization error to the prediction residual D input to the transform / quantization unit 22. Common names are used for this purpose.
 (加算器24)
 加算器24は、予測方式制御部21dにて選択された予測画像Predを、逆量子化・逆変換部23にて生成された予測残差Dに加算することによって、(局所)復号画像Pを生成する。加算器24にて生成された(局所)復号画像Pは、ループフィルタ26に供給されると共にフレームメモリ25に格納され、イントラ予測における参照画像として利用される。
(Adder 24)
The adder 24 adds the predicted image Pred selected by the prediction scheme control unit 21d to the prediction residual D generated by the inverse quantization / inverse transform unit 23, thereby obtaining the (local) decoded image P. Generate. The (local) decoded image P generated by the adder 24 is supplied to the loop filter 26 and stored in the frame memory 25, and is used as a reference image in intra prediction.
 (可変長符号符号化部27)
 可変長符号符号化部27は、(1)変換・量子化部22から供給された量子化予測残差QD並びにΔqp、(2)予測方式制御部21dから供給された量子化パラメータPP(インター予測パラメータPP_Inter、および、イントラ予測パラメータPP_Intra)、および、(3)ループフィルタ26から供給されたフィルタパラメータFPを可変長符号化することによって、符号化データ#1を生成する。
(Variable-length code encoding unit 27)
The variable length code encoding unit 27 (1) the quantization prediction residual QD and Δqp supplied from the transform / quantization unit 22, and (2) the quantization parameter PP (inter prediction) supplied from the prediction scheme control unit 21d. The parameter PP_Inter and the intra prediction parameter PP_Intra) and (3) the filter parameter FP supplied from the loop filter 26 are variable-length-encoded to generate encoded data # 1.
 なお、可変長符号符号化部27による具体的な符号化方式としては、算術符号化/復号の一方式であるCABAC(Context-based Adaptive Binary Arithmetic Coding)、または、非算術符号化/復号の一方式であるCAVLC(Context-based Adaptive VLC)が用いられる。 As a specific encoding method by the variable length code encoding unit 27, CABAC (Context-based Adaptive Binary Arithmetic Coding) which is one arithmetic coding / decoding method, or one non-arithmetic encoding / decoding method is used. CAVLC (Context-based Adaptive VLC) which is a method is used.
 可変長符号符号化部27は、ピクチャ毎に、CABACおよびCAVLCの何れの符号化方式を用いるのかを決定し、決定した符号化方式により符号化すると共に、決定した符号化方式を指定する符号化モード情報(entropy_coding_mode_flag)を符号化データ#1のピクチャヘッダPHに含める。 The variable length code encoding unit 27 determines which encoding method of CABAC or CAVLC is to be used for each picture, performs encoding using the determined encoding method, and specifies the determined encoding method The mode information (entropy_coding_mode_flag) is included in the picture header PH of the encoded data # 1.
 (減算器28)
 減算器28は、予測方式制御部21dにて選択された予測画像Predを、符号化対象画像から減算することによって、予測残差Dを生成する。減算器28にて生成された予測残差Dは、変換・量子化部22によってDCT変換/量子化される。
(Subtractor 28)
The subtracter 28 generates the prediction residual D by subtracting the prediction image Pred selected by the prediction method control unit 21d from the encoding target image. The prediction residual D generated by the subtracter 28 is DCT transformed / quantized by the transform / quantization unit 22.
 (ループフィルタ26)
 ループフィルタ26は、フレームメモリ25から復号画像Pを読み出し、復号画像Pのパーティション境界およびブロック境界の何れか一方若しくは双方におけるブロックノイズ低減処理を施す。また、ループフィルタ26は、ブロックノイズ低減処理が施された復号画像に対して、適応的に算出されるフィルタパラメータFPを用いた適応的なフィルタ処理を施し、当該適応的なフィルタ処理が施された復号画像Pをフィルタ済復号画像P_ALFとしてフレームメモリ25に出力する。フィルタ済復号画像P_ALFは、主に、インター予測画像生成部21cにおいて、参照画像として用いられる。
(Loop filter 26)
The loop filter 26 reads the decoded image P from the frame memory 25 and performs block noise reduction processing at one or both of the partition boundary and the block boundary of the decoded image P. The loop filter 26 performs adaptive filter processing using the adaptively calculated filter parameter FP on the decoded image subjected to block noise reduction processing, and the adaptive filter processing is performed. The decoded image P is output to the frame memory 25 as a filtered decoded image P_ALF. The filtered decoded image P_ALF is mainly used as a reference image in the inter predicted image generation unit 21c.
 <変形例1’>
 <変形例1>において説明したように、動画像符号化装置2によって符号化されるイントラ予測パラメータの構成は、図6(a)に示す例に限定されるものではない。動画像符号化装置2において、イントラ予測パラメータPP_Intraが算術符号化(CABAC符号化)される場合には、イントラ予測パラメータPP_Intraとして、図10の(c)に示した各シンタックスからなるイントラ予測パラメータ(すなわち、比較例に係るイントラ予測パラメータと同様のもの)を符号化データ#1に含める構成とし、イントラ予測パラメータPP_Intraが非算術符号化(CAVLC符号化)される場合には、イントラ予測パラメータPP_Intraとして、図6の(a)に示した各シンタックスからなるイントラ予測パラメータを符号化データ#1に含める構成としてもよい。なお、各シンタックスにはそれぞれ別のコンテキストを割り当てると、算術符号化効率の向上に効果を奏する。
<Modification 1 '>
As described in <Modification 1>, the configuration of the intra prediction parameters encoded by the moving image encoding device 2 is not limited to the example illustrated in FIG. When the intra prediction parameter PP_Intra is arithmetically encoded (CABAC encoding) in the moving image encoding device 2, the intra prediction parameter including each syntax shown in FIG. 10C is used as the intra prediction parameter PP_Intra. (That is, the same intra prediction parameter according to the comparative example) is included in the encoded data # 1, and the intra prediction parameter PP_Intra is obtained when the intra prediction parameter PP_Intra is non-arithmetic encoded (CAVLC encoded). As an example, the encoded data # 1 may include intra prediction parameters including the syntaxes illustrated in FIG. Note that assigning different contexts to each syntax is effective in improving the arithmetic coding efficiency.
 上述したように、図6の(a)に示したイントラ予測パラメータは、特に非算術符号化/復号(CAVLC符号化/復号)において、符号量削減効果が大きいので、本例のような構成によっても、符号化データ#1の符号量を効果的に削減することができる。 As described above, the intra prediction parameter shown in FIG. 6A has a large code amount reduction effect particularly in non-arithmetic coding / decoding (CAVLC coding / decoding). In addition, it is possible to effectively reduce the code amount of the encoded data # 1.
 <変形例2’>
 また、<変形例2>において説明したように、動画像符号化装置2が、イントラ予測パラメータPP_Intraとして、図6の(a)に示した構成、および、図10の(c)に示した構成を選択的に用いるものとし、何れのイントラ予測パラメータを用いたのかを示すフラグを符号化データ#1に含める構成としてもよい。ここで、イントラ予測パラメータPP_Intraとして何れの構成を用いるかの選択は、符号化効率がより高まるように、動画像符号化装置2にて適応的に行われる。
<Modification 2 '>
Further, as described in <Modification 2>, the moving picture encoding apparatus 2 uses the configuration illustrated in FIG. 6A and the configuration illustrated in FIG. 10C as the intra prediction parameter PP_Intra. May be selectively used, and a flag indicating which intra prediction parameter is used may be included in the encoded data # 1. Here, the selection of which configuration is used as the intra prediction parameter PP_Intra is adaptively performed by the video encoding device 2 so that the encoding efficiency is further increased.
 本変形例の構成によれば、符号化データ#1の符号量がより効果的に削減されるので、符号化効率をより効果的に向上させることができる。 According to the configuration of the present modification, the code amount of the encoded data # 1 is more effectively reduced, so that the encoding efficiency can be improved more effectively.
 <変形例3’>
 また、<変形例3>において説明したように、動画像符号化装置2は、図8の(a)に示した拡張セットに含まれる予測モードから、各パーティションについての予測モードを選択する構成とし、図8の(b)に示したシンタックスよりなるイントラ予測パラメータPP_Intraを符号化データ#1に含める構成としてもよい。
<Modification 3 '>
Further, as described in <Modification 3>, the moving picture encoding apparatus 2 is configured to select a prediction mode for each partition from the prediction modes included in the extended set illustrated in FIG. The intra prediction parameter PP_Intra having the syntax shown in FIG. 8B may be included in the encoded data # 1.
 本変形例によれば、イントラ予測パラメータPP_Intraの構成をより簡易なものとすることができる。 According to this modification, the configuration of the intra prediction parameter PP_Intra can be simplified.
 〔応用例〕
 上述した動画像符号化装置2及び動画像復号装置1は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。
[Application example]
The above-described moving image encoding device 2 and moving image decoding device 1 can be used by being mounted on various devices that perform transmission, reception, recording, and reproduction of moving images.
 まず、上述した動画像符号化装置2及び動画像復号装置1を、動画像の送信及び受信に利用できることを、図11を参照して説明する。 First, it will be described with reference to FIG. 11 that the above-described moving image encoding device 2 and moving image decoding device 1 can be used for transmission and reception of moving images.
 図11の(a)は、動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。図11の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_A1として利用される。 (A) of FIG. 11 is a block diagram showing a configuration of a transmission apparatus PROD_A in which the moving picture encoding apparatus 2 is mounted. As illustrated in FIG. 11A, the transmission device PROD_A modulates a carrier wave with an encoding unit PROD_A1 that obtains encoded data by encoding a moving image, and with the encoded data obtained by the encoding unit PROD_A1. Thus, a modulation unit PROD_A2 that obtains a modulation signal and a transmission unit PROD_A3 that transmits the modulation signal obtained by the modulation unit PROD_A2 are provided. The moving image encoding apparatus 2 described above is used as the encoding unit PROD_A1.
 送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、及び、動画像を外部から入力するための入力端子PROD_A6を更に備えていてもよい。図11の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。 The transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, and an input terminal PROD_A6 for inputting the moving image from the outside as a supply source of the moving image input to the encoding unit PROD_A1. May be further provided. FIG. 11A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but some of them may be omitted.
 なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。 The recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.
 図11の(b)は、動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図11の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3と、を備えている。上述した動画像復号装置1は、この復号部PROD_B3として利用される。 (B) of FIG. 11 is a block diagram illustrating a configuration of a receiving device PROD_B in which the moving image decoding device 1 is mounted. As illustrated in FIG. 11B, the receiving device PROD_B includes a receiving unit PROD_B1 that receives a modulated signal, a demodulating unit PROD_B2 that obtains encoded data by demodulating the modulated signal received by the receiving unit PROD_B1, and a demodulator. A decoding unit PROD_B3 that obtains a moving image by decoding the encoded data obtained by the unit PROD_B2. The moving picture decoding apparatus 1 described above is used as the decoding unit PROD_B3.
 受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図11の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。 The receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3. PROD_B6 may be further provided. FIG. 11B illustrates a configuration in which all of these are provided in the receiving device PROD_B, but some of them may be omitted.
 なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。 The recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.
 なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。 Note that the transmission medium for transmitting the modulation signal may be wireless or wired. Further, the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.
 例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。 For example, a terrestrial digital broadcast broadcasting station (broadcasting equipment or the like) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting. Further, a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.
 また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。 Also, a server (workstation etc.) / Client (television receiver, personal computer, smart phone etc.) such as VOD (Video On Demand) service and video sharing service using the Internet is a transmitting device for transmitting and receiving modulated signals by communication. This is an example of PROD_A / reception device PROD_B (usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN). Here, the personal computer includes a desktop PC, a laptop PC, and a tablet PC. The smartphone also includes a multi-function mobile phone terminal.
 なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。 In addition to the function of decoding the encoded data downloaded from the server and displaying it on the display, the video sharing service client has a function of encoding a moving image captured by the camera and uploading it to the server. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.
 次に、上述した動画像符号化装置2及び動画像復号装置1を、動画像の記録及び再生に利用できることを、図12を参照して説明する。 Next, it will be described with reference to FIG. 12 that the above-described moving image encoding device 2 and moving image decoding device 1 can be used for recording and reproduction of moving images.
 図12の(a)は、上述した動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。図12の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_C1として利用される。 (A) of FIG. 12 is a block diagram showing a configuration of a recording apparatus PROD_C in which the above-described moving picture encoding apparatus 2 is mounted. As shown in FIG. 12 (a), the recording device PROD_C has an encoding unit PROD_C1 that obtains encoded data by encoding a moving image, and the encoded data obtained by the encoding unit PROD_C1 on the recording medium PROD_M. A writing unit PROD_C2 for writing. The moving image encoding apparatus 2 described above is used as the encoding unit PROD_C1.
 なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)などのように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリなどのように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disk:登録商標)などのように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。 The recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of the type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disk) or BD (Blu-ray Disk: registration) Or a drive device (not shown) built in the recording device PROD_C.
 また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、及び、動画像を受信するための受信部PROD_C5を更に備えていてもよい。図12の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。 The recording device PROD_C receives a moving image as a supply source of a moving image to be input to the encoding unit PROD_C1, a camera PROD_C3 that captures a moving image, an input terminal PROD_C4 for inputting a moving image from the outside, and a moving image. The receiving unit PROD_C5 may be further provided. FIG. 12A illustrates a configuration in which the recording apparatus PROD_C includes all of these, but some of them may be omitted.
 なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。 The receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.
 このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HD(Hard Disk)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。 Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HD (Hard Disk) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main source of moving images). In addition, a camcorder (in this case, the camera PROD_C3 is a main source of moving images), a personal computer (in this case, the receiving unit PROD_C5 is a main source of moving images), a smartphone (in this case, the camera PROD_C3 or The receiving unit PROD_C5 is a main source of moving images) is an example of such a recording apparatus PROD_C.
 図12の(b)は、上述した動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図12の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した動画像復号装置1は、この復号部PROD_D2として利用される。 (B) of FIG. 12 is a block showing a configuration of a playback device PROD_D equipped with the above-described video decoding device 1. As shown in (b) of FIG. 12, the playback device PROD_D reads a moving image by decoding a read unit PROD_D1 that reads encoded data written on the recording medium PROD_M and a coded data read by the read unit PROD_D1. And a decoding unit PROD_D2 to be obtained. The moving picture decoding apparatus 1 described above is used as the decoding unit PROD_D2.
 なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。 Note that the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.
 また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図12の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。 In addition, the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2. PROD_D5 may be further provided. FIG. 12B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but a part of the configuration may be omitted.
  なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。 The transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.
 このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。 Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images). . In addition, a television receiver (in this case, the display PROD_D3 is a main destination of moving images), a desktop PC (in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is a main destination of moving images), Laptop type or tablet type PC (in this case, display PROD_D3 or transmission unit PROD_D5 is the main supply destination of moving images), smartphone (in this case, display PROD_D3 or transmission unit PROD_D5 is the main supply destination of moving images) ) Is an example of such a playback device PROD_D.
 (付記事項1)
 最後に、上述した動画像復号装置1および動画像符号化装置2の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(Appendix 1)
Finally, each block of the moving picture decoding apparatus 1 and the moving picture encoding apparatus 2 described above may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or may be a CPU (Central It may be realized by software using a Processing Unit).
 後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。 In the latter case, each device includes a CPU that executes instructions of a program that realizes each function, a ROM (Read (Memory) that stores the program, a RAM (Random Memory) that expands the program, the program, and various types A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of each of the above devices, which is software that realizes the above-described functions, is recorded so as to be readable by a computer. This can also be achieved by supplying to each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。 Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, or PLD (Programmable logic device) or FPGA (Field Programmable Gate Array) Logic circuits can be used.
 また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。 Also, each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network (Virtual Private Network), telephone line network, mobile communication network, satellite communication network, etc. can be used. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even in the case of wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by wireless such as High Data Rate, NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, and terrestrial digital network.
 (付記事項2)
 以上のように、本発明に係る復号装置は、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報と共に符号化して得られた符号化データを復号し、符号化データから復号した予測残差に、予測単位毎に生成された予測画像を加算することによって復号画像を生成する復号装置であって、上記符号と上記符号が指定する予測モードとの間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードを特定する予測モード特定手段と、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定する予測モード群特定手段と、予測パラメータを選択する予測パラメータ選択手段であって、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合、第1の予測モード群に対応する1以上の予測パラメータよりなる第1の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応する予測パラメータを選択し、上記予測モード群特定手段が特定した予測モード群が第2の予測モード群である場合、第2の予測モード群に対応する予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応した予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、を備えていることを特徴としている。
(Appendix 2)
As described above, the decoding apparatus according to the present invention has the prediction mode designation information for designating the elements of the prediction mode set including the elements of the first prediction mode group and the elements of the second prediction mode group by a single code. A decoding device for generating a decoded image by decoding encoded data obtained by encoding together with a prediction image generated for each prediction unit to a prediction residual decoded from the encoded data, Prediction mode specifying means for specifying a prediction mode specified by the prediction mode specification information from the code according to a predetermined correspondence between the code and a prediction mode specified by the code; The prediction mode to which the prediction mode specified by the prediction mode specification information belongs from the code according to a predetermined correspondence relationship with the prediction mode group to which the specified prediction mode belongs A prediction mode group specifying means for specifying a group of commands and a prediction parameter selection means for selecting a prediction parameter, wherein the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group, The prediction mode corresponding to the prediction mode specified by the prediction mode specifying unit is selected from the first prediction parameter group including one or more prediction parameters corresponding to the prediction mode group, and the prediction mode group specifying unit specifies When the prediction mode group is the second prediction mode group, the prediction mode specifying unit specifies the second prediction parameter group including one or more predetermined prediction parameters corresponding to the second prediction mode group. A prediction parameter selection means for selecting a prediction parameter corresponding to the prediction mode, and a prediction parameter selected by the prediction parameter selection means. Is characterized in that it comprises a, the predicted image generating means for generating the predicted image Te.
 上記のように構成された復号装置が復号する符号化データに含まれる上記予測モード指定情報は、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定するものである。また、上記復号装置の備える予測モード群特定手段は、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定するものである。したがって、上記のように構成された復号装置が復号する符号化データには、予測画像を生成する際に参照する予測モードが、上記第1の予測モード群、および、上記第2の予測モード群のうち、何れの予測モード群に属するものであるかを指定するための符号が不要である。 The prediction mode designation information included in the encoded data decoded by the decoding apparatus configured as described above includes elements of a prediction mode set including elements of the first prediction mode group and elements of the second prediction mode group. Is specified by a single code. In addition, the prediction mode group specifying unit included in the decoding device has the prediction mode designation information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode designated by the code belongs. A prediction mode group to which the designated prediction mode belongs is specified. Therefore, in the encoded data decoded by the decoding apparatus configured as described above, the prediction modes to be referred to when generating a prediction image are the first prediction mode group and the second prediction mode group. Of these, a code for designating which prediction mode group belongs is not necessary.
 したがって、上記のように構成された復号装置が参照する符号化データは、上記第1の予測モード群に属する予測パラメータ、および、上記第2の予測モード群に属する予測パラメータを選択的に用いて予測画像を生成することにより、予測画像の予測精度を向上させつつ、予測画像を生成する際に参照する予測モードが何れの予測モード群に属するものであるかを指定するための符号を必要とする構成に比べて、符号化データの符号量の削減を図ることができる。 Therefore, the encoded data referred to by the decoding apparatus configured as described above selectively uses the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group. Generating a prediction image requires a code for designating which prediction mode group the prediction mode to be referred to when generating the prediction image belongs while improving the prediction accuracy of the prediction image Compared with the structure to perform, reduction of the code amount of coding data can be aimed at.
 なお、上記予測単位は、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。 Note that the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
 また、本発明に係る復号装置においては、上記単一の符号は、第1の指定情報と第2の指定情報から構成され、上記予測モード特定手段は、第1の指定情報が、対象予測単位の周辺の予測単位に割り付けられた予測モードに基づいて推定される推定予測モードと、当該対象予測単位に割り付けられる対象予測モードとが同じであることを示す場合には上記推定予測モードを選択し、上記推定予測モードと上記対象予測モードが異なる場合には、さらに第2の指定情報をさらに復号し、上記推定予測モード及び第2の指定情報を用いて予測モードを選択することが好ましい。 In the decoding device according to the present invention, the single code is composed of first designation information and second designation information, and the prediction mode specifying unit is configured such that the first designation information is a target prediction unit. When the estimated prediction mode estimated based on the prediction mode assigned to the surrounding prediction units is the same as the target prediction mode assigned to the target prediction unit, the estimated prediction mode is selected. When the estimated prediction mode and the target prediction mode are different, it is preferable to further decode the second designation information and select a prediction mode using the estimated prediction mode and the second designation information.
 上記の構成によれば、第1の指定情報が、対象予測単位の周辺の予測単位に割り付けられた予測モードに基づいて推定される推定予測モードと、当該対象予測単位に割り付けられる対象予測モードとが同じであることを示す場合には上記推定予測モードを選択し、上記推定予測モードと上記対象予測モードが異なる場合には、さらに第2の指定情報をさらに復号し、上記推定予測モード及び第2の指定情報を用いて予測モードを選択するので、上記単一の符号の符号量が削減され、符号化効率が向上する。 According to said structure, the 1st designation | designated information is estimated based on the prediction mode allocated to the prediction unit of the circumference | surroundings of a target prediction unit, The target prediction mode allocated to the said target prediction unit, If the estimated prediction mode is different from the target prediction mode, the second designation information is further decoded, and the estimated prediction mode and the first prediction mode are selected. Since the prediction mode is selected using the designation information 2, the code amount of the single code is reduced, and the coding efficiency is improved.
 また、本発明に係る復号装置においては、上記第1の予測パラメータの数は1よりも大きく、上記予測パラメータ選択手段は、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合には、上記単一の符号とは異なる第2の符号を復号し、上記第1の予測パラメータ群から、上記第2の符号に対応する予測パラメータを選択することが好ましい。 In the decoding apparatus according to the present invention, the number of the first prediction parameters is greater than 1, and the prediction parameter selection unit is configured such that the prediction mode group specified by the prediction mode group specifying unit is the first prediction mode. In the case of a group, it is preferable to decode a second code different from the single code and select a prediction parameter corresponding to the second code from the first prediction parameter group.
 上記の構成によれば、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合には、上記単一の符号とは異なる第2の符号を復号し、上記第1の予測パラメータ群から、上記第2の符号に対応する予測パラメータを選択するので、予測パラメータの復号を適切に行うことができる。 According to the above configuration, when the prediction mode group specified by the prediction mode group specifying unit is the first prediction mode group, the second code different from the single code is decoded, and the first code Since the prediction parameter corresponding to the second code is selected from one prediction parameter group, the prediction parameter can be appropriately decoded.
 また、本発明に係る復号装置においては、上記第1の予測パラメータ群は、処理対象の予測単位である対象予測単位の周辺に位置する復号済みの画素値を参照して導出される予測方向を示す予測パラメータを含み、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成することが好ましい。 In the decoding device according to the present invention, the first prediction parameter group includes a prediction direction derived by referring to a decoded pixel value located around a target prediction unit that is a processing target prediction unit. The predicted image generation means includes a decoded pixel value positioned around the target prediction unit along the direction indicated by the prediction parameter when the prediction parameter selection means selects the prediction parameter. It is preferable to generate a prediction image for the target prediction unit by extrapolating or interpolating.
 上記の構成によれば、上記第1の予測パラメータ群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画素値を参照して導出される予測方向を示す予測パラメータが含まれる。 According to the above configuration, the first prediction parameter group includes a prediction parameter indicating a prediction direction derived with reference to a decoded pixel value located around the target prediction unit that is a prediction unit to be processed. included.
 また、上記の構成によれば、上記予測画像生成手段は、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する。 Further, according to the above configuration, the prediction image generation unit, the prediction image generation unit, when the prediction parameter selection unit selects the prediction parameter, the target prediction unit along the direction indicated by the prediction parameter. A predicted image for the target prediction unit is generated by extrapolating or interpolating the decoded pixel values located in the vicinity of.
 一般に、対象予測単位の周辺における復号済み画像における画像の方向性は、当該対象予測単位における予測対象画像の方向性と高い相関を有するという傾向がある。したがって、上記の構成によれば、対象予測単位の周辺に位置する復号済み画素値を参照して導出される予測方向を示す予測パラメータを用いることにより、対象予測単位についての、予測精度の高い予測画像を生成することができる。 Generally, the directionality of the image in the decoded image around the target prediction unit tends to have a high correlation with the directionality of the prediction target image in the target prediction unit. Therefore, according to the above configuration, by using the prediction parameter indicating the prediction direction derived by referring to the decoded pixel values located around the target prediction unit, prediction with high prediction accuracy for the target prediction unit is performed. An image can be generated.
 また、本発明に係る復号装置においては、上記第1の予測パラメータ群は、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像を参照して導出される予測方向を示す予測パラメータと、上記予測方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータとを含み、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する、ことが好ましい。 In the decoding device according to the present invention, the first prediction parameter group includes a prediction direction indicating a prediction direction derived with reference to a decoded image located around a target prediction unit that is a prediction unit to be processed. A prediction parameter indicating a prediction direction obtained by adding one or a plurality of correction directions to the prediction direction, and the prediction image generation unit selects the prediction parameter by the prediction parameter selection unit. In this case, it is preferable to generate a prediction image for the target prediction unit by extrapolating or interpolating decoded pixel values located around the target prediction unit along the direction indicated by the prediction parameter. .
 上記の構成によれば、上記第1の予測パラメータ群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像を参照して導出される予測方向を示す予測パラメータと、上記予測方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータとが含まれる。 According to the above configuration, the first prediction parameter group includes a prediction parameter indicating a prediction direction derived by referring to a decoded image located around the target prediction unit that is a processing target prediction unit; A prediction parameter indicating a prediction direction obtained by adding one or a plurality of correction directions to the prediction direction.
 また、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する。 In addition, when the prediction parameter selection unit selects the prediction parameter, the prediction image generation unit extrapolates or decodes a decoded pixel value located around the target prediction unit along the direction indicated by the prediction parameter. A prediction image for the target prediction unit is generated by interpolation.
 ここで、上記補正方向は、符号化データを生成する符号化装置において、対象予測単位の周辺に位置する復号済み画像を参照して導出される予測方向のみを用いるよりも予測画像の予測精度が高まるように選択される。 Here, the correction direction is more accurate in predicting the predicted image than in using only the predicted direction derived with reference to the decoded image located around the target prediction unit in the encoding device that generates encoded data. Selected to increase.
 したがって、上記の構成によれば、上記第1の予測パラメータ群に、上記予測方向を示す予測パラメータのみが含まれる構成に比べて、予測画像の予測精度をより高めることができる。 Therefore, according to the above configuration, it is possible to further improve the prediction accuracy of the predicted image as compared with the configuration in which the first prediction parameter group includes only the prediction parameter indicating the prediction direction.
 また、1または複数の補正方向の何れかを指定するための符号を符号化しておく必要のある構成に比べて、符号化データの構成、および、復号処理が簡単になる。 Also, compared to a configuration in which a code for designating one or a plurality of correction directions needs to be encoded, the configuration of encoded data and the decoding process are simplified.
 また、本発明に係る復号装置は、上記符号化データが算術符号化されたものであるか否かを識別する符号化方式識別手段を更に備え、上記予測パラメータ選択手段は、上記符号化データが算術符号化されたものでない場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択する、ことが好ましい。 The decoding apparatus according to the present invention further comprises an encoding scheme identifying means for identifying whether or not the encoded data is arithmetically encoded, and the prediction parameter selecting means includes the encoded data It is preferable to select a prediction parameter in accordance with the prediction mode specified by the prediction mode specifying unit and the prediction mode group specified by the prediction mode group specifying unit only when it is not arithmetically encoded.
 本発明に係る復号装置によれば、上記符号化データが非算術符号化されたものである場合に、上記符号化データの符号量の削減効果が大きくなるという傾向がある。 According to the decoding apparatus according to the present invention, when the encoded data is non-arithmetic encoded, the effect of reducing the code amount of the encoded data tends to increase.
 したがって、上記のように、上記符号化データが算術符号化されたものであるか否かを識別する符号化方式識別手段を更に備え、上記予測パラメータ選択手段が、対象予測単位についての予測モード指定情報が算術符号化されたものでない場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択することによっても、十分な符号量の削減を図ることができる。 Therefore, as described above, it further includes an encoding scheme identifying means for identifying whether or not the encoded data is arithmetically encoded, and the prediction parameter selecting means specifies the prediction mode for the target prediction unit. Only when the information is not arithmetically encoded, it is sufficient to select the prediction mode specified by the prediction mode specifying unit and the prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying unit. The amount of code can be reduced.
 また、本発明に係る復号装置においては、上記予測パラメータ選択手段は、上記符号化データに含まれる所定のフラグが所定の値である場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択する、ことが好ましい。 In the decoding apparatus according to the present invention, the prediction parameter selection unit includes the prediction mode specified by the prediction mode specifying unit and the prediction mode only when the predetermined flag included in the encoded data has a predetermined value. It is preferable to select a prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying means.
 上記の構成によれば、上記符号化データが、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報を含んでいるのか否かを、上記所定のフラグによって指定し、上記復号装置は、上記所定のフラグが所定の値である場合に、上記単一の符号を参照して、復号処理を行うことができる。 According to said structure, the said encoding data designates the prediction mode designation | designated information which designates the element of the prediction mode set which consists of the element of a 1st prediction mode group, and the element of a 2nd prediction mode group by a single code | symbol. The decoding apparatus performs a decoding process with reference to the single code when the predetermined flag has a predetermined value. Can do.
 したがって、上記の構成によれば、上記単一の符号を参照する復号処理を行うのか、上記単一の符号とは異なる符号を参照する復号処理を行うのかを選択的に切り替えることができる。 Therefore, according to the above configuration, it is possible to selectively switch between performing the decoding process referring to the single code or performing the decoding process referring to a code different from the single code.
 また、本発明に係る符号化装置は、原画像と予測単位毎に生成された予測画像との残差データを符号化することによって符号化データを生成する符号化装置であって、予測パラメータを選択する予測パラメータ選択手段であって、1以上の予測パラメータよりなる第1の予測パラメータ群、または、予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、上記予測パラメータ選択手段が選択した予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を符号化する予測モード指定情報符号化手段と、を備え、上記単一の符号は、上記第1の予測パラメータ群に対応する予測モードよりなる第1の予測モード群の要素と上記第2の予測パラメータ群の各要素に対応する予測モードよりなる第2の予測モード群の要素とからなる予測モードセットの要素を互いに識別するものである、ことを特徴としている。 An encoding apparatus according to the present invention is an encoding apparatus that generates encoded data by encoding residual data between an original image and a predicted image generated for each prediction unit, and includes a prediction parameter. Prediction parameter selection means for selecting a prediction parameter for selecting a prediction parameter from a first prediction parameter group consisting of one or more prediction parameters or a second prediction parameter group consisting of one or more predetermined prediction parameters The parameter selection means, the prediction image generation means for generating the prediction image according to the prediction parameter selected by the prediction parameter selection means, and the prediction mode corresponding to the prediction parameter selected by the prediction parameter selection means by a single code Prediction mode specification information encoding means for encoding the prediction mode specification information to be specified, and the single code Are elements of a first prediction mode group consisting of prediction modes corresponding to the first prediction parameter group and elements of a second prediction mode group consisting of prediction modes corresponding to each element of the second prediction parameter group It is characterized in that the elements of the prediction mode set consisting of
 上記のように構成された本発明に係る符号化装置によれば、上記第1の予測モード群に属する予測パラメータ、および、上記第2の予測モード群に属する予測パラメータを選択的に用いて予測画像を生成することにより、予測画像の予測精度を向上させることができる。また、選択した予測パラメータに対応する予測モードを単一の符号により指定しているので、符号量の少ない符号化データを生成することができる。 According to the coding apparatus according to the present invention configured as described above, prediction is performed by selectively using the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group. By generating an image, the prediction accuracy of the predicted image can be improved. In addition, since the prediction mode corresponding to the selected prediction parameter is specified by a single code, encoded data with a small code amount can be generated.
 なお、上記予測単位とは、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。 Note that the prediction unit may be a PU (Prediction Unit) described in the embodiment or a partition obtained by dividing the PU.
 また、以下の符号化データのデータ構造も本発明の範疇に含まれる。 The following encoded data structure is also included in the scope of the present invention.
 原画像と予測単位毎に生成された予測画像との残差データを符号化することによって生成された符号化データのデータ構造において、予測画像を生成するために復号装置が選択すべき予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を含み、上記単一の符号は、1以上の予測パラメータに対応する予測モードよりなる第1の予測モード群の要素と、予め定められた予測パラメータの各々に対応する予測モードよりなる第2の予測モード群の要素とからなる予測パラメータセットの要素を互いに識別するものである、ことを特徴とする符号化データのデータ構造。 In a data structure of encoded data generated by encoding residual data between an original image and a predicted image generated for each prediction unit, a prediction parameter to be selected by the decoding device to generate a predicted image is set. Prediction mode designation information that designates a corresponding prediction mode by a single code, and the single code is determined in advance as an element of a first prediction mode group consisting of prediction modes corresponding to one or more prediction parameters. A data structure of encoded data, characterized in that elements of a prediction parameter set comprising elements of a second prediction mode group consisting of a prediction mode corresponding to each of the predicted parameters are identified from each other.
 上記の構成において、上記第1の予測モード群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像の画素値を参照して導出される予測方向を示す予測パラメータに対応する予測モードが含まれている、ことを特徴とする符号化データのデータ構造。 In the above configuration, the first prediction mode group includes a prediction parameter indicating a prediction direction derived by referring to a pixel value of a decoded image located around a target prediction unit that is a processing target prediction unit. A data structure of encoded data, characterized in that a corresponding prediction mode is included.
 上記の構成において、上記第1の予測モード群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像の画素値を参照して導出される予測方向を示す予測パラメータに対応する予測モードと、上記予測方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータに対応する予測モードとが含まれている、ことを特徴とする符号化データのデータ構造。 In the above configuration, the first prediction mode group includes a prediction parameter indicating a prediction direction derived by referring to a pixel value of a decoded image located around a target prediction unit that is a processing target prediction unit. An encoding comprising: a corresponding prediction mode; and a prediction mode corresponding to a prediction parameter indicating a prediction direction obtained by adding one or a plurality of correction directions to the prediction direction. The data structure of the data.
 上記の構成において、上記符号化データには、対象予測単位の周辺の予測単位に割り付けられた予測モードに基づいて推定される推定予測モードと、当該対象予測単位に割り付けられる予測モードとが同じであるか否かを示す第1の指定情報を含んでおり、上記推定予測モードと、上記対象予測単位に割り付けられる予測モードとが異なる場合には、上記対象予測単位に割り付けられる予測モードを指定する第2の指定情報を更に含んでいる、ことを特徴とする符号化データのデータ構造。 In the above configuration, the encoded data has the same estimated prediction mode estimated based on the prediction mode assigned to the prediction units around the target prediction unit and the prediction mode assigned to the target prediction unit. 1st designation | designated information which shows whether it exists, and when the said estimation prediction mode and the prediction mode allocated to the said object prediction unit differ, the prediction mode allocated to the said object prediction unit is designated. A data structure of encoded data, further comprising second designation information.
 (付記事項3)
 以上のように、本明細書には、原画像と、予測単位毎に生成された予測画像との残差データを、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報と共に符号化して得られた符号化データを復号する復号装置であって、上記符号と上記符号が指定する予測モードとの間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードを特定する予測モード特定手段と、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定する予測モード群特定手段と、予測パラメータを選択する予測パラメータ選択手段であって、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合、復号画像を参照して導出する1以上の予測パラメータよりなる第1の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応する予測パラメータを選択し、上記予測モード群特定手段が特定した予測モード群が第2の予測モード群である場合、予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応した予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、を備えていることを特徴とする復号装置が記載されている。
(Appendix 3)
As described above, in this specification, residual data between an original image and a predicted image generated for each prediction unit is obtained from the elements of the first prediction mode group and the elements of the second prediction mode group. A decoding apparatus for decoding encoded data obtained by encoding together with prediction mode specifying information specifying elements of a prediction mode set by a single code, between the code and the prediction mode specified by the code Between the prediction mode specifying means for specifying the prediction mode specified by the prediction mode specification information from the code and the prediction mode group to which the prediction mode specified by the code belongs. A prediction mode group specifying means for specifying a prediction mode group to which the prediction mode specified by the prediction mode specification information belongs from the code and a prediction parameter are selected according to a predetermined correspondence. When the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group, a first parameter including one or more prediction parameters derived with reference to the decoded image is selected. When a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying unit is selected from the prediction parameter group, and the prediction mode group specified by the prediction mode group specifying unit is the second prediction mode group, it is determined in advance. A prediction parameter selection means for selecting a prediction parameter corresponding to the prediction mode specified by the prediction mode specification means from the second prediction parameter group consisting of one or more prediction parameters, and a prediction parameter selected by the prediction parameter selection means. And a prediction image generating means for generating the prediction image according to the above description. It has been.
 上記のように構成された復号装置が復号する符号化データに含まれる上記予測モード指定情報は、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定するものである。また、上記復号装置の備える予測モード群特定手段は、上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定するものである。したがって、上記のように構成された復号装置が復号する符号化データには、予測画像を生成する際に参照する予測モードが、上記第1の予測モード群、および、上記第2の予測モード群のうち、何れの予測モード群に属するものであるかを指定するための符号が不要である。 The prediction mode designation information included in the encoded data decoded by the decoding apparatus configured as described above includes elements of a prediction mode set including elements of the first prediction mode group and elements of the second prediction mode group. Is specified by a single code. In addition, the prediction mode group specifying unit included in the decoding device has the prediction mode designation information from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode designated by the code belongs. A prediction mode group to which the designated prediction mode belongs is specified. Therefore, in the encoded data decoded by the decoding apparatus configured as described above, the prediction modes to be referred to when generating a prediction image are the first prediction mode group and the second prediction mode group. Of these, a code for designating which prediction mode group belongs is not necessary.
 したがって、上記のように構成された復号装置が参照する符号化データは、上記第1の予測モード群に属する予測パラメータ、および、上記第2の予測モード群に属する予測パラメータを選択的に用いて予測画像を生成することにより、予測画像の予測精度を向上させつつ、予測画像を生成する際に参照する予測モードが何れの予測モード群に属するものであるかを指定するための符号を必要とする構成に比べて、符号化データの符号量の削減を図ることができる。 Therefore, the encoded data referred to by the decoding apparatus configured as described above selectively uses the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group. Generating a prediction image requires a code for designating which prediction mode group the prediction mode to be referred to when generating the prediction image belongs while improving the prediction accuracy of the prediction image Compared with the structure to perform, reduction of the code amount of coding data can be aimed at.
 なお、上記予測単位は、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。 Note that the prediction unit may be a PU (Prediction Unit) described in the embodiment, or may be a partition obtained by dividing the PU.
 また、本発明に係る復号装置においては、上記第1の予測パラメータ群は、処理対象の予測単位である対象予測単位の周辺に位置する復号済みの画素値を参照して導出される予測方向を示す予測パラメータを含み、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する、ことが好ましい。 In the decoding device according to the present invention, the first prediction parameter group includes a prediction direction derived by referring to a decoded pixel value located around a target prediction unit that is a processing target prediction unit. The predicted image generation means includes a decoded pixel value positioned around the target prediction unit along the direction indicated by the prediction parameter when the prediction parameter selection means selects the prediction parameter. It is preferable to generate a prediction image for the target prediction unit by extrapolating or interpolating.
 上記の構成によれば、上記第1の予測パラメータ群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画素値を参照して導出される予測方向を示す予測パラメータが含まれる。 According to the above configuration, the first prediction parameter group includes a prediction parameter indicating a prediction direction derived with reference to a decoded pixel value located around the target prediction unit that is a prediction unit to be processed. included.
 また、上記の構成によれば、上記予測画像生成手段は、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する。 Further, according to the above configuration, the prediction image generation unit, the prediction image generation unit, when the prediction parameter selection unit selects the prediction parameter, the target prediction unit along the direction indicated by the prediction parameter. A predicted image for the target prediction unit is generated by extrapolating or interpolating the decoded pixel values located in the vicinity of.
 一般に、対象予測単位の周辺における復号済み画像における画像の方向性は、当該対象予測単位における予測対象画像の方向性と高い相関を有するという傾向がある。したがって、上記の構成によれば、対象予測単位の周辺に位置する復号済み画素値を参照して導出される予測方向を示す予測パラメータを用いることにより、対象予測単位についての、予測精度の高い予測画像を生成することができる。 Generally, the directionality of the image in the decoded image around the target prediction unit tends to have a high correlation with the directionality of the prediction target image in the target prediction unit. Therefore, according to the above configuration, by using the prediction parameter indicating the prediction direction derived by referring to the decoded pixel values located around the target prediction unit, prediction with high prediction accuracy for the target prediction unit is performed. An image can be generated.
 また、本発明に係る復号装置においては、上記第1の予測パラメータ群は、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像のエッジ方向を示す予測パラメータを含み、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する、ことが好ましい。 In the decoding device according to the present invention, the first prediction parameter group includes a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a processing target prediction unit, and the prediction parameter The image generation means extrapolates or interpolates decoded pixel values located around the target prediction unit along the direction indicated by the prediction parameter when the prediction parameter selection means selects the prediction parameter. It is preferable to generate a prediction image for the target prediction unit by the above.
 上記の構成によれば、上記第1の予測パラメータ群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像のエッジ方向を示す予測パラメータが含まれる。 According to the above configuration, the first prediction parameter group includes the prediction parameter indicating the edge direction of the decoded image located around the target prediction unit that is the processing target prediction unit.
 また、上記の構成によれば、上記予測画像生成手段は、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する。 Further, according to the above configuration, the prediction image generation unit, the prediction image generation unit, when the prediction parameter selection unit selects the prediction parameter, the target prediction unit along the direction indicated by the prediction parameter. A predicted image for the target prediction unit is generated by extrapolating or interpolating the decoded pixel values located in the vicinity of.
 一般に、対象予測単位の周辺における復号済み画像にエッジが存在する場合、当該エッジの方向は、対象予測単位における予測対象画像におけるエッジの方向、若しくは、予測対象画像の方向性と高い相関を有するという傾向がある。したがって、上記の構成によれば、上記エッジ方向を示す予測パラメータを用いることにより、対象予測単位についての、予測精度の高い予測画像を生成することができる。 In general, when an edge exists in a decoded image around the target prediction unit, the direction of the edge is highly correlated with the direction of the edge in the prediction target image in the target prediction unit or the directionality of the prediction target image. Tend. Therefore, according to the above configuration, a prediction image with high prediction accuracy can be generated for the target prediction unit by using the prediction parameter indicating the edge direction.
 また、本発明に係る復号装置においては、上記第1の予測パラメータ群は、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像のエッジ方向を示す予測パラメータと、上記エッジ方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータとを含み、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する、ことが好ましい。 In the decoding device according to the present invention, the first prediction parameter group includes a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a prediction unit to be processed, and the edge direction. A prediction parameter indicating a prediction direction obtained by adding any one or a plurality of correction directions to the prediction image generation unit, when the prediction parameter selection unit selects the prediction parameter, the prediction parameter generation unit It is preferable to generate a prediction image for the target prediction unit by extrapolating or interpolating decoded pixel values located around the target prediction unit along the direction indicated by.
 上記の構成によれば、上記第1の予測パラメータ群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像のエッジ方向を示す予測パラメータと、上記エッジ方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータとが含まれる。 According to the above configuration, the first prediction parameter group includes the prediction parameter indicating the edge direction of the decoded image located around the target prediction unit that is the prediction unit to be processed, and 1 or 1 in the edge direction. And a prediction parameter indicating a prediction direction obtained by adding any of a plurality of correction directions.
 また、上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する。 In addition, when the prediction parameter selection unit selects the prediction parameter, the prediction image generation unit extrapolates or decodes a decoded pixel value located around the target prediction unit along the direction indicated by the prediction parameter. A prediction image for the target prediction unit is generated by interpolation.
 ここで、上記補正方向は、符号化データを生成する符号化装置において、エッジ方向のみを用いるよりも予測画像の予測精度が高まるように選択される。 Here, the correction direction is selected so that the prediction accuracy of the prediction image is higher than that in the case of using only the edge direction in the encoding device that generates the encoded data.
 したがって、上記の構成によれば、上記第1の予測パラメータ群に、上記エッジ方向を示す予測パラメータのみが含まれる構成に比べて、予測画像の予測精度をより高めることができる。 Therefore, according to the above configuration, it is possible to further improve the prediction accuracy of the predicted image as compared with the configuration in which the first prediction parameter group includes only the prediction parameter indicating the edge direction.
 また、1または複数の補正方向の何れかを指定するための符号を符号化しておく必要のある構成に比べて、符号化データの構成、および、復号処理が簡単になる。 Also, compared to a configuration in which a code for designating one or a plurality of correction directions needs to be encoded, the configuration of encoded data and the decoding process are simplified.
 また、本発明に係る復号装置は、上記予測モード指定情報が算術符号化されたものであるか否かを識別する符号化方式識別手段を更に備え、上記予測パラメータ選択手段は、対象予測単位についての予測モード指定情報が算術符号化されたものでない場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択する、ことが好ましい。 The decoding apparatus according to the present invention further includes an encoding scheme identifying means for identifying whether or not the prediction mode designation information is arithmetically encoded, and the prediction parameter selecting means includes the target prediction unit. Only when the prediction mode designation information is not arithmetically encoded, the prediction mode specified by the prediction mode specifying unit and the prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying unit are selected. It is preferable.
 本発明に係る復号装置によれば、上記予測モード指定情報が非算術符号化されたものである場合に、上記符号化データの符号量の削減効果が大きくなるという傾向がある。 According to the decoding apparatus according to the present invention, when the prediction mode designation information is non-arithmetic encoded, the effect of reducing the code amount of the encoded data tends to increase.
 したがって、上記のように、上記予測モード指定情報が算術符号化されたものであるか否かを識別する符号化方式識別手段を更に備え、上記予測パラメータ選択手段が、対象予測単位についての予測モード指定情報が算術符号化されたものでない場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択することによっても、十分な符号量の削減を図ることができる。 Therefore, as described above, the encoding mode identifying means for identifying whether or not the prediction mode designation information is arithmetically encoded is further provided, and the prediction parameter selection means includes the prediction mode for the target prediction unit. Only when the designation information is not arithmetically encoded, by selecting the prediction mode specified by the prediction mode specifying means and the prediction parameter according to the prediction mode group specified by the prediction mode group specifying means, A sufficient amount of code can be reduced.
 また、本発明に係る復号装置においては、上記予測パラメータ選択手段は、上記符号化データに含まれる所定のフラグが所定の値である場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択する、ことが好ましい。 In the decoding apparatus according to the present invention, the prediction parameter selection unit includes the prediction mode specified by the prediction mode specifying unit and the prediction mode only when the predetermined flag included in the encoded data has a predetermined value. It is preferable to select a prediction parameter corresponding to the prediction mode group specified by the prediction mode group specifying means.
 上記の構成によれば、上記符号化データが、第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報を含んでいるのか否かを、上記所定のフラグによって指定し、上記復号装置は、上記所定のフラグが所定の値である場合に、上記単一の符号を参照して、復号処理を行うことができる。 According to said structure, the said encoding data designates the prediction mode designation | designated information which designates the element of the prediction mode set which consists of the element of a 1st prediction mode group, and the element of a 2nd prediction mode group by a single code | symbol. The decoding apparatus performs a decoding process with reference to the single code when the predetermined flag has a predetermined value. Can do.
 したがって、上記の構成によれば、上記単一の符号を参照する復号処理を行うのか、上記単一の符号とは異なる符号を参照する復号処理を行うのかを選択的に切り替えることができる。 Therefore, according to the above configuration, it is possible to selectively switch between performing the decoding process referring to the single code or performing the decoding process referring to a code different from the single code.
 また、本発明に係る符号化装置は、原画像と予測単位毎に生成された予測画像との残差データを符号化することによって符号化データを生成する符号化装置であって、予測パラメータを選択する予測パラメータ選択手段であって、局所復号画像を参照して導出した1以上の予測パラメータよりなる第1の予測パラメータ群、または、予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から予測パラメータを選択する予測パラメータ選択手段と、予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、上記予測パラメータ選択手段が選択した予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を符号化する予測モード指定情報符号化手段と、を備え、上記単一の符号は、上記第1の予測パラメータ群の各要素に対応する予測モードよりなる第1の予測モード群の要素と上記第2の予測パラメータ群の各要素に対応する予測モードよりなる第2の予測モード群の要素とからなる予測モードセットの要素を互いに識別するものである、ことを特徴としている。 An encoding apparatus according to the present invention is an encoding apparatus that generates encoded data by encoding residual data between an original image and a predicted image generated for each prediction unit, and includes a prediction parameter. A first prediction parameter group comprising one or more prediction parameters derived by referring to a locally decoded image, or a second prediction comprising one or more predetermined prediction parameters. Corresponding to a prediction parameter selection unit that selects a prediction parameter from a parameter group, a prediction image generation unit that generates the prediction image according to the prediction parameter selected by the prediction parameter selection unit, and a prediction parameter selected by the prediction parameter selection unit Prediction mode designation information code that encodes prediction mode designation information that designates the prediction mode to be performed by a single code And the single code is assigned to each element of the first prediction mode group consisting of prediction modes corresponding to each element of the first prediction parameter group and each element of the second prediction parameter group. It is characterized in that the elements of the prediction mode set including the elements of the second prediction mode group consisting of the corresponding prediction modes are distinguished from each other.
 上記のように構成された本発明に係る符号化装置によれば、上記第1の予測モード群に属する予測パラメータ、および、上記第2の予測モード群に属する予測パラメータを選択的に用いて予測画像を生成することにより、予測画像の予測精度を向上させることができる。また、選択した予測パラメータに対応する予測モードを単一の符号により指定しているので、符号量の少ない符号化データを生成することができる。 According to the coding apparatus according to the present invention configured as described above, prediction is performed by selectively using the prediction parameter belonging to the first prediction mode group and the prediction parameter belonging to the second prediction mode group. By generating an image, the prediction accuracy of the predicted image can be improved. In addition, since the prediction mode corresponding to the selected prediction parameter is specified by a single code, encoded data with a small code amount can be generated.
 なお、上記予測単位とは、実施形態において説明するPU(Prediction Unit)であってもよいし、PUを分割して得られるパーティションであってもよい。 Note that the prediction unit may be a PU (Prediction Unit) described in the embodiment or a partition obtained by dividing the PU.
 また、以下の符号化データのデータ構造も本発明の範疇に含まれる。 The following encoded data structure is also included in the scope of the present invention.
 原画像と予測単位毎に生成された予測画像との残差データを符号化することによって生成された符号化データのデータ構造において、予測画像を生成するために復号装置が選択すべき予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を含み、上記単一の符号は、符号化装置が局所復号画像を参照して導出する1以上の予測パラメータの各々に対応する予測モードよりなる第1の予測モード群の要素と、予め定められた予測パラメータの各々に対応する予測モードよりなる第2の予測モード群の要素とからなる予測パラメータセットの要素を互いに識別するものである、
ことを特徴とする符号化データのデータ構造。
In a data structure of encoded data generated by encoding residual data between an original image and a predicted image generated for each prediction unit, a prediction parameter to be selected by the decoding device to generate a predicted image is set. Prediction mode designation information for designating a corresponding prediction mode by a single code, and the single code is a prediction corresponding to each of one or more prediction parameters derived by the encoding device with reference to a locally decoded image The elements of the first prediction mode group consisting of the mode and the elements of the prediction parameter set consisting of the elements of the second prediction mode group consisting of the prediction mode corresponding to each of the predetermined prediction parameters are mutually identified. is there,
A data structure of encoded data characterized by the above.
 上記第1の予測モード群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像のエッジ方向を示す予測パラメータに対応する予測モードが含まれている、ことを特徴とする符号化データのデータ構造。 The first prediction mode group includes a prediction mode corresponding to a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a processing target prediction unit. Data structure of encoded data to be performed.
 上記第1の予測モード群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像のエッジ方向を示す予測パラメータに対応する予測モードと、上記エッジ方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータに対応する予測モードとが含まれている、ことを特徴とする符号化データのデータ構造。 The first prediction mode group includes a prediction mode corresponding to a prediction parameter indicating an edge direction of a decoded image located around a target prediction unit that is a prediction unit to be processed, and one or more in the edge direction. A data structure of encoded data, comprising: a prediction mode corresponding to a prediction parameter indicating a prediction direction obtained by adding any of the correction directions.
 上記符号化データには、対象予測単位の周辺の予測単位に割り付けられた予測モードに基づいて推定される推定予測モードと、当該対象予測単位に割り付けられる予測モードとが同じであるか否かを示す第1の指定情報を含んでおり、
 上記推定予測モードと、上記対象予測単位に割り付けられる予測モードとが異なる場合には、上記対象予測単位に割り付けられる予測モードを指定する第2の指定情報を更に含んでいる、ことを特徴とする符号化データのデータ構造。
In the encoded data, whether or not the estimated prediction mode estimated based on the prediction mode assigned to the prediction unit around the target prediction unit and the prediction mode assigned to the target prediction unit are the same. Including first designation information to indicate,
When the estimated prediction mode is different from the prediction mode assigned to the target prediction unit, the prediction prediction mode further includes second designation information for designating a prediction mode assigned to the target prediction unit. Data structure of encoded data.
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
 本発明は、符号化データを復号する復号装置、および、符号化データを生成する符号化装置に好適に適用することができる。また、符号化装置によって生成され、復号装置によって参照される符号化データのデータ構造に好適に適用することができる。 The present invention can be suitably applied to a decoding device that decodes encoded data and an encoding device that generates encoded data. Further, the present invention can be suitably applied to the data structure of encoded data generated by the encoding device and referenced by the decoding device.
1      動画像復号装置(復号装置)
11     可変長符号復号部(予測モード特定手段)
12     予測画像生成部
12b    インター予測画像生成部
12c    イントラ予測画像生成部(予測モード群特定手段、予測パラメータ選択手段、予測画像生成手段)
15     フレームメモリ
2      動画像符号化装置(符号化装置)
21     予測画像生成部
21a    イントラ予測画像生成部
21c    インター予測画像生成部(予測パラメータ選択手段、予測画像生成手段)
25     フレームメモリ
27     可変長符号符号化部(予測モード指定情報符号化手段)
1 Video decoding device (decoding device)
11 Variable length code decoding unit (prediction mode specifying means)
12 Prediction image generation unit 12b Inter prediction image generation unit 12c Intra prediction image generation unit (prediction mode group specifying unit, prediction parameter selection unit, prediction image generation unit)
15 frame memory 2 video encoding device (encoding device)
21 prediction image generation unit 21a intra prediction image generation unit 21c inter prediction image generation unit (prediction parameter selection unit, prediction image generation unit)
25 Frame memory 27 Variable length code encoding unit (prediction mode designation information encoding means)

Claims (12)

  1.  第1の予測モード群の要素と第2の予測モード群の要素とからなる予測モードセットの要素を単一の符号によって指定する予測モード指定情報と共に符号化して得られた符号化データを復号し、符号化データから復号した予測残差に、予測単位毎に生成された予測画像を加算することによって復号画像を生成する復号装置であって、
     上記符号と上記符号が指定する予測モードとの間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードを特定する予測モード特定手段と、
     上記符号と上記符号が指定する予測モードが属する予測モード群との間の予め定められた対応関係に従って、上記符号から上記予測モード指定情報が指定する予測モードが属する予測モード群を特定する予測モード群特定手段と、
     予測パラメータを選択する予測パラメータ選択手段であって、
      上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合、第1の予測モード群に対応する1以上の予測パラメータよりなる第1の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応する予測パラメータを選択し、
      上記予測モード群特定手段が特定した予測モード群が第2の予測モード群である場合、第2の予測モード群に対応する予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から、上記予測モード特定手段が特定した予測モードに対応した予測パラメータを選択する予測パラメータ選択手段と、
     予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、を備えていることを特徴とする復号装置。
    Decoding encoded data obtained by encoding together with prediction mode designating information for designating elements of a prediction mode set composed of elements of the first prediction mode group and elements of the second prediction mode group by a single code A decoding device that generates a decoded image by adding a prediction image generated for each prediction unit to a prediction residual decoded from encoded data,
    Prediction mode specifying means for specifying the prediction mode specified by the prediction mode specification information from the code according to a predetermined correspondence between the code and the prediction mode specified by the code;
    A prediction mode for specifying a prediction mode group to which a prediction mode specified by the prediction mode specifying information belongs from the code according to a predetermined correspondence relationship between the code and a prediction mode group to which the prediction mode specified by the code belongs Group identification means;
    Prediction parameter selection means for selecting a prediction parameter,
    When the prediction mode group specified by the prediction mode group specifying means is the first prediction mode group, the prediction mode is selected from the first prediction parameter group including one or more prediction parameters corresponding to the first prediction mode group. Select the prediction parameter corresponding to the prediction mode specified by the specifying means,
    When the prediction mode group specified by the prediction mode group specifying means is the second prediction mode group, from the second prediction parameter group including one or more predetermined prediction parameters corresponding to the second prediction mode group A prediction parameter selection means for selecting a prediction parameter corresponding to the prediction mode specified by the prediction mode specifying means;
    A decoding apparatus comprising: predicted image generation means for generating the predicted image in accordance with the prediction parameter selected by the prediction parameter selection means.
  2.  上記単一の符号は、第1の指定情報と第2の指定情報から構成され、上記予測モード特定手段は、第1の指定情報が、対象予測単位の周辺の予測単位に割り付けられた予測モードに基づいて推定される推定予測モードと、当該対象予測単位に割り付けられる対象予測モードとが同じであることを示す場合には上記推定予測モードを選択し、上記推定予測モードと上記対象予測モードが異なる場合には、さらに第2の指定情報をさらに復号し、上記推定予測モード及び第2の指定情報を用いて予測モードを選択することを特徴とする請求項1に記載の復号装置。 The single code is composed of first designation information and second designation information, and the prediction mode specifying means includes a prediction mode in which the first designation information is assigned to a prediction unit around the target prediction unit. When the estimated prediction mode estimated based on the target prediction mode and the target prediction mode assigned to the target prediction unit are the same, the estimated prediction mode is selected, and the estimated prediction mode and the target prediction mode are 2. The decoding apparatus according to claim 1, wherein if different, the second designation information is further decoded, and the prediction mode is selected using the estimated prediction mode and the second designation information.
  3.  上記第1の予測パラメータの数は1よりも大きく、上記予測パラメータ選択手段は、上記予測モード群特定手段が特定した予測モード群が第1の予測モード群である場合には、上記単一の符号とは異なる第2の符号を復号し、上記第1の予測パラメータ群から、上記第2の符号に対応する予測パラメータを選択することを特徴とする請求項1または2に記載の復号装置。 The number of the first prediction parameters is greater than 1, and the prediction parameter selection unit is configured to use the single prediction mode group when the prediction mode group identified by the prediction mode group identification unit is the first prediction mode group. The decoding apparatus according to claim 1 or 2, wherein a second code different from the code is decoded, and a prediction parameter corresponding to the second code is selected from the first prediction parameter group.
  4.  上記第1の予測パラメータ群は、処理対象の予測単位である対象予測単位の周辺に位置する復号済みの画素値を参照して導出される予測方向を示す予測パラメータを含み、
     上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する、
    ことを特徴とする請求項1から3の何れか1項に記載の復号装置。
    The first prediction parameter group includes a prediction parameter indicating a prediction direction derived by referring to a decoded pixel value located around a target prediction unit that is a processing target prediction unit,
    When the prediction parameter selection unit selects the prediction parameter, the prediction image generation unit extrapolates or interpolates the decoded pixel values located around the target prediction unit along the direction indicated by the prediction parameter. To generate a prediction image for the target prediction unit,
    The decoding device according to any one of claims 1 to 3, wherein
  5.  上記第1の予測パラメータ群は、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像を参照して導出される予測方向を示す予測パラメータと、上記予測方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータとを含み、
     上記予測画像生成手段は、上記予測パラメータ選択手段が当該予測パラメータを選択した場合、当該予測パラメータの示す方向に沿って上記対象予測単位の周辺に位置する復号済みの画素値を外挿または内挿することにより上記対象予測単位についての予測画像を生成する、
    ことを特徴とする請求項3に記載の復号装置。
    The first prediction parameter group includes a prediction parameter indicating a prediction direction derived by referring to a decoded image located around a target prediction unit that is a processing target prediction unit, and one or a plurality of prediction directions in the prediction direction. A prediction parameter indicating a prediction direction obtained by adding any of the correction directions,
    When the prediction parameter selection unit selects the prediction parameter, the prediction image generation unit extrapolates or interpolates the decoded pixel values located around the target prediction unit along the direction indicated by the prediction parameter. To generate a prediction image for the target prediction unit,
    The decoding apparatus according to claim 3.
  6.  上記符号化データが算術符号化されたものであるか否かを識別する符号化方式識別手段を更に備え、
     上記予測パラメータ選択手段は、上記符号化データが算術符号化されたものでない場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択する、
    ことを特徴とする請求項1から5の何れか1項に記載の復号装置。
    Encoding means for identifying whether or not the encoded data is arithmetically encoded, further comprising:
    The prediction parameter selection means responds to the prediction mode specified by the prediction mode specifying means and the prediction mode group specified by the prediction mode group specifying means only when the encoded data is not arithmetically encoded. Select forecast parameters,
    The decoding device according to claim 1, wherein
  7.  上記予測パラメータ選択手段は、上記符号化データに含まれる所定のフラグが所定の値である場合に限って、上記予測モード特定手段が特定した予測モードおよび上記予測モード群特定手段が特定した予測モード群に応じた予測パラメータを選択する、
    ことを特徴とする請求項1から5の何れか1項に記載の復号装置。
    The prediction parameter selection means is the prediction mode specified by the prediction mode specifying means and the prediction mode specified by the prediction mode group specifying means only when a predetermined flag included in the encoded data has a predetermined value. Select prediction parameters according to the group,
    The decoding device according to claim 1, wherein
  8.  原画像と予測単位毎に生成された予測画像との残差データを符号化することによって符号化データを生成する符号化装置であって、
     予測パラメータを選択する予測パラメータ選択手段であって、1以上の予測パラメータよりなる第1の予測パラメータ群、または、予め定められた1以上の予測パラメータよりなる第2の予測パラメータ群から予測パラメータを選択する予測パラメータ選択手段と、
     予測パラメータ選択手段が選択した予測パラメータに応じて上記予測画像を生成する予測画像生成手段と、
     上記予測パラメータ選択手段が選択した予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を符号化する予測モード指定情報符号化手段と、を備え、
     上記単一の符号は、上記第1の予測パラメータ群に対応する予測モードよりなる第1の予測モード群の要素と上記第2の予測パラメータ群の各要素に対応する予測モードよりなる第2の予測モード群の要素とからなる予測モードセットの要素を互いに識別するものである、
    ことを特徴とする符号化装置。
    An encoding device that generates encoded data by encoding residual data between an original image and a predicted image generated for each prediction unit,
    Prediction parameter selection means for selecting a prediction parameter, wherein a prediction parameter is obtained from a first prediction parameter group consisting of one or more prediction parameters or a second prediction parameter group consisting of one or more predetermined prediction parameters. A prediction parameter selection means to select;
    A predicted image generating means for generating the predicted image according to the prediction parameter selected by the prediction parameter selecting means;
    Prediction mode designation information encoding means for encoding prediction mode designation information for designating a prediction mode corresponding to the prediction parameter selected by the prediction parameter selection means by a single code, and
    The single code includes a first prediction mode group element including a prediction mode corresponding to the first prediction parameter group and a second prediction mode corresponding to each element of the second prediction parameter group. The elements of the prediction mode set consisting of the elements of the prediction mode group are distinguished from each other.
    An encoding apparatus characterized by that.
  9.  原画像と予測単位毎に生成された予測画像との残差データを符号化することによって生成された符号化データのデータ構造において、
     予測画像を生成するために復号装置が選択すべき予測パラメータに対応する予測モードを単一の符号によって指定する予測モード指定情報を含み、
     上記単一の符号は、1以上の予測パラメータに対応する予測モードよりなる第1の予測モード群の要素と、予め定められた予測パラメータの各々に対応する予測モードよりなる第2の予測モード群の要素とからなる予測パラメータセットの要素を互いに識別するものである、
    ことを特徴とする符号化データのデータ構造。
    In the data structure of the encoded data generated by encoding the residual data between the original image and the predicted image generated for each prediction unit,
    Including prediction mode designation information that designates a prediction mode corresponding to a prediction parameter to be selected by the decoding device to generate a prediction image by a single code;
    The single code is an element of a first prediction mode group consisting of prediction modes corresponding to one or more prediction parameters, and a second prediction mode group consisting of prediction modes corresponding to each of the predetermined prediction parameters. The elements of the prediction parameter set consisting of
    A data structure of encoded data characterized by the above.
  10.  上記第1の予測モード群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像の画素値を参照して導出される予測方向を示す予測パラメータに対応する予測モードが含まれている、ことを特徴とする請求項9に記載の符号化データのデータ構造。 The first prediction mode group includes a prediction mode corresponding to a prediction parameter indicating a prediction direction derived by referring to a pixel value of a decoded image located around a target prediction unit that is a processing target prediction unit. The encoded data structure according to claim 9, wherein the encoded data structure is included.
  11.  上記第1の予測モード群には、処理対象の予測単位である対象予測単位の周辺に位置する復号済み画像の画素値を参照して導出される予測方向を示す予測パラメータに対応する予測モードと、上記予測方向に1または複数の補正方向の何れかを加えることによって得られる予測方向を示す予測パラメータに対応する予測モードとが含まれている、
    ことを特徴とする請求項9に記載の符号化データのデータ構造。
    The first prediction mode group includes a prediction mode corresponding to a prediction parameter indicating a prediction direction derived by referring to a pixel value of a decoded image located around a target prediction unit that is a processing target prediction unit; A prediction mode corresponding to a prediction parameter indicating a prediction direction obtained by adding any one or a plurality of correction directions to the prediction direction.
    The data structure of encoded data according to claim 9.
  12.  上記符号化データには、対象予測単位の周辺の予測単位に割り付けられた予測モードに基づいて推定される推定予測モードと、当該対象予測単位に割り付けられる予測モードとが同じであるか否かを示す第1の指定情報を含んでおり、
     上記推定予測モードと、上記対象予測単位に割り付けられる予測モードとが異なる場合には、上記対象予測単位に割り付けられる予測モードを指定する第2の指定情報を更に含んでいる、
    ことを特徴とする請求項9から11の何れか1項に記載の符号化データのデータ構造。
     
    In the encoded data, whether or not the estimated prediction mode estimated based on the prediction mode assigned to the prediction unit around the target prediction unit and the prediction mode assigned to the target prediction unit are the same. Including first designation information to indicate,
    In the case where the estimated prediction mode and the prediction mode assigned to the target prediction unit are different from each other, second prediction information that specifies the prediction mode assigned to the target prediction unit is further included.
    The data structure of encoded data according to any one of claims 9 to 11, wherein the data structure is encoded data.
PCT/JP2011/072280 2010-09-29 2011-09-28 Decoding device, encoding device, and data structure WO2012043676A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010219715 2010-09-29
JP2010-219715 2010-09-29

Publications (1)

Publication Number Publication Date
WO2012043676A1 true WO2012043676A1 (en) 2012-04-05

Family

ID=45893115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/072280 WO2012043676A1 (en) 2010-09-29 2011-09-28 Decoding device, encoding device, and data structure

Country Status (1)

Country Link
WO (1) WO2012043676A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111691A (en) * 2007-10-30 2009-05-21 Hitachi Ltd Image-encoding device and encoding method, and image-decoding device and decoding method
WO2009090884A1 (en) * 2008-01-18 2009-07-23 Panasonic Corporation Image encoding method and image decoding method
JP2010056701A (en) * 2008-08-27 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> Intra-image predictive encoding method, intra-image predictive decoding method, devices thereof, programs therefor, and recording medium recording the programs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111691A (en) * 2007-10-30 2009-05-21 Hitachi Ltd Image-encoding device and encoding method, and image-decoding device and decoding method
WO2009090884A1 (en) * 2008-01-18 2009-07-23 Panasonic Corporation Image encoding method and image decoding method
JP2010056701A (en) * 2008-08-27 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> Intra-image predictive encoding method, intra-image predictive decoding method, devices thereof, programs therefor, and recording medium recording the programs

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Test Model under Consideration, Output Document (draft000)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-B205, 2ND MEETING, July 2010 (2010-07-01), GENEVA, CH, pages 1 - 14,53-67,132-136 *
EHSAN MAANI ET AL.: "Differential Coding of Intra Modes (DCIM)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-B109, 2ND MEETING, July 2010 (2010-07-01), GENEVA, CH, pages 1 - 7 *
TOMOYUKI YAMAMOTO ET AL.: "Flexible Representation of Intra Prediction Modes", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-B063, 2ND MEETING, July 2010 (2010-07-01), GENEVA, CH, pages 1 - 7 *

Similar Documents

Publication Publication Date Title
US11627337B2 (en) Image decoding device
JP7200320B2 (en) Image filter device, filter method and moving image decoding device
US10547861B2 (en) Image decoding device
WO2017068856A1 (en) Predictive image generation device, image decoding device, and image encoding device
JP5551274B2 (en) Image filter device
WO2016203981A1 (en) Image decoding device and image encoding device
WO2012077719A1 (en) Image decoding device and image coding device
JP5995448B2 (en) Image decoding apparatus and image encoding apparatus
TW202133613A (en) (無)
WO2013046990A1 (en) Offset decoding apparatus, offset encoding apparatus, image filter apparatus, and data structure
TW202114417A (en) (無)
JP2013141094A (en) Image decoding device, image encoding device, image filter device, and data structure of encoded data
JP2013192118A (en) Arithmetic decoder, image decoder, arithmetic encoder, and image encoder
JP2013187869A (en) Arithmetic decoding device, arithmetic coding device, image decoding device, and image coding device
WO2012121352A1 (en) Video decoding device, video coding device, and data structure
JP2013187868A (en) Image decoding device, image encoding device, and data structure
WO2012090962A1 (en) Image decoding device, image encoding device, data structure of encoded data, arithmetic decoding device, and arithmetic encoding device
WO2012077795A1 (en) Image coding device, image decoding device, and data structure
JP6162289B2 (en) Image decoding apparatus and image decoding method
WO2012043676A1 (en) Decoding device, encoding device, and data structure
WO2012147947A1 (en) Image decoding apparatus and image encoding apparatus
WO2012081706A1 (en) Image filter device, filter device, decoder, encoder, and data structure
WO2012043766A1 (en) Image decoding device, image encoding device, and data structure for encoded data
JP2013251827A (en) Image filter device, image decoding device, image encoding device, and data structure
WO2012043678A1 (en) Image decoding device, image encoding device, and data structure

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11829229

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11829229

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP