WO2014097703A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2014097703A1
WO2014097703A1 PCT/JP2013/076039 JP2013076039W WO2014097703A1 WO 2014097703 A1 WO2014097703 A1 WO 2014097703A1 JP 2013076039 W JP2013076039 W JP 2013076039W WO 2014097703 A1 WO2014097703 A1 WO 2014097703A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
image
unit
prediction
quantization parameter
Prior art date
Application number
PCT/JP2013/076039
Other languages
English (en)
French (fr)
Inventor
佐藤 数史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2014097703A1 publication Critical patent/WO2014097703A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Definitions

  • the present disclosure relates to an image processing apparatus and an image processing method.
  • JVCVC Joint Collaboration Team-Video Coding
  • ISO / IEC ISO / IEC
  • HEVC High Efficiency Video Coding
  • HEVC provides not only single-layer coding but also scalable coding as well as existing image coding schemes such as MPEG2 and AVC (Advanced Video Coding) (for example, see Non-Patent Document 2 below).
  • HEVC scalable coding technology is also referred to as SHVC (Scalable HEVC).
  • SHVC Scalable HEVC
  • the enhancement layer is encoded by the HEVC method
  • the base layer may be encoded by the HEVC method, or may be encoded by an image encoding method other than the HEVC method (for example, the AVC method). Good.
  • Scalable encoding generally refers to a technique for hierarchically encoding a layer that transmits a coarse image signal and a layer that transmits a fine image signal.
  • Typical attributes hierarchized in scalable coding are mainly the following three types. Spatial scalability: Spatial resolution or image size is layered. -Time scalability: Frame rate is layered. -SNR (Signal to Noise Ratio) scalability: SN ratio is hierarchized. In addition, bit depth scalability and chroma format scalability are also discussed, although not yet adopted by the standard.
  • Non-Patent Document 3 In scalable coding, predicting information of another layer from information of a certain layer is called inter-layer prediction.
  • Non-Patent Document 3 listed below describes various inter-layer prediction methods for predicting a decoded image or reference image of an enhancement layer from base layer information.
  • the following Non-Patent Document 4 describes a combined prediction (Combined Prediction) technique that uses a combination of base layer information and enhancement layer information for prediction in the enhancement layer.
  • the weight when the first layer pixel and the second layer pixel are included for the pixel prediction in the second layer encoded or decoded with reference to the first layer is expressed as the first layer image.
  • a prediction control unit that is set based on an index that depends on the image quality of the second layer image.
  • the image processing apparatus can typically be realized as an image encoding apparatus that encodes an image or an image decoding apparatus that decodes an image.
  • the weight when the first layer pixel and the second layer pixel are included for pixel prediction in the second layer encoded or decoded with reference to the first layer is set to the first
  • An image processing method including setting based on an index that depends on the image quality of the layer image and the second layer image is provided.
  • the technology according to the present disclosure when predicting in a multi-layer codec, it is possible to adaptively determine which layer image should be referred to in consideration of the quality of each layer image, and improve prediction accuracy. it can.
  • FIG. 4 is a block diagram illustrating an example of a configuration of an EL encoding unit illustrated in FIG. 3. It is a block diagram which shows an example of a structure of the prediction control part shown in FIG. It is explanatory drawing for demonstrating the 1st example of the setting of the weight based on the comparison of a quantization parameter.
  • FIG. 5 is a block diagram illustrating an example of a configuration of an EL decoding unit illustrated in FIG. 4.
  • scalable coding In scalable encoding, a plurality of layers each including a series of images are encoded.
  • the base layer is a layer that expresses the coarsest image that is encoded first.
  • the base layer coded stream may be decoded independently without decoding the other layer coded streams.
  • a layer other than the base layer is a layer called an enhancement layer (enhancement layer) that represents a finer image.
  • the enhancement layer encoded stream is encoded using information included in the base layer encoded stream. Accordingly, in order to reproduce the enhancement layer image, both the base layer and enhancement layer encoded streams are decoded.
  • the number of layers handled in scalable coding may be any number of two or more. When three or more layers are encoded, the lowest layer is the base layer, and the remaining layers are enhancement layers.
  • the higher enhancement layer encoded stream may be encoded and decoded using information contained in the lower enhancement layer or base layer encoded stream.
  • FIG. 1 shows three layers L1, L2 and L3 to be scalable encoded.
  • Layer L1 is a base layer
  • layers L2 and L3 are enhancement layers.
  • spatial scalability is taken as an example among various types of scalability.
  • the ratio of the spatial resolution of the layer L2 to the layer L1 is 2: 1.
  • the ratio of the spatial resolution of layer L3 to layer L1 is 4: 1.
  • the resolution ratio here is only an example, and a non-integer resolution ratio such as 1.5: 1 may be used.
  • the block B1 of the layer L1 is a processing unit of the encoding process in the base layer picture.
  • the block B2 of the layer L2 is a processing unit of the encoding process in the enhancement layer picture that shows a scene common to the block B1.
  • Block B2 corresponds to block B1 of layer L1.
  • the block B3 of the layer L3 is a processing unit for encoding processing in a picture of a higher enhancement layer that shows a scene common to the blocks B1 and B2.
  • the block B3 corresponds to the block B1 of the layer L1 and the block B2 of the layer L2.
  • the combination prediction (also referred to as hybrid prediction) described in Non-Patent Document 4 is a combination of the above-described inter layer prediction and intra layer prediction.
  • FIG. 2 is an explanatory diagram for explaining the combination prediction.
  • base layer images IM B1 to IM B4 are shown.
  • the base layer images IM B1 to IM B4 are reconstructed images generated in the base layer encoding process or decoding process.
  • the base layer image is upsampled according to the resolution ratio between layers.
  • up-sampled base layer images IM U1 to IM U4 are shown.
  • enhancement layer images IM E1 to IM E4 are shown.
  • block B E3 enhancement layer image IM E3 is the prediction target block.
  • block B U3 of base layer image IM U3 is used as a reference block.
  • block B U2 (or other block in the enhancement layer) of the enhancement layer image IM E2 is used as a reference block.
  • both pixels of these two reference blocks are included in the prediction.
  • the prediction pixel value of the prediction target block B E3 is an average of the pixel value of the reference block B U3 and the pixel value of the reference block B E2 .
  • Non-Patent Document 4 proposes some more complicated combination predictions.
  • Such combination prediction is a technique that utilizes texture similarity between layers, and is generally useful in general pixel prediction.
  • Pixel prediction is prediction about information which takes the form of a pixel value unlike predictions, such as mode information, for example.
  • the pixel prediction may include prediction of a reference pixel referred to in inter prediction or intra prediction, prediction of a prediction error (residual) of inter prediction or intra prediction, or prediction of a pixel of a decoded image.
  • the prediction accuracy depends on how much the base layer pixel and the enhancement layer pixel are included in the prediction value.
  • the prediction accuracy of the base layer image and the enhancement layer image as the reference image is high, the prediction accuracy will be relatively high, and if the image quality is low, the prediction accuracy will be relatively low. Therefore, it is expected that it is possible to achieve high prediction accuracy and improve coding efficiency by adaptively determining which layer image should be referred to in consideration of the image quality of each layer. The Therefore, an embodiment of an image processing apparatus for considering the image quality of each layer in the combination prediction of scalable coding will be described in detail in the next section.
  • FIG. 3 is a block diagram illustrating a schematic configuration of an image encoding device 10 according to an embodiment that supports scalable encoding.
  • the image encoding device 10 includes a base layer (BL) encoding unit 1 a, an enhancement layer (EL) encoding unit 1 b, a common memory 2, and a multiplexing unit 3.
  • BL base layer
  • EL enhancement layer
  • the BL encoding unit 1a encodes a base layer image and generates a base layer encoded stream.
  • the EL encoding unit 1b encodes the enhancement layer image, and generates an enhancement layer encoded stream.
  • the common memory 2 stores information commonly used between layers.
  • the multiplexing unit 3 multiplexes the encoded stream of the base layer generated by the BL encoding unit 1a and the encoded stream of one or more enhancement layers generated by the EL encoding unit 1b. Generate a multiplexed stream.
  • FIG. 4 is a block diagram illustrating a schematic configuration of an image decoding device 60 according to an embodiment that supports scalable coding.
  • the image decoding device 60 includes a demultiplexing unit 5, a base layer (BL) decoding unit 6 a, an enhancement layer (EL) decoding unit 6 b, and a common memory 7.
  • BL base layer
  • EL enhancement layer
  • the demultiplexing unit 5 demultiplexes the multi-layer multiplexed stream into a base layer encoded stream and one or more enhancement layer encoded streams.
  • the BL decoding unit 6a decodes a base layer image from the base layer encoded stream.
  • the EL decoding unit 6b decodes the enhancement layer image from the enhancement layer encoded stream.
  • the common memory 7 stores information commonly used between layers.
  • the configuration of the BL encoding unit 1a for encoding the base layer and the configuration of the EL encoding unit 1b for encoding the enhancement layer are similar to each other. . Some parameters and reconstructed images generated or acquired by the BL encoder 1a can be buffered using the common memory 2 and reused by the EL encoder 1b. In the next section, the configuration of such an EL encoding unit 1b will be described in detail.
  • the configuration of the BL decoding unit 6a for decoding the base layer and the configuration of the EL decoding unit 6b for decoding the enhancement layer are similar to each other. Some parameters and reconstructed images generated or acquired by the BL decoding unit 6a can be buffered using the common memory 7 and reused by the EL decoding unit 6b. Further, in the next section, the configuration of such an EL decoding unit 6b will be described in detail.
  • FIG. 5 is a block diagram showing an example of the configuration of the EL encoding unit 1b shown in FIG.
  • the EL encoding unit 1b includes a rearrangement buffer 11, a subtraction unit 13, an orthogonal transform unit 14, a quantization unit 15, a lossless encoding unit 16, a storage buffer 17, a rate control unit 18, and an inverse quantization.
  • the rearrangement buffer 11 rearranges images included in a series of image data.
  • the rearrangement buffer 11 rearranges the images according to the GOP (Group of Pictures) structure related to the encoding process, and then transmits the rearranged image data to the subtraction unit 13, the intra prediction unit 30, and the inter prediction unit 35. Output.
  • GOP Group of Pictures
  • the subtraction unit 13 is supplied with image data input from the rearrangement buffer 11 and predicted image data input from the intra prediction unit 30 or the inter prediction unit 35 described later.
  • the subtraction unit 13 calculates prediction error data that is a difference between the image data input from the rearrangement buffer 11 and the prediction image data, and outputs the calculated prediction error data to the orthogonal transformation unit 14.
  • the orthogonal transform unit 14 performs orthogonal transform on the prediction error data input from the subtraction unit 13.
  • the orthogonal transformation performed by the orthogonal transformation part 14 may be discrete cosine transformation (Discrete Cosine Transform: DCT) or Karoonen-Labe transformation, for example.
  • the orthogonal transform unit 14 outputs transform coefficient data acquired by the orthogonal transform process to the quantization unit 15.
  • the quantization unit 15 is supplied with transform coefficient data input from the orthogonal transform unit 14 and a rate control signal from the rate control unit 18 described later.
  • the rate control signal specifies a quantization parameter for each color component for each block.
  • a quantization matrix can also be specified.
  • the quantization unit 15 quantizes the transform coefficient data in a quantization step determined according to the rate control signal, and converts the quantized transform coefficient data (hereinafter referred to as quantized data) into a lossless encoding unit 16 and an inverse quantization unit. To 21.
  • the lossless encoding unit 16 performs a lossless encoding process on the quantized data input from the quantization unit 15 to generate an enhancement layer encoded stream.
  • the lossless encoding unit 16 encodes various parameters referred to when decoding the encoded stream, and inserts the encoded parameters into the header area of the encoded stream.
  • the parameters encoded by the lossless encoding unit 16 may include information related to intra prediction, information related to inter prediction, and parameters related to prediction control, which will be described later. Then, the lossless encoding unit 16 outputs the generated encoded stream to the accumulation buffer 17.
  • the accumulation buffer 17 temporarily accumulates the encoded stream input from the lossless encoding unit 16 using a storage medium such as a semiconductor memory. Then, the accumulation buffer 17 outputs the accumulated encoded stream to a transmission unit (not shown) (for example, a communication interface or a connection interface with a peripheral device) at a rate corresponding to the bandwidth of the transmission path.
  • a transmission unit for example, a communication interface or a connection interface with a peripheral device
  • the rate control unit 18 monitors the free capacity of the accumulation buffer 17. Then, the rate control unit 18 generates a rate control signal according to the free capacity of the accumulation buffer 17 and outputs the generated rate control signal to the quantization unit 15. For example, the rate control unit 18 generates a rate control signal for reducing the bit rate of the quantized data when the free capacity of the storage buffer 17 is small. For example, when the free capacity of the accumulation buffer 17 is sufficiently large, the rate control unit 18 generates a rate control signal for increasing the bit rate of the quantized data.
  • the inverse quantization unit 21, the inverse orthogonal transform unit 22, and the addition unit 23 constitute a local decoder.
  • the inverse quantization unit 21 performs the same quantization step as that used by the quantization unit 15 and inversely quantizes the enhancement layer quantization data to restore the transform coefficient data. Then, the inverse quantization unit 21 outputs the restored transform coefficient data to the inverse orthogonal transform unit 22.
  • the inverse orthogonal transform unit 22 restores the prediction error data by performing an inverse orthogonal transform process on the transform coefficient data input from the inverse quantization unit 21. Then, the inverse orthogonal transform unit 22 outputs the restored prediction error data to the addition unit 23.
  • the adding unit 23 adds decoded image error data (enhancement layer) by adding the restored prediction error data input from the inverse orthogonal transform unit 22 and the predicted image data input from the intra prediction unit 30 or the inter prediction unit 35. Of the reconstructed image). Then, the addition unit 23 outputs the generated decoded image data to the deblock filter 24 and the frame memory 25.
  • the deblocking filter 24 performs a filtering process for reducing block distortion that occurs during image coding.
  • the deblocking filter 24 removes block distortion by filtering the decoded image data input from the adding unit 23, and outputs the decoded image data after filtering to the frame memory 25.
  • the frame memory 25 stores the decoded image data input from the addition unit 23 and the decoded image data after filtering input from the deblock filter 24 using a storage medium.
  • the selector 26 reads out the decoded image data before filtering used for intra prediction from the frame memory 25 and supplies the read decoded image data to the intra prediction unit 30 as reference image data.
  • the selector 26 reads out the decoded image data after filtering used for inter prediction from the frame memory 25 and supplies the read out decoded image data to the inter prediction unit 35 as reference image data.
  • the selector 27 In the intra prediction mode, the selector 27 outputs predicted image data as a result of the intra prediction output from the intra prediction unit 30 to the subtraction unit 13 and outputs information related to the intra prediction to the lossless encoding unit 16. Further, in the inter prediction mode, the selector 27 outputs predicted image data as a result of the inter prediction output from the inter prediction unit 35 to the subtraction unit 13 and outputs information related to the inter prediction to the lossless encoding unit 16. .
  • the selector 27 switches between the intra prediction mode and the inter prediction mode according to the size of the cost function value.
  • the intra prediction unit 30 performs an intra prediction process for each prediction unit (PU) of the HEVC method based on the original image data and decoded image data of the enhancement layer. For example, the intra prediction unit 30 evaluates the prediction result of each candidate mode in the prediction mode set using a predetermined cost function. Next, the intra prediction unit 30 selects the prediction mode with the smallest cost function value, that is, the prediction mode with the highest compression rate, as the optimum prediction mode. The intra prediction unit 30 generates enhancement layer predicted image data according to the optimal prediction mode. Then, the intra prediction unit 30 outputs information related to intra prediction including prediction mode information representing the selected optimal prediction mode, cost function values, and predicted image data to the selector 27.
  • PU prediction unit
  • the inter prediction unit 35 performs inter prediction processing for each prediction unit of the HEVC method based on the original image data and decoded image data of the enhancement layer. For example, the inter prediction unit 35 evaluates the prediction result of each candidate mode in the prediction mode set using a predetermined cost function. Next, the inter prediction unit 35 selects a prediction mode with the smallest cost function value, that is, a prediction mode with the highest compression rate, as the optimum prediction mode. Further, the inter prediction unit 35 generates enhancement layer predicted image data according to the optimal prediction mode. Then, the inter prediction unit 35 outputs information related to inter prediction including the prediction mode information indicating the selected optimal prediction mode and the motion information, the cost function value, and the prediction image data to the selector 27.
  • the prediction control unit 40 uses the information buffered by the common memory 2 to control the pixel prediction in the EL encoding unit 1b. For example, the prediction control unit 40 supplies the reconstructed image of the base layer to the intra prediction unit 30, and causes the intra prediction unit 30 to predict reference pixels for intra prediction by combination prediction. Instead, the prediction control unit 40 may cause the intra prediction unit 30 to predict the pixels of the decoded image by combined prediction. For example, the prediction control unit 40 supplies the reconstructed image of the base layer to the inter prediction unit 35, and causes the inter prediction unit 35 to predict reference pixels for inter prediction by combination prediction. Instead, the prediction control unit 40 may cause the inter prediction unit 35 to predict the pixels of the decoded image by combined prediction.
  • the prediction control unit 40 may upsample the reconstructed image of the base layer according to the resolution ratio between layers. In the present embodiment, the prediction control unit 40 controls the weights for the combined prediction based on an index that depends on the image quality of the base layer image and the enhancement layer image. The weight control by the prediction control unit 40 will be further described later.
  • the prediction control unit 40 may supply the base layer prediction error (residual) data to the subtraction unit 13 and the addition unit 23, and cause the subtraction unit 13 and the addition unit 23 to predict the prediction error (in the drawing). Dotted arrow).
  • the prediction error data of the base layer can also be upsampled according to the resolution ratio between layers.
  • Some parameters used by the prediction control unit 40 are encoded by the lossless encoding unit 16 and inserted into the header area of the encoded stream. In this specification, these parameters are referred to as predictive control related parameters. Some examples of the predictive control related parameters will be further described later.
  • FIG. 6 is a block diagram illustrating an example of the configuration of the prediction control unit 40 illustrated in FIG. Referring to FIG. 6, the prediction control unit 40 includes a resolution ratio acquisition unit 41, a quantization parameter acquisition unit 42, a weight setting unit 43, and an upsampling unit 44.
  • the resolution ratio acquisition unit 41 acquires a predetermined resolution ratio R BE between the base layer image and the enhancement layer image. When spatial scalability is achieved, the resolution ratio R BE is greater than 1. On the other hand, when SNR scalability is realized, the resolution ratio R BE is equal to 1.
  • the resolution ratio acquisition unit 41 outputs the acquired resolution ratio R BE to the lossless encoding unit 16, the weight setting unit 43, and the upsampling unit 44.
  • the parameter indicating the resolution ratio R BE is encoded by, for example, the lossless encoding unit 16 and can be inserted into an SPS (Sequence Parameter Set) or PPS (Picture Parameter Set) of the enhancement layer.
  • the quantization parameter acquisition part 42 acquires the quantization parameter used in order to set the weight of combined prediction.
  • the quantization parameter acquisition unit 42 acquires the quantization parameter QP B applied to the base layer image from the common memory 2. Further, the quantization parameter acquisition unit 42 acquires the quantization parameter QP E applied to the enhancement layer image from the quantization unit 15.
  • the quantization parameter acquisition unit 42 may acquire only the quantization parameter of the luminance component, or may acquire the quantization parameter of the luminance component (Y) and the two color difference components (Cb, Cr). Then, the quantization parameter acquisition unit 42 outputs the acquired quantization parameters QP B and QP E to the weight setting unit 43.
  • the quantization parameter differs for each frequency component of the transform coefficient data.
  • the quantization parameters QP B and QP E are the quantization parameters corresponding to the DC component of the quantization matrix (the DC component of the quantization matrix). Quantization parameter scaled by element).
  • the initial value of the picture level quantization parameter is indicated by pic_init_qp_minus26 in the PPS, and the adjustment value of the slice level is indicated by slice_qp_delta in the slice header.
  • the quantization parameter of each coding unit (CU: Coding Unit) is predicted from the quantization parameter of one or both of the upper adjacent CU and the left adjacent CU (intra-CTB prediction), or immediately before in decoding order. Is predicted from the quantization parameter of the CU (inter-CTB prediction).
  • a quantization parameter calculated by adding a residual indicated by cu_qp_delta_abs and cu_qp_delta_sign in a transform unit (TU) to the predicted value is set in each CU.
  • the weight of the combined prediction may be set for each enhancement layer CU based on the comparison of the quantization parameters QP B and QP E of the base layer and the enhancement layer.
  • the quantization parameter acquisition unit 42 The average value of the quantization parameter may be acquired as the quantization parameter QP B of the base layer.
  • the quantization parameter acquisition unit 42 may acquire the quantization parameter applied to the first corresponding block among the plurality of corresponding blocks as the base layer quantization parameter QP B. Also, the quantization parameter acquisition unit 42 converts the quantization parameter set at the picture level in the base layer (for example, 26 + pic_init_qp_minus26) or the quantization parameter set at the slice level (for example, 26 + pic_init_qp_minus26 + slice_qp_delta) to the base layer quantization parameter. You may acquire as QP B. In this case, since it is not necessary to buffer the quantization parameter of the base layer at the CU level, the memory resources of the common memory 2 can be saved. A flag indicating which level of the quantization parameter should be used as the base layer quantization parameter QP B may be encoded by the lossless encoding unit 16. In the AVC method, a quantization parameter is set for each macroblock.
  • Weight setting unit 43 sets the weight of combination prediction in the enhancement layer based on an index that depends on the image quality of the base layer image and the enhancement layer image.
  • the index depending on the image quality used by the weight setting unit 43 includes quantization parameters QP B and QP E input from the quantization parameter acquisition unit 92.
  • the index depending on the image quality may further include the resolution ratio R BE input from the resolution ratio acquisition unit 91.
  • the combination prediction in the enhancement layer can be expressed as:
  • P pred on the left side is a predicted pixel value.
  • Right side of W B and W E respectively, the weight of the weight and an enhancement layer of the base layer.
  • the right side of P UB is upsampled base layer reference pixel values as needed, P E is the reference pixel values of the enhancement layer.
  • base layer pixels and enhancement layer pixels are included for pixel prediction in the enhancement layer. Note that a prediction expression that is more complicated than Expression (1) may be used for combination prediction in the enhancement layer.
  • the weight setting unit 43 based on a comparison of the quantization parameter QP B and enhancement layer quantization parameter QP E of the base layer, setting a weight W B and the enhancement layer weights W E of the base layer To do. For example, when the quantization parameters QP B and QP E are equal to each other, or when the difference between them is less than a predetermined threshold, the weight setting unit 43 does not have a large difference in image quality between layers, so that the weight W B It can be set to equivalent values and W E.
  • the weight setting unit 43 when the difference between the quantization parameters QP B and QP E exceeds a predetermined threshold, the image quality of the layer to which the smaller quantization parameter is applied is higher, and thus the smaller quantization A greater weight may be set for the parameterized layer. Further, the weight setting unit 43 may set the weight to zero for a layer to which a larger quantization parameter is applied when the difference between the quantization parameters QP B and QP E exceeds another threshold. In this case, only the pixels of the layer to which the smaller quantization parameter is applied are included in the pixel prediction.
  • the weight setting unit 43 may correct the quantization parameter QP B with a correction value depending on the resolution ratio R BE according to the following equation before comparing the quantization parameter between layers.
  • the left side of Equation (2) is the corrected base layer quantization parameter QP B ′.
  • the correction value dQP on the right side can be determined in advance so as to increase as the resolution ratio R BE increases, for example. When the resolution ratio R BE is equal to 1, the correction value dQP is zero.
  • the weight setting unit 43 instead of correcting the quantization parameter by using the resolution ratio R BE, may be set on the basis of the weight W B and W E of the formula (1) to the resolution ratio R BE.
  • the weights W B and W E may be set to values that are equal to each other (eg, 0.5).
  • the resolution ratio R BE is not equal to 1
  • the resolution ratio R BE Gayori larger, the weight W E may be set to a relatively large value with respect to the weight W B.
  • the weight setting unit 43 separately for the three color components may be set the weight W B and W E based on the quantization parameter of the base layer and an enhancement layer.
  • the HEVC method can use a quantization parameter adjusted by adding an offset to the quantization parameter of the luminance component for each of the Cb component and the Cr component.
  • the quantization parameter offset of the Cb component is the sum of pic_cb_qp_offset in the PPS and slice_cb_qp_offset in the slice header.
  • the quantization parameter offset of the Cr component is the sum of pic_cr_qp_offset in the PPS and slice_cr_qp_offset in the slice header.
  • FIGS. 7A to 7D are explanatory diagrams for describing four examples of weight setting based on comparison of quantization parameters, respectively.
  • the weight setting unit 43 outputs the base layer and enhancement layer weights set in this way to the intra prediction unit 30 and the inter prediction unit 35. When combined prediction is performed on the prediction error, these weights can be output to the subtraction unit 13 and the addition unit 23. In addition, the weight setting unit 43 outputs the set base layer weights to the upsampling unit 44.
  • the value of the weight set by the weight setting unit 43 is not limited to the above-described example, and may be another value. Further, the number of threshold values (for example, threshold values Th1 to Th5) used for changing the weight of combination prediction may be any number.
  • the weight setting unit 43 may output these threshold values to the lossless encoding unit 16. In that case, the lossless encoding unit 16 may encode the threshold value input from the weight setting unit 43 in the enhancement layer PPS, SPS, or slice header.
  • the upsampling unit 44 displays the reconstructed image of the base layer buffered by the common memory 2 between the layers. Upsampling is performed according to the resolution ratio R BE . Then, the upsampling unit 44 outputs the upsampled base layer reconstructed image to the intra prediction unit 30 and the inter prediction unit 35 as a base layer image. When combined prediction is performed on the prediction error, the upsampling unit 44 may output the upsampled base layer prediction error data to the subtraction unit 13 and the addition unit 23. If the resolution ratio R BE input from the resolution ratio acquisition unit 41 is equal to 1, the upsampling unit 44 does not have to upsample the base layer image.
  • FIG. 8 is a flowchart illustrating an example of a schematic processing flow during encoding according to an embodiment. Note that processing steps that are not directly related to the technology according to the present disclosure are omitted from the drawing for the sake of simplicity of explanation.
  • the BL encoding unit 1a executes base layer encoding processing to generate a base layer encoded stream (step S11).
  • the common memory 2 buffers the reconstructed image generated in the base layer encoding process and the image quality dependent index (step S12).
  • the index buffered here may include, for example, a quantization parameter set in the base layer.
  • the EL encoding unit 1b performs the enhancement layer encoding process using the information buffered by the common memory 2 to generate an enhancement layer encoded stream (step S13).
  • the multiplexing unit 3 multiplexes the base layer encoded stream generated by the BL encoding unit 1a and the enhancement layer encoded stream generated by the EL encoding unit 1b, and performs multi-layer multiplexing.
  • a stream is generated (step S14).
  • FIG. 9 is a flowchart illustrating an example of a flow of processing related to prediction control in the enhancement layer encoding processing (step S13 in FIG. 8). The process shown in FIG. 9 may be repeated for each CU in the enhancement layer image, for example.
  • the quantization parameter acquisition unit 42 acquires the quantization parameter QP B applied to the base layer image from the common memory 2 (step S20). Also, the quantization parameter acquisition unit 42 acquires the quantization parameter QP E applied to the enhancement layer image from the quantization unit 15 (step S21). Then, the quantization parameter acquisition unit 42 outputs the acquired quantization parameters QP B and QP E to the weight setting unit 43.
  • the resolution ratio acquisition unit 41 acquires a predetermined resolution ratio R BE between the base layer image and the enhancement layer image (step S22). Then, the resolution ratio acquisition unit 41 outputs the acquired resolution ratio R BE to the lossless encoding unit 16, the weight setting unit 43, and the upsampling unit 44.
  • the weight setting unit 43 sets the weight W B and the enhancement layer weights W E of the base layer (step S25).
  • the values of the weights W B and W E set here may be the values illustrated in FIGS. 7A to 7D, or may be other values.
  • up-sampling section 44 determines whether the weight W B of the base layer that is set by the weight setting unit 43 not zero, and the resolution ratio R BE is greater than 1 (step S26). If the weight W B is the resolution ratio R BE not zero base layer is greater than 1, up-sampling unit 44 up-samples the re construct images of the base layer in accordance with the resolution ratio R BE (step S27). If the weight W B is zero or resolution ratio R BE of the base layer is equal to 1, the upsampling unit 44 may not be up-sampled Li constructs images of the base layer,
  • the intra prediction unit 30 or the inter prediction unit 35 performs enhancement layer pixel prediction using the weight set by the weight setting unit 43 according to, for example, the above formula (1), and predicts a reference pixel or a decoded pixel. Pixel values are calculated (step S28).
  • the subtraction unit 13 and the addition unit 23 can perform prediction.
  • FIG. 10 is a block diagram showing an example of the configuration of the EL decoding unit 6b shown in FIG.
  • the EL decoding unit 6b includes a storage buffer 61, a lossless decoding unit 62, an inverse quantization unit 63, an inverse orthogonal transform unit 64, an addition unit 65, a deblock filter 66, a rearrangement buffer 67, a D / A A (Digital to Analogue) conversion unit 68, a frame memory 69, selectors 70 and 71, an intra prediction unit 80, an inter prediction unit 85, and a prediction control unit 90 are provided.
  • a storage buffer 61 a lossless decoding unit 62, an inverse quantization unit 63, an inverse orthogonal transform unit 64, an addition unit 65, a deblock filter 66, a rearrangement buffer 67, a D / A A (Digital to Analogue) conversion unit 68, a frame memory 69, selectors 70 and 71, an intra prediction unit 80, an inter prediction unit 85
  • the accumulation buffer 61 temporarily accumulates the enhancement layer encoded stream input from the demultiplexer 5 using a storage medium.
  • the lossless decoding unit 62 decodes enhancement layer quantized data from the enhancement layer encoded stream input from the accumulation buffer 61 according to the encoding method used for encoding. In addition, the lossless decoding unit 62 decodes information inserted in the header area of the encoded stream.
  • the information decoded by the lossless decoding unit 62 may include, for example, information related to intra prediction, information related to inter prediction, and parameters related to prediction control.
  • the lossless decoding unit 62 outputs the quantized data to the inverse quantization unit 63. Further, the lossless decoding unit 62 outputs information related to intra prediction to the intra prediction unit 80. In addition, the lossless decoding unit 62 outputs information on inter prediction to the inter prediction unit 85. Further, the lossless decoding unit 62 outputs the prediction control related parameters to the prediction control unit 90.
  • the inverse quantization unit 63 inversely quantizes the quantized data input from the lossless decoding unit 62 in the same quantization step as that used for encoding, and restores enhancement layer transform coefficient data. Then, the inverse quantization unit 63 outputs the restored transform coefficient data to the inverse orthogonal transform unit 64.
  • the inverse orthogonal transform unit 64 generates prediction error data by performing inverse orthogonal transform on the transform coefficient data input from the inverse quantization unit 63 in accordance with the orthogonal transform method used at the time of encoding. Then, the inverse orthogonal transform unit 64 outputs the generated prediction error data to the addition unit 65.
  • the addition unit 65 adds the prediction error data input from the inverse orthogonal transform unit 64 and the prediction image data input from the selector 71 to generate decoded image data. Then, the addition unit 65 outputs the generated decoded image data to the deblock filter 66 and the frame memory 69.
  • the deblock filter 66 removes block distortion by filtering the decoded image data input from the adder 65, and outputs the filtered decoded image data to the rearrangement buffer 67 and the frame memory 69.
  • the rearrangement buffer 67 generates a series of time-series image data by rearranging the images input from the deblocking filter 66. Then, the rearrangement buffer 67 outputs the generated image data to the D / A conversion unit 68.
  • the D / A converter 68 converts the digital image data input from the rearrangement buffer 67 into an analog image signal. Then, the D / A conversion unit 68 displays an enhancement layer image, for example, by outputting an analog image signal to a display (not shown) connected to the image decoding device 60.
  • the frame memory 69 stores the decoded image data before filtering input from the adding unit 65 and the decoded image data after filtering input from the deblocking filter 66 using a storage medium.
  • the selector 70 switches the output destination of the image data from the frame memory 69 between the intra prediction unit 80 and the inter prediction unit 85 for each block in the image according to the mode information acquired by the lossless decoding unit 62. .
  • the selector 70 outputs the decoded image data before filtering supplied from the frame memory 69 to the intra prediction unit 80 as reference image data.
  • the selector 70 outputs the decoded image data after filtering to the inter prediction unit 85 as reference image data.
  • the selector 71 switches the output source of the predicted image data to be supplied to the adding unit 65 between the intra prediction unit 80 and the inter prediction unit 85 according to the mode information acquired by the lossless decoding unit 62. For example, the selector 71 supplies the prediction image data output from the intra prediction unit 80 to the adding unit 65 when the intra prediction mode is designated. Further, when the inter prediction mode is designated, the selector 71 supplies the predicted image data output from the inter prediction unit 85 to the addition unit 65.
  • the intra prediction unit 80 performs the intra prediction process of the enhancement layer based on the information related to the intra prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 69, and generates predicted image data. Then, the intra prediction unit 80 outputs the generated predicted image data of the enhancement layer to the selector 71.
  • the inter prediction unit 85 performs motion compensation processing of the enhancement layer based on the information related to inter prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 69, and generates predicted image data. Then, the inter prediction unit 85 outputs the generated predicted image data of the enhancement layer to the selector 71.
  • the prediction control unit 90 uses the information buffered by the common memory 7 to control pixel prediction in the EL decoding unit 6b. For example, the prediction control unit 90 supplies the reconstructed image of the base layer to the intra prediction unit 80, and causes the intra prediction unit 80 to predict reference pixels for intra prediction by combination prediction. Instead, the prediction control unit 90 may cause the intra prediction unit 80 to predict the pixels of the decoded image by combined prediction. Further, for example, the prediction control unit 90 supplies the reconstructed image of the base layer to the inter prediction unit 85, and causes the inter prediction unit 85 to predict reference pixels for inter prediction by combination prediction. Instead, the prediction control unit 90 may cause the inter prediction unit 85 to predict the pixels of the decoded image by combined prediction.
  • the prediction control unit 90 may upsample the reconstructed image of the base layer according to the resolution ratio between layers. In the present embodiment, the prediction control unit 90 controls the weights for the combined prediction based on an index that depends on the image quality of the base layer image and the enhancement layer image. The weight control by the prediction control unit 90 will be further described later.
  • the prediction control unit 90 may supply base layer prediction error (residual) data to the adding unit 65 and cause the adding unit 65 to predict the prediction error (dotted line arrow in the figure).
  • the prediction error data of the base layer can also be upsampled according to the resolution ratio between layers.
  • FIG. 11 is a block diagram illustrating an example of the configuration of the prediction control unit 90 illustrated in FIG. 10.
  • the prediction control unit 90 includes a resolution ratio acquisition unit 91, a quantization parameter acquisition unit 92, a weight setting unit 93, and an upsampling unit 94.
  • the resolution ratio acquisition unit 91 acquires a resolution ratio R BE between the base layer image and the enhancement layer image.
  • the resolution ratio R BE can be decoded by the lossless decoding unit 62 from, for example, enhancement layer SPS or PPS. Then, the resolution ratio acquisition unit 91 outputs the acquired resolution ratio R BE to the weight setting unit 93 and the upsampling unit 94.
  • the quantization parameter acquisition part 92 acquires the quantization parameter used in order to set the weight of combined prediction.
  • the quantization parameter acquisition unit 92 acquires the quantization parameter QP B applied to the base layer image from the common memory 7.
  • the quantization parameter acquisition unit 92 acquires the quantization parameter QP E applied to the enhancement layer image from the inverse quantization unit 63.
  • the quantization parameters QP B and QP E may be quantization parameters corresponding to the DC component of the quantization matrix.
  • the quantization parameter acquisition unit 92 may acquire only the quantization parameter of the luminance component, or may acquire the quantization parameter of the luminance component (Y) and the two color difference components (Cb, Cr). Then, the quantization parameter acquisition unit 92 outputs the acquired quantization parameters QP B and QP E to the weight setting unit 93.
  • combined prediction weights may be set for each enhancement layer CU.
  • the quantization parameter obtaining unit 92 The average value of the quantization parameter may be acquired as the quantization parameter QP B of the base layer. Instead, the quantization parameter acquisition unit 92 may acquire the quantization parameter applied to the first corresponding block among the plurality of corresponding blocks as the base layer quantization parameter QP B.
  • the quantization parameter acquisition unit 92 may acquire the quantization parameter set at the picture level in the base layer as the quantization parameter QP B of the base layer, or the quantization parameter set at the slice level. You may get it. As a result, it is possible to save memory resources required for buffering parameters between layers. Also, the quantization parameter acquisition unit 92 acquires the quantization parameter set in the base layer at the level indicated by the flag decoded by the lossless decoding unit 62 from the encoded stream as the base layer quantization parameter QP B. May be.
  • Weight setting unit 93 sets the weight of combination prediction in the enhancement layer based on an index that depends on the image quality of the base layer image and the enhancement layer image.
  • the index depending on the image quality used by the weight setting unit 93 includes quantization parameters QP B and QP E input from the quantization parameter acquisition unit 92.
  • the index depending on the image quality may further include the resolution ratio R BE input from the resolution ratio acquisition unit 91.
  • the weight setting unit 93 is based on the comparison between the base layer quantization parameter QP B and the enhancement layer quantization parameter QP E in the same manner as the weight setting unit 43 described with reference to FIG. , it sets the weight W B and the enhancement layer weights W E of the base layer.
  • the weight setting unit 93 may correct the quantization parameter QP B with a correction value depending on the resolution ratio R BE according to the above equation (2) before comparing the quantization parameter between layers.
  • the weight setting unit 93 separately for the three color components may be set the weight W B and W E based on the quantization parameter of the base layer and an enhancement layer.
  • the weight setting unit 93 uses the threshold to be decoded by the lossless decoding section 62 from the enhancement layer encoded stream, to evaluate the difference between the weight W E of the weight W B and an enhancement layer of the base layer Also good.
  • the weight setting unit 93 may set the weight W B and W E based only on the resolution ratio R BE.
  • Weight setting unit 93 for example, set the weight W B and W E of the base layer and enhancement layer as in the example of FIGS. 7A ⁇ Figure 7D, and outputs the weights set to the intra prediction unit 80 and the inter prediction unit 85 . When combined prediction is performed on the prediction error, these weights can be output to the adding unit 65. In addition, the weight setting unit 93 outputs the set base layer weights to the upsampling unit 94.
  • the upsampling unit 94 displays the reconstructed image of the base layer buffered by the common memory 2 between the layers. Upsampling is performed according to the resolution ratio R BE . Then, the upsampling unit 94 outputs the upsampled base layer reconstructed image as a base layer image to the intra prediction unit 80 and the inter prediction unit 85. When combined prediction is performed on the prediction error, the upsampling unit 94 may output the upsampled base layer prediction error data to the adding unit 65. If the resolution ratio R BE input from the resolution ratio acquisition unit 91 is equal to 1, the upsampling unit 94 does not have to upsample the base layer image.
  • FIG. 12 is a flowchart illustrating an example of a schematic processing flow at the time of decoding according to an embodiment. Note that processing steps that are not directly related to the technology according to the present disclosure are omitted from the drawing for the sake of simplicity of explanation.
  • the demultiplexer 5 demultiplexes the multi-layer multiplexed stream into the base layer encoded stream and the enhancement layer encoded stream (step S60).
  • the BL decoding unit 6a executes base layer decoding processing to reconstruct a base layer image from the base layer encoded stream (step S61).
  • the common memory 7 buffers the reconstructed image decoded in the base layer decoding process and the image quality dependent index (step S62).
  • the index buffered here may include, for example, a quantization parameter set in the base layer.
  • the EL decoding unit 6b executes the enhancement layer decoding process using the information buffered by the common memory 7, and reconstructs the enhancement layer image (step S63).
  • FIG. 13 is a flowchart illustrating an example of a flow of processing related to prediction control in the enhancement layer encoding processing (step S63 in FIG. 12). The process illustrated in FIG. 13 may be repeated for each CU in the enhancement layer image, for example.
  • the quantization parameter acquisition unit 92 acquires the quantization parameter QP B applied to the base layer image from the common memory 7 (step S70). Further, the quantization parameter acquisition unit 92 acquires the quantization parameter QP E applied to the enhancement layer image from the inverse quantization unit 63 (step S71). Then, the quantization parameter acquisition unit 92 outputs the acquired quantization parameters QP B and QP E to the weight setting unit 93.
  • the resolution ratio acquisition unit 91 acquires the resolution ratio R BE between the base layer image and the enhancement layer image from the lossless decoding unit 62 (step S72). Then, the resolution ratio acquisition unit 91 outputs the acquired resolution ratio R BE to the weight setting unit 93 and the upsampling unit 94.
  • the weight setting unit 93 sets the weight W B and the enhancement layer weights W E of the base layer (step S75).
  • the values of the weights W B and W E set here may be the values illustrated in FIGS. 7A to 7D, or may be other values.
  • upsampling section 94 determines whether the weight W B of the base layer that is set by the weight setting unit 93 not zero, and the resolution ratio R BE is greater than 1 (step S76). If the weight W B is the resolution ratio R BE not zero base layer is greater than 1, up-sampling unit 94 up-samples the re construct images of the base layer in accordance with the resolution ratio R BE (step S77). If the weight W B is zero or resolution ratio R BE of the base layer is equal to 1, the upsampling unit 94 may not be up-sampled Li constructs images of the base layer,
  • the intra prediction unit 80 or the inter prediction unit 85 performs enhancement layer pixel prediction using the weight set by the weight setting unit 93 according to, for example, the above equation (1), and predicts a reference pixel or a decoded pixel. Pixel values are calculated (step S78).
  • the addition unit 65 can perform prediction.
  • codec combinations The technology according to the present disclosure can be applied to scalable coding with a combination of various codecs.
  • the number of layers to be multiplexed may be any number of two or more.
  • the decoder may not operate normally.
  • only predefined codec combinations may be allowed to be encoded hierarchically. Instead, some codec combinations may be prohibited from being encoded hierarchically.
  • 14A and 14B are explanatory diagrams for explaining combinations of codecs that can be permitted or prohibited.
  • the first layer L10 and the second layer L11 are encoded by the MPEG2 system.
  • the third layer L12 and the fourth layer L13 are encoded by the AVC method.
  • the fifth layer L14 is encoded by the HEVC method.
  • hierarchical encoding of the first layer L10 and the second layer L11 is allowed because the codec is common.
  • the hierarchical encoding of the second layer L11 and the third layer L12 can be prohibited because the combination of the MPEG2 system and the AVC system is not standardized.
  • the hierarchical encoding of the third layer L12 and the fourth layer L13 is permitted because the codec is common.
  • the hierarchical encoding of the fourth layer L13 and the fifth layer L14 is permitted because the combination of the AVC method and the HEVC method is standardized.
  • the multiplexed streams of the first layer L10 and the second layer L11 and the multiplexed streams of the third layer L12, the fourth layer L13, and the fifth layer L14 are scalable encoded. Rather, it can be multiplexed by simulcast-coding.
  • the first layer L20 and the second layer L21 are encoded by the AVC method.
  • the third layer L22 and the fourth layer L23 are encoded by the MPEG2 system.
  • the fifth layer L24 is encoded by the HEVC method.
  • hierarchical encoding of the first layer L20 and the second layer L21 is allowed because the codec is common.
  • Hierarchically encoding the second layer L21 and the third layer L22 can be prohibited because the combination of the AVC method and the MPEG2 method is not standardized.
  • the hierarchical encoding of the third layer L22 and the fourth layer L23 is allowed because the codec is common.
  • the hierarchical encoding of the fourth layer L23 and the fifth layer L24 is allowed because the combination of the MPEG2 system and the HEVC system is standardized.
  • the multiplexed streams of the first layer L20 and the second layer L21 and the multiplexed streams of the third layer L22, the fourth layer L23, and the fifth layer L24 are scalable encoded. Rather, it can be multiplexed by simulcast coding.
  • the image encoding device 10 and the image decoding device 60 are a transmitter or a receiver in satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication,
  • the present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory, or a playback device that reproduces an image from these storage media.
  • a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory
  • a playback device that reproduces an image from these storage media.
  • FIG. 15 illustrates an example of a schematic configuration of a television device to which the above-described embodiment is applied.
  • the television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.
  • Tuner 902 extracts a signal of a desired channel from a broadcast signal received via antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. In addition, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.
  • EPG Electronic Program Guide
  • the decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.
  • the video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video.
  • the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network.
  • the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting.
  • the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.
  • GUI Graphic User Interface
  • the display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays a video or an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OLED).
  • a display device for example, a liquid crystal display, a plasma display, or an OLED.
  • the audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904, and outputs audio from the speaker 908.
  • the audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.
  • the external interface 909 is an interface for connecting the television apparatus 900 to an external device or a network.
  • a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the control unit 910 has a processor such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like.
  • the program stored in the memory is read and executed by the CPU when the television device 900 is activated, for example.
  • the CPU controls the operation of the television device 900 according to an operation signal input from the user interface 911, for example, by executing the program.
  • the user interface 911 is connected to the control unit 910.
  • the user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like.
  • the user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.
  • the bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.
  • the decoder 904 has the function of the image decoding apparatus 60 according to the above-described embodiment. Therefore, when the television apparatus 900 decodes an image with a multi-layer codec, the prediction accuracy of pixel prediction can be improved according to the image quality of each layer.
  • FIG. 16 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied.
  • a cellular phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.
  • the antenna 921 is connected to the communication unit 922.
  • the speaker 924 and the microphone 925 are connected to the audio codec 923.
  • the operation unit 932 is connected to the control unit 931.
  • the bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.
  • the mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.
  • the analog voice signal generated by the microphone 925 is supplied to the voice codec 923.
  • the audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922.
  • the communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923.
  • the audio codec 923 expands the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the control unit 931 generates character data constituting the e-mail in response to an operation by the user via the operation unit 932.
  • the control unit 931 causes the display unit 930 to display characters.
  • the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922.
  • the communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931.
  • the control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.
  • the recording / reproducing unit 929 has an arbitrary readable / writable storage medium.
  • the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card. May be.
  • the camera unit 926 images a subject to generate image data, and outputs the generated image data to the image processing unit 927.
  • the image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the recording / playback unit 929.
  • the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to.
  • the communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • These transmission signal and reception signal may include an encoded bit stream.
  • the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928.
  • the demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923.
  • the image processing unit 927 decodes the video stream and generates video data.
  • the video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930.
  • the audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the image processing unit 927 has the functions of the image encoding device 10 and the image decoding device 60 according to the above-described embodiment. Therefore, when the mobile phone 920 encodes or decodes an image with a multi-layer codec, the prediction accuracy of pixel prediction can be increased according to the image quality of each layer.
  • FIG. 17 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied.
  • the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium.
  • the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example.
  • the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.
  • the recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.
  • Tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.
  • the external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network.
  • the external interface 942 may be, for example, an IEEE 1394 interface, a network interface, a USB interface, or a flash memory interface.
  • video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.
  • the encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.
  • the HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Also, the HDD 944 reads out these data from the hard disk when playing back video and audio.
  • the disk drive 945 performs recording and reading of data to and from the mounted recording medium.
  • the recording medium loaded in the disk drive 945 may be, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. .
  • the selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.
  • the decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.
  • the OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.
  • a GUI image such as a menu, a button, or a cursor
  • the control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example.
  • the CPU controls the operation of the recording / reproducing device 940 according to an operation signal input from the user interface 950, for example, by executing the program.
  • the user interface 950 is connected to the control unit 949.
  • the user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like.
  • the user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.
  • the encoder 943 has the function of the image encoding apparatus 10 according to the above-described embodiment.
  • the decoder 947 has the function of the image decoding device 60 according to the above-described embodiment.
  • FIG. 18 illustrates an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied.
  • the imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.
  • the imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.
  • the optical block 961 is connected to the imaging unit 962.
  • the imaging unit 962 is connected to the signal processing unit 963.
  • the display unit 965 is connected to the image processing unit 964.
  • the user interface 971 is connected to the control unit 970.
  • the bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.
  • the optical block 961 includes a focus lens and a diaphragm mechanism.
  • the optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 includes an image sensor such as a CCD or a CMOS, and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.
  • the signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962.
  • the signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.
  • the image processing unit 964 encodes the image data input from the signal processing unit 963 and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.
  • the OSD 969 generates a GUI image such as a menu, a button, or a cursor, for example, and outputs the generated image to the image processing unit 964.
  • the external interface 966 is configured as a USB input / output terminal, for example.
  • the external interface 966 connects the imaging device 960 and a printer, for example, when printing an image.
  • a drive is connected to the external interface 966 as necessary.
  • a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960.
  • the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.
  • the recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. Further, a recording medium may be fixedly attached to the media drive 968, and a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • the control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example.
  • the CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971, for example, by executing the program.
  • the user interface 971 is connected to the control unit 970.
  • the user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960.
  • the user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.
  • the image processing unit 964 has the functions of the image encoding device 10 and the image decoding device 60 according to the above-described embodiment. Thereby, when the imaging device 960 encodes or decodes an image with a multi-layer codec, the prediction accuracy of pixel prediction can be increased according to the image quality of each layer.
  • the data transmission system 1000 includes a stream storage device 1001 and a distribution server 1002.
  • Distribution server 1002 is connected to several terminal devices via network 1003.
  • Network 1003 may be a wired network, a wireless network, or a combination thereof.
  • FIG. 19 shows a PC (Personal Computer) 1004, an AV device 1005, a tablet device 1006, and a mobile phone 1007 as examples of terminal devices.
  • PC Personal Computer
  • the stream storage device 1001 stores, for example, stream data 1011 including a multiplexed stream generated by the image encoding device 10.
  • the multiplexed stream includes a base layer (BL) encoded stream and an enhancement layer (EL) encoded stream.
  • the distribution server 1002 reads the stream data 1011 stored in the stream storage device 1001, and at least a part of the read stream data 1011 is transmitted via the network 1003 to the PC 1004, the AV device 1005, the tablet device 1006, and the mobile phone 1007. Deliver to.
  • the distribution server 1002 selects a stream to be distributed based on some condition such as the capability of the terminal device or the communication environment. For example, the distribution server 1002 may avoid the occurrence of delay, overflow, or processor overload in the terminal device by not distributing an encoded stream having a high image quality that exceeds the image quality that can be handled by the terminal device. . The distribution server 1002 may avoid occupying the communication band of the network 1003 by not distributing an encoded stream having high image quality. On the other hand, the distribution server 1002 distributes all of the multiplexed streams to the terminal device when there is no risk to be avoided or when it is determined to be appropriate based on a contract with the user or some condition. Good.
  • the distribution server 1002 reads the stream data 1011 from the stream storage device 1001. Then, the distribution server 1002 distributes the stream data 1011 as it is to the PC 1004 having high processing capability. Also, since the AV device 1005 has low processing capability, the distribution server 1002 generates stream data 1012 including only the base layer encoded stream extracted from the stream data 1011, and distributes the stream data 1012 to the AV device 1005. To do. Also, the distribution server 1002 distributes the stream data 1011 as it is to the tablet device 1006 that can communicate at a high communication rate. Further, since the cellular phone 1007 can communicate only at a low communication rate, the distribution server 1002 distributes the stream data 1012 including only the base layer encoded stream to the cellular phone 1007.
  • the multiplexed stream By using the multiplexed stream in this way, the amount of traffic to be transmitted can be adjusted adaptively.
  • the code amount of the stream data 1011 is reduced as compared with the case where each layer is individually encoded, even if the entire stream data 1011 is distributed, the load on the network 1003 is suppressed. Is done. Furthermore, memory resources of the stream storage device 1001 are also saved.
  • the hardware performance of terminal devices varies from device to device.
  • the communication capacity of the network 1003 also varies.
  • the capacity available for data transmission can change from moment to moment due to the presence of other traffic. Therefore, the distribution server 1002 transmits terminal information regarding the hardware performance and application capability of the terminal device, the communication capacity of the network 1003, and the like through signaling with the distribution destination terminal device before starting the distribution of the stream data. And network information may be acquired. Then, the distribution server 1002 can select a stream to be distributed based on the acquired information.
  • extraction of a layer to be decoded may be performed in the terminal device.
  • the PC 1004 may display a base layer image extracted from the received multiplexed stream and decoded on the screen. Further, the PC 1004 may extract a base layer encoded stream from the received multiplexed stream to generate stream data 1012, store the generated stream data 1012 in a storage medium, or transfer the stream data 1012 to another device. .
  • the configuration of the data transmission system 1000 shown in FIG. 19 is merely an example.
  • the data transmission system 1000 may include any number of stream storage devices 1001, a distribution server 1002, a network 1003, and terminal devices.
  • the data transmission system 1100 includes a broadcast station 1101 and a terminal device 1102.
  • the broadcast station 1101 broadcasts a base layer encoded stream 1121 on the terrestrial channel 1111.
  • the broadcast station 1101 transmits an enhancement layer encoded stream 1122 to the terminal device 1102 via the network 1112.
  • the terminal device 1102 has a reception function for receiving a terrestrial broadcast broadcast by the broadcast station 1101, and receives a base layer encoded stream 1121 via the terrestrial channel 1111. Also, the terminal device 1102 has a communication function for communicating with the broadcast station 1101 and receives the enhancement layer encoded stream 1122 via the network 1112.
  • the terminal device 1102 receives the base layer encoded stream 1121 in accordance with an instruction from the user, decodes the base layer image from the received encoded stream 1121, and displays the base layer image on the screen. Good. Further, the terminal device 1102 may store the decoded base layer image in a storage medium or transfer it to another device.
  • the terminal device 1102 receives, for example, an enhancement layer encoded stream 1122 via the network 1112 in accordance with an instruction from the user, and generates a base layer encoded stream 1121 and an enhancement layer encoded stream 1122. Multiplexed streams may be generated by multiplexing. Also, the terminal apparatus 1102 may decode the enhancement layer image from the enhancement layer encoded stream 1122 and display the enhancement layer image on the screen. In addition, the terminal device 1102 may store the decoded enhancement layer image in a storage medium or transfer it to another device.
  • the encoded stream of each layer included in the multiplexed stream can be transmitted via a different communication channel for each layer. Accordingly, it is possible to distribute the load applied to each channel and suppress the occurrence of communication delay or overflow.
  • the communication channel used for transmission may be dynamically selected according to some condition. For example, a base layer encoded stream 1121 having a relatively large amount of data is transmitted via a communication channel having a wide bandwidth, and an enhancement layer encoded stream 1122 having a relatively small amount of data is transmitted via a communication channel having a small bandwidth. Can be transmitted. Also, the communication channel for transmitting the encoded stream 1122 of a specific layer may be switched according to the bandwidth of the communication channel. Thereby, the load applied to each channel can be more effectively suppressed.
  • the configuration of the data transmission system 1100 illustrated in FIG. 20 is merely an example.
  • the data transmission system 1100 may include any number of communication channels and terminal devices.
  • the system configuration described here may be used for purposes other than broadcasting.
  • the data transmission system 1200 includes an imaging device 1201 and a stream storage device 1202.
  • the imaging device 1201 performs scalable coding on image data generated by imaging the subject 1211 and generates a multiplexed stream 1221.
  • the multiplexed stream 1221 includes a base layer encoded stream and an enhancement layer encoded stream. Then, the imaging device 1201 supplies the multiplexed stream 1221 to the stream storage device 1202.
  • the stream storage device 1202 stores the multiplexed stream 1221 supplied from the imaging device 1201 with different image quality for each mode. For example, in the normal mode, the stream storage device 1202 extracts the base layer encoded stream 1222 from the multiplexed stream 1221 and stores the extracted base layer encoded stream 1222. On the other hand, the stream storage device 1202 stores the multiplexed stream 1221 as it is in the high image quality mode. Thereby, the stream storage device 1202 can record a high-quality stream with a large amount of data only when video recording with high quality is desired. Therefore, it is possible to save memory resources while suppressing the influence of image quality degradation on the user.
  • the imaging device 1201 is assumed to be a surveillance camera.
  • the monitoring target for example, an intruder
  • the normal mode is selected.
  • the video is recorded with low image quality (that is, only the base layer coded stream 1222 is stored).
  • the monitoring target for example, the subject 1211 as an intruder
  • the high image quality mode is selected. In this case, since the captured image is likely to be important, priority is given to the high image quality, and the video is recorded with high image quality (that is, the multiplexed stream 1221 is stored).
  • the mode is selected by the stream storage device 1202 based on the image analysis result, for example.
  • the imaging device 1201 may select a mode. In the latter case, the imaging device 1201 may supply the base layer encoded stream 1222 to the stream storage device 1202 in the normal mode and supply the multiplexed stream 1221 to the stream storage device 1202 in the high image quality mode.
  • the selection criteria for selecting the mode may be any standard.
  • the mode may be switched according to the volume of sound acquired through a microphone or the waveform of sound. Further, the mode may be switched periodically. In addition, the mode may be switched according to an instruction from the user.
  • the number of selectable modes may be any number as long as the number of layers to be layered does not exceed.
  • the configuration of the data transmission system 1200 shown in FIG. 21 is merely an example.
  • the data transmission system 1200 may include any number of imaging devices 1201. Further, the system configuration described here may be used in applications other than the surveillance camera.
  • the multi-view codec is a kind of multi-layer codec, and is an image encoding method for encoding and decoding so-called multi-view video.
  • FIG. 22 is an explanatory diagram for describing the multi-view codec. Referring to FIG. 22, a sequence of frames of three views captured at three viewpoints is shown. Each view is given a view ID (view_id). Any one of the plurality of views is designated as a base view. Views other than the base view are called non-base views. In the example of FIG. 22, a view with a view ID “0” is a base view, and two views with a view ID “1” or “2” are non-base views.
  • each view may correspond to a layer.
  • the non-base view image is encoded and decoded with reference to the base view image (other non-base view images may also be referred to).
  • FIG. 23 is a block diagram illustrating a schematic configuration of an image encoding device 10v that supports a multi-view codec.
  • the image encoding device 10v includes a first layer encoding unit 1c, a second layer encoding unit 1d, a common memory 2, and a multiplexing unit 3.
  • the function of the first layer encoding unit 1c is the same as that of the BL encoding unit 1a described with reference to FIG. 3 except that it receives a base view image instead of a base layer image as an input.
  • the first layer encoding unit 1c encodes the base view image and generates an encoded stream of the first layer.
  • the function of the second layer encoding unit 1d is equivalent to the function of the EL encoding unit 1b described with reference to FIG. 3 except that a non-base view image is received instead of the enhancement layer image as an input.
  • the second layer encoding unit 1d encodes the non-base view image and generates a second layer encoded stream.
  • the common memory 2 stores information commonly used between layers.
  • the multiplexing unit 3 multiplexes the encoded stream of the first layer generated by the first layer encoding unit 1c and the encoded stream of the second layer generated by the second layer encoding unit 1d. A multiplexed stream of layers is generated.
  • FIG. 24 is a block diagram illustrating a schematic configuration of an image decoding device 60v that supports a multi-view codec.
  • the image decoding device 60v includes a demultiplexing unit 5, a first layer decoding unit 6c, a second layer decoding unit 6d, and a common memory 7.
  • the demultiplexer 5 demultiplexes the multi-layer multiplexed stream into the first layer encoded stream and the second layer encoded stream.
  • the function of the first layer decoding unit 6c is equivalent to the function of the BL decoding unit 6a described with reference to FIG. 4 except that it receives an encoded stream in which a base view image is encoded instead of a base layer image as an input. It is.
  • the first layer decoding unit 6c decodes the base view image from the encoded stream of the first layer.
  • the function of the second layer decoding unit 6d is the same as the function of the EL decoding unit 6b described with reference to FIG. 4 except that it receives an encoded stream in which a non-base view image is encoded instead of an enhancement layer image. It is equivalent.
  • the second layer decoding unit 6d decodes the non-base view image from the second layer encoded stream.
  • the common memory 7 stores information commonly used between layers.
  • the technology according to the present disclosure may be applied to a streaming protocol.
  • a streaming protocol For example, in MPEG-DASH (Dynamic Adaptive Streaming over HTTP), a plurality of encoded streams having different parameters such as resolution are prepared in advance in a streaming server. Then, the streaming server dynamically selects appropriate data to be streamed from a plurality of encoded streams in units of segments, and distributes the selected data.
  • MPEG-DASH Dynamic Adaptive Streaming over HTTP
  • the streaming server dynamically selects appropriate data to be streamed from a plurality of encoded streams in units of segments, and distributes the selected data.
  • combined prediction based on information of a plurality of encoded streams may be realized according to the technique according to the present disclosure.
  • the weight when including the first layer pixel and the second layer pixel for pixel prediction in the second layer encoded with reference to the first layer is the first layer image and It is set based on an index that depends on the image quality of the second layer image. That is, when predicting pixels in a multi-layer codec, it is adaptively determined which image of which layer should be referred to in consideration of the image quality of each layer, so that prediction accuracy is improved and encoding efficiency is improved. Can do.
  • the index that depends on the image quality includes a quantization parameter for each layer. If the quantization parameter is large, the image is coarsely quantized, thereby reducing the image quality. Therefore, the image quality can be easily compared between layers by using the quantization parameter as the index.
  • the same weight is set to the first layer and the second layer.
  • a larger weight is set for a layer indicating a smaller value of the quantization parameter. Therefore, if the image quality is the same, the first layer pixel and the second layer pixel are included in the pixel prediction with the same weight, and if the image quality is different, the pixel in the higher quality layer is included in the pixel prediction with a larger weight. can do.
  • the quantization parameter is corrected between the layers after the quantization parameter is corrected with the correction value depending on the resolution ratio between the layers. Therefore, the influence of the resolution on the image quality can be reflected in the weight setting.
  • the quantization parameter used for setting the weight is a picture-level or slice-level parameter, the amount of buffered parameter information is reduced, so that memory resources can be saved.
  • the threshold value used for changing the weight, the flag indicating the level of the quantization parameter used (picture, slice, CU, etc.), and the like are encoded and decoded. obtain.
  • the method for transmitting such information is not limited to such an example.
  • these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream.
  • the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means. That is, information may be transmitted on a transmission path different from that of the image (or bit stream).
  • Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream). Furthermore, the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.
  • the weights when the first layer pixels and the second layer pixels are included for pixel prediction in the second layer that is encoded or decoded with reference to the first layer are represented by the first layer image and the second layer image.
  • a predictive control unit that is set based on an index that depends on image quality;
  • An image processing apparatus comprising: (2) The image according to (1), wherein the index that depends on image quality includes a first quantization parameter applied to the first layer image and a second quantization parameter applied to the second layer image. Processing equipment.
  • the prediction control unit sets the weights of the first layer pixel and the second layer pixel to equivalent values when the first quantization parameter and the second quantization parameter are equal, The image processing apparatus according to (2).
  • the prediction control unit corrects the first quantization parameter with a correction value depending on a resolution ratio between the first layer image and the second layer image, and the corrected first quantization parameter
  • the image processing apparatus according to any one of (2) to (6), wherein the second quantization parameter is compared with the second quantization parameter.
  • the prediction control unit determines a quantization parameter corresponding to a DC component of the quantization matrix as the first quantization parameter or the first quantization parameter.
  • the image processing apparatus according to any one of (2) to (7), wherein the image processing apparatus is used as a quantization parameter of 2.
  • the image processing apparatus according to any one of (2) to (8), wherein the prediction control unit sets the weight for each coding unit of the second layer.
  • the prediction control unit when a plurality of corresponding blocks corresponding to the coding unit of the second layer is present in the first layer, and a plurality of different quantization parameters are applied to the plurality of corresponding blocks, The image processing apparatus according to (9), wherein an average value of the plurality of quantization parameters is used as the first quantization parameter.
  • the prediction control unit when a plurality of corresponding blocks corresponding to the coding unit of the second layer is present in the first layer, and a plurality of different quantization parameters are applied to the plurality of corresponding blocks,
  • the image processing device according to (9), wherein the quantization parameter applied to the first corresponding block is used as the first quantization parameter.
  • the first quantization parameter is a parameter set at a picture level in the first layer.
  • the first quantization parameter is a parameter set at a slice level in the first layer.
  • the prediction control unit uses, as the first quantization parameter, a quantization parameter set in the first layer at a level indicated by a flag decoded from the encoded stream.
  • the image processing apparatus according to any one of the above.
  • the image processing device according to any one of (1) to (14), wherein the prediction control unit sets the weights for three color components separately based on the index that depends on image quality.
  • the index that depends on image quality includes a resolution ratio between the first layer and the second layer.
  • the pixel prediction is performed to predict a reference pixel referred to in inter prediction or intra prediction.

Abstract

【課題】マルチレイヤコーデックにおける予測に際して、各レイヤの画像の品質を考慮してどのレイヤの画像をどのように参照すべきかを適応的に決定できる仕組みを提供すること。 【解決手段】第1レイヤを参照して符号化され又は復号される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みを、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定する予測制御部、を備える画像処理装置を提供する。

Description

画像処理装置及び画像処理方法
 本開示は、画像処理装置及び画像処理方法に関する。
 現在、H.264/AVCよりも符号化効率をさらに向上することを目的として、ITU-TとISO/IECとの共同の標準化団体であるJCTVC(Joint Collaboration Team-Video Coding)により、HEVC(High Efficiency Video Coding)と呼ばれる画像符号化方式の標準化が進められている(例えば、下記非特許文献1参照)。
 HEVCは、MPEG2及びAVC(Advanced Video Coding)などの既存の画像符号化方式と同様、シングルレイヤの符号化のみならず、スケーラブル符号化をも提供する(例えば、下記非特許文献2参照)。HEVCのスケーラブル符号化技術を、SHVC(Scalable HEVC)ともいう。SHVCでは、エンハンスメントレイヤがHEVC方式で符号化される一方で、ベースレイヤはHEVC方式で符号化されてもよく、又はHEVC方式以外の画像符号化方式(例えば、AVC方式)で符号化されてもよい。
 スケーラブル符号化とは、一般には、粗い画像信号を伝送するレイヤと精細な画像信号を伝送するレイヤとを階層的に符号化する技術をいう。スケーラブル符号化において階層化される典型的な属性は、主に次の3種類である。
  -空間スケーラビリティ:空間解像度あるいは画像サイズが階層化される。
  -時間スケーラビリティ:フレームレートが階層化される。
  -SNR(Signal to Noise Ratio)スケーラビリティ:SN比が階層化される。
さらに、標準規格で未だ採用されていないものの、ビット深度スケーラビリティ及びクロマフォーマットスケーラビリティもまた議論されている。
 スケーラブル符号化において、あるレイヤの情報から他のレイヤの情報を予測することを、インターレイヤ予測という。下記非特許文献3には、エンハンスメントレイヤの復号画像又は参照画像をベースレイヤの情報から予測するための様々なインターレイヤ予測の手法が記載されている。下記非特許文献4には、エンハンスメントレイヤにおける予測に際して、ベースレイヤの情報及びエンハンスメントレイヤの情報を組合せて使用する組合せ予測(Combined Prediction)の手法が記載されている。
Benjamin Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegand, "High Efficiency Video Coding (HEVC) text specification draft 9"(JCTVC-K1003_v9, 2012年10月10-19日) Jill Boyce, Ye-Kui Wang, "NAL unit header and parameter set designs for HEVC extensions"(JCTVC-K1007, 2012年10月10-19日) Liwei Guo, Yong He, Do-Kyoung Kwon, Jinwen Zan, Haricharan Lakshman, Jung Won Kang, "Description of Tool Experiment A2: Inter-layer Texture Prediction Signaling in SHVC"(JCTVC-K1102, 2012年10月10-19日) X. Li, E. Francois, P. Lai, D. Kwon, A. Saxena, "Description of Tool Experiment B3: Combined Prediction in SHVC"(JCTVC-K1103, 2012年10月10-19日)
 しかしながら、予測の際に参照される画像の品質を考慮した手法は、これまでに提案されていない。インターレイヤ予測及びイントラレイヤ予測(同一レイヤ内の参照)のいずれが行われるにしても、参照される画像の品質が低ければ、高い予測精度を得ることは難しい。この点は、スケーラブル符号化のみならず、インターレイヤ予測をサポートするマルチレイヤコーデック一般について同様である。マルチレイヤコーデックの他の例は、マルチビューコーデックである。
 従って、マルチレイヤコーデックにおける予測に際して、各レイヤの画像の品質を考慮してどのレイヤの画像をどのように参照すべきかを適応的に決定できる仕組みが提供されることが望ましい。
 本開示によれば、第1レイヤを参照して符号化され又は復号される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みを、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定する予測制御部、を備える画像処理装置が提供される。
 上記画像処理装置は、典型的には、画像を符号化する画像符号化装置又は画像を復号する画像復号装置として実現され得る。
 また、本開示によれば、第1レイヤを参照して符号化され又は復号される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みを、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定すること、を含む画像処理方法が提供される。
 本開示に係る技術によれば、マルチレイヤコーデックにおける予測に際して、各レイヤの画像の品質を考慮してどのレイヤの画像をどのように参照すべきかを適応的に決定し、予測精度を高めることができる。
スケーラブル符号化について説明するための説明図である。 組合せ予測について説明するための説明図である。 一実施形態に係る画像符号化装置の概略的な構成を示すブロック図である。 一実施形態に係る画像復号装置の概略的な構成を示すブロック図である。 図3に示したEL符号化部の構成の一例を示すブロック図である。 図5に示した予測制御部の構成の一例を示すブロック図である。 量子化パラメータの比較に基づく重みの設定の第1の例について説明するための説明図である。 量子化パラメータの比較に基づく重みの設定の第2の例について説明するための説明図である。 量子化パラメータの比較に基づく重みの設定の第3の例について説明するための説明図である。 量子化パラメータの比較に基づく重みの設定の第4の例について説明するための説明図である。 一実施形態に係る符号化時の概略的な処理の流れの一例を示すフローチャートである。 エンハンスメントレイヤの符号化処理における予測制御に関連する処理の流れの一例を示すフローチャートである。 図4に示したEL復号部の構成の一例を示すブロック図である。 図10に示した予測制御部の構成の一例を示すブロック図である。 一実施形態に係る復号時の概略的な処理の流れの一例を示すフローチャートである。 エンハンスメントレイヤの復号処理における予測制御に関連する処理の流れの一例を示すフローチャートである。 許容され又は禁止され得るコーデックの組合せについて説明するための第1の説明図である。 許容され又は禁止され得るコーデックの組合せについて説明するための第2の説明図である。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。 スケーラブル符号化の用途の第1の例について説明するための説明図である。 スケーラブル符号化の用途の第2の例について説明するための説明図である。 スケーラブル符号化の用途の第3の例について説明するための説明図である。 マルチビューコーデックについて説明するための説明図である。 マルチビューコーデックのための画像符号化装置の概略的な構成を示すブロック図である。 マルチビューコーデックのための画像復号装置の概略的な構成を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下の順序で説明を行う。
  1.概要
   1-1.スケーラブル符号化
   1-2.インターレイヤ予測及びイントラレイヤ予測
   1-3.エンコーダの基本的な構成例
   1-4.デコーダの基本的な構成例
  2.一実施形態に係るEL符号化部の構成例
   2-1.全体的な構成
   2-2.予測制御部の詳細な構成
  3.一実施形態に係る符号化時の処理の流れ
   3-1.概略的な流れ
   3-2.予測制御に関連する処理
  4.一実施形態に係るEL復号部の構成例
   4-1.全体的な構成
   4-2.予測制御部の詳細な構成
  5.一実施形態に係る復号時の処理の流れ
   5-1.概略的な流れ
   5-2.予測制御に関連する処理
  6.コーデックの組合せの例
  7.応用例
   7-1.様々な製品への応用
   7-2.スケーラブル符号化の様々な用途
   7-3.その他
  8.まとめ
 <1.概要>
  [1-1.スケーラブル符号化]
 スケーラブル符号化においては、一連の画像をそれぞれ含む複数のレイヤが符号化される。ベースレイヤ(base layer)は、最初に符号化される、最も粗い画像を表現するレイヤである。ベースレイヤの符号化ストリームは、他のレイヤの符号化ストリームを復号することなく、独立して復号され得る。ベースレイヤ以外のレイヤは、エンハンスメントレイヤ(enhancement layer)と呼ばれる、より精細な画像を表現するレイヤである。エンハンスメントレイヤの符号化ストリームは、ベースレイヤの符号化ストリームに含まれる情報を用いて符号化される。従って、エンハンスメントレイヤの画像を再現するためには、ベースレイヤ及びエンハンスメントレイヤの双方の符号化ストリームが復号されることになる。スケーラブル符号化において扱われるレイヤの数は、2つ以上のいかなる数であってもよい。3つ以上のレイヤが符号化される場合には、最下位のレイヤがベースレイヤ、残りの複数のレイヤがエンハンスメントレイヤである。より上位のエンハンスメントレイヤの符号化ストリームは、より下位のエンハンスメントレイヤ又はベースレイヤの符号化ストリームに含まれる情報を用いて符号化され及び復号され得る。
 図1は、スケーラブル符号化される3つのレイヤL1、L2及びL3を示している。レイヤL1はベースレイヤであり、レイヤL2及びL3はエンハンスメントレイヤである。なお、ここでは、様々な種類のスケーラビリティのうち、空間スケーラビリティを例にとっている。レイヤL2のレイヤL1に対する空間解像度の比は、2:1である。レイヤL3のレイヤL1に対する空間解像度の比は、4:1である。なお、ここでの解像度比は一例に過ぎず、例えば1.5:1などの非整数の解像度比が使用されてもよい。レイヤL1のブロックB1は、ベースレイヤのピクチャ内の符号化処理の処理単位である。レイヤL2のブロックB2は、ブロックB1と共通するシーンを映したエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB2は、レイヤL1のブロックB1に対応する。レイヤL3のブロックB3は、ブロックB1及びB2と共通するシーンを映したより上位のエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB3は、レイヤL1のブロックB1及びレイヤL2のブロックB2に対応する。
  [1-2.インターレイヤ予測及びイントラレイヤ予測]
 図1に例示したレイヤ構造において、画像のテクスチャは、共通するシーンを映したレイヤ間で類似する。即ち、レイヤL1内のブロックB1、レイヤL2内のブロックB2、及びレイヤL3内のブロックB3のテクスチャは類似する。従って、例えばブロックB1を参照ブロックとして用いてブロックB2又はブロックB3の画素を予測し、又はブロックB2を参照ブロックとして用いてブロックB3の画素を予測すれば、高い予測精度が得られる可能性がある。このようなレイヤ間の予測を、インターレイヤ予測という。これに対し、同じレイヤ内の他のブロックを参照ブロックとして用いる予測を、イントラレイヤ予測という。イントラレイヤ予測は、当業者に知られているイントラ予測及びインター予測を含み、イントラ予測では予測対象ブロックと同じ画像内に参照ブロックが存在し、インター予測では予測対象ブロックとは異なる参照画像内に参照ブロックが存在する。
 上記非特許文献4に記載された組合せ予測(ハイブリッド予測ともいう)は、上述したインターレイヤ予測及びイントラレイヤ予測の組合せである。図2は、組合せ予測について説明するための説明図である。図2の下段には、ベースレイヤ画像IMB1~IMB4が示されている。ベースレイヤ画像IMB1~IMB4は、ベースレイヤの符号化処理又は復号処理において生成されるリコンストラクト画像である。ベースレイヤ画像は、レイヤ間の解像度比に応じて、アップサンプリングされる。図2の中段には、アップサンプリングされたベースレイヤ画像IMU1~IMU4が示されている。図2の上段には、エンハンスメントレイヤ画像IME1~IME4が示されている。
 図2において、一例として、エンハンスメントレイヤ画像IME3のブロックBE3が予測対象ブロックであるものとする。インターレイヤ予測が行われる場合、ベースレイヤ画像IMU3のブロックBU3が参照ブロックとして使用される。イントラレイヤ予測が行われる場合、エンハンスメントレイヤ画像IME2のブロックBU2(又はその他のエンハンスメントレイヤ内のブロック)が参照ブロックとして使用される。そして、組合せ予測においては、これら2つの参照ブロックの画素の双方が、予測に算入される。組合せ予測の単純な例では、予測対象ブロックBE3の予測画素値は、参照ブロックBU3の画素値及び参照ブロックBE2の画素値の平均である。上記非特許文献4では、より複雑ないくつかの組合せ予測が提案されている。
 このような組合せ予測は、レイヤ間のテクスチャの類似性を活用する手法であり、概して画素予測の全般において有益である。画素予測とは、例えばモード情報などの予測とは異なり、画素値の形式をとる情報についての予測である。例えば、画素予測は、インター予測若しくはイントラ予測において参照される参照画素の予測、インター予測若しくはイントラ予測の予測誤差(残差)の予測、又は復号画像の画素の予測を含み得る。これら画素予測に際して、予測精度は、予測値にベースレイヤ画素及びエンハンスメントレイヤ画素をそれぞれどの程度算入するかに左右される。特に、参照画像としてのベースレイヤ画像及びエンハンスメントレイヤ画像の画質が高ければ予測精度は相対的に高く、当該画質が低ければ予測精度は相対的に低くなるであろう。従って、各レイヤの画質を考慮してどのレイヤの画像をどのように参照すべきかを適応的に決定することにより、高い予測精度を達成して符号化効率を向上させることができるものと期待される。そこで、スケーラブル符号化の組合せ予測において各レイヤの画質を考慮するための画像処理装置の実施形態について、次節より詳細に説明する。
  [1-3.エンコーダの基本的な構成例]
 図3は、スケーラブル符号化をサポートする、一実施形態に係る画像符号化装置10の概略的な構成を示すブロック図である。図3を参照すると、画像符号化装置10は、ベースレイヤ(BL)符号化部1a、エンハンスメントレイヤ(EL)符号化部1b、共通メモリ2及び多重化部3を備える。
 BL符号化部1aは、ベースレイヤ画像を符号化し、ベースレイヤの符号化ストリームを生成する。EL符号化部1bは、エンハンスメントレイヤ画像を符号化し、エンハンスメントレイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、BL符号化部1aにより生成されるベースレイヤの符号化ストリームと、EL符号化部1bにより生成される1つ以上のエンハンスメントレイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
  [1-4.デコーダの基本的な構成例]
 図4は、スケーラブル符号化をサポートする、一実施形態に係る画像復号装置60の概略的な構成を示すブロック図である。図4を参照すると、画像復号装置60は、逆多重化部5、ベースレイヤ(BL)復号部6a、エンハンスメントレイヤ(EL)復号部6b及び共通メモリ7を備える。
 逆多重化部5は、マルチレイヤの多重化ストリームをベースレイヤの符号化ストリーム及び1つ以上のエンハンスメントレイヤの符号化ストリームに逆多重化する。BL復号部6aは、ベースレイヤの符号化ストリームからベースレイヤ画像を復号する。EL復号部6bは、エンハンスメントレイヤの符号化ストリームからエンハンスメントレイヤ画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
 図3に例示した画像符号化装置10において、ベースレイヤの符号化のためのBL符号化部1aの構成と、エンハンスメントレイヤの符号化のためのEL符号化部1bの構成とは、互いに類似する。BL符号化部1aにより生成され又は取得されるいくつかのパラメータ及びリコンストラクト画像は、共通メモリ2を用いてバッファリングされ、EL符号化部1bにより再利用され得る。次節では、そのようなEL符号化部1bの構成について詳細に説明する。
 同様に、図4に例示した画像復号装置60において、ベースレイヤの復号のためのBL復号部6aの構成と、エンハンスメントレイヤの復号のためのEL復号部6bの構成とは、互いに類似する。BL復号部6aにより生成され又は取得されるいくつかのパラメータ及びリコンストラクト画像は、共通メモリ7を用いてバッファリングされ、EL復号部6bにより再利用され得る。さらに次の節では、そのようなEL復号部6bの構成について詳細に説明する。
 <2.一実施形態に係るEL符号化部の構成例>
  [2-1.全体的な構成]
 図5は、図3に示したEL符号化部1bの構成の一例を示すブロック図である。図5を参照すると、EL符号化部1bは、並び替えバッファ11、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18、逆量子化部21、逆直交変換部22、加算部23、デブロックフィルタ24、フレームメモリ25、セレクタ26及び27、イントラ予測部30、インター予測部35並びに予測制御部40を備える。
 並び替えバッファ11は、一連の画像データに含まれる画像を並び替える。並び替えバッファ11は、符号化処理に係るGOP(Group of Pictures)構造に応じて画像を並び替えた後、並び替え後の画像データを減算部13、イントラ予測部30、及びインター予測部35へ出力する。
 減算部13には、並び替えバッファ11から入力される画像データ、及び後に説明するイントラ予測部30又はインター予測部35から入力される予測画像データが供給される。減算部13は、並び替えバッファ11から入力される画像データと予測画像データとの差分である予測誤差データを算出し、算出した予測誤差データを直交変換部14へ出力する。
 直交変換部14は、減算部13から入力される予測誤差データについて直交変換を行う。直交変換部14により実行される直交変換は、例えば、離散コサイン変換(Discrete Cosine Transform:DCT)又はカルーネン・レーベ変換などであってよい。直交変換部14は、直交変換処理により取得される変換係数データを量子化部15へ出力する。
 量子化部15には、直交変換部14から入力される変換係数データ、及び後に説明するレート制御部18からのレート制御信号が供給される。レート制御信号は、ブロックごとの各色成分についての量子化パラメータを特定する。量子化行列もまた特定され得る。量子化部15は、レート制御信号に従って決定される量子化ステップで変換係数データを量子化し、量子化後の変換係数データ(以下、量子化データという)を可逆符号化部16及び逆量子化部21へ出力する。
 可逆符号化部16は、量子化部15から入力される量子化データについて可逆符号化処理を行うことにより、エンハンスメントレイヤの符号化ストリームを生成する。また、可逆符号化部16は、符号化ストリームを復号する際に参照される様々なパラメータを符号化して、符号化されたパラメータを符号化ストリームのヘッダ領域に挿入する。可逆符号化部16により符号化されるパラメータは、後に説明するイントラ予測に関する情報、インター予測に関する情報及び予測制御関連パラメータを含み得る。そして、可逆符号化部16は、生成した符号化ストリームを蓄積バッファ17へ出力する。
 蓄積バッファ17は、可逆符号化部16から入力される符号化ストリームを半導体メモリなどの記憶媒体を用いて一時的に蓄積する。そして、蓄積バッファ17は、蓄積した符号化ストリームを、伝送路の帯域に応じたレートで、図示しない伝送部(例えば、通信インタフェース又は周辺機器との接続インタフェースなど)へ出力する。
 レート制御部18は、蓄積バッファ17の空き容量を監視する。そして、レート制御部18は、蓄積バッファ17の空き容量に応じてレート制御信号を生成し、生成したレート制御信号を量子化部15へ出力する。例えば、レート制御部18は、蓄積バッファ17の空き容量が少ない時には、量子化データのビットレートを低下させるためのレート制御信号を生成する。また、例えば、レート制御部18は、蓄積バッファ17の空き容量が十分大きい時には、量子化データのビットレートを高めるためのレート制御信号を生成する。
 逆量子化部21、逆直交変換部22及び加算部23は、ローカルデコーダを構成する。逆量子化部21は、量子化部15により使用されたものと同じ量子化ステップで、エンハンスメントレイヤの量子化データを逆量子化し、変換係数データを復元する。そして、逆量子化部21は、復元した変換係数データを逆直交変換部22へ出力する。
 逆直交変換部22は、逆量子化部21から入力される変換係数データについて逆直交変換処理を行うことにより、予測誤差データを復元する。そして、逆直交変換部22は、復元した予測誤差データを加算部23へ出力する。
 加算部23は、逆直交変換部22から入力される復元された予測誤差データとイントラ予測部30又はインター予測部35から入力される予測画像データとを加算することにより、復号画像データ(エンハンスメントレイヤのリコンストラクト画像)を生成する。そして、加算部23は、生成した復号画像データをデブロックフィルタ24及びフレームメモリ25へ出力する。
 デブロックフィルタ24は、画像の符号化時に生じるブロック歪みを減少させるためのフィルタリング処理を行う。デブロックフィルタ24は、加算部23から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データをフレームメモリ25へ出力する。
 フレームメモリ25は、加算部23から入力される復号画像データ及びデブロックフィルタ24から入力されるフィルタリング後の復号画像データを記憶媒体を用いて記憶する。
 セレクタ26は、イントラ予測のために使用されるフィルタリング前の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてイントラ予測部30に供給する。また、セレクタ26は、インター予測のために使用されるフィルタリング後の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてインター予測部35に供給する。
 セレクタ27は、イントラ予測モードにおいて、イントラ予測部30から出力されるイントラ予測の結果としての予測画像データを減算部13へ出力すると共に、イントラ予測に関する情報を可逆符号化部16へ出力する。また、セレクタ27は、インター予測モードにおいて、インター予測部35から出力されるインター予測の結果としての予測画像データを減算部13へ出力すると共に、インター予測に関する情報を可逆符号化部16へ出力する。セレクタ27は、イントラ予測モードとインター予測モードとを、コスト関数値の大きさに応じて切り替える。
 イントラ予測部30は、エンハンスメントレイヤの原画像データ及び復号画像データに基づいて、HEVC方式の予測単位(PU)ごとにイントラ予測処理を行う。例えば、イントラ予測部30は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、イントラ予測部30は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、イントラ予測部30は、当該最適な予測モードに従ってエンハンスメントレイヤの予測画像データを生成する。そして、イントラ予測部30は、選択した最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。
 インター予測部35は、エンハンスメントレイヤの原画像データ及び復号画像データに基づいて、HEVC方式の予測単位ごとにインター予測処理を行う。例えば、インター予測部35は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、インター予測部35は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、インター予測部35は、当該最適な予測モードに従ってエンハンスメントレイヤの予測画像データを生成する。そして、インター予測部35は、選択した最適な予測モードを表す予測モード情報と動き情報とを含むインター予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。
 予測制御部40は、共通メモリ2によりバッファリングされる情報を用いて、EL符号化部1bにおける画素予測を制御する。例えば、予測制御部40は、ベースレイヤのリコンストラクト画像をイントラ予測部30に供給し、イントラ予測のための参照画素をイントラ予測部30に組合せ予測によって予測させる。その代わりに、予測制御部40は、イントラ予測部30に復号画像の画素を組合せ予測によって予測させてもよい。また、例えば、予測制御部40は、ベースレイヤのリコンストラクト画像をインター予測部35に供給し、インター予測のための参照画素をインター予測部35に組合せ予測によって予測させる。その代わりに、予測制御部40は、インター予測部35に復号画像の画素を組合せ予測によって予測させてもよい。予測制御部40は、ベースレイヤのリコンストラクト画像を、レイヤ間の解像度比に応じてアップサンプリングしてもよい。本実施形態において、予測制御部40は、これら組合せ予測のための重みを、ベースレイヤ画像及びエンハンスメントレイヤ画像の画質に依存する指標に基づいて制御する。予測制御部40による当該重みの制御について、後にさらに説明する。
 なお、予測制御部40は、ベースレイヤの予測誤差(残差)データを減算部13及び加算部23に供給し、減算部13及び加算部23に予測誤差を予測させてもよい(図中の点線矢印)。この場合、ベースレイヤの予測誤差データもまた、レイヤ間の解像度比に応じてアップサンプリングされ得る。
 予測制御部40により使用されるいくつかのパラメータは、可逆符号化部16により符号化され、符号化ストリームのヘッダ領域に挿入される。本明細書では、これらパラメータを予測制御関連パラメータという。予測制御関連パラメータのいくつかの例について、後にさらに説明する。
  [2-2.予測制御部の詳細な構成]
 図6は、図5に示した予測制御部40の構成の一例を示すブロック図である。図6を参照すると、予測制御部40は、解像度比取得部41、量子化パラメータ取得部42、重み設定部43及びアップサンプリング部44を有する。
   (1)解像度比取得部
 解像度比取得部41は、ベースレイヤ画像とエンハンスメントレイヤ画像との間の予め決定される解像度比RBEを取得する。空間スケーラビリティが実現される場合には、解像度比RBEは1よりも大きい。一方、SNRスケーラビリティが実現される場合には、解像度比RBEは1に等しい。解像度比取得部41は、取得した解像度比RBEを可逆符号化部16、重み設定部43及びアップサンプリング部44へ出力する。解像度比RBEを示すパラメータは、例えば、可逆符号化部16により符号化され、エンハンスメントレイヤのSPS(Sequence Parameter Set)又はPPS(Picture Parameter Set)に挿入され得る。
   (2)量子化パラメータ取得部
 量子化パラメータ取得部42は、組合せ予測の重みを設定するために使用される量子化パラメータを取得する。例えば、量子化パラメータ取得部42は、共通メモリ2から、ベースレイヤ画像に適用された量子化パラメータQPを取得する。また、量子化パラメータ取得部42は、量子化部15から、エンハンスメントレイヤ画像に適用された量子化パラメータQPを取得する。量子化パラメータ取得部42は、輝度成分の量子化パラメータのみを取得してもよく、又は輝度成分(Y)及び2つの色差成分(Cb,Cr)の量子化パラメータを取得してもよい。そして、量子化パラメータ取得部42は、取得した量子化パラメータQP及びQPを、重み設定部43へ出力する。
 なお、量子化行列が利用されるブロックについて画素予測が行われる場合には、量子化パラメータは、変換係数データの周波数成分ごとに異なる。この場合、各レイヤの画質は変換係数データの直流成分に最もよく現れるため、量子化パラメータQP及びQPは、量子化行列の直流成分に対応する量子化パラメータ(量子化行列の直流成分の要素によってスケーリングされた量子化パラメータ)であってよい。
 上記非特許文献1に記載されているように、HEVC方式では、ピクチャレベルの量子化パラメータの初期値がPPS内のpic_init_qp_minus26で、スライスレベルの調整値がスライスヘッダ内のslice_qp_deltaにより示される。さらに、個々の符号化単位(CU:Coding Unit)の量子化パラメータは、上の隣接CU及び左の隣接CUの一方若しくは双方の量子化パラメータから予測され(CTB内予測)、又は復号順で直前のCUの量子化パラメータから予測される(CTB間予測)。そして、変換単位(TU:Transform Unit)内のcu_qp_delta_abs及びcu_qp_delta_signにより示される残差を予測値に加算することにより算出される量子化パラメータが、各CUに設定される。従って、組合せ予測の重みは、エンハンスメントレイヤのCUごとに、ベースレイヤ及びエンハンスメントレイヤの量子化パラメータQP及びQPの比較に基づいて設定されてよい。エンハンスメントレイヤのCUに対応する複数の対応ブロックがベースレイヤに存在し、当該複数の対応ブロックに異なる複数の量子化パラメータが適用された場合には、量子化パラメータ取得部42は、当該複数の量子化パラメータの平均値を、ベースレイヤの量子化パラメータQPとして取得してもよい。その代わりに、量子化パラメータ取得部42は、当該複数の対応ブロックのうち先頭の対応ブロックに適用された量子化パラメータを、ベースレイヤの量子化パラメータQPとして取得してもよい。また、量子化パラメータ取得部42は、ベースレイヤにおいてピクチャレベルで設定される量子化パラメータ(例えば、26+pic_init_qp_minus26)又はスライスレベルで設定される量子化パラメータ(例えば、26+pic_init_qp_minus26+slice_qp_delta)を、ベースレイヤの量子化パラメータQPとして取得してもよい。この場合、CUレベルでベースレイヤの量子化パラメータをバッファリグする必要性がなくなるため、共通メモリ2のメモリリソースを節約することができる。いずれのレベルの量子化パラメータをベースレイヤの量子化パラメータQPとして使用すべきかを示すフラグが、可逆符号化部16により符号化されてもよい。なお、AVC方式では、マクロブロックごとに量子化パラメータが設定される。
   (3)重み設定部
 重み設定部43は、エンハンスメントレイヤにおける組合せ予測の重みを、ベースレイヤ画像及びエンハンスメントレイヤ画像の画質に依存する指標に基づいて設定する。本実施形態において、重み設定部43により使用される画質に依存する指標は、量子化パラメータ取得部92から入力される量子化パラメータQP及びQPを含む。空間スケーラビリティが実現される場合には、画質に依存する指標は、解像度比取得部91から入力される解像度比RBEをさらに含み得る。
 一例として、エンハンスメントレイヤにおける組合せ予測は、次式のように表現され得る:
Figure JPOXMLDOC01-appb-M000001
 式(1)において、左辺のPpredは予測画素値である。右辺のW及びWは、それぞれ、ベースレイヤの重み及びエンハンスメントレイヤの重みである。右辺のPUBは必要に応じてアップサンプリングされたベースレイヤの参照画素値、Pはエンハンスメントレイヤの参照画素値である。このように、組合せ予測では、エンハンスメントレイヤにおける画素予測のために、ベースレイヤ画素及びエンハンスメントレイヤ画素が算入される。なお、式(1)よりも複雑な予測式が、エンハンスメントレイヤにおける組合せ予測のために使用されてもよい。
 本実施形態において、重み設定部43は、ベースレイヤの量子化パラメータQPとエンハンスメントレイヤの量子化パラメータQPとの比較に基づいて、ベースレイヤの重みW及びエンハンスメントレイヤの重みWを設定する。例えば、重み設定部43は、量子化パラメータQP及びQPが互いに等しい場合、又はそれらの差が所定の閾値を下回る場合には、レイヤ間で画質に大きな差が無いことから、重みW及びWを同等の値に設定し得る。また、重み設定部43は、量子化パラメータQP及びQPの差が所定の閾値を上回る場合には、より小さい量子化パラメータの適用されたレイヤの画質がより高いことから、より小さい量子化パラメータの適用されたレイヤについてより大きい重みを設定し得る。また、重み設定部43は、量子化パラメータQP及びQPの差が別の閾値を上回る場合に、より大きい量子化パラメータの適用されたレイヤについて重みをゼロに設定してもよい。この場合、より小さい量子化パラメータの適用されたレイヤの画素のみが、画素予測に算入される。
 なお、量子化パラメータが同じであっても、レイヤ間で解像度が異なる場合には、より高い解像度を有するレイヤの方が画質は高いと言える。そこで、重み設定部43は、量子化パラメータをレイヤ間で比較する前に、次式に従って、解像度比RBEに依存する補正値で量子化パラメータQPを補正してもよい。
Figure JPOXMLDOC01-appb-M000002
 式(2)の左辺は、補正後のベースレイヤの量子化パラメータQP´である。右辺の補正値dQPは、例えば、解像度比RBEが大きいほど大きくなるように、予め決定され得る。解像度比RBEが1に等しい場合には、補正値dQPはゼロである。このように量子化パラメータを補正することにより、レイヤ間で解像度が異なる場合にも重みを適切に設定し、画素予測の予測精度を高めることができる。なお、ベースレイヤの量子化パラメータQPの代わりに、エンハンスメントレイヤの量子化パラメータQPが補正されてもよい。なお、重み設定部43は、解像度比RBEを用いて量子化パラメータを補正する代わりに、式(1)の重みW及びWを解像度比RBEに基づいて設定してもよい。例えば、解像度比RBEが1に等しい場合には、重みW及びWは互いに等しい値(例えば、0.5)に設定され得る。解像度比RBEが1に等しくない場合には、解像度比RBEがより大きいほど、重みWは重みWに対して相対的に大きい値に設定され得る。
 また、重み設定部43は、3つの色成分について別々に、ベースレイヤ及びエンハンスメントレイヤの量子化パラメータに基づいて重みW及びWを設定してもよい。上記非特許文献1に記載されているように、HEVC方式では、Cb成分及びCr成分についてそれぞれ、輝度成分の量子化パラメータにオフセットを加算することにより調整された量子化パラメータを使用することができる。Cb成分の量子化パラメータオフセットは、PPS内のpic_cb_qp_offset及びスライスヘッダ内のslice_cb_qp_offsetの和である。Cr成分の量子化パラメータオフセットは、PPS内のpic_cr_qp_offset及びスライスヘッダ内のslice_cr_qp_offsetの和である。これら量子化パラメータオフセットが加算された量子化パラメータを色成分ごとに用いることで、色成分ごとに最適な重みを画素予測のために設定することができる。一方、全ての色成分の重みを、例えば輝度成分の量子化パラメータに基づいて行うことで、色成分ごとのパラメータのバッファリングが不要となり、メモリリソースを節約することができる。なお、AVC方式では、スライス単位の量子化パラメータオフセットは存在せず、pic_cb_qp_offset及びslice_cr_qp_offsetの代わりに、chroma_qp_index_offset及びsecond_chroma_qp_index_offsetがピクチャ単位で使用され得る。
 図7A~図7Dは、量子化パラメータの比較に基づく重みの設定の4つの例についてそれぞれ説明するための説明図である。図7A~図7Dに示した横軸は、必要に応じて補正されたベースレイヤの量子化パラメータQP´とエンハンスメントレイヤの量子化パラメータQPとの差分Diff(=QP´-QP)を表す。
 図7Aの第1の例において、差分Diffが閾値Th1よりも大きい場合、エンハンスメントレイヤの画質はベースレイヤの画質よりも有意に高いと判定される。この場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.25,0.75)と設定する。差分Diffの絶対値が閾値Th1よりも小さい場合、ベースレイヤ及びエンハンスメントレイヤの画質に有意な差はないと判定される。この場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.5,0.5)と設定する。差分Diffが閾値-Th1(=Th1×(-1))よりも小さい場合、ベースレイヤの画質はエンハンスメントレイヤの画質よりも有意に高いと判定される。この場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.75,0.25)と設定する。
 図7Bの第2の例において、差分Diffが閾値Th2よりも大きい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0,1)と設定する。この場合、より小さい量子化パラメータの適用されたエンハンスメントレイヤの画素のみが、画素予測に算入される。差分Diffの絶対値が閾値Th2よりも小さい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.5,0.5)と設定する。差分Diffが閾値-Th2(=Th2×(-1))よりも小さい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(1,0)と設定する。この場合、より小さい量子化パラメータの適用されたベースレイヤの画素のみが、画素予測に算入される。
 図7Cの第3の例において、差分Diffが閾値Th4よりも大きい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0,1)と設定する。差分Diffが閾値Th4よりも小さく、閾値Th3よりも大きい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.25,0.75)と設定する。差分Diffの絶対値が閾値Th3よりも小さい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.5,0.5)と設定する。差分Diffが閾値-Th4よりも大きく、閾値-Th3よりも小さい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.75,0.25)と設定する。差分Diffが閾値-Th4よりも小さい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(1,0)と設定する。
 図7Dの第4の例において、差分Diffが閾値Th5よりも大きい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0,1)と設定する。差分Diffが閾値Th5よりも小さい場合、重み設定部43は、一例として、ベースレイヤ及びエンハンスメントレイヤの重み(W,W)=(0.5,0.5)と設定する。
 重み設定部43は、このように設定したベースレイヤ及びエンハンスメントレイヤの重みを、イントラ予測部30及びインター予測部35へ出力する。予測誤差について組合せ予測が行われる場合には、これら重みは、減算部13及び加算部23へ出力され得る。また、重み設定部43は、設定したベースレイヤの重みを、アップサンプリング部44へ出力する。
 なお、重み設定部43により設定される重みの値は、上述した例に限定されず、他の値であってもよい。また、組合せ予測の重みを変化させるために使用される閾値(例えば、閾値Th1~Th5)の数は、いくつであってもよい。重み設定部43は、これら閾値を可逆符号化部16へ出力してもよい。その場合、可逆符号化部16は、重み設定部43から入力される閾値をエンハンスメントレイヤのPPS、SPS又はスライスヘッダ内に符号化し得る。
   (4)アップサンプリング部
 アップサンプリング部44は、重み設定部43により設定されたベースレイヤの重みがゼロでない場合に、共通メモリ2によりバッファリングされているベースレイヤのリコンストラクト画像を、レイヤ間の解像度比RBEに従ってアップサンプリングする。そして、アップサンプリング部44は、アップサンプリングされたベースレイヤのリコンストラクト画像を、ベースレイヤ画像として、イントラ予測部30及びインター予測部35へ出力する。予測誤差について組合せ予測が行われる場合には、アップサンプリング部44は、アップサンプリングされたベースレイヤの予測誤差データを、減算部13及び加算部23へ出力してもよい。なお、解像度比取得部41から入力される解像度比RBEが1に等しい場合には、アップサンプリング部44は、ベースレイヤ画像をアップサンプリングしなくてよい。
 <3.一実施形態に係る符号化時の処理の流れ>
  [3-1.概略的な流れ]
 図8は、一実施形態に係る符号化時の概略的な処理の流れの一例を示すフローチャートである。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しない処理ステップは、図から省略されている。
 図8を参照すると、まず、BL符号化部1aは、ベースレイヤの符号化処理を実行し、ベースレイヤの符号化ストリームを生成する(ステップS11)。
 共通メモリ2は、ベースレイヤの符号化処理において生成されるリコンストラクト画像及び画質依存の指標をバッファリングする(ステップS12)。ここでバッファリングされる指標は、例えば、ベースレイヤに設定された量子化パラメータを含み得る。
 次に、EL符号化部1bは、共通メモリ2によりバッファリングされている情報を用いて、エンハンスメントレイヤの符号化処理を実行し、エンハンスメントレイヤの符号化ストリームを生成する(ステップS13)。
 次に、多重化部3は、BL符号化部1aにより生成されるベースレイヤの符号化ストリームと、EL符号化部1bにより生成されるエンハンスメントレイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する(ステップS14)。
  [3-2.予測制御に関連する処理]
 図9は、エンハンスメントレイヤの符号化処理(図8のステップS13)における予測制御に関連する処理の流れの一例を示すフローチャートである。図9に示した処理は、例えば、エンハンスメントレイヤ画像内のCUごとに繰り返され得る。
 図9を参照すると、まず、量子化パラメータ取得部42は、ベースレイヤ画像に適用された量子化パラメータQPを共通メモリ2から取得する(ステップS20)。また、量子化パラメータ取得部42は、エンハンスメントレイヤ画像に適用された量子化パラメータQPを量子化部15から取得する(ステップS21)。そして、量子化パラメータ取得部42は、取得した量子化パラメータQP及びQPを、重み設定部43へ出力する。
 また、解像度比取得部41は、ベースレイヤ画像とエンハンスメントレイヤ画像との間の予め決定される解像度比RBEを取得する(ステップS22)。そして、解像度比取得部41は、取得した解像度比RBEを可逆符号化部16、重み設定部43及びアップサンプリング部44へ出力する。
 次に、重み設定部43は、解像度比取得部41から入力される解像度比RBEに基づいて、ベースレイヤの量子化パラメータQPを補正するか否かを判定する(ステップS23)。例えば、重み設定部43は、解像度比RBEが1に等しくない場合、上記式(2)に従って、量子化パラメータQPを補正された量子化パラメータQP´(=QP+dQP)に補正する(ステップS24)。解像度比RBEが1に等しい場合には、ベースレイヤの量子化パラメータQPは補正されなくてよい。
 次に、重み設定部43は、レイヤ間の量子化パラメータの比較に基づいて、ベースレイヤの重みW及びエンハンスメントレイヤの重みWを設定する(ステップS25)。ここで設定される重みW及びWの値は、図7A~図7Dに例示した値であってもよく、又は他の値であってもよい。そして、重み設定部43は、設定したベースレイヤ及びエンハンスメントレイヤの重みW及びWを、イントラ予測部30及びインター予測部35へ出力する。
 次に、アップサンプリング部44は、重み設定部43により設定されたベースレイヤの重みWがゼロではなく、且つ解像度比RBEが1よりも大きいかを判定する(ステップS26)。ベースレイヤの重みWがゼロではなく解像度比RBEが1よりも大きい場合には、アップサンプリング部44は、ベースレイヤのリコンストラクト画像を解像度比RBEに従ってアップサンプリングする(ステップS27)。ベースレイヤの重みWがゼロであり又は解像度比RBEが1に等しい場合には、アップサンプリング部44は、ベースレイヤのリコンストラクト画像をアップサンプリングしなくてよい、
 そして、イントラ予測部30又はインター予測部35は、例えば上記式(1)に従い、重み設定部43により設定された重みを用いて、エンハンスメントレイヤの画素予測を実行し、参照画素又は復号画素の予測画素値を計算する(ステップS28)。なお、予測誤差について組合せ予測が行われる場合には、減算部13及び加算部23により予測が実行され得る。
 <4.一実施形態に係るEL復号部の構成例>
  [4-1.全体的な構成]
 図10は、図4に示したEL復号部6bの構成の一例を示すブロック図である。図10を参照すると、EL復号部6bは、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、加算部65、デブロックフィルタ66、並び替えバッファ67、D/A(Digital to Analogue)変換部68、フレームメモリ69、セレクタ70及び71、イントラ予測部80、インター予測部85並びに予測制御部90を備える。
 蓄積バッファ61は、逆多重化部5から入力されるエンハンスメントレイヤの符号化ストリームを記憶媒体を用いて一時的に蓄積する。
 可逆復号部62は、蓄積バッファ61から入力されるエンハンスメントレイヤの符号化ストリームから、符号化の際に使用された符号化方式に従ってエンハンスメントレイヤの量子化データを復号する。また、可逆復号部62は、符号化ストリームのヘッダ領域に挿入されている情報を復号する。可逆復号部62により復号される情報は、例えば、イントラ予測に関する情報、インター予測に関する情報及び予測制御関連パラメータを含み得る。可逆復号部62は、量子化データを逆量子化部63へ出力する。また、可逆復号部62は、イントラ予測に関する情報をイントラ予測部80へ出力する。また、可逆復号部62は、インター予測に関する情報をインター予測部85へ出力する。また、可逆復号部62は、予測制御関連パラメータを予測制御部90へ出力する。
 逆量子化部63は、可逆復号部62から入力される量子化データを、符号化の際に使用されたものと同じ量子化ステップで逆量子化し、エンハンスメントレイヤの変換係数データを復元する。そして、逆量子化部63は、復元した変換係数データを逆直交変換部64へ出力する。
 逆直交変換部64は、符号化の際に使用された直交変換方式に従い、逆量子化部63から入力される変換係数データについて逆直交変換を行うことにより、予測誤差データを生成する。そして、逆直交変換部64は、生成した予測誤差データを加算部65へ出力する。
 加算部65は、逆直交変換部64から入力される予測誤差データと、セレクタ71から入力される予測画像データとを加算することにより、復号画像データを生成する。そして、加算部65は、生成した復号画像データをデブロックフィルタ66及びフレームメモリ69へ出力する。
 デブロックフィルタ66は、加算部65から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データを並び替えバッファ67及びフレームメモリ69へ出力する。
 並び替えバッファ67は、デブロックフィルタ66から入力される画像を並び替えることにより、時系列の一連の画像データを生成する。そして、並び替えバッファ67は、生成した画像データをD/A変換部68へ出力する。
 D/A変換部68は、並び替えバッファ67から入力されるデジタル形式の画像データをアナログ形式の画像信号に変換する。そして、D/A変換部68は、例えば、画像復号装置60と接続されるディスプレイ(図示せず)にアナログ画像信号を出力することにより、エンハンスメントレイヤの画像を表示させる。
 フレームメモリ69は、加算部65から入力されるフィルタリング前の復号画像データ及びデブロックフィルタ66から入力されるフィルタリング後の復号画像データを記憶媒体を用いて記憶する。
 セレクタ70は、可逆復号部62により取得されるモード情報に応じて、画像内のブロックごとに、フレームメモリ69からの画像データの出力先をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ70は、イントラ予測モードが指定された場合には、フレームメモリ69から供給されるフィルタリング前の復号画像データを参照画像データとしてイントラ予測部80へ出力する。また、セレクタ70は、インター予測モードが指定された場合には、フィルタリング後の復号画像データを参照画像データとしてインター予測部85へ出力する。
 セレクタ71は、可逆復号部62により取得されるモード情報に応じて、加算部65へ供給すべき予測画像データの出力元をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ71は、イントラ予測モードが指定された場合には、イントラ予測部80から出力される予測画像データを加算部65へ供給する。また、セレクタ71は、インター予測モードが指定された場合には、インター予測部85から出力される予測画像データを加算部65へ供給する。
 イントラ予測部80は、可逆復号部62から入力されるイントラ予測に関する情報とフレームメモリ69からの参照画像データとに基づいてエンハンスメントレイヤのイントラ予測処理を行い、予測画像データを生成する。そして、イントラ予測部80は、生成したエンハンスメントレイヤの予測画像データをセレクタ71へ出力する。
 インター予測部85は、可逆復号部62から入力されるインター予測に関する情報とフレームメモリ69からの参照画像データとに基づいてエンハンスメントレイヤの動き補償処理を行い、予測画像データを生成する。そして、インター予測部85は、生成したエンハンスメントレイヤの予測画像データをセレクタ71へ出力する。
 予測制御部90は、共通メモリ7によりバッファリングされる情報を用いて、EL復号部6bにおける画素予測を制御する。例えば、予測制御部90は、ベースレイヤのリコンストラクト画像をイントラ予測部80に供給し、イントラ予測のための参照画素をイントラ予測部80に組合せ予測によって予測させる。その代わりに、予測制御部90は、イントラ予測部80に復号画像の画素を組合せ予測によって予測させてもよい。また、例えば、予測制御部90は、ベースレイヤのリコンストラクト画像をインター予測部85に供給し、インター予測のための参照画素をインター予測部85に組合せ予測によって予測させる。その代わりに、予測制御部90は、インター予測部85に復号画像の画素を組合せ予測によって予測させてもよい。予測制御部90は、ベースレイヤのリコンストラクト画像を、レイヤ間の解像度比に応じてアップサンプリングしてもよい。本実施形態において、予測制御部90は、これら組合せ予測のための重みを、ベースレイヤ画像及びエンハンスメントレイヤ画像の画質に依存する指標に基づいて制御する。予測制御部90による当該重みの制御について、後にさらに説明する。
 なお、予測制御部90は、ベースレイヤの予測誤差(残差)データを加算部65に供給し、加算部65に予測誤差を予測させてもよい(図中の点線矢印)。この場合、ベースレイヤの予測誤差データもまた、レイヤ間の解像度比に応じてアップサンプリングされ得る。
  [4-2.予測制御部の詳細な構成]
 図11は、図10に示した予測制御部90の構成の一例を示すブロック図である。図11を参照すると、予測制御部90は、解像度比取得部91、量子化パラメータ取得部92、重み設定部93及びアップサンプリング部94を有する。
   (1)解像度比取得部
 解像度比取得部91は、ベースレイヤ画像とエンハンスメントレイヤ画像との間の解像度比RBEを取得する。解像度比RBEは、例えば、エンハンスメントレイヤのSPS又はPPSから、可逆復号部62により復号され得る。そして、解像度比取得部91は、取得した解像度比RBEを、重み設定部93及びアップサンプリング部94へ出力する。
   (2)量子化パラメータ取得部
 量子化パラメータ取得部92は、組合せ予測の重みを設定するために使用される量子化パラメータを取得する。例えば、量子化パラメータ取得部92は、共通メモリ7から、ベースレイヤ画像に適用された量子化パラメータQPを取得する。また、量子化パラメータ取得部92は、逆量子化部63から、エンハンスメントレイヤ画像に適用された量子化パラメータQPを取得する。量子化行列が利用されるブロックについて画素予測が行われる場合には、量子化パラメータQP及びQPは、量子化行列の直流成分に対応する量子化パラメータであってよい。量子化パラメータ取得部92は、輝度成分の量子化パラメータのみを取得してもよく、又は輝度成分(Y)及び2つの色差成分(Cb,Cr)の量子化パラメータを取得してもよい。そして、量子化パラメータ取得部92は、取得した量子化パラメータQP及びQPを、重み設定部93へ出力する。
 典型的には、組合せ予測の重みは、エンハンスメントレイヤのCUごとに設定され得る。エンハンスメントレイヤのCUに対応する複数の対応ブロックがベースレイヤに存在し、当該複数の対応ブロックに異なる複数の量子化パラメータが適用された場合には、量子化パラメータ取得部92は、当該複数の量子化パラメータの平均値を、ベースレイヤの量子化パラメータQPとして取得してもよい。その代わりに、量子化パラメータ取得部92は、当該複数の対応ブロックのうち先頭の対応ブロックに適用された量子化パラメータを、ベースレイヤの量子化パラメータQPとして取得してもよい。
 また、量子化パラメータ取得部92は、ベースレイヤの量子化パラメータQPとして、ベースレイヤにおいてピクチャレベルで設定された量子化パラメータを取得してもよく、又はスライスレベルで設定された量子化パラメータを取得してもよい。それにより、レイヤ間でのパラメータのバッファリングに要するメモリリソースを節約することができる。また、量子化パラメータ取得部92は、符号化ストリームから可逆復号部62により復号されるフラグにより示されるレベルでベースレイヤに設定された量子化パラメータを、ベースレイヤの量子化パラメータQPとして取得してもよい。
   (3)重み設定部
 重み設定部93は、エンハンスメントレイヤにおける組合せ予測の重みを、ベースレイヤ画像及びエンハンスメントレイヤ画像の画質に依存する指標に基づいて設定する。本実施形態において、重み設定部93により使用される画質に依存する指標は、量子化パラメータ取得部92から入力される量子化パラメータQP及びQPを含む。空間スケーラビリティが実現される場合には、画質に依存する指標は、解像度比取得部91から入力される解像度比RBEをさらに含み得る。
 より具体的には、重み設定部93は、図6を用いて説明した重み設定部43と同様に、ベースレイヤの量子化パラメータQPとエンハンスメントレイヤの量子化パラメータQPとの比較に基づいて、ベースレイヤの重みW及びエンハンスメントレイヤの重みWを設定する。重み設定部93は、量子化パラメータをレイヤ間で比較する前に、上記式(2)に従って、解像度比RBEに依存する補正値で量子化パラメータQPを補正してもよい。また、重み設定部93は、3つの色成分について別々に、ベースレイヤ及びエンハンスメントレイヤの量子化パラメータに基づいて重みW及びWを設定してもよい。また、重み設定部93は、エンハンスメントレイヤの符号化ストリームから可逆復号部62により復号される閾値を用いて、ベースレイヤの重みWとエンハンスメントレイヤの重みWとの間の差分を評価してもよい。なお、重み設定部93は、解像度比RBEのみに基づいて重みW及びWを設定してもよい。
 重み設定部93は、例えば、図7A~図7Dの例のようにベースレイヤ及びエンハンスメントレイヤの重みW及びWを設定し、設定した重みをイントラ予測部80及びインター予測部85へ出力する。予測誤差について組合せ予測が行われる場合には、これら重みは、加算部65へ出力され得る。また、重み設定部93は、設定したベースレイヤの重みを、アップサンプリング部94へ出力する。
   (4)アップサンプリング部
 アップサンプリング部94は、重み設定部93により設定されたベースレイヤの重みがゼロでない場合に、共通メモリ2によりバッファリングされているベースレイヤのリコンストラクト画像を、レイヤ間の解像度比RBEに従ってアップサンプリングする。そして、アップサンプリング部94は、アップサンプリングされたベースレイヤのリコンストラクト画像を、ベースレイヤ画像として、イントラ予測部80及びインター予測部85へ出力する。予測誤差について組合せ予測が行われる場合には、アップサンプリング部94は、アップサンプリングされたベースレイヤの予測誤差データを、加算部65へ出力してもよい。なお、解像度比取得部91から入力される解像度比RBEが1に等しい場合には、アップサンプリング部94は、ベースレイヤ画像をアップサンプリングしなくてよい。
 <5.一実施形態に係る復号時の処理の流れ>
  [5-1.概略的な流れ]
 図12は、一実施形態に係る復号時の概略的な処理の流れの一例を示すフローチャートである。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しない処理ステップは、図から省略されている。
 図12を参照すると、まず、逆多重化部5は、マルチレイヤの多重化ストリームをベースレイヤの符号化ストリーム及びエンハンスメントレイヤの符号化ストリームに逆多重化する(ステップS60)。
 次に、BL復号部6aは、ベースレイヤの復号処理を実行し、ベースレイヤの符号化ストリームからベースレイヤ画像を再構築する(ステップS61)。
 共通メモリ7は、ベースレイヤの復号処理において復号されるリコンストラクト画像及び画質依存の指標をバッファリングする(ステップS62)。ここでバッファリングされる指標は、例えば、ベースレイヤに設定された量子化パラメータを含み得る。
 次に、EL復号部6bは、共通メモリ7によりバッファリングされている情報を用いて、エンハンスメントレイヤの復号処理を実行し、エンハンスメントレイヤ画像を再構築する(ステップS63)。
  [5-2.予測制御に関連する処理]
 図13は、エンハンスメントレイヤの符号化処理(図12のステップS63)における予測制御に関連する処理の流れの一例を示すフローチャートである。図13に示した処理は、例えば、エンハンスメントレイヤ画像内のCUごとに繰り返され得る。
 図13を参照すると、まず、量子化パラメータ取得部92は、ベースレイヤ画像に適用された量子化パラメータQPを共通メモリ7から取得する(ステップS70)。また、量子化パラメータ取得部92は、エンハンスメントレイヤ画像に適用された量子化パラメータQPを逆量子化部63から取得する(ステップS71)。そして、量子化パラメータ取得部92は、取得した量子化パラメータQP及びQPを、重み設定部93へ出力する。
 また、解像度比取得部91は、ベースレイヤ画像とエンハンスメントレイヤ画像との間の解像度比RBEを、可逆復号部62から取得する(ステップS72)。そして、解像度比取得部91は、取得した解像度比RBEを重み設定部93及びアップサンプリング部94へ出力する。
 次に、重み設定部93は、解像度比取得部91から入力される解像度比RBEに基づいて、ベースレイヤの量子化パラメータQPを補正するか否かを判定する(ステップS73)。例えば、重み設定部93は、解像度比RBEが1に等しくない場合、上記式(2)に従って、量子化パラメータQPを補正された量子化パラメータQP´(=QP+dQP)に補正する(ステップS74)。解像度比RBEが1に等しい場合には、ベースレイヤの量子化パラメータQPは補正されなくてよい。
 次に、重み設定部93は、レイヤ間の量子化パラメータの比較に基づいて、ベースレイヤの重みW及びエンハンスメントレイヤの重みWを設定する(ステップS75)。ここで設定される重みW及びWの値は、図7A~図7Dに例示した値であってもよく、又は他の値であってもよい。そして、重み設定部93は、設定したベースレイヤ及びエンハンスメントレイヤの重みW及びWを、イントラ予測部80及びインター予測部85へ出力する。
 次に、アップサンプリング部94は、重み設定部93により設定されたベースレイヤの重みWがゼロではなく、且つ解像度比RBEが1よりも大きいかを判定する(ステップS76)。ベースレイヤの重みWがゼロではなく解像度比RBEが1よりも大きい場合には、アップサンプリング部94は、ベースレイヤのリコンストラクト画像を解像度比RBEに従ってアップサンプリングする(ステップS77)。ベースレイヤの重みWがゼロであり又は解像度比RBEが1に等しい場合には、アップサンプリング部94は、ベースレイヤのリコンストラクト画像をアップサンプリングしなくてよい、
 そして、イントラ予測部80又はインター予測部85は、例えば上記式(1)に従い、重み設定部93により設定された重みを用いて、エンハンスメントレイヤの画素予測を実行し、参照画素又は復号画素の予測画素値を計算する(ステップS78)。なお、予測誤差について組合せ予測が行われる場合には、加算部65により予測が実行され得る。
 <6.コーデックの組合せの例>
 本開示に係る技術は、様々なコーデックの組合せでのスケーラブル符号化に適用可能である。多重化されるレイヤの数は、2つ以上のいかなる数であってもよい。但し、標準化されていないコーデックの組合せが利用されると、デコーダが正常に動作しない可能性が生じ得る。そこで、予め定義されるコーデックの組合せのみが、階層的に符号化されることを許容されてもよい。その代わりに、いくつかのコーデックの組合せが、階層的に符号化されることを禁止されてもよい。
 図14A及び図14Bは、許容され又は禁止され得るコーデックの組合せについて説明するための説明図である。
 図14Aを参照すると、最も下位の第1のレイヤL10から最も上位の第5のレイヤL14までの5つのレイヤが示されている。第1のレイヤL10及び第2のレイヤL11は、MPEG2方式で符号化される。第3のレイヤL12及び第4のレイヤL13は、AVC方式で符号化される。第5のレイヤL14は、HEVC方式で符号化される。これらレイヤのうち、第1のレイヤL10及び第2のレイヤL11を階層的に符号化することは、コーデックが共通しているため、許容される。第2のレイヤL11及び第3のレイヤL12を階層的に符号化することは、MPEG2方式とAVC方式との組合せが標準化されていないため、禁止され得る。第3のレイヤL12及び第4のレイヤL13を階層的に符号化することは、コーデックが共通しているため、許容される。第4のレイヤL13及び第5のレイヤL14を階層的に符号化することは、AVC方式とHEVC方式との組合せが標準化されるため、許容される。図14Aの例では、第1のレイヤL10及び第2のレイヤL11の多重化ストリームと、第3のレイヤL12、第4のレイヤL13及び第5のレイヤL14の多重化ストリームとは、スケーラブル符号化ではなく、サイマルキャスト符号化(simulcast-coding)によって多重化され得る。
 図14Bを参照すると、最も下位の第1のレイヤL20から最も上位の第5のレイヤL24までの5つのレイヤが示されている。第1のレイヤL20及び第2のレイヤL21は、AVC方式で符号化される。第3のレイヤL22及び第4のレイヤL23は、MPEG2方式で符号化される。第5のレイヤL24は、HEVC方式で符号化される。これらレイヤのうち、第1のレイヤL20及び第2のレイヤL21を階層的に符号化することは、コーデックが共通しているため、許容される。第2のレイヤL21及び第3のレイヤL22を階層的に符号化することは、AVC方式とMPEG2方式との組合せが標準化されていないため、禁止され得る。第3のレイヤL22及び第4のレイヤL23を階層的に符号化することは、コーデックが共通しているため、許容される。第4のレイヤL23及び第5のレイヤL24を階層的に符号化することは、MPEG2方式とHEVC方式との組合せが標準化されるため、許容される。図14Bの例では、第1のレイヤL20及び第2のレイヤL21の多重化ストリームと、第3のレイヤL22、第4のレイヤL23及び第5のレイヤL24の多重化ストリームとは、スケーラブル符号化ではなく、サイマルキャスト符号化によって多重化され得る。
 <7.応用例>
  [7-1.様々な製品への応用]
 上述した実施形態に係る画像符号化装置10及び画像復号装置60は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
   (1)第1の応用例
 図15は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
 チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
 デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
 映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
 表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。
 音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
 外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
 ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
 バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
 このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、テレビジョン装置900が画像をマルチレイヤコーデックで復号する際に、各レイヤの画質に応じて画素予測の予測精度を高めることができる。
   (2)第2の応用例
 図16は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
 アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
 携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
 音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
 記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
 また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。
 また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、携帯電話機920が画像をマルチレイヤコーデックで符号化し又は復号する際に、各レイヤの画質に応じて画素予測の予測精度を高めることができる。
   (3)第3の応用例
 図17は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
 記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
 チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
 外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
 エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
 HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
 ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)又はBlu-ray(登録商標)ディスクなどであってよい。
 セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
 デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
 OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
 制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
 ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
 このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置10の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、記録再生装置940が画像をマルチレイヤコーデックで符号化し又は復号する際に、各レイヤの画質に応じて画素予測の予測精度を高めることができる。
   (4)第4の応用例
 図18は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
 撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
 光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
 光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
 信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
 画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
 OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
 外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
 メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
 制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
 ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
 このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、撮像装置960が画像をマルチレイヤコーデックで符号化し又は復号する際に、各レイヤの画質に応じて画素予測の予測精度を高めることができる。
  [7-2.スケーラブル符号化の様々な用途]
 上述したスケーラブル符号化の利点は、様々な用途において享受され得る。以下、3つの用途の例について説明する。
   (1)第1の例
 第1の例において、スケーラブル符号化は、データの選択的な伝送のために利用される。図19を参照すると、データ伝送システム1000は、ストリーム記憶装置1001及び配信サーバ1002を含む。配信サーバ1002は、ネットワーク1003を介して、いくつかの端末装置と接続される。ネットワーク1003は、有線ネットワークであっても無線ネットワークであってもよく、又はそれらの組合せであってもよい。図19には、端末装置の例として、PC(Personal Computer)1004、AV機器1005、タブレット装置1006及び携帯電話機1007が示されている。
 ストリーム記憶装置1001は、例えば、画像符号化装置10により生成される多重化ストリームを含むストリームデータ1011を記憶する。多重化ストリームは、ベースレイヤ(BL)の符号化ストリーム及びエンハンスメントレイヤ(EL)の符号化ストリームを含む。配信サーバ1002は、ストリーム記憶装置1001に記憶されているストリームデータ1011を読み出し、読み出したストリームデータ1011の少なくとも一部分を、ネットワーク1003を介して、PC1004、AV機器1005、タブレット装置1006、及び携帯電話機1007へ配信する。
 端末装置へのストリームの配信の際、配信サーバ1002は、端末装置の能力又は通信環境などの何らかの条件に基づいて、配信すべきストリームを選択する。例えば、配信サーバ1002は、端末装置が扱うことのできる画質を上回るほど高い画質を有する符号化ストリームを配信しないことにより、端末装置における遅延、オーバフロー又はプロセッサの過負荷の発生を回避してもよい。また、配信サーバ1002は、高い画質を有する符号化ストリームを配信しないことにより、ネットワーク1003の通信帯域が占有されることを回避してもよい。一方、配信サーバ1002は、これら回避すべきリスクが存在しない場合、又はユーザとの契約若しくは何らかの条件に基づいて適切だと判断される場合に、多重化ストリームの全てを端末装置へ配信してもよい。
 図19の例では、配信サーバ1002は、ストリーム記憶装置1001からストリームデータ1011を読み出す。そして、配信サーバ1002は、高い処理能力を有するPC1004へ、ストリームデータ1011をそのまま配信する。また、AV機器1005は低い処理能力を有するため、配信サーバ1002は、ストリームデータ1011から抽出されるベースレイヤの符号化ストリームのみを含むストリームデータ1012を生成し、ストリームデータ1012をAV機器1005へ配信する。また、配信サーバ1002は、高い通信レートで通信可能であるタブレット装置1006へストリームデータ1011をそのまま配信する。また、携帯電話機1007は低い通信レートでしか通信できないため、配信サーバ1002は、ベースレイヤの符号化ストリームのみを含むストリームデータ1012を携帯電話機1007へ配信する。
 このように多重化ストリームを用いることにより、伝送されるトラフィックの量を適応的に調整することができる。また、個々のレイヤがそれぞれ単独に符号化されるケースと比較して、ストリームデータ1011の符号量は削減されるため、ストリームデータ1011の全体が配信されるとしても、ネットワーク1003に掛かる負荷は抑制される。さらに、ストリーム記憶装置1001のメモリリソースも節約される。
 端末装置のハードウエア性能は、装置ごとに異なる。また、端末装置において実行されるアプリケーションのケイパビリティも様々である。さらに、ネットワーク1003の通信容量もまた様々である。データ伝送のために利用可能な容量は、他のトラフィックの存在に起因して、時々刻々と変化し得る。そこで、配信サーバ1002は、ストリームデータの配信を開始する前に、配信先の端末装置との間のシグナリングを通じて、端末装置のハードウエア性能及びアプリケーションケイパビリティなどに関する端末情報と、ネットワーク1003の通信容量などに関するネットワーク情報とを取得してもよい。そして、配信サーバ1002は、取得した情報に基づいて、配信すべきストリームを選択し得る。
 なお、復号すべきレイヤの抽出は、端末装置において行われてもよい。例えば、PC1004は、受信した多重化ストリームから抽出され復号されるベースレイヤ画像をその画面に表示してもよい。また、PC1004は、受信した多重化ストリームからベースレイヤの符号化ストリームを抽出してストリームデータ1012を生成し、生成したストリームデータ1012を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 図19に示したデータ伝送システム1000の構成は一例に過ぎない。データ伝送システム1000は、いかなる数のストリーム記憶装置1001、配信サーバ1002、ネットワーク1003、及び端末装置を含んでもよい。
   (2)第2の例
 第2の例において、スケーラブル符号化は、複数の通信チャネルを介するデータの伝送のために利用される。図20を参照すると、データ伝送システム1100は、放送局1101及び端末装置1102を含む。放送局1101は、地上波チャネル1111上で、ベースレイヤの符号化ストリーム1121を放送する。また、放送局1101は、ネットワーク1112を介して、エンハンスメントレイヤの符号化ストリーム1122を端末装置1102へ送信する。
 端末装置1102は、放送局1101により放送される地上波放送を受信するための受信機能を有し、地上波チャネル1111を介してベースレイヤの符号化ストリーム1121を受信する。また、端末装置1102は、放送局1101と通信するための通信機能を有し、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信する。
 端末装置1102は、例えば、ユーザからの指示に応じて、ベースレイヤの符号化ストリーム1121を受信し、受信した符号化ストリーム1121からベースレイヤ画像を復号してベースレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したベースレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 また、端末装置1102は、例えば、ユーザからの指示に応じて、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信し、ベースレイヤの符号化ストリーム1121とエンハンスメントレイヤの符号化ストリーム1122とを多重化することにより多重化ストリームを生成してもよい。また、端末装置1102は、エンハンスメントレイヤの符号化ストリーム1122からエンハンスメントレイヤ画像を復号してエンハンスメントレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したエンハンスメントレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 上述したように、多重化ストリームに含まれる各レイヤの符号化ストリームは、レイヤごとに異なる通信チャネルを介して伝送され得る。それにより、個々のチャネルに掛かる負荷を分散させて、通信の遅延若しくはオーバフローの発生を抑制することができる。
 また、何らかの条件に応じて、伝送のために使用される通信チャネルが動的に選択されてもよい。例えば、データ量が比較的多いベースレイヤの符号化ストリーム1121は帯域幅の広い通信チャネルを介して伝送され、データ量が比較的少ないエンハンスメントレイヤの符号化ストリーム1122は帯域幅の狭い通信チャネルを介して伝送され得る。また、特定のレイヤの符号化ストリーム1122が伝送される通信チャネルが、通信チャネルの帯域幅に応じて切り替えられてもよい。それにより、個々のチャネルに掛かる負荷をより効果的に抑制することができる。
 なお、図20に示したデータ伝送システム1100の構成は一例に過ぎない。データ伝送システム1100は、いかなる数の通信チャネル及び端末装置を含んでもよい。また、放送以外の用途において、ここで説明したシステムの構成が利用されてもよい。
   (3)第3の例
 第3の例において、スケーラブル符号化は、映像の記憶のために利用される。図21を参照すると、データ伝送システム1200は、撮像装置1201及びストリーム記憶装置1202を含む。撮像装置1201は、被写体1211を撮像することにより生成される画像データをスケーラブル符号化し、多重化ストリーム1221を生成する。多重化ストリーム1221は、ベースレイヤの符号化ストリーム及びエンハンスメントレイヤの符号化ストリームを含む。そして、撮像装置1201は、多重化ストリーム1221をストリーム記憶装置1202へ供給する。
 ストリーム記憶装置1202は、撮像装置1201から供給される多重化ストリーム1221を、モードごとに異なる画質で記憶する。例えば、ストリーム記憶装置1202は、通常モードにおいて、多重化ストリーム1221からベースレイヤの符号化ストリーム1222を抽出し、抽出したベースレイヤの符号化ストリーム1222を記憶する。これに対し、ストリーム記憶装置1202は、高画質モードにおいて、多重化ストリーム1221をそのまま記憶する。それにより、ストリーム記憶装置1202は、高画質での映像の記録が望まれる場合にのみ、データ量の多い高画質のストリームを記録することができる。そのため、画質の劣化のユーザへの影響を抑制しながら、メモリリソースを節約することができる。
 例えば、撮像装置1201は、監視カメラであるものとする。撮像画像に監視対象(例えば侵入者)が映っていない場合には、通常モードが選択される。この場合、撮像画像は重要でない可能性が高いため、データ量の削減が優先され、映像は低画質で記録される(即ち、ベースレイヤの符号化ストリーム1222のみが記憶される)。これに対し、撮像画像に監視対象(例えば、侵入者である被写体1211)が映っている場合には、高画質モードが選択される。この場合、撮像画像は重要である可能性が高いため、画質の高さが優先され、映像は高画質で記録される(即ち、多重化ストリーム1221が記憶される)。
 図21の例では、モードは、例えば画像解析結果に基づいて、ストリーム記憶装置1202により選択される。しかしながら、かかる例に限定されず、撮像装置1201がモードを選択してもよい。後者の場合、撮像装置1201は、通常モードにおいて、ベースレイヤの符号化ストリーム1222をストリーム記憶装置1202へ供給し、高画質モードにおいて、多重化ストリーム1221をストリーム記憶装置1202へ供給してもよい。
 なお、モードを選択するための選択基準は、いかなる基準であってもよい。例えば、マイクロフォンを通じて取得される音声の大きさ又は音声の波形などに応じて、モードが切り替えられてもよい。また、周期的にモードが切り替えられてもよい。また、ユーザがらの指示に応じてモードが切り替えられてもよい。さらに、選択可能なモードの数は、階層化されるレイヤの数を超えない限り、いかなる数であってもよい。
 図21に示したデータ伝送システム1200の構成は一例に過ぎない。データ伝送システム1200は、いかなる数の撮像装置1201を含んでもよい。また、監視カメラ以外の用途において、ここで説明したシステムの構成が利用されてもよい。
  [7-3.その他]
   (1)マルチビューコーデックへの応用
 マルチビューコーデックは、マルチレイヤコーデックの一種であり、いわゆる多視点映像を符号化し及び復号するための画像符号化方式である。図22は、マルチビューコーデックについて説明するための説明図である。図22を参照すると、3つの視点においてそれぞれ撮影される3つのビューのフレームのシーケンスが示されている。各ビューには、ビューID(view_id)が付与される。これら複数のビューのうちいずれか1つのビューが、ベースビュー(base view)に指定される。ベースビュー以外のビューは、ノンベースビューと呼ばれる。図22の例では、ビューIDが“0”であるビューがベースビューであり、ビューIDが“1”又は“2”である2つのビューがノンベースビューである。これらビューが階層的に符号化される場合、各ビューがレイヤに相当し得る。図中に矢印で示したように、ノンベースビューの画像は、ベースビューの画像を参照して符号化され及び復号される(他のノンベースビューの画像も参照されてよい)。
 図23は、マルチビューコーデックをサポートする画像符号化装置10vの概略的な構成を示すブロック図である。図23を参照すると、画像符号化装置10vは、第1レイヤ符号化部1c、第2レイヤ符号化部1d、共通メモリ2及び多重化部3を備える。
 第1レイヤ符号化部1cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像を受け取ることを除き、図3を用いて説明したBL符号化部1aの機能と同等である。第1レイヤ符号化部1cは、ベースビュー画像を符号化し、第1レイヤの符号化ストリームを生成する。第2レイヤ符号化部1dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像を受け取ることを除き、図3を用いて説明したEL符号化部1bの機能と同等である。第2レイヤ符号化部1dは、ノンベースビュー画像を符号化し、第2レイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、第1レイヤ符号化部1cにより生成される第1レイヤの符号化ストリームと、第2レイヤ符号化部1dにより生成される第2レイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
 図24は、マルチビューコーデックをサポートする画像復号装置60vの概略的な構成を示すブロック図である。図24を参照すると、画像復号装置60vは、逆多重化部5、第1レイヤ復号部6c、第2レイヤ復号部6d及び共通メモリ7を備える。
 逆多重化部5は、マルチレイヤの多重化ストリームを第1レイヤの符号化ストリーム及び第2レイヤの符号化ストリームに逆多重化する。第1レイヤ復号部6cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図4を用いて説明したBL復号部6aの機能と同等である。第1レイヤ復号部6cは、第1レイヤの符号化ストリームからベースビュー画像を復号する。第2レイヤ復号部6dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図4を用いて説明したEL復号部6bの機能と同等である。第2レイヤ復号部6dは、第2レイヤの符号化ストリームからノンベースビュー画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
 マルチビューの画像データを符号化し又は復号する際、本開示に係る技術に従って、ベースビューの情報とノンベースビューの情報とに基づく組合せ予測が実現されてもよい。それにより、スケーラブル符号化のケースと同様に、マルチビューコーデックにおいても、予測精度を高め、符号化効率を一層向上させることができる。
   (2)ストリーミング技術への応用
 本開示に係る技術は、ストリーミングプロトコルに適用されてもよい。例えば、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)では、解像度などのパラメータが互いに異なる複数の符号化ストリームがストリーミングサーバにおいて予め用意される。そして、ストリーミングサーバは、複数の符号化ストリームからストリーミングすべき適切なデータをセグメント単位で動的に選択し、選択したデータを配信する。このようなストリーミングプロトコルにおいて、本開示に係る技術に従って、複数の符号化ストリームの情報に基づく組合せ予測が実現されてもよい。
 <8.まとめ>
 ここまで、図1~図24を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、第1レイヤを参照して符号化される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みが、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定される。即ち、マルチレイヤコーデックにおける画素予測に際して、各レイヤの画質を考慮してどのレイヤの画像をどのように参照すべきかが適応的に決定されるため、予測精度を高め、符号化効率を向上させることができる。
 また、上述した実施形態によれば、画質に依存する上記指標は、レイヤごとの量子化パラメータを含む。量子化パラメータが大きければ画像は粗く量子化され、それにより画質は低下するため、上記指標として量子化パラメータを用いることで、レイヤ間で画質を簡易に比較することが可能となる。
 また、上述した実施形態によれば、レイヤ間で量子化パラメータが等しい場合には、第1レイヤ及び第2レイヤに同等の重みが設定される。また、量子化パラメータが異なる場合には、量子化パラメータがより小さい値を示すレイヤについてより大きい重みが設定される。従って、画質が等しい場合には第1レイヤ画素及び第2レイヤ画素を同等の重みで画素予測に算入し、画質が異なる場合にはより画質の高いレイヤの画素をより大きい重みで画素予測に算入することができる。
 また、上述した実施形態によれば、レイヤ間の解像度比に依存する補正値で量子化パラメータが補正された上で、レイヤ間で量子化パラメータが比較される。従って、画質への解像度の影響を、重みの設定に反映させることができる。重みの設定のために使用される量子化パラメータがピクチャレベル又はスライスレベルのパラメータである場合には、バッファリングされるパラメータの情報量が削減されるため、メモリリソースを節約することができる。
 また、上述した実施形態によれば、重みを変化させるために使用される閾値、及び使用される量子化パラメータのレベル(ピクチャ、スライス又はCUなど)を示すフラグなどが、符号化され及び復号され得る。これら追加的なパラメータの採用により、マルチレイヤコーデックにおける画素予測の予測精度を最適化するような符号化処理の柔軟な設計が可能となる。
 なお、本明細書では、予測制御に関する情報が、符号化ストリームのヘッダに多重化されて、符号化側から復号側へ伝送される例について主に説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1レイヤを参照して符号化され又は復号される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みを、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定する予測制御部、
 を備える画像処理装置。
(2)
 画質に依存する前記指標は、前記第1レイヤ画像に適用された第1の量子化パラメータ及び前記第2レイヤ画像に適用された第2の量子化パラメータを含む、前記(1)に記載の画像処理装置。
(3)
 前記予測制御部は、前記第1の量子化パラメータと前記第2の量子化パラメータとが等しい場合には、前記第1レイヤ画素及び前記第2レイヤ画素の重みを同等の値に設定する、前記(2)に記載の画像処理装置。
(4)
 前記予測制御部は、より小さい量子化パラメータの適用されたレイヤの画素についてより大きい重みを設定する、前記(2)又は前記(3)に記載の画像処理装置。
(5)
 前記予測制御部は、前記第1の量子化パラメータと前記第2の量子化パラメータとの差が閾値を上回る場合に、より小さい量子化パラメータの適用されたレイヤの画素のみを前記画素予測のために算入する、前記(2)~(4)のいずれか1項に記載の画像処理装置。
(6)
 前記画像処理装置は、前記重みを変化させるために使用される閾値を符号化ストリームから復号する復号部、をさらに備える、前記(2)~(5)のいずれか1項に記載の画像処理装置。
(7)
 前記予測制御部は、前記第1レイヤ画像と前記第2レイヤ画像との間の解像度比に依存する補正値で前記第1の量子化パラメータを補正し、補正された前記第1の量子化パラメータと前記第2の量子化パラメータとを比較する、前記(2)~(6)のいずれか1項に記載の画像処理装置。
(8)
 前記予測制御部は、量子化行列が利用されるブロックについて前記画素予測が行われる場合には、前記量子化行列の直流成分に対応する量子化パラメータを、前記第1の量子化パラメータ又は前記第2の量子化パラメータとして使用する、前記(2)~(7)のいずれか1項に記載の画像処理装置。
(9)
 前記予測制御部は、前記第2レイヤの符号化単位ごとに前記重みを設定する、前記(2)~(8)のいずれか1項に記載の画像処理装置。
(10)
 前記予測制御部は、前記第2レイヤの符号化単位に対応する複数の対応ブロックが前記第1レイヤに存在し、当該複数の対応ブロックに異なる複数の量子化パラメータが適用された場合には、当該複数の量子化パラメータの平均値を前記第1の量子化パラメータとして使用する、前記(9)に記載の画像処理装置。
(11)
 前記予測制御部は、前記第2レイヤの符号化単位に対応する複数の対応ブロックが前記第1レイヤに存在し、当該複数の対応ブロックに異なる複数の量子化パラメータが適用された場合には、先頭の対応ブロックに適用された量子化パラメータを前記第1の量子化パラメータとして使用する、前記(9)に記載の画像処理装置。
(12)
 前記第1の量子化パラメータは、前記第1レイヤにおいてピクチャレベルで設定されるパラメータである、前記(2)~(8)のいずれか1項に記載の画像処理装置。
(13)
 前記第1の量子化パラメータは、前記第1レイヤにおいてスライスレベルで設定されるパラメータである、前記(2)~(8)のいずれか1項に記載の画像処理装置。
(14)
 前記予測制御部は、符号化ストリームから復号されるフラグにより示されるレベルで前記第1レイヤに設定される量子化パラメータを、前記第1の量子化パラメータとして使用する、前記(2)~(8)のいずれか1項に記載の画像処理装置。
(15)
 前記予測制御部は、3つの色成分について別々に、画質に依存する前記指標に基づいて前記重みを設定する、前記(1)~(14)のいずれか1項に記載の画像処理装置。
(16)
 画質に依存する前記指標は、前記第1レイヤと前記第2レイヤとの間の解像度比を含む、前記(1)~(15)のいずれか1項に記載の画像処理装置。
(17)
 前記画素予測は、インター予測又はイントラ予測において参照される参照画素を予測するために行われる、前記(1)~(16)のいずれか1項に記載の画像処理装置。
(18)
 前記画素予測は、インター予測又はイントラ予測の予測誤差を予測するために行われる、前記(1)~(16)のいずれか1項に記載の画像処理装置。
(19)
 前記画素予測は、復号画像の画素を予測するために行われる、前記(1)~(16)のいずれか1項に記載の画像処理装置。
(20)
 第1レイヤを参照して符号化され又は復号される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みを、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定すること、
 を含む画像処理方法。
 10,10v 画像符号化装置(画像処理装置)
 1a     ベースレイヤ符号化部
 1b     エンハンスメントレイヤ符号化部
 16     可逆符号化部
 40     予測制御部
 60,60v 画像復号装置(画像処理装置)
 6a     ベースレイヤ復号部
 6b     エンハンスメントレイヤ復号部
 62     可逆復号部
 90     予測制御部

Claims (20)

  1.  第1レイヤを参照して符号化され又は復号される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みを、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定する予測制御部、
     を備える画像処理装置。
  2.  画質に依存する前記指標は、前記第1レイヤ画像に適用された第1の量子化パラメータ及び前記第2レイヤ画像に適用された第2の量子化パラメータを含む、請求項1に記載の画像処理装置。
  3.  前記予測制御部は、前記第1の量子化パラメータと前記第2の量子化パラメータとが等しい場合には、前記第1レイヤ画素及び前記第2レイヤ画素の重みを同等の値に設定する、請求項2に記載の画像処理装置。
  4.  前記予測制御部は、より小さい量子化パラメータの適用されたレイヤの画素についてより大きい重みを設定する、請求項2に記載の画像処理装置。
  5.  前記予測制御部は、前記第1の量子化パラメータと前記第2の量子化パラメータとの差が閾値を上回る場合に、より小さい量子化パラメータの適用されたレイヤの画素のみを前記画素予測のために算入する、請求項2に記載の画像処理装置。
  6.  前記画像処理装置は、前記重みを変化させるために使用される閾値を符号化ストリームから復号する復号部、をさらに備える、請求項2に記載の画像処理装置。
  7.  前記予測制御部は、前記第1レイヤ画像と前記第2レイヤ画像との間の解像度比に依存する補正値で前記第1の量子化パラメータを補正し、補正された前記第1の量子化パラメータと前記第2の量子化パラメータとを比較する、請求項2に記載の画像処理装置。
  8.  前記予測制御部は、量子化行列が利用されるブロックについて前記画素予測が行われる場合には、前記量子化行列の直流成分に対応する量子化パラメータを、前記第1の量子化パラメータ又は前記第2の量子化パラメータとして使用する、請求項2に記載の画像処理装置。
  9.  前記予測制御部は、前記第2レイヤの符号化単位ごとに前記重みを設定する、請求項2に記載の画像処理装置。
  10.  前記予測制御部は、前記第2レイヤの符号化単位に対応する複数の対応ブロックが前記第1レイヤに存在し、当該複数の対応ブロックに異なる複数の量子化パラメータが適用された場合には、当該複数の量子化パラメータの平均値を前記第1の量子化パラメータとして使用する、請求項9に記載の画像処理装置。
  11.  前記予測制御部は、前記第2レイヤの符号化単位に対応する複数の対応ブロックが前記第1レイヤに存在し、当該複数の対応ブロックに異なる複数の量子化パラメータが適用された場合には、先頭の対応ブロックに適用された量子化パラメータを前記第1の量子化パラメータとして使用する、請求項9に記載の画像処理装置。
  12.  前記第1の量子化パラメータは、前記第1レイヤにおいてピクチャレベルで設定されるパラメータである、請求項2に記載の画像処理装置。
  13.  前記第1の量子化パラメータは、前記第1レイヤにおいてスライスレベルで設定されるパラメータである、請求項2に記載の画像処理装置。
  14.  前記予測制御部は、符号化ストリームから復号されるフラグにより示されるレベルで前記第1レイヤに設定される量子化パラメータを、前記第1の量子化パラメータとして使用する、請求項2に記載の画像処理装置。
  15.  前記予測制御部は、3つの色成分について別々に、画質に依存する前記指標に基づいて前記重みを設定する、請求項1に記載の画像処理装置。
  16.  画質に依存する前記指標は、前記第1レイヤと前記第2レイヤとの間の解像度比を含む、請求項1に記載の画像処理装置。
  17.  前記画素予測は、インター予測又はイントラ予測において参照される参照画素を予測するために行われる、請求項1に記載の画像処理装置。
  18.  前記画素予測は、インター予測又はイントラ予測の予測誤差を予測するために行われる、請求項1に記載の画像処理装置。
  19.  前記画素予測は、復号画像の画素を予測するために行われる、請求項1に記載の画像処理装置。
  20.  第1レイヤを参照して符号化され又は復号される第2レイヤにおける画素予測のために第1レイヤ画素及び第2レイヤ画素を算入する際の重みを、第1レイヤ画像及び第2レイヤ画像の画質に依存する指標に基づいて設定すること、
     を含む画像処理方法。
PCT/JP2013/076039 2012-12-20 2013-09-26 画像処理装置及び画像処理方法 WO2014097703A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012277952 2012-12-20
JP2012-277952 2012-12-20

Publications (1)

Publication Number Publication Date
WO2014097703A1 true WO2014097703A1 (ja) 2014-06-26

Family

ID=50978053

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/076039 WO2014097703A1 (ja) 2012-12-20 2013-09-26 画像処理装置及び画像処理方法

Country Status (1)

Country Link
WO (1) WO2014097703A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096011A (zh) * 2021-03-25 2021-07-09 北京达佳互联信息技术有限公司 图像处理方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162870A (ja) * 1993-09-21 1995-06-23 At & T Corp ビデオ信号符号化装置
JPH0984025A (ja) * 1995-09-08 1997-03-28 Sony Corp デイジタル画像信号符号化装置及び方法、符号化画像信号復号装置及び方法
JP2007028034A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162870A (ja) * 1993-09-21 1995-06-23 At & T Corp ビデオ信号符号化装置
JPH0984025A (ja) * 1995-09-08 1997-03-28 Sony Corp デイジタル画像信号符号化装置及び方法、符号化画像信号復号装置及び方法
JP2007028034A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN ET AL.: "Description of scalable video coding technology proposal by Qualcomm (configuration 2", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP3 AND ISO/IEC JTC1/SC29/WG11 11TH MEETING, October 2012 (2012-10-01), SHANGHAI, CN *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096011A (zh) * 2021-03-25 2021-07-09 北京达佳互联信息技术有限公司 图像处理方法、装置及电子设备
CN113096011B (zh) * 2021-03-25 2024-02-09 北京达佳互联信息技术有限公司 图像处理方法、装置及电子设备

Similar Documents

Publication Publication Date Title
JP6635184B2 (ja) 画像処理装置および方法
JP6455434B2 (ja) 画像処理装置及び画像処理方法
JP6094688B2 (ja) 画像処理装置及び画像処理方法
JP6345650B2 (ja) 画像処理装置及び画像処理方法
US20150043637A1 (en) Image processing device and method
WO2013094385A1 (ja) 画像処理装置および方法
WO2015053001A1 (ja) 画像処理装置及び画像処理方法
WO2013164922A1 (ja) 画像処理装置及び画像処理方法
US20150016522A1 (en) Image processing apparatus and image processing method
WO2015146278A1 (ja) 画像処理装置及び画像処理方法
WO2013001939A1 (ja) 画像処理装置及び画像処理方法
US20150043638A1 (en) Image processing apparatus and image processing method
WO2013088833A1 (ja) 画像処理装置及び画像処理方法
WO2014148070A1 (ja) 画像処理装置及び画像処理方法
WO2015005024A1 (ja) 画像処理装置及び画像処理方法
WO2015052979A1 (ja) 画像処理装置及び画像処理方法
WO2014097703A1 (ja) 画像処理装置及び画像処理方法
WO2014050311A1 (ja) 画像処理装置及び画像処理方法
WO2015098231A1 (ja) 画像処理装置及び画像処理方法
WO2014156707A1 (ja) 画像符号化装置および方法、並びに、画像復号装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13864346

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13864346

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP