WO2013150838A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2013150838A1
WO2013150838A1 PCT/JP2013/055106 JP2013055106W WO2013150838A1 WO 2013150838 A1 WO2013150838 A1 WO 2013150838A1 JP 2013055106 W JP2013055106 W JP 2013055106W WO 2013150838 A1 WO2013150838 A1 WO 2013150838A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
unit
prediction unit
mode
color difference
Prior art date
Application number
PCT/JP2013/055106
Other languages
English (en)
French (fr)
Inventor
佐藤 数史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/379,090 priority Critical patent/US20150016522A1/en
Publication of WO2013150838A1 publication Critical patent/WO2013150838A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Definitions

  • the present disclosure relates to an image processing apparatus and an image processing method.
  • Intra prediction is a technique for reducing the amount of encoded information by using the correlation between adjacent blocks in an image and predicting the pixel values in a block from the pixel values of other adjacent blocks.
  • an optimal prediction mode for predicting a pixel value of a prediction target block is selected from a plurality of prediction modes. For example, in HEVC, various prediction mode candidates such as average value prediction (DC Prediction), angle prediction (Angular Prediction), and planar prediction (Planar Prediction) can be selected.
  • DC Prediction average value prediction
  • Angular Prediction angle prediction
  • Planar Prediction planar prediction
  • scalable coding (also referred to as SVC (Scalable Video Coding)) is one of important technologies in future image coding schemes.
  • Scalable encoding refers to a technique for hierarchically encoding a layer that transmits a coarse image signal and a layer that transmits a fine image signal.
  • Typical attributes hierarchized in scalable coding are mainly the following three types. Spatial scalability: Spatial resolution or image size is layered. -Time scalability: Frame rate is layered. -SNR (Signal to Noise Ratio) scalability: SN ratio is hierarchized.
  • bit depth scalability and chroma format scalability are also discussed, although not yet adopted by the standard.
  • Non-Patent Document 2 The processing for calculating the coefficient of the prediction function based on the value of the luminance component in the LM mode proposed by Non-Patent Document 2 requires a lot of processing costs compared to the calculation in other prediction modes.
  • the size of the prediction unit (Prediction Unit) is larger, the number of pixels included in the coefficient calculation process increases, so the cost of the coefficient calculation process cannot be ignored.
  • adopting the LM mode in the upper layer in scalable coding can contribute to improvement of coding efficiency, but brings a risk factor of performance degradation.
  • a base layer prediction unit that acquires prediction mode information for intra prediction for a first prediction unit of a color difference component in a base layer of an image to be scalable decoded, and acquired by the base layer prediction unit If the prediction mode information indicates a luminance-based color difference prediction mode, the coefficient calculated for the first prediction unit is used to determine the color difference component corresponding to the first prediction unit in the enhancement layer.
  • An enhancement layer prediction unit that generates a predicted image in the luminance-based color difference prediction mode for a second prediction unit is provided.
  • the image processing apparatus can typically be realized as an image decoding apparatus that decodes an image.
  • the prediction mode information for intra prediction for the first prediction unit of the color difference component in the base layer of the image to be scalable decoded is acquired, and the acquired prediction mode information is When indicating the luminance-based color difference prediction mode, the coefficient calculated for the first prediction unit is used for the second prediction unit of the color difference component corresponding to the first prediction unit in the enhancement layer. Generating a predicted image in a luminance-based color difference prediction mode.
  • the base layer prediction unit that selects an optimal intra prediction mode for the first prediction unit of the color difference component in the base layer of the image to be scalable encoded, and the base layer prediction unit When the luminance-based color difference prediction mode is selected for one prediction unit, the coefficient of the color difference component corresponding to the first prediction unit in the enhancement layer is calculated using the coefficient calculated for the first prediction unit.
  • An enhancement layer prediction unit that generates a predicted image in the luminance-based color difference prediction mode for a second prediction unit is provided.
  • the image processing apparatus can typically be realized as an image encoding apparatus that encodes an image.
  • the optimal intra prediction mode is selected for the first prediction unit of the color difference component in the base layer of the image to be scalable encoded, and the luminance-based color difference prediction is performed for the first prediction unit.
  • the luminance base for the second prediction unit of the chrominance component corresponding to the first prediction unit in the enhancement layer using the coefficient calculated for the first prediction unit when a mode is selected An image processing method is provided that includes generating a predicted image in a color difference prediction mode.
  • FIG. 5 is a block diagram illustrating an example of a configuration of a first decoding unit and a second decoding unit illustrated in FIG. 4. It is a block diagram which shows an example of a detailed structure of the intra estimation part shown in FIG. It is a flowchart which shows an example of the flow of the schematic process at the time of the decoding which concerns on one Embodiment. It is a flowchart which shows an example of the branch of the intra prediction process in an upper layer.
  • scalable coding In scalable encoding, a plurality of layers each including a series of images are encoded.
  • the base layer is a layer that expresses the coarsest image that is encoded first.
  • the base layer coded stream may be decoded independently without decoding the other layer coded streams.
  • a layer other than the base layer is a layer called an enhancement layer (enhancement layer) that represents a finer image.
  • the enhancement layer encoded stream is encoded using information included in the base layer encoded stream. Accordingly, in order to reproduce the enhancement layer image, both the base layer and enhancement layer encoded streams are decoded.
  • the number of layers handled in scalable coding may be any number of two or more.
  • the lowest layer is the base layer
  • the remaining layers are enhancement layers.
  • the higher enhancement layer encoded stream may be encoded and decoded using information contained in the lower enhancement layer or base layer encoded stream.
  • a layer on which the dependency is made is referred to as a lower layer
  • a layer on which the dependency is concerned is referred to as an upper layer.
  • FIG. 1 shows three layers L1, L2 and L3 to be scalable encoded.
  • Layer L1 is a base layer
  • layers L2 and L3 are enhancement layers.
  • spatial scalability is taken as an example among various types of scalability.
  • the ratio of the spatial resolution of the layer L2 to the layer L1 is 2: 1.
  • the ratio of the spatial resolution of layer L3 to layer L1 is 4: 1.
  • the block B1 of the layer L1 is a prediction unit in the base layer picture.
  • the block B2 in the layer L2 is a prediction unit in a picture of the enhancement layer that shows a scene common to the block B1.
  • Block B2 corresponds to block B1 of layer L1.
  • the block B3 of the layer L3 is a prediction unit in a picture of a higher enhancement layer that shows a scene common to the blocks B1 and B2.
  • the block B3 corresponds to the block B1 of the layer L1 and the block B2 of the layer L2.
  • the spatial correlation of an image of a certain layer is usually similar to the spatial correlation of images of other layers corresponding to a common scene. For example, if block B1 has a strong correlation with an adjacent block in a certain direction in layer L1, block B2 has a strong correlation with an adjacent block in the same direction in layer L2, and block B3 in layer L3 It is highly likely that there is a strong correlation between adjacent blocks in the same direction.
  • the point that the spatial correlation of images between the layers is similar is not only the spatial scalability illustrated in FIG. 1 but also the SNR scalability, bit depth scalability, and chroma format scalability.
  • the spatial scalability and the chroma format scalability are particularly characterized in that the resolution or the component density of the color difference component is different between corresponding blocks in different layers. This feature may require consideration of certain exception cases when applying the LM mode described below. The exception case will be described later.
  • the technology according to the present disclosure is applicable to spatial scalability, SNR scalability, bit depth scalability, and chroma format scalability, although not limited thereto.
  • LM mode Luminance-based color difference prediction mode
  • a linear function having a coefficient that is dynamically calculated is used as the prediction function. Therefore, the prediction mode is also referred to as a linear model (LM) mode.
  • the argument of the prediction function is the value of the luminance component (downsampled as necessary), and the return value is the predicted pixel value of the chrominance component.
  • the prediction function in LM mode may be a linear linear function as follows:
  • Re L ′ (x, y) represents a down-sampled value of the luminance component of the decoded image (so-called reconstructed image).
  • the downsampling (or phase shifting) of the luminance component can be performed when the density of the color difference component is different from the density of the luminance component depending on the chroma format.
  • ⁇ and ⁇ are coefficients calculated from pixel values of adjacent blocks using a predetermined calculation formula.
  • a prediction unit (PU) of a luminance component (Luma) having a size of 16 ⁇ 16 pixels and a PU of a corresponding color difference component (Chroma) Is shown conceptually.
  • the density of the luminance component is twice the density of the color difference component in each of the horizontal direction and the vertical direction.
  • Circles located around each PU and filled in the drawing are reference pixels referred to when calculating the coefficients ⁇ and ⁇ of the prediction function.
  • the circles shaded with diagonal lines on the right in the figure are downsampled luminance components.
  • the predicted value of the color difference component at the common pixel position is calculated.
  • the chroma format is 4: 2: 0, one luminance component input value (value to be substituted into the prediction function) is generated by downsampling for every 2 ⁇ 2 luminance components as in the example of FIG. Is done. Reference pixels can be similarly downsampled.
  • the coefficients ⁇ and ⁇ of the prediction function are calculated according to the following equations (2) and (3), respectively.
  • I represents the number of reference pixels.
  • the calculation of the coefficients ⁇ and ⁇ of the prediction function in the LM mode includes a number of arithmetic operations.
  • the processing for calculating the coefficient of the prediction function in the LM mode requires a large processing cost as compared with the calculation in other prediction modes.
  • the reference pixel number I is larger, so the cost of the coefficient calculation process cannot be ignored. Therefore, it is not a good idea from the viewpoint of performance to execute the iterative coefficient calculation process for each layer in scalable coding.
  • the correlation between the luminance component and the chrominance component can also be similar between layers when scalability is achieved such that the spatial correlation of images is similar between layers.
  • the coefficient of the prediction function in LM mode is calculated for a certain prediction unit in the lower layer
  • the coefficient calculated in the lower layer is used instead of recalculating the coefficient of the prediction function for the corresponding prediction unit in the upper layer.
  • processing costs are reduced.
  • the prediction function having the coefficients ⁇ and ⁇ calculated there is a difference between the luminance component and the color difference component in the prediction unit. It can be said that the correlation is well expressed. If such a prediction function is reused for the corresponding prediction unit in the upper layer, not only the processing cost can be reduced, but also the prediction accuracy in the upper layer can be kept high.
  • an upper limit may be imposed on the size of the prediction unit of the color difference component in which the LM mode described above can be used.
  • the upper limit is 16 ⁇ 16 pixels.
  • the size of the prediction unit having the color difference component in the upper layer is larger than the size of the corresponding prediction unit in the lower layer. Therefore, for example, when the LM mode is selected for a prediction unit of 16 ⁇ 16 pixels in the lower layer, a situation may occur in which the LM mode cannot be used for the corresponding prediction unit in the upper layer.
  • the technique according to the present disclosure also provides a possibility of reusing the coefficient of the prediction function of the lower layer LM mode in such a situation, as will be described later.
  • FIG. 3 is a block diagram illustrating a schematic configuration of an image encoding device 10 according to an embodiment that supports scalable encoding.
  • the image encoding device 10 includes a first encoding unit 1 a, a second encoding unit 1 b, a common memory 2, and a multiplexing unit 3.
  • the first encoding unit 1a encodes the base layer image and generates an encoded stream of the base layer.
  • the second encoding unit 1b encodes the enhancement layer image and generates an enhancement layer encoded stream.
  • the common memory 2 stores information commonly used between layers.
  • the multiplexing unit 3 multiplexes the encoded stream of the base layer generated by the first encoding unit 1a and the encoded stream of one or more enhancement layers generated by the second encoding unit 1b. A multiplexed stream of layers is generated.
  • FIG. 4 is a block diagram illustrating a schematic configuration of an image decoding device 60 according to an embodiment that supports scalable coding.
  • the image decoding device 60 includes a demultiplexing unit 5, a first decoding unit 6 a, a second decoding unit 6 b, and a common memory 7.
  • the demultiplexing unit 5 demultiplexes the multi-layer multiplexed stream into a base layer encoded stream and one or more enhancement layer encoded streams.
  • the first decoding unit 6a decodes the base layer image from the base layer encoded stream.
  • the second decoding unit 6b decodes the enhancement layer image from the enhancement layer encoded stream.
  • the common memory 7 stores information commonly used between layers.
  • the configuration of the first encoding unit 1 a for encoding the base layer and the configuration of the second encoding unit 1 b for encoding the enhancement layer are mutually Similar. Some parameters generated or acquired by the first encoding unit 1a are buffered using the common memory 2 and reused by the second encoding unit 1b. In the next section, the configuration of the first encoding unit 1a and the second encoding unit 1b will be described in detail.
  • the configuration of the first decoding unit 6a for decoding the base layer and the configuration of the second decoding unit 6b for decoding the enhancement layer are similar to each other. . Some parameters generated or acquired by the first decoding unit 6a are buffered using the common memory 7 and reused by the second decoding unit 6b. Further, in the next section, the configuration of the first decoding unit 6a and the second decoding unit 6b will be described in detail.
  • FIG. 5 is a block diagram illustrating an example of the configuration of the first encoding unit 1a and the second encoding unit 1b illustrated in FIG.
  • the first encoding unit 1a includes a rearrangement buffer 12, a subtraction unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, a storage buffer 17, a rate control unit 18, an inverse quantum.
  • the second encoding unit 1b includes an intra prediction unit 40b instead of the intra prediction unit 40a.
  • the rearrangement buffer 12 rearranges the images included in the series of image data.
  • the rearrangement buffer 12 rearranges the images according to a GOP (Group of Pictures) structure related to the encoding process, and then subtracts the rearranged image data, the motion search unit 30, and the intra prediction unit 40a or 40b. Output to.
  • GOP Group of Pictures
  • the subtraction unit 13 is supplied with image data input from the rearrangement buffer 12 and predicted image data input from the motion search unit 30 or the intra prediction unit 40a or 40b described later.
  • the subtraction unit 13 calculates prediction error data that is the difference between the image data input from the rearrangement buffer 12 and the predicted image data, and outputs the calculated prediction error data to the orthogonal transform unit 14.
  • the orthogonal transform unit 14 performs orthogonal transform on the prediction error data input from the subtraction unit 13.
  • the orthogonal transformation performed by the orthogonal transformation part 14 may be discrete cosine transformation (Discrete Cosine Transform: DCT) or Karoonen-Labe transformation, for example.
  • the orthogonal transform unit 14 outputs transform coefficient data acquired by the orthogonal transform process to the quantization unit 15.
  • the quantization unit 15 is supplied with transform coefficient data input from the orthogonal transform unit 14 and a rate control signal from the rate control unit 18 described later.
  • the quantizing unit 15 quantizes the transform coefficient data and outputs the quantized transform coefficient data (hereinafter referred to as quantized data) to the lossless encoding unit 16 and the inverse quantization unit 21.
  • the quantization unit 15 changes the bit rate of the quantized data by switching the quantization parameter (quantization scale) based on the rate control signal from the rate control unit 18.
  • the lossless encoding unit 16 generates an encoded stream of each layer by performing lossless encoding processing on the quantized data of each layer input from the quantization unit 15. In addition, the lossless encoding unit 16 encodes information related to intra prediction or information related to inter prediction input from the selector 27, and multiplexes the encoding parameter in the header region of the encoded stream. Then, the lossless encoding unit 16 outputs the generated encoded stream to the accumulation buffer 17.
  • the accumulation buffer 17 temporarily accumulates the encoded stream input from the lossless encoding unit 16 using a storage medium such as a semiconductor memory. Then, the accumulation buffer 17 outputs the accumulated encoded stream to a transmission unit (not shown) (for example, a communication interface or a connection interface with a peripheral device) at a rate corresponding to the bandwidth of the transmission path.
  • a transmission unit for example, a communication interface or a connection interface with a peripheral device
  • the rate control unit 18 monitors the free capacity of the accumulation buffer 17. Then, the rate control unit 18 generates a rate control signal according to the free capacity of the accumulation buffer 17 and outputs the generated rate control signal to the quantization unit 15. For example, the rate control unit 18 generates a rate control signal for reducing the bit rate of the quantized data when the free capacity of the storage buffer 17 is small. For example, when the free capacity of the accumulation buffer 17 is sufficiently large, the rate control unit 18 generates a rate control signal for increasing the bit rate of the quantized data.
  • the inverse quantization unit 21 performs an inverse quantization process on the quantized data input from the quantization unit 15. Then, the inverse quantization unit 21 outputs transform coefficient data acquired by the inverse quantization process to the inverse orthogonal transform unit 22.
  • the inverse orthogonal transform unit 22 restores the prediction error data by performing an inverse orthogonal transform process on the transform coefficient data input from the inverse quantization unit 21. Then, the inverse orthogonal transform unit 22 outputs the restored prediction error data to the addition unit 23.
  • the adding unit 23 adds the decoded prediction error data input from the inverse orthogonal transform unit 22 and the predicted image data input from the motion search unit 30 or the intra prediction unit 40a or 40b, thereby obtaining decoded image data ( A so-called reconstructed image) is generated. Then, the addition unit 23 outputs the generated decoded image data to the deblock filter 24 and the frame memory 25.
  • the deblocking filter 24 performs a filtering process for reducing block distortion that occurs during image coding.
  • the deblocking filter 24 removes block distortion by filtering the decoded image data input from the adding unit 23, and outputs the decoded image data after filtering to the frame memory 25.
  • the frame memory 25 stores the decoded image data input from the adder 23 and the decoded image data after filtering input from the deblock filter 24 using a storage medium.
  • the selector 26 reads out the decoded image data after filtering used for inter prediction from the frame memory 25 and supplies the read out decoded image data to the motion search unit 30 as reference image data.
  • the selector 26 reads out the decoded image data before filtering used for intra prediction from the frame memory 25 and supplies the read decoded image data to the intra prediction unit 40a or 40b as reference image data.
  • the selector 27 In the inter prediction mode, the selector 27 outputs the prediction image data as a result of the inter prediction output from the motion search unit 30 to the subtraction unit 13 and outputs information related to the inter prediction to the lossless encoding unit 16. Further, in the intra prediction mode, the selector 27 outputs the prediction image data as a result of the intra prediction output from the intra prediction unit 40a or 40b to the subtraction unit 13 and also transmits information regarding the intra prediction to the lossless encoding unit 16. Output. The selector 27 switches between the inter prediction mode and the intra prediction mode according to the size of the cost function value output from the motion search unit 30 and the intra prediction unit 40a or 40b.
  • the motion search unit 30 performs inter prediction processing (interframe prediction processing) based on the image data to be encoded (original image data) input from the rearrangement buffer 12 and the decoded image data supplied via the selector 26. )I do. For example, the motion search unit 30 evaluates the prediction result in each prediction mode using a predetermined cost function. Next, the motion search unit 30 selects the prediction mode with the smallest cost function value, that is, the prediction mode with the highest compression rate, as the optimum prediction mode. In addition, the motion search unit 30 generates predicted image data according to the optimal prediction mode. Then, the motion search unit 30 outputs information related to inter prediction including the prediction mode information indicating the selected optimal prediction mode and reference image information, a cost function value, and predicted image data to the selector 27.
  • inter prediction processing interframe prediction processing
  • the intra prediction unit 40a performs an intra prediction process for each prediction unit based on the original image data and decoded image data of the base layer. For example, the intra prediction unit 40a evaluates the prediction result in each prediction mode using a predetermined cost function. Next, the intra prediction unit 40a selects a prediction mode with the lowest cost function value, that is, a prediction mode with the highest compression rate, as the optimal prediction mode. Further, the intra prediction unit 40a generates base layer predicted image data in accordance with the optimal prediction mode. Then, the intra prediction unit 40 a outputs information related to intra prediction including prediction mode information representing the selected optimal prediction mode, cost function values, and predicted image data to the selector 27. In addition, the intra prediction unit 40 a causes at least some parameters related to intra prediction to be buffered by the common memory 2.
  • the intra prediction unit 40b performs an intra prediction process for each prediction unit based on the original image data and decoded image data of the enhancement layer. For example, the intra prediction unit 40b evaluates the prediction result in each prediction mode using a predetermined cost function. Next, the intra prediction unit 40b selects a prediction mode with the smallest cost function value, that is, a prediction mode with the highest compression rate, as the optimum prediction mode. Moreover, the intra estimation part 40b produces
  • the first encoding unit 1a executes the series of encoding processes described here for a series of image data of the base layer.
  • the second encoding unit 1b performs the series of encoding processes described here on a series of image data of the enhancement layer.
  • the enhancement layer encoding process may be repeated by the number of enhancement layers.
  • the base layer encoding process and the enhancement layer encoding process may be executed in synchronization for each processing unit such as an encoding unit or a prediction unit, for example.
  • the coefficient calculated in the lower layer is reused as the coefficient of the prediction function of the LM mode when the search mode is re-searched in the upper layer. It is a method. In this specification, this method is called a re-search method.
  • the size of the color difference component prediction unit in the lower layer is equal to the maximum size that can be used by the LM mode
  • the other is a method for prohibiting the use of the LM mode for the corresponding prediction unit in the upper layer. In this specification, this method is referred to as an LM mode prohibition method.
  • FIG. 6A is an explanatory diagram for describing a first method of intra prediction in the upper layer when the LM mode is selected in the lower layer.
  • the first method is a combination of the LM mode fixing method and the division method.
  • the LM mode when the LM mode is selected for the prediction unit of 4 ⁇ 4 pixels in the lower layer, the LM mode is also fixedly selected for the prediction unit of 8 ⁇ 8 pixels in the corresponding upper layer.
  • the LM mode is also fixedly selected for the prediction unit of 16 ⁇ 16 pixels in the corresponding upper layer.
  • the prediction image of the upper layer is generated using a prediction function in the LM mode having the coefficients ⁇ and ⁇ calculated in the lower layer.
  • the prediction unit of 32 ⁇ 32 pixels in the corresponding upper layer is divided into four sub-blocks of 16 ⁇ 16 pixels, respectively. The Then, a predicted image of each sub-block is generated using a prediction function having coefficients ⁇ and ⁇ calculated in the lower layer.
  • the LM mode fixing method since the LM mode fixing method is adopted, it is not necessary to encode the prediction mode information in the upper layer. Therefore, the encoding efficiency of the higher layer encoded stream is improved. Further, in the upper layer, not only the calculation of the coefficient of the prediction function but also the re-search of the prediction mode is omitted, so that the processing cost of the intra prediction of the upper layer can be significantly reduced. In addition, since the division method is adopted, the LM mode processing module is not expanded so as to support a larger block size, and the LM in the upper layer can be LM regardless of the size of the prediction unit in the lower layer. A prediction image can be generated in the mode. Therefore, high prediction accuracy in the upper layer can be maintained.
  • FIG. 6B is an explanatory diagram for describing a second method of intra prediction in the upper layer when the LM mode is selected in the lower layer.
  • the second method is a combination of a re-search method and a division method.
  • the optimum prediction mode is re-searched for a plurality of prediction modes including the LM mode for the prediction unit in the upper layer.
  • prediction mode information indicating the optimal prediction mode is encoded in the encoded stream of the higher layer.
  • the LM mode is selected for the prediction unit of 4 ⁇ 4 pixels or 8 ⁇ 8 pixels in the lower layer
  • a prediction function with the calculated coefficients ⁇ , ⁇ is used.
  • the LM mode is selected for the prediction unit of 16 ⁇ 16 pixels in the lower layer
  • the 32 ⁇ in the corresponding upper layer is generated when the prediction pixel value is generated in the LM mode in the re-search in the upper layer.
  • a prediction unit of 32 pixels is divided into four sub-blocks each of 16 ⁇ 16 pixels. Then, a predicted image of each sub-block is generated using a prediction function having coefficients ⁇ and ⁇ calculated in the lower layer.
  • the optimum prediction mode can be selected also in the upper layer regardless of the prediction mode selected in the lower layer.
  • the LM mode processing module is not expanded so as to support a larger block size, and the LM in the upper layer can be LM regardless of the size of the prediction unit in the lower layer. Modes can be included in the search. Therefore, high prediction accuracy in the upper layer can be maintained.
  • FIG. 6C is an explanatory diagram for describing a third method of intra prediction in the upper layer when the LM mode is selected in the lower layer.
  • the third method is a combination of the LM mode fixing method and the LM mode prohibition method.
  • the LM mode when the LM mode is selected for the prediction unit of 4 ⁇ 4 pixels in the lower layer, the LM mode is also fixedly selected for the prediction unit of 8 ⁇ 8 pixels in the corresponding upper layer.
  • the LM mode is also fixedly selected for the prediction unit of 16 ⁇ 16 pixels in the corresponding upper layer.
  • the prediction image of the upper layer is generated using a prediction function in the LM mode having the coefficients ⁇ and ⁇ calculated in the lower layer.
  • the LM mode When the LM mode is selected for a prediction unit of 16 ⁇ 16 pixels in the lower layer, exceptionally, a plurality of prediction modes other than the LM mode are set for the prediction unit of 32 ⁇ 32 pixels in the corresponding upper layer. As an object, the optimum prediction mode is searched again. Then, prediction mode information indicating the optimal prediction mode is encoded in the encoded stream of the higher layer.
  • the LM mode fixing method is adopted. Therefore, except for the exceptional case described above, the prediction mode information can be encoded in the upper layer. It becomes unnecessary. Therefore, the encoding efficiency of the higher layer encoded stream is improved. Further, by omitting the re-search of the prediction mode, it is possible to reduce the processing cost of intra prediction of the higher layer. Further, since the LM mode is prohibited for a prediction unit having a size exceeding the maximum size that can be used by the LM mode, it is not necessary to expand the processing module of the LM mode.
  • FIG. 6D is an explanatory diagram for describing a fourth method of intra prediction in the upper layer when the LM mode is selected in the lower layer.
  • the fourth method is a combination of the re-search method and the LM mode prohibition method.
  • the fourth method when the LM mode is selected for the prediction unit of 4 ⁇ 4 pixels or 8 ⁇ 8 pixels in the lower layer, a plurality of prediction modes including the LM mode are selected for the prediction unit in the corresponding upper layer. As an object, the optimum prediction mode is searched again. When generating a predicted pixel value in the LM mode in the re-search in the upper layer, a prediction function having coefficients ⁇ and ⁇ calculated in the lower layer is used. Then, prediction mode information indicating the optimal prediction mode is encoded in the encoded stream of the higher layer.
  • the LM mode When the LM mode is selected for a prediction unit of 16 ⁇ 16 pixels in the lower layer, exceptionally, a plurality of prediction modes other than the LM mode are set for the prediction unit of 32 ⁇ 32 pixels in the corresponding upper layer. As an object, the optimum prediction mode is searched again. Then, prediction mode information indicating the optimal prediction mode is encoded in the encoded stream of the higher layer.
  • the optimum prediction mode can be selected in the upper layer regardless of the prediction mode selected in the lower layer. Further, since the LM mode is prohibited for a prediction unit having a size exceeding the maximum size that can be used by the LM mode, it is not necessary to expand the processing module of the LM mode.
  • FIG. 7 is a block diagram illustrating an example of a detailed configuration of the intra prediction units 40a and 40b illustrated in FIG.
  • the intra prediction unit 40a includes a prediction control unit 41a, a coefficient calculation unit 42a, a filter 44a, a prediction unit 45a, and a mode determination unit 46a.
  • the intra prediction unit 40b includes a prediction control unit 41b, a coefficient acquisition unit 42b, a filter 44b, a prediction unit 45b, and a mode determination unit 46b.
  • the prediction control unit 41a of the intra prediction unit 40a controls the base layer intra prediction process.
  • the prediction control unit 41a performs an intra prediction process for the luminance component (Y) and an intra prediction process for the color difference components (Cb, Cr) for each prediction unit (PU).
  • the prediction control unit 41a causes the prediction unit 45a to generate a prediction image for each prediction unit in a plurality of prediction modes, and causes the mode determination unit 46a to determine the optimal prediction mode for the luminance component.
  • the prediction control unit 41a causes the prediction unit 45a to generate a prediction image of each prediction unit in a plurality of prediction modes including the LM mode, and causes the mode determination unit 46a to optimally predict the color difference component. To determine. When the maximum size of the prediction unit exceeds the predetermined maximum size, the LM mode can be excluded from search candidates for the prediction unit.
  • the coefficient calculation unit 42a uses the coefficients of the prediction function used by the prediction unit 45a in the LM mode as the reference pixels in the adjacent blocks adjacent to the prediction unit to be predicted according to the above formulas (2) and (3). Calculate with reference.
  • the filter 44a under the control of the prediction control unit 41a, downsamples (phase shifts) the pixel value of the luminance component of the prediction target prediction unit input from the frame memory 25 according to the chroma format. Generate input values to the prediction function. Then, the filter 44a outputs the generated input value to the prediction unit 45a.
  • the prediction unit 45a generates a prediction image of each prediction unit according to various prediction mode candidates for each color component (that is, each of the luminance component and the color difference component) under the control of the prediction control unit 41a.
  • the color difference component prediction mode candidates include the LM mode described above. In the LM mode, the prediction unit 45a predicts the value of each color difference component by substituting the input value of the luminance component generated by the filter 44a into a prediction function having a coefficient calculated by the coefficient calculation unit 42a. Intra prediction by the prediction unit 45a in other prediction modes may be performed in the same manner as the existing method.
  • the prediction unit 45a outputs predicted image data generated as a result of prediction to the mode determination unit 46a for each prediction mode.
  • the mode determination unit 46a calculates a cost function value for each prediction mode based on the original image data input from the rearrangement buffer 12 and the predicted image data input from the prediction unit 45a. Then, the mode determination unit 46a selects an optimal prediction mode for each color component based on the calculated cost function value. Then, the mode determination unit 46 a outputs information related to intra prediction including prediction mode information indicating the selected optimal prediction mode, a cost function value, and predicted image data of each color component to the selector 27.
  • the mode determination unit 46 a stores prediction mode information representing an optimal prediction mode for each prediction unit in the base layer in a mode information buffer provided in the common memory 2.
  • the coefficient calculation unit 42 a stores the calculated coefficient value of the prediction function in a coefficient buffer provided in the common memory 2 for at least each prediction unit in which the LM mode is selected.
  • the prediction control unit 41b of the intra prediction unit 40b controls the enhancement layer intra prediction process.
  • the prediction control unit 41b executes an intra prediction process for the luminance component (Y) and an intra prediction process for the color difference components (Cb, Cr) for each prediction unit (PU).
  • the prediction control unit 41b may cause the prediction unit 45b and the mode determination unit 46b to search for an optimal prediction mode for a plurality of prediction modes. Instead, the prediction control unit 41b may omit the re-search and apply the prediction mode selected for a certain prediction unit in the lower layer to the corresponding prediction unit in the upper layer.
  • the intra prediction process for the color difference component is controlled by the prediction control unit 41b according to any of the first to fourth methods described above.
  • the prediction control unit 41b searches for the prediction mode for the corresponding second prediction unit in the upper layer.
  • the LM mode is also applied to the second prediction unit without performing the above.
  • the coefficient acquisition unit 42 b acquires the coefficient calculated for the first prediction unit from the common memory 2 under the control of the prediction control unit 41 b.
  • the filter 44b generates an input value to the prediction function in the LM mode by down-sampling the pixel value of the luminance component according to the chroma format.
  • the prediction unit 45b generates a prediction image of the second prediction unit in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 42b.
  • the mode determination unit 46b outputs the predicted image data generated in the LM mode to the selector 27 without evaluating the cost function value.
  • the spatial resolution of the color difference component of the upper layer or the density of the color difference component is higher than that of the lower layer (that is, when spatial scalability or chroma format scalability is realized). Processing is performed. More specifically, when the size of the second prediction unit exceeds the maximum size (for example, 16 ⁇ 16 pixels) in which the LM mode can be used, the prediction control unit 41b sets the second prediction unit to a plurality of sub-units. Divide into blocks. And the prediction part 45b produces
  • the prediction control unit 41b performs the LM mode and other predictions for the corresponding second prediction unit in the upper layer.
  • Re-search for the optimal prediction mode for the mode In the re-search, the prediction unit 45b uses the prediction function having the coefficient calculated for the first prediction unit, which is acquired from the common memory 2 by the coefficient acquisition unit 42b. Are generated in the LM mode.
  • the mode determination unit 46b selects an optimal prediction mode for the second prediction unit based on the cost function values of a plurality of prediction modes including the LM mode. Then, the mode determination unit 46 b outputs information related to intra prediction and predicted image data to the selector 27.
  • the prediction control unit 41b searches for an optimal prediction mode.
  • the second prediction unit is divided into a plurality of sub-blocks.
  • the prediction part 45b produces
  • the prediction control unit 41b searches for the prediction mode for the corresponding second prediction unit in the upper layer. Instead, the LM mode is also applied to the second prediction unit. More specifically, the prediction unit 45b uses the prediction function having the coefficient calculated for the first prediction unit, which is acquired from the common memory 2 by the coefficient acquisition unit 42b, to calculate the second prediction unit. A prediction image is generated in the LM mode. The mode determination unit 46b outputs the predicted image data generated in the LM mode to the selector 27 without evaluating the cost function value.
  • the prediction control unit 41b When the spatial resolution of the color difference component of the upper layer or the density of the color difference component is higher than that of the lower layer, when the size of the second prediction unit exceeds the maximum size, the prediction control unit 41b includes a plurality of other than the LM mode. The optimum prediction mode is searched again for the prediction mode. In this case, the mode determination unit 46b exceptionally evaluates the cost function value and selects an optimal prediction mode for the second prediction unit.
  • the prediction control unit 41b performs the LM mode and other predictions for the corresponding second prediction unit in the upper layer.
  • Re-search for the optimal prediction mode for the mode In the re-search, the prediction unit 45b uses the prediction function having the coefficient calculated for the first prediction unit, which is acquired from the common memory 2 by the coefficient acquisition unit 42b. Are generated in the LM mode.
  • the mode determination unit 46b selects an optimal prediction mode for the second prediction unit based on the cost function values of the plurality of prediction modes. Then, the mode determination unit 46 b outputs information related to intra prediction and predicted image data to the selector 27.
  • the prediction control unit 41b searches for an optimal prediction mode.
  • the LM mode is excluded from the target.
  • the mode determination unit 46a when a higher enhancement layer remains, provides prediction mode information representing the prediction mode selected for each prediction unit in the common memory 2. Stored in the mode information buffer. The coefficients stored in the coefficient buffer in the common memory 2 can be held until the intra prediction is completed for all layers.
  • the coefficient reuse flag indicates that a coefficient calculated for the first prediction unit in the lower layer is reused for the second prediction unit in the upper layer corresponding to the first prediction unit, It is a parameter which shows.
  • the decoder reuses the coefficient of the LM mode prediction function calculated in the lower layer in the upper layer. If the coefficient reuse flag in the encoded stream indicates that the coefficient is not reused, the decoder may recalculate the coefficient at the higher layer.
  • the mode fixed flag when the LM mode is selected for the first prediction unit in the lower layer, new prediction mode information is encoded for the second prediction unit in the upper layer corresponding to the first prediction unit.
  • This parameter indicates whether or not
  • the mode fixing flag may be understood as a parameter for switching between the LM mode fixing method and the re-searching method.
  • the decoder acquires the prediction mode information. Without applying the LM mode to the second prediction unit.
  • the mode fixed flag indicates that new prediction mode information is encoded for the second prediction unit
  • the decoder encodes the prediction mode information indicating the prediction mode selected for the second prediction unit. And performing intra prediction according to the acquired prediction mode information.
  • the division flag is used when the size of the second prediction unit in the upper layer corresponding to the first prediction unit exceeds a predetermined maximum size when the LM mode is selected for the first prediction unit in the lower layer. And a parameter indicating whether the second prediction unit is divided into a plurality of sub-blocks.
  • the division flag may be understood as a parameter for switching between the above-described division method and the LM mode prohibition method.
  • the decoder performs intra prediction in LM mode for each of the sub-blocks generated by dividing the second prediction unit. Make a prediction. If the split flag indicates that the second prediction unit is not split, the decoder obtains prediction mode information indicating the prediction mode (non-LM mode) selected for the second prediction unit from the encoded stream; Intra prediction is performed according to the acquired prediction mode information.
  • parameters may be introduced as dedicated parameters for individual purposes as described above, or may be integrated with parameters having other purposes.
  • a parameter indicating the profile of the encoded stream or the level of the device may be defined to have the function of the coefficient reuse flag, the mode fixing flag, or the division flag described above.
  • These parameters may be encoded at any position in the encoded stream, such as a sequence parameter set, a picture parameter set, or a slice header.
  • FIG. 8 is a flowchart illustrating an example of a schematic processing flow during encoding according to an embodiment.
  • the intra prediction unit 40a for the base layer executes base layer intra prediction processing (step S11).
  • the intra prediction process may be, for example, a process according to the specification defined in Non-Patent Document 1. Parameters reused between layers can be buffered using the common memory 2.
  • the intra prediction unit 40b for the enhancement layer executes the intra prediction process for the enhancement layer (step S12). Parameters reused between layers can be read from the common memory 2 and reused by the intra prediction unit 40b.
  • step S13 when there are a plurality of enhancement layers, it is determined whether an unprocessed higher enhancement layer remains (step S13). Here, if an unprocessed higher enhancement layer remains, the intra prediction process in step S12 is repeated for the higher enhancement layer.
  • control parameter is encoded in the encoded stream by the lossless encoding unit 16 (step S14).
  • the control parameter encoded here may include any parameters such as the coefficient reuse flag, the mode fixing flag and the division flag, and the prediction mode information described above. Also, the parameter encoding may be performed as part of the intra prediction process for each layer.
  • the image encoding apparatus 10 may support only one of the first to fourth methods described above, or may support a plurality of these methods. .
  • the prediction control unit 41b of the intra prediction unit 40b may determine for each process which method is used to execute the intra prediction process of the enhancement layer.
  • FIG. 9 illustrates such a decision branch.
  • the prediction control unit 41b determines whether to reuse the coefficient of the prediction function in the LM mode (step S100). This determination may be performed according to various conditions such as designation from the user, device setting, prior image analysis, or expected performance.
  • the prediction control unit 41b executes the enhancement layer intra prediction process according to an existing method instead of the above-described first to fourth methods (step S105). .
  • the prediction control unit 41b determines whether to allow division of the prediction unit in the higher layer (step S110). Furthermore, the prediction control unit 41b determines whether to perform a re-search in the higher layer (steps S120 and S160).
  • the prediction control unit 41b performs the enhancement layer intra according to the above-described first method (that is, the combination of the LM mode fixed method and the division method).
  • a prediction process is executed (step S130).
  • the prediction control unit 41b performs the intra prediction of the enhancement layer according to the above-described second method (that is, the combination of the re-search method and the division method). Processing is executed (step S140).
  • the prediction control unit 41b When division of the prediction unit is not permitted and the re-search is not performed, the prediction control unit 41b performs enhancement according to the above-described third method (that is, a combination of the LM mode fixing method and the LM mode prohibition method). A layer intra prediction process is executed (step S170).
  • the prediction control unit 41b When division of the prediction unit is not permitted and the re-search is executed, the prediction control unit 41b performs the enhancement layer according to the above-described fourth method (that is, the combination of the re-search method and the LM mode prohibition method).
  • the intra prediction process is executed (step S180).
  • FIG. 10A is a flowchart illustrating an example of the flow of an intra prediction process at the time of encoding that is executed in the upper layer according to the first method when the LM mode is selected in the lower layer.
  • the coefficient acquisition unit 42b calculates the coefficient of the prediction function in the LM mode calculated for the prediction unit in the lower layer corresponding to the prediction unit to be predicted (hereinafter referred to as the attention PU). Obtained from the coefficient buffer in the common memory 2 (step S131).
  • the prediction control unit 41b determines whether or not the size of the attention PU exceeds the maximum size (for example, 16 ⁇ 16 pixels) in which the LM mode can be used (step S132). If the size of the attention PU does not exceed the maximum size, the process proceeds to step S133. On the other hand, if the size of the attention PU exceeds the maximum size, the process proceeds to step S134.
  • the maximum size for example, 16 ⁇ 16 pixels
  • step S133 the prediction unit 45b generates a predicted image of the attention PU in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 42b (step S133).
  • step S134 the prediction control unit 41b divides the attention PU into a plurality of sub-blocks (step S134).
  • the number N of sub-blocks can be determined based on the size of the attention PU and the maximum size.
  • the prediction unit 45b generates a prediction image of each of the N sub-blocks in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 42b (Step S135).
  • FIG. 10B is a flowchart illustrating an example of the flow of an intra prediction process at the time of encoding that is executed in the upper layer according to the second method when the LM mode is selected in the lower layer.
  • the coefficient acquisition unit 42b acquires the coefficient of the prediction function in the LM mode calculated for the PU in the lower layer corresponding to the attention PU from the coefficient buffer in the common memory 2 ( Step S141).
  • the prediction control unit 41b determines whether or not the size of the attention PU exceeds the maximum size that can be used in the LM mode (step S142). If the size of the attention PU does not exceed the maximum size, the process proceeds to step S143. On the other hand, if the size of the attention PU exceeds the maximum size, the process proceeds to step S145.
  • step S143 the prediction unit 45b generates a predicted image of the attention PU in the LM mode for re-searching using the prediction function having the coefficient acquired by the coefficient acquisition unit 42b (step S143). Moreover, the prediction unit 45b generates a predicted image of the attention PU according to each of the one or more non-LM modes (step S144).
  • step S145 the prediction control unit 41b divides the attention PU into a plurality of sub-blocks (step S145).
  • the prediction unit 45b generates a prediction image of each of the N sub-blocks in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 42b (Step S146). Further, the prediction unit 45b generates a predicted image of the attention PU according to each of the one or more non-LM modes (step S147).
  • the mode determination unit 46b selects an optimal prediction mode for the attention PU by evaluating cost function values of a plurality of prediction modes including the LM mode (step S148).
  • FIG. 10C is a flowchart illustrating an example of the flow of an intra prediction process at the time of encoding that is executed in the upper layer according to the third method when the LM mode is selected in the lower layer.
  • the coefficient acquisition unit 42b acquires the coefficient of the prediction function in the LM mode calculated for the PU in the lower layer corresponding to the attention PU from the coefficient buffer in the common memory 2 ( Step S171).
  • the prediction control unit 41b determines whether or not the size of the attention PU exceeds the maximum size that can be used in the LM mode (step S172). If the size of the attention PU does not exceed the maximum size, the process proceeds to step S173. On the other hand, if the size of the attention PU exceeds the maximum size, the process proceeds to step S174.
  • step S173 the prediction unit 45b generates a predicted image of the attention PU in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 42b (step S173).
  • step S174 the prediction unit 45b generates a predicted image of the attention PU according to each of the one or more non-LM modes (step S174).
  • the mode determination unit 46b selects the optimal prediction mode for the attention PU by evaluating the cost function value (step S175).
  • FIG. 10D is a flowchart illustrating an example of the flow of an intra prediction process at the time of encoding that is executed in the upper layer according to the fourth method when the LM mode is selected in the lower layer.
  • the coefficient acquisition unit 42b acquires the coefficient of the prediction function of the LM mode calculated for the PU in the lower layer corresponding to the attention PU from the coefficient buffer in the common memory 2 ( Step S181).
  • the prediction control unit 41b determines whether or not the size of the attention PU exceeds the maximum size that can be used in the LM mode (step S182). If the size of the attention PU does not exceed the maximum size, the process proceeds to step S183. On the other hand, if the size of the attention PU exceeds the maximum size, the process proceeds to step S185.
  • step S183 the prediction unit 45b generates a predicted image of the attention PU in the LM mode for re-search using the prediction function having the coefficient acquired by the coefficient acquisition unit 42b (step S183). In addition, the prediction unit 45b generates a predicted image of the attention PU according to each of the one or more non-LM modes (step S184).
  • step S185 the prediction unit 45b generates a predicted image of the attention PU according to each of the one or more non-LM modes (step S185).
  • the mode determination unit 46b selects the optimal prediction mode for the attention PU by evaluating the cost function value (step S186).
  • FIG. 11 is a block diagram illustrating an example of the configuration of the first decoding unit 6a and the second decoding unit 6b illustrated in FIG.
  • the first decoding unit 6a includes an accumulation buffer 61, a lossless decoding unit 62, an inverse quantization unit 63, an inverse orthogonal transform unit 64, an addition unit 65, a deblock filter 66, a rearrangement buffer 67, a D / D
  • An A (Digital to Analogue) conversion unit 68, a frame memory 69, selectors 70 and 71, a motion compensation unit 80, and an intra prediction unit 90a are provided.
  • the second decoding unit 6b includes an intra prediction unit 90b instead of the intra prediction unit 90a.
  • the accumulation buffer 61 temporarily accumulates the encoded stream input via the transmission path using a storage medium.
  • the lossless decoding unit 62 decodes the encoded stream input from the accumulation buffer 61 according to the encoding method used at the time of encoding. In addition, the lossless decoding unit 62 decodes information multiplexed in the header area of the encoded stream.
  • the information decoded by the lossless decoding unit 62 may include, for example, information related to inter prediction and information related to intra prediction described above.
  • the lossless decoding unit 62 outputs information related to inter prediction to the motion compensation unit 80.
  • the lossless decoding unit 62 outputs information on intra prediction to the intra prediction unit 90a or 90b.
  • the inverse quantization unit 63 performs inverse quantization on the quantized data decoded by the lossless decoding unit 62.
  • the inverse orthogonal transform unit 64 generates prediction error data by performing inverse orthogonal transform on the transform coefficient data input from the inverse quantization unit 63 according to the orthogonal transform method used at the time of encoding. Then, the inverse orthogonal transform unit 64 outputs the generated prediction error data to the addition unit 65.
  • the addition unit 65 adds the prediction error data input from the inverse orthogonal transform unit 64 and the prediction image data input from the selector 71 to generate decoded image data. Then, the addition unit 65 outputs the generated decoded image data to the deblock filter 66 and the frame memory 69.
  • the deblock filter 66 removes block distortion by filtering the decoded image data input from the adder 65, and outputs the filtered decoded image data to the rearrangement buffer 67 and the frame memory 69.
  • the rearrangement buffer 67 generates a series of time-series image data by rearranging the images input from the deblocking filter 66. Then, the rearrangement buffer 67 outputs the generated image data to the D / A conversion unit 68.
  • the D / A converter 68 converts the digital image data input from the rearrangement buffer 67 into an analog image signal. Then, the D / A conversion unit 68 displays an image by outputting an analog image signal to a display (not shown) connected to the image decoding device 60, for example.
  • the frame memory 69 stores the decoded image data before filtering input from the adding unit 65 and the decoded image data after filtering input from the deblocking filter 66 using a storage medium.
  • the selector 70 sets the output destination of the image data from the frame memory 69 between the motion compensation unit 80 and the intra prediction unit 90a or 90b for each block in the image according to the mode information acquired by the lossless decoding unit 62. Switch with. For example, when the inter prediction mode is designated, the selector 70 outputs the decoded image data after filtering supplied from the frame memory 69 to the motion compensation unit 80 as reference image data. Further, when the intra prediction mode is designated, the selector 70 outputs the decoded image data before filtering supplied from the frame memory 69 to the intra prediction unit 90a or 90b as reference image data.
  • the selector 71 switches the output source of the predicted image data to be supplied to the adding unit 65 between the motion compensation unit 80 and the intra prediction unit 90a or 90b according to the mode information acquired by the lossless decoding unit 62. For example, when the inter prediction mode is designated, the selector 71 supplies the predicted image data output from the motion compensation unit 80 to the adding unit 65. Further, when the intra prediction mode is designated, the selector 71 supplies the predicted image data output from the intra prediction unit 90a or 90b to the adding unit 65.
  • the motion compensation unit 80 performs motion compensation processing based on the inter prediction information input from the lossless decoding unit 62 and the reference image data from the frame memory 69 to generate predicted image data. Then, the motion compensation unit 80 outputs the generated predicted image data to the selector 71.
  • the intra prediction unit 90 a performs base layer intra prediction processing based on the information related to the intra prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 69, and generates predicted image data. Then, the intra prediction unit 90 a outputs the generated base layer predicted image data to the selector 71. In addition, the intra prediction unit 40 a causes at least some parameters related to intra prediction to be buffered by the common memory 7.
  • the intra prediction unit 90 b performs enhancement layer intra prediction processing based on information related to intra prediction input from the lossless decoding unit 62 and reference image data from the frame memory 69, and generates predicted image data. Then, the intra prediction unit 90b outputs the generated predicted image data of the enhancement layer to the selector 71. In addition, the intra prediction unit 40 b omits at least a part of the intra prediction process of the enhancement layer by reusing the parameters buffered by the common memory 7.
  • the first decoding unit 6a executes the series of decoding processes described here for a series of image data of the base layer.
  • the second decoding unit 6b performs the series of decoding processes described here on a series of image data of the enhancement layer.
  • the enhancement layer decoding process may be repeated by the number of enhancement layers.
  • the base layer decoding process and the enhancement layer decoding process may be executed in synchronization for each processing unit such as a coding unit or a prediction unit, for example.
  • FIG. 12 is a block diagram illustrating an example of a detailed configuration of the intra prediction units 90a and 90b illustrated in FIG.
  • the intra prediction unit 90a includes a prediction control unit 91a, a coefficient calculation unit 92a, a filter 94a, and a prediction unit 95a.
  • the intra prediction unit 90b includes a prediction control unit 91b, a coefficient acquisition unit 92b, a filter 94b, and a prediction unit 95b.
  • the prediction control unit 91a of the intra prediction unit 90a controls the base layer intra prediction process.
  • the prediction control unit 91a executes an intra prediction process for the luminance component (Y) and an intra prediction process for the color difference components (Cb, Cr) for each prediction unit (PU). More specifically, the prediction control unit 91a causes the prediction unit 95a to generate a prediction image of each prediction unit according to the prediction mode indicated by the prediction mode information decoded by the lossless decoding unit 62.
  • the coefficient calculation unit 92a sets the coefficient of the prediction function of the LM mode adjacent to the prediction unit to be predicted according to the above-described equations (2) and (3). Calculation is performed with reference to reference pixels in the block.
  • the filter 94a generates an input value to the prediction function in the LM mode by down-sampling (phase shift) the pixel value of the luminance component of the prediction target of the prediction target input from the frame memory 69 according to the chroma format. .
  • the prediction unit 95a generates a prediction image of each prediction unit according to the prediction mode indicated by the prediction mode information for each color component (that is, each of the luminance component and the color difference component) under the control of the prediction control unit 91a.
  • the prediction unit 95a substitutes the input value of the luminance component generated by the filter 94a into a prediction function having a coefficient calculated by the coefficient calculation unit 92a. Predict the value of each color difference component.
  • Intra prediction by the prediction unit 95a in other prediction modes may be performed in the same manner as the existing method.
  • the prediction unit 95a outputs predicted image data generated as a result of prediction to the addition unit 65.
  • the prediction control unit 91a stores prediction mode information representing a prediction mode for each prediction unit in the base layer in a mode information buffer provided in the common memory 7.
  • the coefficient calculation unit 92 a stores the calculated value of the coefficient of the prediction function in a coefficient buffer provided in the common memory 7 for at least each prediction unit in which the LM mode is specified.
  • the prediction control unit 91b of the intra prediction unit 90b controls enhancement layer intra prediction processing.
  • the prediction control unit 91b performs an intra prediction process for the luminance component (Y) and an intra prediction process for the color difference components (Cb, Cr) for each prediction unit (PU). More specifically, the prediction control unit 91b sends each prediction unit to the prediction unit 95b according to the prediction mode indicated by the prediction mode information decoded by the lossless decoding unit 62 or the same prediction mode as the corresponding prediction unit of the lower layer. A predicted image is generated.
  • the intra prediction process for the color difference component is controlled by the prediction control unit 91b according to any of the first to fourth methods described above.
  • the prediction control unit 91b when the prediction mode information indicates the LM mode for the first prediction unit in the lower layer, the prediction control unit 91b adds a new value for the corresponding second prediction unit in the upper layer. Without obtaining the prediction mode information, the prediction unit 95b is caused to generate a prediction image in the LM mode. More specifically, the coefficient acquisition unit 92b acquires the coefficient calculated for the first prediction unit from the common memory 7 under the control of the prediction control unit 91b. The filter 94b generates an input value to the prediction function in the LM mode by down-sampling the pixel value of the luminance component according to the chroma format. The prediction unit 95b generates a prediction image of the second prediction unit in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 92b.
  • the spatial resolution of the color difference component of the upper layer or the density of the color difference component is higher than that of the lower layer (that is, when spatial scalability or chroma format scalability is realized). Processing is performed. More specifically, when the size of the second prediction unit exceeds the maximum size in which the LM mode can be used, the prediction control unit 91b divides the second prediction unit into a plurality of sub-blocks. And the prediction part 95b produces
  • the prediction control unit 91b decodes the new second decoded unit for the corresponding second prediction unit in the upper layer. Get accurate prediction mode information. Then, when the new prediction mode information also indicates the LM mode, the prediction control unit 91b causes the prediction unit 95b to generate a prediction image in the LM mode. In this case, the prediction unit 95b uses the prediction function having the coefficient calculated for the first prediction unit, which is acquired from the common memory 2 by the coefficient acquisition unit 92b, to calculate the prediction image of the second prediction unit. Generate in LM mode.
  • the size of the second prediction unit exceeds the maximum size, and the new prediction mode information also indicates the LM mode
  • the prediction control unit 91b divides the second prediction unit into a plurality of sub-blocks. And the prediction part 95b produces
  • the prediction control unit 91b when the prediction mode information indicates the LM mode for the first prediction unit in the lower layer, the prediction control unit 91b also performs the corresponding second prediction unit in the upper layer in the LM mode.
  • the prediction unit 95b is caused to generate a prediction image.
  • the prediction unit 95b uses the prediction function having the coefficient calculated for the first prediction unit, acquired from the common memory 2 by the coefficient acquisition unit 92b, to generate the prediction image of the second prediction unit in the LM mode. Generate.
  • the prediction control unit 91b Get mode information When the spatial resolution of the color difference component of the upper layer or the density of the color difference component is higher than that of the lower layer and the size of the second prediction unit exceeds the maximum size, the prediction control unit 91b Get mode information.
  • the new prediction mode information acquired here indicates any prediction mode other than the LM mode.
  • the prediction unit 95b generates a prediction image of the second prediction unit according to the prediction mode indicated by the new prediction mode information.
  • the prediction control unit 91b acquires decoded new prediction mode information for the second prediction unit in the upper layer corresponding to the first prediction unit in the lower layer. Then, when the new prediction mode information also indicates the LM mode, the prediction control unit 91b causes the prediction unit 95b to generate a prediction image in the LM mode. In this case, the prediction unit 95b uses the prediction function having the coefficient calculated for the first prediction unit, which is acquired from the common memory 2 by the coefficient acquisition unit 92b, to calculate the prediction image of the second prediction unit. Generate in LM mode. When the size of the second prediction unit exceeds the maximum size, the new prediction mode information indicates any prediction mode other than the LM mode.
  • the prediction control unit 91b when a higher enhancement layer remains, provides prediction mode information indicating a prediction mode for each prediction unit in mode information provided in the common memory 7. Store in buffer. The coefficients stored in the coefficient buffer in the common memory 7 can be held until the intra prediction is completed for all layers.
  • FIG. 13 is a flowchart illustrating an example of a schematic processing flow at the time of decoding according to an embodiment.
  • control parameter encoded in the encoded stream is first decoded by the lossless decoding unit 62 (step S21).
  • the control parameter decoded here may include any parameters such as the coefficient reuse flag, the mode fixing flag and the division flag, and the prediction mode information described above. Also, parameter decoding may be performed as part of intra prediction processing for each layer.
  • the intra prediction unit 90a for the base layer executes the base layer intra prediction process (step S22).
  • the intra prediction process may be, for example, a process according to the specification defined in Non-Patent Document 1. Parameters that are reused between layers can be buffered using the common memory 7.
  • the intra prediction unit 90b for the enhancement layer executes the intra prediction process for the enhancement layer (step S23). Parameters reused between layers can be read from the common memory 7 and reused by the intra prediction unit 90b.
  • step S24 when there are a plurality of enhancement layers, it is determined whether an unprocessed higher enhancement layer remains (step S24). Here, if an unprocessed higher enhancement layer remains, the intra prediction process in step S23 is repeated for the higher enhancement layer.
  • the image decoding apparatus 60 may support only one of the first to fourth methods described above, or may support a plurality of these methods. When a plurality of methods are supported, the prediction control unit 91b of the intra prediction unit 90b may determine for each process which method is used to execute the intra prediction process of the enhancement layer. FIG. 14 illustrates such a decision branch.
  • the prediction control unit 91b determines whether to reuse the coefficient of the prediction function in the LM mode (step S200). The determination here may be performed according to conditions such as device settings, or may be performed according to the above-described coefficient reuse flag that can be decoded from the encoded stream.
  • the prediction control unit 91b executes the enhancement layer intra prediction process according to the existing method instead of the first to fourth methods described above (step S205). .
  • the prediction control unit 91b determines whether to allow division of the prediction unit in the higher layer (step S210). This determination may be performed according to the above-described division flag that can be decoded from the encoded stream, for example. Furthermore, when the LM mode is specified in the lower layer, the prediction control unit 91b determines whether to decode new prediction mode information in the upper layer (steps S220 and S260). The determination here may be performed, for example, according to the above-described mode fixing flag that can be decoded from the encoded stream.
  • the prediction control unit 91b performs the enhancement layer intra prediction process according to the first method described above (step S230).
  • the prediction control unit 91b executes the enhancement layer intra prediction process according to the second method described above (step S240).
  • the prediction control unit 91b executes the enhancement layer intra prediction process according to the third method described above (step S270).
  • the prediction control unit 91b executes the enhancement layer intra prediction process according to the fourth method described above (step S280). .
  • FIG. 15A is a flowchart illustrating an example of the flow of an intra prediction process at the time of decoding performed in accordance with the first method in the upper layer when the LM mode is specified in the lower layer.
  • the coefficient acquisition unit 92b calculates the coefficient of the prediction function of the LM mode calculated for the prediction unit in the lower layer corresponding to the prediction unit to be predicted (hereinafter referred to as the attention PU). Obtained from the coefficient buffer in the common memory 7 (step S231).
  • the prediction control unit 91b determines whether or not the size of the attention PU exceeds the maximum size (for example, 16 ⁇ 16 pixels) in which the LM mode can be used (step S232). If the size of the attention PU does not exceed the maximum size, the process proceeds to step S233. On the other hand, if the size of the attention PU exceeds the maximum size, the process proceeds to step S234.
  • the maximum size for example, 16 ⁇ 16 pixels
  • step S233 the prediction unit 95b generates a predicted image of the attention PU in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 92b (step S233).
  • step S234 the prediction control unit 91b divides the attention PU into a plurality of sub-blocks (step S234).
  • the number N of sub-blocks can be determined based on the size of the attention PU and the maximum size.
  • the prediction unit 95b generates a prediction image of each of the N sub-blocks in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 92b (Step S235).
  • FIG. 15B is a flowchart illustrating an example of the flow of intra prediction processing at the time of decoding performed in accordance with the second method in the upper layer when the LM mode is specified in the lower layer.
  • the coefficient acquisition unit 92b acquires the coefficient of the prediction function in the LM mode calculated for the PU in the lower layer corresponding to the attention PU from the coefficient buffer in the common memory 7 ( Step S241).
  • the prediction control unit 91b determines whether or not the size of the attention PU exceeds the maximum size that can be used in the LM mode (step S242). If the size of the attention PU does not exceed the maximum size, the process proceeds to step S243. On the other hand, if the size of the attention PU exceeds the maximum size, the process proceeds to step S247.
  • step S243 the prediction control unit 91b acquires new decoded prediction mode information for the attention PU (step S243).
  • the prediction unit 95b uses the prediction function having the coefficient acquired by the coefficient acquisition unit 92b to predict the attention PU.
  • An image is generated in the LM mode (step S245).
  • the prediction unit 95b generates a predicted image of the attention PU in the designated non-LM mode (step S246).
  • step S247 the prediction control unit 91b acquires new decoded prediction mode information for the attention PU (step S247).
  • the prediction control unit 91b divides the attention PU into a plurality of sub-blocks (step S249).
  • the prediction unit 95b generates a prediction image of each of the N sub-blocks in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 92b (Step S250).
  • the prediction unit 95b when the new prediction mode information indicates the non-LM mode, the prediction unit 95b generates a predicted image of the attention PU in the designated non-LM mode (step S251).
  • FIG. 15C is a flowchart illustrating an example of the flow of intra prediction processing at the time of decoding performed in accordance with the third method in the upper layer when the LM mode is designated in the lower layer.
  • the coefficient acquisition unit 92b acquires the coefficient of the prediction function in the LM mode calculated for the PU in the lower layer corresponding to the attention PU from the coefficient buffer in the common memory 7 ( Step S271).
  • the prediction control unit 91b determines whether or not the size of the attention PU exceeds the maximum size that can be used in the LM mode (step S272). If the size of the attention PU does not exceed the maximum size, the process proceeds to step S273. On the other hand, if the size of the attention PU exceeds the maximum size, the process proceeds to step S274.
  • step S273 the prediction unit 95b generates a predicted image of the attention PU in the LM mode using the prediction function having the coefficient acquired by the coefficient acquisition unit 92b (step S273).
  • step S274 the prediction control unit 91b acquires new decoded prediction mode information for the attention PU (step S274).
  • the new prediction mode information acquired here indicates any non-LM mode.
  • the prediction unit 95b generates a predicted image of the attention PU in the designated non-LM mode (step S275).
  • FIG. 15D is a flowchart illustrating an example of the flow of intra prediction processing at the time of decoding performed in the upper layer according to the fourth method when the LM mode is specified in the lower layer.
  • the prediction control unit 91b acquires new decoded prediction mode information for the attention PU (step S281).
  • the coefficient acquisition unit 92b predicts the LM mode calculated for the PU in the lower layer corresponding to the attention PU.
  • the coefficient of the function is acquired from the coefficient buffer in the common memory 7 (step S283).
  • the prediction part 95b produces
  • the prediction unit 95b when the new prediction mode information indicates the non-LM mode, the prediction unit 95b generates a prediction image of the attention PU in the designated non-LM mode (step S285).
  • the image encoding device 10 and the image decoding device 60 are a transmitter or a receiver in satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication,
  • the present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory, or a playback device that reproduces an image from these storage media.
  • a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory
  • a playback device that reproduces an image from these storage media.
  • FIG. 16 illustrates an example of a schematic configuration of a television apparatus to which the above-described embodiment is applied.
  • the television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.
  • Tuner 902 extracts a signal of a desired channel from a broadcast signal received via antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. In addition, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.
  • EPG Electronic Program Guide
  • the decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.
  • the video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video.
  • the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network.
  • the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting.
  • the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.
  • GUI Graphic User Interface
  • the display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays a video or an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OLED).
  • a display device for example, a liquid crystal display, a plasma display, or an OLED.
  • the audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904, and outputs audio from the speaker 908.
  • the audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.
  • the external interface 909 is an interface for connecting the television apparatus 900 to an external device or a network.
  • a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the control unit 910 has a processor such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like.
  • the program stored in the memory is read and executed by the CPU when the television device 900 is activated, for example.
  • the CPU controls the operation of the television device 900 according to an operation signal input from the user interface 911, for example, by executing the program.
  • the user interface 911 is connected to the control unit 910.
  • the user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like.
  • the user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.
  • the bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.
  • the decoder 904 has the function of the image decoding apparatus 60 according to the above-described embodiment. Therefore, when scalable decoding of an image is performed in the television apparatus 900, the processing cost can be reduced by reusing the coefficient of the prediction function in the LM mode.
  • FIG. 17 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied.
  • a mobile phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.
  • the antenna 921 is connected to the communication unit 922.
  • the speaker 924 and the microphone 925 are connected to the audio codec 923.
  • the operation unit 932 is connected to the control unit 931.
  • the bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.
  • the mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.
  • the analog voice signal generated by the microphone 925 is supplied to the voice codec 923.
  • the audio codec 923 converts an analog audio signal into audio data, A / D converts the converted audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922.
  • the communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923.
  • the audio codec 923 expands the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the control unit 931 generates character data constituting the e-mail in response to an operation by the user via the operation unit 932.
  • the control unit 931 causes the display unit 930 to display characters.
  • the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922.
  • the communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931.
  • the control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.
  • the recording / reproducing unit 929 has an arbitrary readable / writable storage medium.
  • the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card. May be.
  • the camera unit 926 images a subject to generate image data, and outputs the generated image data to the image processing unit 927.
  • the image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the recording / playback unit 929.
  • the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to.
  • the communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • These transmission signal and reception signal may include an encoded bit stream.
  • the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928.
  • the demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923.
  • the image processing unit 927 decodes the video stream and generates video data.
  • the video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930.
  • the audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the image processing unit 927 has the functions of the image encoding device 10 and the image decoding device 60 according to the above-described embodiment. Accordingly, when scalable coding and decoding of an image is performed by the mobile phone 920, the processing cost can be reduced by reusing the coefficient of the prediction function in the LM mode.
  • FIG. 18 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied.
  • the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium.
  • the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example.
  • the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.
  • the recording / reproducing device 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.
  • Tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.
  • the external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network.
  • the external interface 942 may be, for example, an IEEE 1394 interface, a network interface, a USB interface, or a flash memory interface.
  • video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.
  • the encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.
  • the HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Also, the HDD 944 reads out these data from the hard disk when playing back video and audio.
  • the disk drive 945 performs recording and reading of data to and from the mounted recording medium.
  • the recording medium loaded in the disk drive 945 may be, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. .
  • the selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.
  • the decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.
  • the OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.
  • a GUI image such as a menu, a button, or a cursor
  • the control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example.
  • the CPU controls the operation of the recording / reproducing device 940 according to an operation signal input from the user interface 950, for example, by executing the program.
  • the user interface 950 is connected to the control unit 949.
  • the user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like.
  • the user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.
  • the encoder 943 has the function of the image encoding apparatus 10 according to the above-described embodiment.
  • the decoder 947 has the function of the image decoding device 60 according to the above-described embodiment.
  • FIG. 19 illustrates an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied.
  • the imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.
  • the imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.
  • the optical block 961 is connected to the imaging unit 962.
  • the imaging unit 962 is connected to the signal processing unit 963.
  • the display unit 965 is connected to the image processing unit 964.
  • the user interface 971 is connected to the control unit 970.
  • the bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.
  • the optical block 961 includes a focus lens and a diaphragm mechanism.
  • the optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 includes an image sensor such as a CCD or a CMOS, and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.
  • the signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962.
  • the signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.
  • the image processing unit 964 encodes the image data input from the signal processing unit 963 and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.
  • the OSD 969 generates a GUI image such as a menu, a button, or a cursor, for example, and outputs the generated image to the image processing unit 964.
  • the external interface 966 is configured as a USB input / output terminal, for example.
  • the external interface 966 connects the imaging device 960 and a printer, for example, when printing an image.
  • a drive is connected to the external interface 966 as necessary.
  • a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960.
  • the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.
  • the recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. Further, a recording medium may be fixedly attached to the media drive 968, and a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • the control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example.
  • the CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971, for example, by executing the program.
  • the user interface 971 is connected to the control unit 970.
  • the user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960.
  • the user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.
  • the image processing unit 964 has the functions of the image encoding device 10 and the image decoding device 60 according to the above-described embodiment. Thereby, when scalable encoding and decoding of an image is performed by the imaging device 960, the processing cost can be reduced by reusing the coefficient of the prediction function of the LM mode.
  • the data transmission system 1000 includes a stream storage device 1001 and a distribution server 1002.
  • Distribution server 1002 is connected to several terminal devices via network 1003.
  • Network 1003 may be a wired network, a wireless network, or a combination thereof.
  • FIG. 20 shows a PC (Personal Computer) 1004, an AV device 1005, a tablet device 1006, and a mobile phone 1007 as examples of terminal devices.
  • PC Personal Computer
  • the stream storage device 1001 stores, for example, stream data 1011 including a multiplexed stream generated by the image encoding device 10.
  • the multiplexed stream includes a base layer (BL) encoded stream and an enhancement layer (EL) encoded stream.
  • the distribution server 1002 reads the stream data 1011 stored in the stream storage device 1001, and at least a part of the read stream data 1011 is transmitted via the network 1003 to the PC 1004, the AV device 1005, the tablet device 1006, and the mobile phone 1007. Deliver to.
  • the distribution server 1002 selects a stream to be distributed based on some condition such as the capability of the terminal device or the communication environment. For example, the distribution server 1002 may avoid the occurrence of delay, overflow, or processor overload in the terminal device by not distributing an encoded stream having a high image quality that exceeds the image quality that can be handled by the terminal device. . The distribution server 1002 may avoid occupying the communication band of the network 1003 by not distributing an encoded stream having high image quality. On the other hand, the distribution server 1002 distributes all of the multiplexed streams to the terminal device when there is no risk to be avoided or when it is determined to be appropriate based on a contract with the user or some condition. Good.
  • the distribution server 1002 reads the stream data 1011 from the stream storage device 1001. Then, the distribution server 1002 distributes the stream data 1011 as it is to the PC 1004 having high processing capability. Also, since the AV device 1005 has low processing capability, the distribution server 1002 generates stream data 1012 including only the base layer encoded stream extracted from the stream data 1011, and distributes the stream data 1012 to the AV device 1005. To do. Also, the distribution server 1002 distributes the stream data 1011 as it is to the tablet device 1006 that can communicate at a high communication rate. Further, since the cellular phone 1007 can communicate only at a low communication rate, the distribution server 1002 distributes the stream data 1012 including only the base layer encoded stream to the cellular phone 1007.
  • the multiplexed stream By using the multiplexed stream in this way, the amount of traffic to be transmitted can be adjusted adaptively.
  • the code amount of the stream data 1011 is reduced as compared with the case where each layer is individually encoded, even if the entire stream data 1011 is distributed, the load on the network 1003 is suppressed. Is done. Furthermore, memory resources of the stream storage device 1001 are also saved.
  • the hardware performance of terminal devices varies from device to device.
  • the communication capacity of the network 1003 also varies.
  • the capacity available for data transmission can change from moment to moment due to the presence of other traffic. Therefore, the distribution server 1002 transmits terminal information regarding the hardware performance and application capability of the terminal device, the communication capacity of the network 1003, and the like through signaling with the distribution destination terminal device before starting the distribution of the stream data. And network information may be acquired. Then, the distribution server 1002 can select a stream to be distributed based on the acquired information.
  • extraction of a layer to be decoded may be performed in the terminal device.
  • the PC 1004 may display a base layer image extracted from the received multiplexed stream and decoded on the screen. Further, the PC 1004 may extract a base layer encoded stream from the received multiplexed stream to generate stream data 1012, store the generated stream data 1012 in a storage medium, or transfer the stream data 1012 to another device. .
  • the configuration of the data transmission system 1000 shown in FIG. 20 is merely an example.
  • the data transmission system 1000 may include any number of stream storage devices 1001, a distribution server 1002, a network 1003, and terminal devices.
  • the data transmission system 1100 includes a broadcast station 1101 and a terminal device 1102.
  • the broadcast station 1101 broadcasts a base layer encoded stream 1121 on the terrestrial channel 1111.
  • the broadcast station 1101 transmits an enhancement layer encoded stream 1122 to the terminal device 1102 via the network 1112.
  • the terminal device 1102 has a reception function for receiving a terrestrial broadcast broadcast by the broadcast station 1101, and receives a base layer encoded stream 1121 via the terrestrial channel 1111. Also, the terminal device 1102 has a communication function for communicating with the broadcast station 1101 and receives the enhancement layer encoded stream 1122 via the network 1112.
  • the terminal device 1102 receives the base layer encoded stream 1121 in accordance with an instruction from the user, decodes the base layer image from the received encoded stream 1121, and displays the base layer image on the screen. Good. Further, the terminal device 1102 may store the decoded base layer image in a storage medium or transfer it to another device.
  • the terminal device 1102 receives, for example, the enhancement layer encoded stream 1122 via the network 1112 in accordance with an instruction from the user, and receives the base layer encoded stream 1121 and the enhancement layer encoded stream 1122. Multiplexed streams may be generated by multiplexing. Also, the terminal apparatus 1102 may decode the enhancement layer image from the enhancement layer encoded stream 1122 and display the enhancement layer image on the screen. In addition, the terminal device 1102 may store the decoded enhancement layer image in a storage medium or transfer it to another device.
  • the encoded stream of each layer included in the multiplexed stream can be transmitted via a different communication channel for each layer. Accordingly, it is possible to distribute the load applied to each channel and suppress the occurrence of communication delay or overflow.
  • the communication channel used for transmission may be dynamically selected according to some condition. For example, a base layer encoded stream 1121 having a relatively large amount of data is transmitted via a communication channel having a wide bandwidth, and an enhancement layer encoded stream 1122 having a relatively small amount of data is transmitted via a communication channel having a small bandwidth. Can be transmitted. Further, the communication channel for transmitting the encoded stream 1122 of a specific layer may be switched according to the bandwidth of the communication channel. Thereby, the load applied to each channel can be more effectively suppressed.
  • the configuration of the data transmission system 1100 illustrated in FIG. 21 is merely an example.
  • the data transmission system 1100 may include any number of communication channels and terminal devices.
  • the system configuration described here may be used for purposes other than broadcasting.
  • the data transmission system 1200 includes an imaging device 1201 and a stream storage device 1202.
  • the imaging device 1201 performs scalable coding on image data generated by imaging the subject 1211 and generates a multiplexed stream 1221.
  • the multiplexed stream 1221 includes a base layer encoded stream and an enhancement layer encoded stream. Then, the imaging device 1201 supplies the multiplexed stream 1221 to the stream storage device 1202.
  • the stream storage device 1202 stores the multiplexed stream 1221 supplied from the imaging device 1201 with different image quality for each mode. For example, the stream storage device 1202 extracts the base layer encoded stream 1222 from the multiplexed stream 1221 in the normal mode, and stores the extracted base layer encoded stream 1222. On the other hand, the stream storage device 1202 stores the multiplexed stream 1221 as it is in the high image quality mode. Thereby, the stream storage device 1202 can record a high-quality stream with a large amount of data only when it is desired to record a video with high quality. Therefore, it is possible to save memory resources while suppressing the influence of image quality degradation on the user.
  • the imaging device 1201 is assumed to be a surveillance camera.
  • the monitoring target for example, an intruder
  • the normal mode is selected.
  • the video is recorded with low image quality (that is, only the base layer coded stream 1222 is stored).
  • the monitoring target for example, the subject 1211 as an intruder
  • the high image quality mode is selected. In this case, since the captured image is likely to be important, priority is given to the high image quality, and the video is recorded with high image quality (that is, the multiplexed stream 1221 is stored).
  • the mode is selected by the stream storage device 1202 based on the image analysis result, for example.
  • the imaging device 1201 may select a mode. In the latter case, the imaging device 1201 may supply the base layer encoded stream 1222 to the stream storage device 1202 in the normal mode and supply the multiplexed stream 1221 to the stream storage device 1202 in the high image quality mode.
  • the selection criteria for selecting the mode may be any standard.
  • the mode may be switched according to the volume of sound acquired through a microphone or the waveform of sound. Further, the mode may be switched periodically. In addition, the mode may be switched according to an instruction from the user.
  • the number of selectable modes may be any number as long as the number of layers to be layered does not exceed.
  • the configuration of the data transmission system 1200 shown in FIG. 22 is merely an example.
  • the data transmission system 1200 may include any number of imaging devices 1201. Further, the system configuration described here may be used in applications other than the surveillance camera.
  • the multi-view codec is a kind of multi-layer codec, and is an image encoding method for encoding and decoding so-called multi-view video.
  • FIG. 23 is an explanatory diagram for describing the multi-view codec. Referring to FIG. 23, a sequence of frames of three views that are respectively photographed at three viewpoints is shown. Each view is given a view ID (view_id). Any one of the plurality of views is designated as a base view. Views other than the base view are called non-base views. In the example of FIG. 23, a view with a view ID “0” is a base view, and two views with a view ID “1” or “2” are non-base views.
  • each view may correspond to a layer.
  • the non-base view image is encoded and decoded with reference to the base view image (other non-base view images may also be referred to).
  • FIG. 24 is a block diagram illustrating a schematic configuration of an image encoding device 10v that supports a multi-view codec.
  • the image encoding device 10v includes a first layer encoding unit 1c, a second layer encoding unit 1d, a common memory 2, and a multiplexing unit 3.
  • the function of the first encoding unit 1c is the same as that of the first encoding unit 1a described with reference to FIG. 3 except that it receives a base view image instead of the base layer image as an input.
  • the first layer encoding unit 1c encodes the base view image and generates an encoded stream of the first layer.
  • the function of the second encoding unit 1d is the same as the function of the second encoding unit 1b described with reference to FIG. 3 except that it receives a non-base view image instead of the enhancement layer image as an input.
  • the second layer encoding unit 1d encodes the non-base view image and generates a second layer encoded stream.
  • the common memory 2 stores information commonly used between layers.
  • the multiplexing unit 3 multiplexes the encoded stream of the first layer generated by the first layer encoding unit 1c and the encoded stream of the second layer generated by the second layer encoding unit 1d. A multiplexed stream of layers is generated.
  • FIG. 25 is a block diagram illustrating a schematic configuration of an image decoding device 60v that supports a multi-view codec.
  • the image decoding device 60v includes a demultiplexing unit 5, a first layer decoding unit 6c, a second layer decoding unit 6d, and a common memory 7.
  • the demultiplexer 5 demultiplexes the multi-layer multiplexed stream into the first layer encoded stream and the second layer encoded stream.
  • the function of the first layer decoding unit 6c is the same as the function of the first decoding unit 6a described with reference to FIG. 4 except that it receives an encoded stream in which a base view image is encoded instead of a base layer image as an input. It is equivalent.
  • the first layer decoding unit 6c decodes the base view image from the encoded stream of the first layer.
  • the second layer decoding unit 6d has the same function as that of the second decoding unit 6b described with reference to FIG. 4 except that it receives an encoded stream in which a non-base view image is encoded instead of an enhancement layer image as an input. Is equivalent to The second layer decoding unit 6d decodes the non-base view image from the second layer encoded stream.
  • the common memory 7 stores information commonly used between layers.
  • the processing cost required for processing in the LM mode may be reduced according to the technique according to the present disclosure.
  • the technology according to the present disclosure may be applied to a streaming protocol.
  • a streaming protocol For example, in MPEG-DASH (Dynamic Adaptive Streaming over HTTP), a plurality of encoded streams having different parameters such as resolution are prepared in advance in a streaming server. Then, the streaming server dynamically selects appropriate data to be streamed from a plurality of encoded streams in units of segments, and distributes the selected data.
  • the processing cost required for processing in the LM mode may be reduced according to the technique according to the present disclosure.
  • the coefficient of the prediction function of the LM mode calculated in the base layer can be reused in the enhancement layer at the time of image encoding and decoding in scalable encoding.
  • coefficient calculation processing that requires a large processing cost as compared with computation in other prediction modes is omitted in the enhancement layer, so that deterioration in performance when employing the LM mode in scalable coding can be avoided. it can.
  • the prediction function having the coefficient calculated there calculates the correlation between the luminance component and the color difference component in the prediction unit. It can be said that it expresses well. Since such a prediction function is reused for the corresponding prediction unit in the enhancement layer, not only the processing cost can be reduced, but also the prediction accuracy of intra prediction in the enhancement layer can be kept high.
  • the corresponding second prediction unit in the enhancement layer is also The LM mode is applied without re-searching the prediction mode.
  • the prediction mode information is not encoded in the enhancement layer, it is possible to improve the encoding efficiency of the enhancement layer encoded stream.
  • the re-search of the prediction mode is omitted on the encoder side, the processing cost of intra prediction on the encoder side can be significantly reduced.
  • the prediction unit in the enhancement layer exceeds the maximum size that can be used in the LM mode
  • the prediction unit is divided into a plurality of sub-blocks. Then, the LM mode is applied to each sub-block. Therefore, generating a prediction image in the enhancement layer in the LM mode, regardless of the size of the prediction unit of the base layer, without extending the processing module of the LM mode to support a larger block size. Can do. Therefore, while maintaining the high prediction accuracy of the LM mode, it is possible to enjoy the benefits of reducing the processing cost by reusing the coefficients more widely.
  • the search for the prediction mode is performed again for the prediction unit in the enhancement layer, and a new Prediction mode information is encoded. Therefore, when there is a better prediction mode other than the LM mode in the enhancement layer, the better prediction mode can be adopted to further improve the prediction accuracy.
  • the method for transmitting such information is not limited to such an example.
  • these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream.
  • the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means. That is, information may be transmitted on a transmission path different from that of the image (or bit stream).
  • Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream). Furthermore, the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.
  • a base layer prediction unit that obtains prediction mode information for intra prediction for a first prediction unit of a color difference component in a base layer of an image to be scalable decoded; When the prediction mode information acquired by the base layer prediction unit indicates a luminance-based color difference prediction mode, the first prediction in the enhancement layer is used using a coefficient calculated for the first prediction unit.
  • An enhancement layer prediction unit that generates a prediction image in the luminance-based color difference prediction mode for the second prediction unit of the color difference component corresponding to the unit;
  • An image processing apparatus comprising: (2) When the prediction mode information indicates the luminance-based color difference prediction mode, the enhancement layer prediction unit uses the coefficient to obtain the luminance base without acquiring new prediction mode information for the second prediction unit.
  • the image processing device wherein the predicted image is generated in a color difference prediction mode.
  • the enhancement layer prediction unit divides the second prediction unit into a plurality of sub-blocks when the size of the second prediction unit exceeds a maximum size when using the luminance-based color difference prediction mode, and Generating the predicted image by applying the luminance-based color difference prediction mode using the coefficient to each of a plurality of sub-blocks;
  • the image processing apparatus according to (2).
  • the enhancement layer prediction unit when the prediction mode information indicates the luminance-based color difference prediction mode, when the prediction mode information newly acquired for the second prediction unit indicates the luminance-based color difference prediction mode, The image processing apparatus according to (1), wherein the prediction image is generated in the luminance-based color difference prediction mode using the coefficient.
  • the spatial resolution of the enhancement layer or the density of the color difference component is higher than the base layer, The enhancement layer prediction unit divides the second prediction unit into a plurality of sub-blocks when the size of the second prediction unit exceeds a maximum size when using the luminance-based color difference prediction mode, and Generating the predicted image by applying the luminance-based color difference prediction mode using the coefficient to each of a plurality of sub-blocks; The image processing apparatus according to (4).
  • the spatial resolution of the enhancement layer or the density of the color difference component is higher than the base layer
  • the enhancement layer prediction unit when the prediction mode information indicates a luminance-based color difference prediction mode, when the size of the second prediction unit exceeds the maximum size when using the luminance-based color difference prediction mode, For the second prediction unit, generate a prediction image according to the newly acquired prediction mode information.
  • the image processing apparatus further includes a decoding unit that decodes a parameter indicating whether the coefficient calculated for the first prediction unit is reused for the second prediction unit;
  • the enhancement layer prediction unit generates the prediction image in the luminance-based color difference prediction mode using the coefficient when the parameter indicates that the coefficient is reused.
  • the image processing apparatus according to any one of (1) to (6).
  • the image processing apparatus further includes a decoding unit that decodes a parameter indicating whether new prediction mode information is encoded for the second prediction unit,
  • the enhancement layer prediction unit refers to the new prediction mode information for the second prediction unit when the parameter indicates that the new prediction mode information is encoded.
  • the image processing apparatus according to (4) or (5).
  • the image processing apparatus further includes a decoding unit that decodes a parameter indicating whether the second prediction unit is divided into a plurality of sub-blocks when the size of the second prediction unit exceeds the maximum size.
  • the enhancement layer prediction unit divides the second prediction unit into a plurality of subblocks when the parameter indicates that the second prediction unit is divided into a plurality of subblocks.
  • the image processing apparatus according to (3) or (5).
  • An enhancement layer prediction unit that generates a prediction image in the luminance-based color difference prediction mode for the second prediction unit of the color difference component corresponding to the prediction unit;
  • An image processing apparatus comprising: (12) When the luminance-based color difference prediction mode is selected for the first prediction unit, the enhancement layer prediction unit uses the coefficient without searching for the prediction mode for the second prediction unit.
  • the image processing apparatus according to (11), wherein the predicted image is generated in a luminance-based color difference prediction mode.
  • the spatial resolution of the enhancement layer or the density of the color difference component is higher than the base layer
  • the enhancement layer prediction unit divides the second prediction unit into a plurality of sub-blocks when the size of the second prediction unit exceeds a maximum size when using the luminance-based color difference prediction mode, and Generating the predicted image by applying the luminance-based color difference prediction mode using the coefficient to each of a plurality of sub-blocks;
  • the image processing apparatus according to (12).
  • the enhancement layer prediction unit when the luminance-based color difference prediction mode is selected for the first prediction unit, the luminance-based color difference prediction mode and the other prediction modes using the coefficient for the second prediction unit.
  • the image processing apparatus wherein an optimum prediction mode is searched from (15) The spatial resolution of the enhancement layer or the density of the color difference component is higher than the base layer,
  • the enhancement layer prediction unit is configured to search for the optimal prediction mode. Dividing the prediction unit into a plurality of sub-blocks, and applying the luminance-based color difference prediction mode using the coefficient to each of the plurality of sub-blocks to generate the prediction image;
  • the image processing apparatus according to (14).
  • the spatial resolution of the enhancement layer or the density of the color difference component is higher than the base layer
  • the enhancement layer prediction unit selects the luminance-based color difference prediction mode for the first prediction unit when the size of the second prediction unit exceeds the maximum size when using the luminance-based color difference prediction mode.
  • the optimal prediction mode is searched from a plurality of prediction modes other than the luminance-based color difference prediction mode.
  • the image processing apparatus according to (12) or (14).
  • the image processing apparatus further includes an encoding unit that encodes a parameter indicating whether the coefficient calculated for the first prediction unit is reused for the second prediction unit.
  • the image processing apparatus according to any one of (11) to (16).
  • the image processing apparatus encodes a parameter indicating whether new prediction mode information is encoded for the second prediction unit when the luminance-based color difference prediction mode is selected for the first prediction unit.
  • the image processing apparatus according to any one of (11) to (17), further including: an encoding unit that converts to an image.
  • the image processing apparatus includes: an encoding unit that encodes a parameter indicating whether the second prediction unit is divided into a plurality of sub-blocks when the size of the second prediction unit exceeds the maximum size.
  • the image processing apparatus according to (13) or (15).
  • Image encoding device 40a Intra prediction unit (base layer prediction unit) 40b Intra prediction unit (enhancement layer prediction unit) 60 Image decoding device (image processing device) 90a Intra prediction unit (base layer prediction unit) 90b Intra prediction unit (enhancement layer prediction unit)

Abstract

【課題】スケーラブル符号化においてLMモードを採用する際の処理コストを低減することのできる仕組みを提供すること。 【解決手段】スケーラブル復号される画像のベースレイヤ内の色差成分の第1の予測単位についてのイントラ予測のための予測モード情報を取得するベースレイヤ予測部と、前記ベースレイヤ予測部により取得される前記予測モード情報が輝度ベース色差予測モードを示す場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成するエンハンスメントレイヤ予測部と、を備える画像処理装置を提供する。

Description

画像処理装置及び画像処理方法
 本開示は、画像処理装置及び画像処理方法に関する。
 現在、H.264/AVCよりも符号化効率をさらに向上することを目的として、ITU-TとISO/IECとの共同の標準化団体であるJCTVC(Joint Collaboration Team-Video Coding)により、HEVC(High Efficiency Video Coding)と呼ばれる画像符号化方式の標準化が進められている。HEVC規格については、2012年2月に最初のドラフト版の仕様であるCommittee draftが発行されている(例えば、下記非特許文献1参照)。
 HEVCに代表される画像符号化方式において重要な技術の1つは、画面内予測、即ちイントラ予測である。イントラ予測は、画像内の隣り合うブロック間の相関を利用し、あるブロック内の画素値を隣り合う他のブロックの画素値から予測することで、符号化される情報量を削減する技術である。イントラ予測に際しては、通常、予測対象のブロックの画素値を予測するために最適な予測モードが、複数の予測モードから選択される。例えば、HEVCでは、平均値予測(DC Prediction)、角度予測(Angular Prediction)及び平面予測(Planar Prediction)などの様々な予測モードの候補が選択可能である。また、色差成分のイントラ予測に関しては、動的に構築される輝度成分の線型関数を予測関数として用いて色差成分の画素値を予測する、線型モデル(LM:Linear Model)モードと呼ばれる追加的な予測モードもまた提案されている(下記非特許文献2参照)。
 ところで、スケーラブル符号化(SVC(Scalable Video Coding)ともいう)は、将来の画像符号化方式において重要な技術の1つである。スケーラブル符号化とは、粗い画像信号を伝送するレイヤと精細な画像信号を伝送するレイヤとを階層的に符号化する技術をいう。スケーラブル符号化において階層化される典型的な属性は、主に次の3種類である。
  -空間スケーラビリティ:空間解像度あるいは画像サイズが階層化される。
  -時間スケーラビリティ:フレームレートが階層化される。
  -SNR(Signal to Noise Ratio)スケーラビリティ:SN比が階層化される。
さらに、標準規格で未だ採用されていないものの、ビット深度スケーラビリティ及びクロマフォーマットスケーラビリティもまた議論されている。
Benjamin Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegand, "High efficiency video coding (HEVC) text specification draft 6"(JCTVC-H1003 ver21, 2012年2月17日) Jianle Chen, et al. "CE6.a.4: Chroma intra prediction by reconstructed luma samples"(JCTVC-E266,2011年3月)
 上記非特許文献2により提案されているLMモードにおいて輝度成分の値に基づいて予測関数の係数を算出するための処理は、他の予測モードの演算と比較して多くの処理コストを要する。特に、予測単位(Prediction Unit)のサイズがより大きいほど、係数算出処理に算入される画素数はより多くなることから、係数算出処理のコストは無視できないものとなる。そのため、スケーラブル符号化において上位レイヤでLMモードを採用することは、符号化効率の向上に寄与し得る一方で、性能の悪化というリスク要因をもたらす。
 従って、スケーラブル符号化においてLMモードを採用する際の処理コストを低減することのできる仕組みが提供されることが望ましい。
 本開示によれば、スケーラブル復号される画像のベースレイヤ内の色差成分の第1の予測単位についてのイントラ予測のための予測モード情報を取得するベースレイヤ予測部と、前記ベースレイヤ予測部により取得される前記予測モード情報が輝度ベース色差予測モードを示す場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成するエンハンスメントレイヤ予測部と、を備える画像処理装置が提供される。
 上記画像処理装置は、典型的には、画像を復号する画像復号装置として実現され得る。
 また、本開示によれば、スケーラブル復号される画像のベースレイヤ内の色差成分の第1の予測単位についてのイントラ予測のための予測モード情報を取得することと、取得された前記予測モード情報が輝度ベース色差予測モードを示す場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成することと、を含む画像処理方法が提供される。
 また、本開示によれば、スケーラブル符号化される画像のベースレイヤ内の色差成分の第1の予測単位について最適なイントラ予測モードを選択するベースレイヤ予測部と、前記ベースレイヤ予測部により前記第1の予測単位について輝度ベース色差予測モードが選択された場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成するエンハンスメントレイヤ予測部と、を備える画像処理装置が提供される。
 上記画像処理装置は、典型的には、画像を符号化する画像符号化装置として実現され得る。
 また、本開示によれば、スケーラブル符号化される画像のベースレイヤ内の色差成分の第1の予測単位について最適なイントラ予測モードを選択することと、前記第1の予測単位について輝度ベース色差予測モードが選択された場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成することと、を含む画像処理方法が提供される。
 本開示によれば、スケーラブル符号化においてLMモードを採用する際の処理コストを低減することができる。
スケーラブル符号化について説明するための説明図である。 LMモードについて説明するための説明図である。 一実施形態に係る画像符号化装置の概略的な構成を示すブロック図である。 一実施形態に係る画像復号装置の概略的な構成を示すブロック図である。 図3に示した第1符号化部及び第2符号化部の構成の一例を示すブロック図である。 下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第1の手法について説明するための説明図である。 下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第2の手法について説明するための説明図である。 下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第3の手法について説明するための説明図である。 下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第4の手法について説明するための説明図である。 図5に示したイントラ予測部の詳細な構成の一例を示すブロック図である。 一実施形態に係る符号化時の概略的な処理の流れの一例を示すフローチャートである。 上位レイヤにおけるイントラ予測処理の分岐の一例を示すフローチャートである。 下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第1の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。 下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第2の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。 下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第3の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。 下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第4の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。 図4に示した第1復号部及び第2復号部の構成の一例を示すブロック図である。 図11に示したイントラ予測部の詳細な構成の一例を示すブロック図である。 一実施形態に係る復号時の概略的な処理の流れの一例を示すフローチャートである。 上位レイヤにおけるイントラ予測処理の分岐の一例を示すフローチャートである。 下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第1の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。 下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第2の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。 下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第3の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。 下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第4の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。 スケーラブル符号化の用途の第1の例について説明するための説明図である。 スケーラブル符号化の用途の第2の例について説明するための説明図である。 スケーラブル符号化の用途の第3の例について説明するための説明図である。 マルチビューコーデックについて説明するための説明図である。 マルチビューコーデックのための画像符号化装置の概略的な構成を示すブロック図である。 マルチビューコーデックのための画像復号装置の概略的な構成を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下の順序で説明を行う。
  1.概要
   1-1.スケーラブル符号化
   1-2.輝度ベース色差予測モード(LMモード)
   1-3.エンコーダの基本的な構成例
   1-4.デコーダの基本的な構成例
  2.一実施形態に係る符号化部の構成例
   2-1.全体的な構成
   2-2.イントラ予測の様々な手法
   2-3.イントラ予測部の詳細な構成
  3.一実施形態に係る符号化時の処理の流れ
  4.一実施形態に係る復号部の構成例
   4-1.全体的な構成
   4-2.イントラ予測部の詳細な構成
  5.一実施形態に係る復号時の処理の流れ
  6.応用例
   6-1.様々な製品への応用
   6-2.スケーラブル符号化の様々な用途
   6-3.その他
  7.まとめ
 <1.概要>
  [1-1.スケーラブル符号化]
 スケーラブル符号化においては、一連の画像をそれぞれ含む複数のレイヤが符号化される。ベースレイヤ(base layer)は、最初に符号化される、最も粗い画像を表現するレイヤである。ベースレイヤの符号化ストリームは、他のレイヤの符号化ストリームを復号することなく、独立して復号され得る。ベースレイヤ以外のレイヤは、エンハンスメントレイヤ(enhancement layer)と呼ばれる、より精細な画像を表現するレイヤである。エンハンスメントレイヤの符号化ストリームは、ベースレイヤの符号化ストリームに含まれる情報を用いて符号化される。従って、エンハンスメントレイヤの画像を再現するためには、ベースレイヤ及びエンハンスメントレイヤの双方の符号化ストリームが復号されることになる。スケーラブル符号化において扱われるレイヤの数は、2つ以上のいかなる数であってもよい。3つ以上のレイヤが符号化される場合には、最下位のレイヤがベースレイヤ、残りの複数のレイヤがエンハンスメントレイヤである。より上位のエンハンスメントレイヤの符号化ストリームは、より下位のエンハンスメントレイヤ又はベースレイヤの符号化ストリームに含まれる情報を用いて符号化され及び復号され得る。本明細書では、依存関係を有する少なくとも2つのレイヤのうち、依存される側のレイヤを下位レイヤ(lower layer)、依存する側のレイヤを上位レイヤ(upper layer)という。
 図1は、スケーラブル符号化される3つのレイヤL1、L2及びL3を示している。レイヤL1はベースレイヤであり、レイヤL2及びL3はエンハンスメントレイヤである。なお、ここでは、様々な種類のスケーラビリティのうち、空間スケーラビリティを例にとっている。レイヤL2のレイヤL1に対する空間解像度の比は、2:1である。レイヤL3のレイヤL1に対する空間解像度の比は、4:1である。レイヤL1のブロックB1は、ベースレイヤのピクチャ内の予測単位である。レイヤL2のブロックB2は、ブロックB1と共通するシーンを映したエンハンスメントレイヤのピクチャ内の予測単位である。ブロックB2は、レイヤL1のブロックB1に対応する。レイヤL3のブロックB3は、ブロックB1及びB2と共通するシーンを映したより上位のエンハンスメントレイヤのピクチャ内の予測単位である。ブロックB3は、レイヤL1のブロックB1及びレイヤL2のブロックB2に対応する。
 このようなレイヤ構造において、あるレイヤの画像の空間的相関は、通常、共通するシーンに対応する他のレイヤの画像の空間的相関と類似する。例えば、レイヤL1においてブロックB1がある方向の隣接ブロックとの間の強い相関を有する場合、レイヤL2においてブロックB2が同じ方向の隣接ブロックとの間で強い相関を有し、レイヤL3においてブロックB3がやはり同じ方向の隣接ブロックとの間で強い相関を有する可能性が高い。
 レイヤ間で画像の空間的相関が類似するという点は、図1に例示した空間スケーラビリティのみならず、SNRスケーラビリティ、ビット深度スケーラビリティ及びクロマフォーマットスケーラビリティにおいても同様である。これらの中で、とりわけ空間スケーラビリティ及びクロマフォーマットスケーラビリティに関しては、異なるレイヤの対応するブロックの間で、色差成分の解像度又は成分密度が互いに異なるという特徴がある。この特徴は、次に説明するLMモードの適用に際して、ある例外ケースの考慮を必要とし得る。その例外ケースについては後に説明する。本開示に係る技術は、限定ではないものの、空間スケーラビリティ、SNRスケーラビリティ、ビット深度スケーラビリティ及びクロマフォーマットスケーラビリティに適用可能である。
  [1-2.輝度ベース色差予測モード(LMモード)]
 上述したように、HEVC(High Efficiency Video Coding)の標準化作業において、色差成分のイントラ予測のための予測モードとして、同じブロックの輝度成分に基づいて色差成分の予測画像を生成するための、輝度ベース色差予測モードが提案されている。輝度ベース色差予測モードでは、動的に計算される係数を有する線型関数が予測関数として用いられることから、当該予測モードを線型モデル(LM:Linear Model)モードともいう。予測関数の引数は(必要に応じてダウンサンプリングされる)輝度成分の値であり、戻り値は色差成分の予測画素値である。より具体的には、LMモードにおける予測関数は、次のような線型一次関数であってよい:
Figure JPOXMLDOC01-appb-M000001
 式(1)において、Re´(x,y)は、復号画像(いわゆるリコンストラクト画像)の輝度成分のダウンサンプリングされた値を表す。輝度成分のダウンサンプリング(あるいは位相シフト)は、クロマフォーマットに依存して色差成分の密度が輝度成分の密度と異なる場合に行われ得る。α及びβは、所定の計算式を用いて隣接ブロックの画素値から計算される係数である。
 例えば、図2を参照すると、クロマフォーマットが4:2:0である場合の、16×16画素のサイズを有する輝度成分(Luma)の予測単位(PU)及び対応する色差成分(Chroma)のPUが概念的に示されている。輝度成分の密度は、水平方向及び垂直方向の各々について色差成分の密度の2倍である。各PUの周囲に位置し、図中で塗りつぶされている丸印は、上記予測関数の係数α、βを算出する際に参照される参照画素である。図中右において斜線で網掛けされている丸印は、ダウンサンプリングされた輝度成分である。このようにダウンサンプリングされた輝度成分の値を上記予測関数の右辺のRe´(x,y)に代入することにより、共通する画素位置の色差成分の予測値が算出される。クロマフォーマットが4:2:0である場合、図2の例のように、2×2個の輝度成分ごとに1つの輝度成分の入力値(予測関数へ代入される値)がダウンサンプリングにより生成される。参照画素も同様にダウンサンプリングされ得る。
 予測関数の係数α及びβは、それぞれ次の式(2)及び式(3)に従って算出される。なお、Iは参照画素数を表す。
Figure JPOXMLDOC01-appb-M000002
 式(2)及び式(3)から理解されるように、LMモードの予測関数の係数α及びβの計算は、少なくない回数の算術演算を含む。結果として、LMモードにおいて予測関数の係数を算出するための処理は、他の予測モードの演算と比較して多くの処理コストを要する。特に、予測単位のサイズがより大きいほど、参照画素数Iはより大きくなることから、係数算出処理のコストは無視できないものとなる。従って、スケーラブル符号化においてレイヤごとに繰り返し係数算出処理を実行することは、性能の観点で得策ではない。
 ここで注目すべきは、レイヤ間で画像の空間的相関が類似するようなスケーラビリティが実現される場合に、輝度成分と色差成分との間の相関もまたレイヤ間で類似し得るという点である。下位レイヤ内のある予測単位についてLMモードの予測関数の係数が計算された場合、上位レイヤ内の対応する予測単位について、予測関数の係数を再計算する代わりに、下位レイヤにおいて計算された係数を再利用することができる。それにより、処理コストが低減される。特に、下位レイヤ内の予測単位について最適なイントラ予測モードとしてLMモードが選択された場合、そこで計算された係数α、βを有する予測関数は、当該予測単位における輝度成分と色差成分との間の相関を良好に表現していると言える。そのような予測関数を上位レイヤ内の対応する予測単位について再利用すれば、処理コストを低減することができるだけでなく、上位レイヤにおける予測精度を高く維持することもできる。
 なお、上述したLMモードが利用可能な色差成分の予測単位のサイズには、上限が課され得る。HEVCにおいて、その上限は、16×16画素である。一方で、空間スケーラビリティ又はクロマフォーマットスケーラビリティが実現される場合、上位レイヤ内の色差成分のある予測単位のサイズは、下位レイヤ内の対応する予測単位のサイズよりも大きい。従って、例えば下位レイヤ内の16×16画素の予測単位についてLMモードが選択された場合に、対応する上位レイヤ内の予測単位についてLMモードが利用可能でないという状況が生じ得る。本開示に係る技術は、後に説明するように、このような状況において下位レイヤのLMモードの予測関数の係数を再利用する可能性をも提供する。
  [1-3.エンコーダの基本的な構成例]
 図3は、スケーラブル符号化をサポートする、一実施形態に係る画像符号化装置10の概略的な構成を示すブロック図である。図3を参照すると、画像符号化装置10は、第1符号化部1a、第2符号化部1b、共通メモリ2及び多重化部3を備える。
 第1符号化部1aは、ベースレイヤ画像を符号化し、ベースレイヤの符号化ストリームを生成する。第2符号化部1bは、エンハンスメントレイヤ画像を符号化し、エンハンスメントレイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、第1符号化部1aにより生成されるベースレイヤの符号化ストリームと、第2符号化部1bにより生成される1つ以上のエンハンスメントレイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
  [1-4.デコーダの基本的な構成例]
 図4は、スケーラブル符号化をサポートする、一実施形態に係る画像復号装置60の概略的な構成を示すブロック図である。図4を参照すると、画像復号装置60は、逆多重化部5、第1復号部6a、第2復号部6b及び共通メモリ7を備える。
 逆多重化部5は、マルチレイヤの多重化ストリームをベースレイヤの符号化ストリーム及び1つ以上のエンハンスメントレイヤの符号化ストリームに逆多重化する。第1復号部6aは、ベースレイヤの符号化ストリームからベースレイヤ画像を復号する。第2復号部6bは、エンハンスメントレイヤの符号化ストリームからエンハンスメントレイヤ画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
 図3に例示した画像符号化装置10において、ベースレイヤの符号化のための第1符号化部1aの構成と、エンハンスメントレイヤの符号化のための第2符号化部1bの構成とは、互いに類似する。第1符号化部1aにより生成され又は取得されるいくつかのパラメータは、共通メモリ2を用いてバッファリングされ、第2符号化部1bにより再利用される。次節では、そのような第1符号化部1a及び第2符号化部1bの構成について詳細に説明する。
 同様に、図4に例示した画像復号装置60において、ベースレイヤの復号のための第1復号部6aの構成と、エンハンスメントレイヤの復号のための第2復号部6bの構成とは、互いに類似する。第1復号部6aにより生成され又は取得されるいくつかのパラメータは、共通メモリ7を用いてバッファリングされ、第2復号部6bにより再利用される。さらに次の節では、そのような第1復号部6a及び第2復号部6bの構成について詳細に説明する。
 <2.一実施形態に係る符号化部の構成例>
  [2-1.全体的な構成]
 図5は、図3に示した第1符号化部1a及び第2符号化部1bの構成の一例を示すブロック図である。図5を参照すると、第1符号化部1aは、並び替えバッファ12、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18、逆量子化部21、逆直交変換部22、加算部23、デブロックフィルタ24、フレームメモリ25、セレクタ26及び27、動き探索部30、並びにイントラ予測部40aを備える。第2符号化部1bは、イントラ予測部40aの代わりに、イントラ予測部40bを備える。
 並び替えバッファ12は、一連の画像データに含まれる画像を並び替える。並び替えバッファ12は、符号化処理に係るGOP(Group of Pictures)構造に応じて画像を並び替えた後、並び替え後の画像データを減算部13、動き探索部30及びイントラ予測部40a又は40bへ出力する。
 減算部13には、並び替えバッファ12から入力される画像データ、及び後に説明する動き探索部30又はイントラ予測部40a若しくは40bから入力される予測画像データが供給される。減算部13は、並び替えバッファ12から入力される画像データと予測画像データとの差分である予測誤差データを算出し、算出した予測誤差データを直交変換部14へ出力する。
 直交変換部14は、減算部13から入力される予測誤差データについて直交変換を行う。直交変換部14により実行される直交変換は、例えば、離散コサイン変換(Discrete Cosine Transform:DCT)又はカルーネン・レーベ変換などであってよい。直交変換部14は、直交変換処理により取得される変換係数データを量子化部15へ出力する。
 量子化部15には、直交変換部14から入力される変換係数データ、及び後に説明するレート制御部18からのレート制御信号が供給される。量子化部15は、変換係数データを量子化し、量子化後の変換係数データ(以下、量子化データという)を可逆符号化部16及び逆量子化部21へ出力する。また、量子化部15は、レート制御部18からのレート制御信号に基づいて量子化パラメータ(量子化スケール)を切り替えることにより、量子化データのビットレートを変化させる。
 可逆符号化部16は、量子化部15から入力される各レイヤの量子化データについて可逆符号化処理を行うことにより、各レイヤの符号化ストリームを生成する。また、可逆符号化部16は、セレクタ27から入力されるイントラ予測に関する情報又はインター予測に関する情報を符号化して、符号化パラメータを符号化ストリームのヘッダ領域内に多重化する。そして、可逆符号化部16は、生成した符号化ストリームを蓄積バッファ17へ出力する。
 蓄積バッファ17は、可逆符号化部16から入力される符号化ストリームを半導体メモリなどの記憶媒体を用いて一時的に蓄積する。そして、蓄積バッファ17は、蓄積した符号化ストリームを、伝送路の帯域に応じたレートで、図示しない伝送部(例えば、通信インタフェース又は周辺機器との接続インタフェースなど)へ出力する。
 レート制御部18は、蓄積バッファ17の空き容量を監視する。そして、レート制御部18は、蓄積バッファ17の空き容量に応じてレート制御信号を生成し、生成したレート制御信号を量子化部15へ出力する。例えば、レート制御部18は、蓄積バッファ17の空き容量が少ない時には、量子化データのビットレートを低下させるためのレート制御信号を生成する。また、例えば、レート制御部18は、蓄積バッファ17の空き容量が十分大きい時には、量子化データのビットレートを高めるためのレート制御信号を生成する。
 逆量子化部21は、量子化部15から入力される量子化データについて逆量子化処理を行う。そして、逆量子化部21は、逆量子化処理により取得される変換係数データを、逆直交変換部22へ出力する。
 逆直交変換部22は、逆量子化部21から入力される変換係数データについて逆直交変換処理を行うことにより、予測誤差データを復元する。そして、逆直交変換部22は、復元した予測誤差データを加算部23へ出力する。
 加算部23は、逆直交変換部22から入力される復元された予測誤差データと動き探索部30又はイントラ予測部40a若しくは40bから入力される予測画像データとを加算することにより、復号画像データ(いわゆるリコンストラクト画像)を生成する。そして、加算部23は、生成した復号画像データをデブロックフィルタ24及びフレームメモリ25へ出力する。
 デブロックフィルタ24は、画像の符号化時に生じるブロック歪みを減少させるためのフィルタリング処理を行う。デブロックフィルタ24は、加算部23から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データをフレームメモリ25へ出力する。
 フレームメモリ25は、加算部23から入力される復号画像データ、及びデブロックフィルタ24から入力されるフィルタリング後の復号画像データを記憶媒体を用いて記憶する。
 セレクタ26は、インター予測のために使用されるフィルタリング後の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとして動き探索部30に供給する。また、セレクタ26は、イントラ予測のために使用されるフィルタリング前の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてイントラ予測部40a又は40bに供給する。
 セレクタ27は、インター予測モードにおいて、動き探索部30から出力されるインター予測の結果としての予測画像データを減算部13へ出力すると共に、インター予測に関する情報を可逆符号化部16へ出力する。また、セレクタ27は、イントラ予測モードにおいて、イントラ予測部40a又は40bから出力されるイントラ予測の結果としての予測画像データを減算部13へ出力すると共に、イントラ予測に関する情報を可逆符号化部16へ出力する。セレクタ27は、インター予測モードとイントラ予測モードとを、動き探索部30及びイントラ予測部40a又は40bから出力されるコスト関数値の大きさに応じて切り替える。
 動き探索部30は、並び替えバッファ12から入力される符号化対象の画像データ(原画像データ)、及びセレクタ26を介して供給される復号画像データに基づいて、インター予測処理(フレーム間予測処理)を行う。例えば、動き探索部30は、各予測モードによる予測結果を所定のコスト関数を用いて評価する。次に、動き探索部30は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、動き探索部30は、当該最適な予測モードに従って予測画像データを生成する。そして、動き探索部30は、選択した最適な予測モードを表す予測モード情報及び参照画像情報を含むインター予測に関する情報、コスト関数値、並びに予測画像データを、セレクタ27へ出力する。
 イントラ予測部40aは、ベースレイヤの原画像データ及び復号画像データに基づいて、予測単位ごとにイントラ予測処理を行う。例えば、イントラ予測部40aは、各予測モードによる予測結果を所定のコスト関数を用いて評価する。次に、イントラ予測部40aは、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、イントラ予測部40aは、当該最適な予測モードに従ってベースレイヤの予測画像データを生成する。そして、イントラ予測部40aは、選択した最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。また、イントラ予測部40aは、イントラ予測に関する少なくとも一部のパラメータを、共通メモリ2によりバッファリングさせる。
 イントラ予測部40bは、エンハンスメントレイヤの原画像データ及び復号画像データに基づいて、予測単位ごとにイントラ予測処理を行う。例えば、イントラ予測部40bは、各予測モードによる予測結果を所定のコスト関数を用いて評価する。次に、イントラ予測部40bは、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、イントラ予測部40bは、当該最適な予測モードに従ってエンハンスメントレイヤの予測画像データを生成する。そして、イントラ予測部40bは、選択した最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。また、イントラ予測部40bは、共通メモリ2によりバッファリングされるパラメータを再利用することにより、エンハンスメントレイヤのイントラ予測処理の少なくとも一部を省略する。
 第1符号化部1aは、ここで説明した一連の符号化処理を、ベースレイヤの一連の画像データについて実行する。第2符号化部1bは、ここで説明した一連の符号化処理を、エンハンスメントレイヤの一連の画像データについて実行する。エンハンスメントレイヤが複数存在する場合には、エンハンスメントレイヤの符号化処理は、エンハンスメントレイヤの数だけ繰り返され得る。ベースレイヤの符号化処理と、エンハンスメントレイヤの符号化処理とは、例えば、符号化単位又は予測単位などの処理単位ごとに同期して実行されてもよい。
  [2-2.イントラ予測の様々な手法]
 下位レイヤにおいて計算されたLMモードの予測関数の係数を上位レイヤにおいて再利用するために有益な2つの方式が存在する。その1つは、下位レイヤにおいてLMモードが選択された場合に、上位レイヤにおいて予測モードの再探索を行うことなく、上位レイヤについてLMモードを固定的に選択する方式である。上位レイヤについてLMモードで色差成分の予測画素値を計算する際には、下位レイヤにおいて計算された係数を有する予測関数が再利用される。本明細書では、この方式をLMモード固定方式という。他の1つは、下位レイヤにおいてLMモードが選択された場合に、上位レイヤにおいて予測モードを再探索を行う際のLMモードの予測関数の係数として、下位レイヤにおいて計算された係数を再利用する方式である。本明細書では、この方式を再探索方式という。
 また、空間スケーラビリティ又はクロマフォーマットスケーラビリティを前提とし、下位レイヤ内の色差成分の予測単位のサイズがLMモードが利用可能な最大サイズに等しい状況において、上位レイヤでLMモードをどのように扱うかに関する2つの方式が存在する。その1つは、上位レイヤ内の対応する予測単位を、LMモードが利用可能なサイズを有する複数のサブブロックに分割する方式である。本明細書では、この方式を分割方式という。他の1つは、上位レイヤ内の対応する予測単位についてLMモードの利用を禁止する方式である。本明細書では、この方式をLMモード禁止方式という。
 従って、LMモード固定方式/再探索方式と、分割方式/LMモード禁止方式との組合せとして、4つの手法が導かれる。以下、それら4つの手法について順に説明する。なお、以下の説明では、限定ではなく一例として、レイヤ間の解像度比は1:2であり、LMモードが利用可能な予測単位の最大サイズは16×16画素であるものとする。
   (1)第1の手法
 図6Aは、下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第1の手法について説明するための説明図である。第1の手法は、LMモード固定方式と分割方式との組合せである。
 第1の手法において、下位レイヤ内の4×4画素の予測単位についてLMモードが選択された場合、対応する上位レイヤ内の8×8画素の予測単位についても、LMモードが固定的に選択される。下位レイヤ内の8×8画素の予測単位についてLMモードが選択された場合、対応する上位レイヤ内の16×16画素の予測単位についても、LMモードが固定的に選択される。いずれの場合にも、上位レイヤの予測画像は、下位レイヤにおいて計算された係数α、βを有するLMモードの予測関数を用いて生成される。下位レイヤ内の16×16画素の予測単位についてLMモードが選択された場合には、対応する上位レイヤ内の32×32画素の予測単位は、それぞれ16×16画素の4つのサブブロックに分割される。そして、各サブブロックの予測画像が、下位レイヤにおいて計算された係数α、βを有する予測関数を用いて生成される。
 第1の手法では、下位レイヤにおいてLMモードが選択された場合には、LMモード固定方式が採用されるため、上位レイヤにおいて予測モード情報を符号化することが不要となる。よって、上位レイヤの符号化ストリームの符号化効率は向上する。また、上位レイヤにおいて、予測関数の係数の算出のみならず予測モードの再探索も省略されるため、上位レイヤのイントラ予測の処理コストを大幅に低減することができる。また、分割方式が採用されるため、より大きいブロックサイズがサポートされるようにLMモードの処理モジュールを拡張することなく、下位レイヤの予測単位のサイズがいかなるサイズであっても、上位レイヤにおいてLMモードで予測画像を生成することができる。よって、上位レイヤにおける予測精度を高く維持することができる。
   (2)第2の手法
 図6Bは、下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第2の手法について説明するための説明図である。第2の手法は、再探索方式と分割方式との組合せである。
 第2の手法では、上位レイヤ内の予測単位について、LMモードを含む複数の予測モードを対象として、最適な予測モードが再探索される。そして、上位レイヤの符号化ストリーム内で、最適な予測モードを示す予測モード情報が符号化される。下位レイヤ内の4×4画素又は8×8画素の予測単位についてLMモードが選択された場合には、上位レイヤでの再探索におけるLMモードでの予測画素値の生成の際に、下位レイヤにおいて計算された係数α、βを有する予測関数が使用される。下位レイヤ内の16×16画素の予測単位についてLMモードが選択された場合には、上位レイヤでの再探索におけるLMモードでの予測画素値の生成の際に、対応する上位レイヤ内の32×32画素の予測単位が、それぞれ16×16画素の4つのサブブロックに分割される。そして、各サブブロックの予測画像が、下位レイヤにおいて計算された係数α、βを有する予測関数を用いて生成される。
 第2の手法では、上位レイヤにおいて予測モードが再探索されるため、下位レイヤにおいて選択された予測モードに関わらず、最適な予測モードを上位レイヤにおいても選択することができる。また、分割方式が採用されるため、より大きいブロックサイズがサポートされるようにLMモードの処理モジュールを拡張することなく、下位レイヤの予測単位のサイズがいかなるサイズであっても、上位レイヤにおいてLMモードを探索の対象に含めることができる。よって、上位レイヤにおける予測精度を高く維持することができる。
   (3)第3の手法
 図6Cは、下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第3の手法について説明するための説明図である。第3の手法は、LMモード固定方式とLMモード禁止方式との組合せである。
 第3の手法において、下位レイヤ内の4×4画素の予測単位についてLMモードが選択された場合、対応する上位レイヤ内の8×8画素の予測単位についても、LMモードが固定的に選択される。下位レイヤ内の8×8画素の予測単位についてLMモードが選択された場合、対応する上位レイヤ内の16×16画素の予測単位についても、LMモードが固定的に選択される。いずれの場合にも、上位レイヤの予測画像は、下位レイヤにおいて計算された係数α、βを有するLMモードの予測関数を用いて生成される。下位レイヤ内の16×16画素の予測単位についてLMモードが選択された場合には、例外的に、対応する上位レイヤ内の32×32画素の予測単位について、LMモード以外の複数の予測モードを対象として、最適な予測モードが再探索される。そして、上位レイヤの符号化ストリーム内で、最適な予測モードを示す予測モード情報が符号化される。
 第3の手法では、下位レイヤにおいてLMモードが選択された場合には、LMモード固定方式が採用されるため、上述した例外的なケースを除き、上位レイヤにおいて予測モード情報を符号化することが不要となる。よって、上位レイヤの符号化ストリームの符号化効率は向上する。また予測モードの再探索の省略によって、上位レイヤのイントラ予測の処理コストを低減することができる。また、LMモードが利用可能な最大サイズを超えるサイズを有する予測単位について、LMモードが禁止されるため、LMモードの処理モジュールを拡張することは必要とされない。
   (4)第4の手法
 図6Dは、下位レイヤにおいてLMモードが選択された場合の上位レイヤにおけるイントラ予測の第4の手法について説明するための説明図である。第4の手法は、再探索方式とLMモード禁止方式との組合せである。
 第4の手法では、下位レイヤ内の4×4画素又は8×8画素の予測単位についてLMモードが選択された場合、対応する上位レイヤ内の予測単位について、LMモードを含む複数の予測モードを対象として、最適な予測モードが再探索される。上位レイヤでの再探索におけるLMモードでの予測画素値の生成の際に、下位レイヤにおいて計算された係数α、βを有する予測関数が使用される。そして、上位レイヤの符号化ストリーム内で、最適な予測モードを示す予測モード情報が符号化される。下位レイヤ内の16×16画素の予測単位についてLMモードが選択された場合には、例外的に、対応する上位レイヤ内の32×32画素の予測単位について、LMモード以外の複数の予測モードを対象として、最適な予測モードが再探索される。そして、上位レイヤの符号化ストリーム内で、最適な予測モードを示す予測モード情報が符号化される。
 第4の手法では、上位レイヤにおいて予測モードが再探索されるため、下位レイヤにおいて選択された予測モードに関わらず、最適な予測モードを上位レイヤにおいても選択することができる。また、LMモードが利用可能な最大サイズを超えるサイズを有する予測単位について、LMモードが禁止されるため、LMモードの処理モジュールを拡張することは必要とされない。
  [2-3.イントラ予測部の詳細な構成]
 図7は、図5に示したイントラ予測部40a及び40bの詳細な構成の一例を示すブロック図である。図7を参照すると、イントラ予測部40aは、予測制御部41a、係数算出部42a、フィルタ44a、予測部45a及びモード判定部46aを有する。イントラ予測部40bは、予測制御部41b、係数取得部42b、フィルタ44b、予測部45b及びモード判定部46bを有する。
   (1)ベースレイヤのイントラ予測処理
 イントラ予測部40aの予測制御部41aは、ベースレイヤのイントラ予測処理を制御する。例えば、予測制御部41aは、予測単位(PU)ごとに、輝度成分(Y)についてのイントラ予測処理及び色差成分(Cb、Cr)についてのイントラ予測処理を実行する。輝度成分についてのイントラ予測処理において、予測制御部41aは、複数の予測モードで予測部45aに各予測単位の予測画像を生成させ、モード判定部46aに輝度成分の最適な予測モードを判定させる。色差成分についてのイントラ予測処理では、予測制御部41aは、LMモードを含む複数の予測モードで予測部45aに各予測単位の予測画像を生成させ、モード判定部46aに色差成分の最適な予測モードを判定させる。なお、予測単位の最大サイズが所定の最大サイズを超える場合には、当該予測単位についてLMモードは探索の候補から除外され得る。
 係数算出部42aは、LMモードにおいて予測部45aにより使用される予測関数の係数を、上述した式(2)及び式(3)に従って、予測対象の予測単位に隣接する隣接ブロック内の参照画素を参照して算出する。
 フィルタ44aは、予測制御部41aによる制御の下、フレームメモリ25から入力される予測対象の予測単位の輝度成分の画素値をクロマフォーマットに応じてダウンサンプリング(位相シフト)することにより、LMモードの予測関数への入力値を生成する。そして、フィルタ44aは、生成した入力値を予測部45aへ出力する。
 予測部45aは、予測制御部41aによる制御の下、各色成分(即ち、輝度成分及び色差成分の各々)について、様々な予測モードの候補に従って、各予測単位の予測画像を生成する。色差成分の予測モードの候補は、上述したLMモードを含む。LMモードにおいて、予測部45aは、フィルタ44aにより生成される輝度成分の入力値を、係数算出部42aにより算出される係数を有する予測関数に代入することにより、各色差成分の値を予測する。他の予測モードにおける予測部45aによるイントラ予測は、既存の手法と同様に行われてよい。予測部45aは、予測モードごとに、予測の結果として生成される予測画像データをモード判定部46aへ出力する。
 モード判定部46aは、並び替えバッファ12から入力される原画像データと予測部45aから入力される予測画像データとに基づいて、各予測モードのコスト関数値を算出する。そして、モード判定部46aは、算出したコスト関数値に基づき、各色成分についての最適な予測モードを選択する。そして、モード判定部46aは、選択した最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、並びに各色成分の予測画像データを、セレクタ27へ出力する。
 また、モード判定部46aは、ベースレイヤ内の予測単位ごとの最適な予測モードを表す予測モード情報を、共通メモリ2内に設けられるモード情報バッファに格納する。係数算出部42aは、少なくともLMモードが選択された予測単位の各々について、算出した予測関数の係数の値を、共通メモリ2内に設けられる係数バッファに格納する。
   (2)エンハンスメントレイヤのイントラ予測処理
 イントラ予測部40bの予測制御部41bは、エンハンスメントレイヤのイントラ予測処理を制御する。例えば、予測制御部41bは、予測単位(PU)ごとに、輝度成分(Y)についてのイントラ予測処理及び色差成分(Cb、Cr)についてのイントラ予測処理を実行する。輝度成分についてのイントラ予測処理において、予測制御部41bは、複数の予測モードを対象として予測部45b及びモード判定部46bに最適な予測モードを再探索させてもよい。その代わりに、予測制御部41bは、再探索を省略し、下位レイヤ内のある予測単位について選択された予測モードを、上位レイヤ内の対応する予測単位に適用してもよい。
 色差成分についてのイントラ予測処理は、上述した第1~第4の手法のいずれかに従って、予測制御部41bにより制御される。
 例えば、第1の手法において、予測制御部41bは、下位レイヤ内の第1の予測単位についてLMモードが選択された場合に、上位レイヤ内の対応する第2の予測単位について、予測モードの探索を行うことなく、当該第2の予測単位にもLMモードを適用する。より具体的には、予測制御部41bによる制御の下、係数取得部42bは、第1の予測単位のために計算された係数を共通メモリ2から取得する。フィルタ44bは、輝度成分の画素値をクロマフォーマットに応じてダウンサンプリングすることにより、LMモードの予測関数への入力値を生成する。予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。モード判定部46bは、コスト関数値を評価することなく、LMモードで生成された予測画像データをセレクタ27へ出力する。
 上位レイヤの色差成分の空間解像度又は色差成分の密度が下位レイヤよりも高い場合(即ち、空間スケーラビリティ又はクロマフォーマットスケーラビリティが実現される場合)には、第2の予測単位のサイズに応じて例外的な処理が行われる。より具体的には、第2の予測単位のサイズがLMモードが利用可能な最大サイズ(例えば、16×16画素)を超えるときは、予測制御部41bは、第2の予測単位を複数のサブブロックに分割する。そして、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、複数のサブブロックの各々の予測画像をLMモードで生成する。
 第2の手法において、予測制御部41bは、下位レイヤ内の第1の予測単位についてLMモードが選択された場合に、上位レイヤ内の対応する第2の予測単位について、LMモード及び他の予測モードを対象として、最適な予測モードを再探索する。その再探索の中で、予測部45bは、係数取得部42bにより共通メモリ2から取得される、第1の予測単位のために計算された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。モード判定部46bは、LMモードを含む複数の予測モードのコスト関数値に基づき、第2の予測単位について最適な予測モードを選択する。そして、モード判定部46bは、イントラ予測に関する情報及び予測画像データを、セレクタ27へ出力する。
 上位レイヤの色差成分の空間解像度又は色差成分の密度が下位レイヤよりも高い場合において、第2の予測単位のサイズが上記最大サイズを超えるときは、予測制御部41bは、最適な予測モードの探索のために、第2の予測単位を複数のサブブロックに分割する。そして、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、複数のサブブロックの各々の予測画像をLMモードで生成する。
 第3の手法において、予測制御部41bは、下位レイヤ内の第1の予測単位についてLMモードが選択された場合に、上位レイヤ内の対応する第2の予測単位について、予測モードの探索を行うことなく、当該第2の予測単位にもLMモードを適用する。より具体的には、予測部45bは、係数取得部42bにより共通メモリ2から取得される、第1の予測単位のために計算された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。モード判定部46bは、コスト関数値を評価することなく、LMモードで生成された予測画像データをセレクタ27へ出力する。
 上位レイヤの色差成分の空間解像度又は色差成分の密度が下位レイヤよりも高い場合において、第2の予測単位のサイズが上記最大サイズを超えるときは、予測制御部41bは、LMモード以外の複数の予測モードを対象として、最適な予測モードを再探索する。この場合、モード判定部46bは、例外的にコスト関数値を評価し、第2の予測単位について最適な予測モードを選択する。
 第4の手法において、予測制御部41bは、下位レイヤ内の第1の予測単位についてLMモードが選択された場合に、上位レイヤ内の対応する第2の予測単位について、LMモード及び他の予測モードを対象として、最適な予測モードを再探索する。その再探索の中で、予測部45bは、係数取得部42bにより共通メモリ2から取得される、第1の予測単位のために計算された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。モード判定部46bは、複数の予測モードのコスト関数値に基づき、第2の予測単位について最適な予測モードを選択する。そして、モード判定部46bは、イントラ予測に関する情報及び予測画像データを、セレクタ27へ出力する。
 上位レイヤの色差成分の空間解像度又は色差成分の密度が下位レイヤよりも高い場合において、第2の予測単位のサイズが上記最大サイズを超えるときは、予測制御部41bは、最適な予測モードの探索の対象から、LMモードを除外する。
 採用される手法に関わらず、より上位のエンハンスメントレイヤが残されている場合には、モード判定部46aは、予測単位ごとに選択される予測モードを表す予測モード情報を、共通メモリ2内に設けられるモード情報バッファに格納する。共通メモリ2内の係数バッファに格納されている係数は、全てのレイヤについてイントラ予測が終了するまで保持され得る。
   (3)符号化されるパラメータ
 本開示に係る技術を導入するにあたり、いくつかの追加的なパラメータが、可逆符号化部16によって符号化ストリーム内に符号化されてよい。ここでは、係数再利用フラグ、モード固定フラグ及び分割フラグという3種類のパラメータについて説明する。
 係数再利用フラグは、下位レイヤ内の第1の予測単位のために計算される係数が、第1の予測単位に対応する上位レイヤ内の第2の予測単位のために再利用されるか、を示すパラメータである。係数が再利用されることを符号化ストリーム内の係数再利用フラグが示す場合に、デコーダは、下位レイヤにおいて計算されたLMモードの予測関数の係数を、上位レイヤにおいて再利用する。係数が再利用されないことを符号化ストリーム内の係数再利用フラグが示す場合には、デコーダは、上位レイヤにおいて係数を再計算し得る。
 モード固定フラグは、下位レイヤ内の第1の予測単位についてLMモードが選択された場合に、第1の予測単位に対応する上位レイヤ内の第2の予測単位について新たな予測モード情報が符号化されるか、を示すパラメータである。モード固定フラグは、上述したLMモード固定方式と再探索方式とを切り替えるためのパラメータであるとも理解されてよい。第1の予測単位についてLMモードが選択された場合において、第2の予測単位について新たな予測モード情報が符号化されないことをモード固定フラグが示す場合には、デコーダは、予測モード情報を取得することなく第2の予測単位にLMモードを適用する。第2の予測単位について新たな予測モード情報が符号化されることをモード固定フラグが示す場合には、デコーダは、第2の予測単位について選択された予測モードを示す予測モード情報を符号化ストリームから取得し、取得した予測モード情報に従ってイントラ予測を行う。
 分割フラグは、下位レイヤ内の第1の予測単位についてLMモードが選択された場合において、第1の予測単位に対応する上位レイヤ内の第2の予測単位のサイズが所定の最大サイズを超えるときに、第2の予測単位が複数のサブブロックに分割されるか、を示すパラメータである。分割フラグは、上述した分割方式とLMモード禁止方式とを切り替えるためのパラメータであるとも理解されてよい。第2の予測単位が複数のサブブロックに分割されることを分割フラグが示す場合には、デコーダは、第2の予測単位を分割することにより生成されるサブブロックの各々について、LMモードでイントラ予測を行う。第2の予測単位が分割されないことを分割フラグが示す場合には、デコーダは、第2の予測単位について選択された予測モード(非LMモード)を示す予測モード情報を符号化ストリームから取得し、取得した予測モード情報に従ってイントラ予測を行う。
 これらパラメータは、上述した個々の目的のための専用のパラメータとして導入されてもよく、又は他の目的を有するパラメータと統合されてもよい。例えば、符号化ストリームのプロファイル、又はデバイスのレベルを示すパラメータが、上述した係数再利用フラグ、モード固定フラグ又は分割フラグの機能をも有するように定義されてもよい。また、これらパラメータは、例えばシーケンスパラメータセット、ピクチャパラメータセット又はスライスヘッダなど、符号化ストリーム内のいかなる位置で符号化されてもよい。
 <3.一実施形態に係る符号化時の処理の流れ>
 本節では、図8~図10Dを用いて、符号化時の処理の流れについて説明する。
   (1)概略的な流れ
 図8は、一実施形態に係る符号化時の概略的な処理の流れの一例を示すフローチャートである。
 図8を参照すると、まず、ベースレイヤのためのイントラ予測部40aは、ベースレイヤのイントラ予測処理を実行する(ステップS11)。ここでのイントラ予測処理は、例えば、上記非特許文献1において定義されているような仕様に従った処理であってよい。レイヤ間で再利用されるパラメータは、共通メモリ2を用いてバッファリングされ得る。
 次に、エンハンスメントレイヤのためのイントラ予測部40bは、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS12)。レイヤ間で再利用されるパラメータは、共通メモリ2から読み込まれ、イントラ予測部40bにより再利用され得る。
 次に、複数のエンハンスメントレイヤが存在する場合には、未処理のより上位のエンハンスメントレイヤが残されているかが判定される(ステップS13)。ここで、未処理のより上位のエンハンスメントレイヤが残されている場合には、より上位のエンハンスメントレイヤを対象として、ステップS12におけるイントラ予測処理が繰り返される。
 そして、可逆符号化部16により、符号化ストリーム内に制御パラメータが符号化される(ステップS14)。ここで符号化される制御パラメータは、上述した係数再利用フラグ、モード固定フラグ及び分割フラグ、並びに予測モード情報などのいかなるパラメータを含んでもよい。また、パラメータの符号化は、レイヤごとのイントラ予測処理の一部として行われてもよい。
   (2)イントラ予測処理の分岐
 画像符号化装置10は、上述した第1~第4の手法のうちの1つのみをサポートしてもよく、又はこれら手法のうちの複数をサポートしてもよい。複数の手法がサポートされる場合には、イントラ予測部40bの予測制御部41bは、いずれの手法に従ってエンハンスメントレイヤのイントラ予測処理を実行するかを、処理ごとに判定し得る。図9は、そのような判定の分岐を例示している。
 図9を参照すると、まず、予測制御部41bは、LMモードの予測関数の係数を再利用するかを判定する(ステップS100)。ここでの判定は、例えば、ユーザからの指定、デバイスの設定、事前の画像解析又は期待される性能などの様々な条件に従って行われてよい。
 LMモードの予測関数の係数を再利用しない場合には、予測制御部41bは、上述した第1~第4の手法ではなく、既存の手法に従ってエンハンスメントレイヤのイントラ予測処理を実行する(ステップS105)。
 LMモードの予測関数の係数を再利用する場合には、予測制御部41bは、上位レイヤでの予測単位の分割を許容するかを判定する(ステップS110)。さらに、予測制御部41bは、上位レイヤにおいて再探索を実行するかを判定する(ステップS120、S160)。
 予測単位の分割を許容し、かつ再探索を実行しない場合には、予測制御部41bは、上述した第1の手法(即ち、LMモード固定方式と分割方式との組合せ)に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS130)。
 予測単位の分割を許容し、かつ再探索を実行する場合には、予測制御部41bは、上述した第2の手法(即ち、再探索方式と分割方式との組合せ)に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS140)。
 予測単位の分割を許容せず、かつ再探索を実行しない場合には、予測制御部41bは、上述した第3の手法(即ち、LMモード固定方式とLMモード禁止方式との組合せ)に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS170)。
 予測単位の分割を許容せず、かつ再探索を実行する場合には、予測制御部41bは、上述した第4の手法(即ち、再探索方式とLMモード禁止方式との組合せ)に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS180)。
   (3)第1の手法
 図10Aは、下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第1の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。
 図10Aを参照すると、まず、係数取得部42bは、予測対象の予測単位(以下、注目PUという)に対応する下位レイヤ内の予測単位のために計算されたLMモードの予測関数の係数を、共通メモリ2内の係数バッファから取得する(ステップS131)。
 次に、予測制御部41bは、注目PUのサイズがLMモードが利用可能な最大サイズ(例えば、16×16画素)を超えるか否かを判定する(ステップS132)。ここで、注目PUのサイズが最大サイズを超えない場合には、処理はステップS133へ進む。一方、注目PUのサイズが最大サイズを超える場合には、処理はステップS134へ進む。
 ステップS133において、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、注目PUの予測画像をLMモードで生成する(ステップS133)。
 ステップS134において、予測制御部41bは、注目PUを複数のサブブロックに分割する(ステップS134)。サブブロックの個数Nは、注目PUのサイズと上記最大サイズとに基づいて決定され得る。次に、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、N個のサブブロックの各々の予測画像を、LMモードで生成する(ステップS135)。
   (4)第2の手法
 図10Bは、下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第2の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。
 図10Bを参照すると、まず、係数取得部42bは、注目PUに対応する下位レイヤ内のPUのために計算されたLMモードの予測関数の係数を、共通メモリ2内の係数バッファから取得する(ステップS141)。
 次に、予測制御部41bは、注目PUのサイズがLMモードが利用可能な最大サイズを超えるか否かを判定する(ステップS142)。ここで、注目PUのサイズが最大サイズを超えない場合には、処理はステップS143へ進む。一方、注目PUのサイズが最大サイズを超える場合には、処理はステップS145へ進む。
 ステップS143において、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、注目PUの予測画像を再探索のためにLMモードで生成する(ステップS143)。また、予測部45bは、1つ以上の非LMモードの各々に従って、注目PUの予測画像を生成する(ステップS144)。
 ステップS145において、予測制御部41bは、注目PUを複数のサブブロックに分割する(ステップS145)。次に、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、N個のサブブロックの各々の予測画像を、LMモードで生成する(ステップS146)。また、予測部45bは、1つ以上の非LMモードの各々に従って、注目PUの予測画像を生成する(ステップS147)。
 次に、モード判定部46bは、LMモードを含む複数の予測モードのコスト関数値を評価することにより、注目PUについて最適な予測モードを選択する(ステップS148)。
   (5)第3の手法
 図10Cは、下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第3の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。
 図10Cを参照すると、まず、係数取得部42bは、注目PUに対応する下位レイヤ内のPUのために計算されたLMモードの予測関数の係数を、共通メモリ2内の係数バッファから取得する(ステップS171)。
 次に、予測制御部41bは、注目PUのサイズがLMモードが利用可能な最大サイズを超えるか否かを判定する(ステップS172)。ここで、注目PUのサイズが最大サイズを超えない場合には、処理はステップS173へ進む。一方、注目PUのサイズが最大サイズを超える場合には、処理はステップS174へ進む。
 ステップS173において、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、注目PUの予測画像をLMモードで生成する(ステップS173)。
 ステップS174において、予測部45bは、1つ以上の非LMモードの各々に従って、注目PUの予測画像を生成する(ステップS174)。次に、モード判定部46bは、コスト関数値を評価することにより、注目PUについて最適な予測モードを選択する(ステップS175)。
   (6)第4の手法
 図10Dは、下位レイヤにおいてLMモードが選択された場合に上位レイヤにおいて第4の手法に従って実行される符号化時のイントラ予測処理の流れの一例を示すフローチャートである。
 図10Dを参照すると、まず、係数取得部42bは、注目PUに対応する下位レイヤ内のPUのために計算されたLMモードの予測関数の係数を、共通メモリ2内の係数バッファから取得する(ステップS181)。
 次に、予測制御部41bは、注目PUのサイズがLMモードが利用可能な最大サイズを超えるか否かを判定する(ステップS182)。ここで、注目PUのサイズが最大サイズを超えない場合には、処理はステップS183へ進む。一方、注目PUのサイズが最大サイズを超える場合には、処理はステップS185へ進む。
 ステップS183において、予測部45bは、係数取得部42bにより取得された係数を有する予測関数を用いて、注目PUの予測画像を再探索のためにLMモードで生成する(ステップS183)。また、予測部45bは、1つ以上の非LMモードの各々に従って、注目PUの予測画像を生成する(ステップS184)。
 ステップS185において、予測部45bは、1つ以上の非LMモードの各々に従って、注目PUの予測画像を生成する(ステップS185)。
 次に、モード判定部46bは、コスト関数値を評価することにより、注目PUについて最適な予測モードを選択する(ステップS186)。
 <4.一実施形態に係る復号部の構成例>
  [4-1.全体的な構成]
 図11は、図4に示した第1復号部6a及び第2復号部6bの構成の一例を示すブロック図である。図11を参照すると、第1復号部6aは、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、加算部65、デブロックフィルタ66、並び替えバッファ67、D/A(Digital to Analogue)変換部68、フレームメモリ69、セレクタ70及び71、動き補償部80、並びにイントラ予測部90aを備える。第2復号部6bは、イントラ予測部90aの代わりに、イントラ予測部90bを備える。
 蓄積バッファ61は、伝送路を介して入力される符号化ストリームを記憶媒体を用いて一時的に蓄積する。
 可逆復号部62は、蓄積バッファ61から入力される符号化ストリームを、符号化の際に使用された符号化方式に従って復号する。また、可逆復号部62は、符号化ストリームのヘッダ領域に多重化されている情報を復号する。可逆復号部62により復号される情報は、例えば、上述したインター予測に関する情報及びイントラ予測に関する情報を含み得る。可逆復号部62は、インター予測に関する情報を動き補償部80へ出力する。また、可逆復号部62は、イントラ予測に関する情報をイントラ予測部90a又は90bへ出力する。
 逆量子化部63は、可逆復号部62による復号後の量子化データを逆量子化する。逆直交変換部64は、符号化の際に使用された直交変換方式に従い、逆量子化部63から入力される変換係数データについて逆直交変換を行うことにより、予測誤差データを生成する。そして、逆直交変換部64は、生成した予測誤差データを加算部65へ出力する。
 加算部65は、逆直交変換部64から入力される予測誤差データと、セレクタ71から入力される予測画像データとを加算することにより、復号画像データを生成する。そして、加算部65は、生成した復号画像データをデブロックフィルタ66及びフレームメモリ69へ出力する。
 デブロックフィルタ66は、加算部65から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データを並び替えバッファ67及びフレームメモリ69へ出力する。
 並び替えバッファ67は、デブロックフィルタ66から入力される画像を並び替えることにより、時系列の一連の画像データを生成する。そして、並び替えバッファ67は、生成した画像データをD/A変換部68へ出力する。
 D/A変換部68は、並び替えバッファ67から入力されるデジタル形式の画像データをアナログ形式の画像信号に変換する。そして、D/A変換部68は、例えば、画像復号装置60と接続されるディスプレイ(図示せず)にアナログ画像信号を出力することにより、画像を表示させる。
 フレームメモリ69は、加算部65から入力されるフィルタリング前の復号画像データ、及びデブロックフィルタ66から入力されるフィルタリング後の復号画像データを記憶媒体を用いて記憶する。
 セレクタ70は、可逆復号部62により取得されるモード情報に応じて、画像内のブロックごとに、フレームメモリ69からの画像データの出力先を動き補償部80とイントラ予測部90a又は90bとの間で切り替える。例えば、セレクタ70は、インター予測モードが指定された場合には、フレームメモリ69から供給されるフィルタリング後の復号画像データを参照画像データとして動き補償部80へ出力する。また、セレクタ70は、イントラ予測モードが指定された場合には、フレームメモリ69から供給されるフィルタリング前の復号画像データを参照画像データとしてイントラ予測部90a又は90bへ出力する。
 セレクタ71は、可逆復号部62により取得されるモード情報に応じて、加算部65へ供給すべき予測画像データの出力元を動き補償部80とイントラ予測部90a又は90bとの間で切り替える。例えば、セレクタ71は、インター予測モードが指定された場合には、動き補償部80から出力される予測画像データを加算部65へ供給する。また、セレクタ71は、イントラ予測モードが指定された場合には、イントラ予測部90a又は90bから出力される予測画像データを加算部65へ供給する。
 動き補償部80は、可逆復号部62から入力されるインター予測に関する情報とフレームメモリ69からの参照画像データとに基づいて動き補償処理を行い、予測画像データを生成する。そして、動き補償部80は、生成した予測画像データをセレクタ71へ出力する。
 イントラ予測部90aは、可逆復号部62から入力されるイントラ予測に関する情報とフレームメモリ69からの参照画像データとに基づいてベースレイヤのイントラ予測処理を行い、予測画像データを生成する。そして、イントラ予測部90aは、生成したベースレイヤの予測画像データをセレクタ71へ出力する。また、イントラ予測部40aは、イントラ予測に関する少なくとも一部のパラメータを、共通メモリ7によりバッファリングさせる。
 イントラ予測部90bは、可逆復号部62から入力されるイントラ予測に関する情報とフレームメモリ69からの参照画像データとに基づいてエンハンスメントレイヤのイントラ予測処理を行い、予測画像データを生成する。そして、イントラ予測部90bは、生成したエンハンスメントレイヤの予測画像データをセレクタ71へ出力する。また、イントラ予測部40bは、共通メモリ7によりバッファリングされるパラメータを再利用することにより、エンハンスメントレイヤのイントラ予測処理の少なくとも一部を省略する。
 第1復号部6aは、ここで説明した一連の復号処理を、ベースレイヤの一連の画像データについて実行する。第2復号部6bは、ここで説明した一連の復号処理を、エンハンスメントレイヤの一連の画像データについて実行する。エンハンスメントレイヤが複数存在する場合には、エンハンスメントレイヤの復号処理は、エンハンスメントレイヤの数だけ繰り返され得る。ベースレイヤの復号処理と、エンハンスメントレイヤの復号処理とは、例えば、符号化単位又は予測単位などの処理単位ごとに同期して実行されてもよい。
  [4-2.イントラ予測部の詳細な構成]
 図12は、図11に示したイントラ予測部90a及び90bの詳細な構成の一例を示すブロック図である。図12を参照すると、イントラ予測部90aは、予測制御部91a、係数算出部92a、フィルタ94a及び予測部95aを有する。イントラ予測部90bは、予測制御部91b、係数取得部92b、フィルタ94b及び予測部95bを有する。
   (1)ベースレイヤのイントラ予測処理
 イントラ予測部90aの予測制御部91aは、ベースレイヤのイントラ予測処理を制御する。例えば、予測制御部91aは、予測単位(PU)ごとに、輝度成分(Y)についてのイントラ予測処理及び色差成分(Cb、Cr)についてのイントラ予測処理を実行する。より具体的には、予測制御部91aは、可逆復号部62により復号される予測モード情報により示される予測モードに従って、予測部95aに各予測単位の予測画像を生成させる。
 LMモードを示す予測モード情報が復号されると、係数算出部92aは、LMモードの予測関数の係数を、上述した式(2)及び式(3)に従って、予測対象の予測単位に隣接する隣接ブロック内の参照画素を参照して算出する。フィルタ94aは、フレームメモリ69から入力される予測対象の予測単位の輝度成分の画素値をクロマフォーマットに応じてダウンサンプリング(位相シフト)することにより、LMモードの予測関数への入力値を生成する。
 予測部95aは、予測制御部91aによる制御の下、各色成分(即ち、輝度成分及び色差成分の各々)について、予測モード情報により示される予測モードに従って、各予測単位の予測画像を生成する。LMモードを示す予測モード情報が復号されると、予測部95aは、フィルタ94aにより生成される輝度成分の入力値を、係数算出部92aにより算出される係数を有する予測関数に代入することにより、各色差成分の値を予測する。他の予測モードにおける予測部95aによるイントラ予測は、既存の手法と同様に行われてよい。予測部95aは、予測の結果として生成される予測画像データを加算部65へ出力する。
 予測制御部91aは、ベースレイヤ内の予測単位ごとの予測モードを表す予測モード情報を、共通メモリ7内に設けられるモード情報バッファに格納する。係数算出部92aは、少なくともLMモードが指定された予測単位の各々について、算出した予測関数の係数の値を、共通メモリ7内に設けられる係数バッファに格納する。
   (2)エンハンスメントレイヤのイントラ予測処理
 イントラ予測部90bの予測制御部91bは、エンハンスメントレイヤのイントラ予測処理を制御する。例えば、予測制御部91bは、予測単位(PU)ごとに、輝度成分(Y)についてのイントラ予測処理及び色差成分(Cb、Cr)についてのイントラ予測処理を実行する。より具体的には、予測制御部91bは、可逆復号部62により復号される予測モード情報により示される予測モード、又は下位レイヤの対応する予測単位と同じ予測モードに従って、予測部95bに各予測単位の予測画像を生成させる。
 色差成分についてのイントラ予測処理は、上述した第1~第4の手法のいずれかに従って、予測制御部91bにより制御される。
 例えば、第1の手法において、予測制御部91bは、下位レイヤ内の第1の予測単位について予測モード情報がLMモードを示す場合に、上位レイヤ内の対応する第2の予測単位について、新たな予測モード情報を取得することなく、LMモードで予測部95bに予測画像を生成させる。より具体的には、予測制御部91bによる制御の下、係数取得部92bは、第1の予測単位のために計算された係数を共通メモリ7から取得する。フィルタ94bは、輝度成分の画素値をクロマフォーマットに応じてダウンサンプリングすることにより、LMモードの予測関数への入力値を生成する。予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。
 上位レイヤの色差成分の空間解像度又は色差成分の密度が下位レイヤよりも高い場合(即ち、空間スケーラビリティ又はクロマフォーマットスケーラビリティが実現される場合)には、第2の予測単位のサイズに応じて例外的な処理が行われる。より具体的には、第2の予測単位のサイズがLMモードが利用可能な最大サイズを超えるときは、予測制御部91bは、第2の予測単位を複数のサブブロックに分割する。そして、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、複数のサブブロックの各々の予測画像をLMモードで生成する。
 第2の手法において、予測制御部91bは、下位レイヤ内の第1の予測単位について予測モード情報がLMモードを示す場合に、上位レイヤ内の対応する第2の予測単位について、復号された新たな予測モード情報を取得する。そして、予測制御部91bは、新たな予測モード情報もまたLMモードを示すときに、LMモードで予測部95bに予測画像を生成させる。この場合、予測部95bは、係数取得部92bにより共通メモリ2から取得される、第1の予測単位のために計算された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。
 上位レイヤの色差成分の空間解像度又は色差成分の密度が下位レイヤよりも高い場合において、第2の予測単位のサイズが上記最大サイズを超え、かつ新たな予測モード情報もまたLMモードを示すときに、予測制御部91bは、第2の予測単位を複数のサブブロックに分割する。そして、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、複数のサブブロックの各々の予測画像をLMモードで生成する。
 第3の手法において、予測制御部91bは、下位レイヤ内の第1の予測単位について予測モード情報がLMモードを示す場合に、上位レイヤ内の対応する第2の予測単位についても、LMモードで予測部95bに予測画像を生成させる。予測部95bは、係数取得部92bにより共通メモリ2から取得される、第1の予測単位のために計算された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。
 上位レイヤの色差成分の空間解像度又は色差成分の密度が下位レイヤよりも高い場合において、第2の予測単位のサイズが上記最大サイズを超えるときは、予測制御部91bは、復号された新たな予測モード情報を取得する。ここで取得される新たな予測モード情報は、LMモード以外のいずれかの予測モードを示す。この場合、予測部95bは、新たな予測モード情報により示される予測モードに従って、第2の予測単位の予測画像を生成する。
 第4の手法において、予測制御部91bは、下位レイヤ内の第1の予測単位に対応する上位レイヤ内の第2の予測単位について、復号された新たな予測モード情報を取得する。そして、予測制御部91bは、新たな予測モード情報もまたLMモードを示す場合に、LMモードで予測部95bに予測画像を生成させる。この場合、予測部95bは、係数取得部92bにより共通メモリ2から取得される、第1の予測単位のために計算された係数を有する予測関数を用いて、第2の予測単位の予測画像をLMモードで生成する。第2の予測単位のサイズが上記最大サイズを超えるときは、新たな予測モード情報は、LMモード以外のいずれかの予測モードを示す。
 採用される手法に関わらず、より上位のエンハンスメントレイヤが残されている場合には、予測制御部91bは、予測単位ごとの予測モードを表す予測モード情報を、共通メモリ7内に設けられるモード情報バッファに格納する。共通メモリ7内の係数バッファに格納されている係数は、全てのレイヤについてイントラ予測が終了するまで保持され得る。
 <5.一実施形態に係る復号時の処理の流れ>
 本節では、図13~図15Dを用いて、復号時の処理の流れについて説明する。
   (1)概略的な流れ
 図13は、一実施形態に係る復号時の概略的な処理の流れの一例を示すフローチャートである。
 図13を参照すると、まず、可逆復号部62により、符号化ストリーム内に符号化されている制御パラメータが復号される(ステップS21)。ここで復号される制御パラメータは、上述した係数再利用フラグ、モード固定フラグ及び分割フラグ、並びに予測モード情報などのいかなるパラメータを含んでもよい。また、パラメータの復号は、レイヤごとのイントラ予測処理の一部として行われてもよい。
 次に、ベースレイヤのためのイントラ予測部90aは、ベースレイヤのイントラ予測処理を実行する(ステップS22)。ここでのイントラ予測処理は、例えば、上記非特許文献1において定義されているような仕様に従った処理であってよい。レイヤ間で再利用されるパラメータは、共通メモリ7を用いてバッファリングされ得る。
 次に、エンハンスメントレイヤのためのイントラ予測部90bは、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS23)。レイヤ間で再利用されるパラメータは、共通メモリ7から読み込まれ、イントラ予測部90bにより再利用され得る。
 次に、複数のエンハンスメントレイヤが存在する場合には、未処理のより上位のエンハンスメントレイヤが残されているかが判定される(ステップS24)。ここで、未処理のより上位のエンハンスメントレイヤが残されている場合には、より上位のエンハンスメントレイヤを対象として、ステップS23におけるイントラ予測処理が繰り返される。
   (2)イントラ予測処理の分岐
 画像復号装置60は、上述した第1~第4の手法のうちの1つのみをサポートしてもよく、又はこれら手法のうちの複数をサポートしてもよい。複数の手法がサポートされる場合には、イントラ予測部90bの予測制御部91bは、いずれの手法に従ってエンハンスメントレイヤのイントラ予測処理を実行するかを、処理ごとに判定し得る。図14は、そのような判定の分岐を例示している。
 図14を参照すると、まず、予測制御部91bは、LMモードの予測関数の係数を再利用するかを判定する(ステップS200)。ここでの判定は、例えば、デバイスの設定などの条件に従って行われてもよく、又は符号化ストリームから復号され得る上述した係数再利用フラグに従って行われてもよい。
 LMモードの予測関数の係数を再利用しない場合には、予測制御部91bは、上述した第1~第4の手法ではなく、既存の手法に従ってエンハンスメントレイヤのイントラ予測処理を実行する(ステップS205)。
 LMモードの予測関数の係数を再利用する場合には、予測制御部91bは、上位レイヤでの予測単位の分割を許容するかを判定する(ステップS210)。ここでの判定は、例えば、符号化ストリームから復号され得る上述した分割フラグに従って行われてもよい。さらに、予測制御部91bは、下位レイヤにおいてLMモードが指定されている場合に上位レイヤにおいて新たな予測モード情報を復号するかを判定する(ステップS220、S260)。ここでの判定は、例えば、符号化ストリームから復号され得る上述したモード固定フラグに従って行われてもよい。
 予測単位の分割を許容し、かつ新たな予測モード情報が復号されない場合には、予測制御部91bは、上述した第1の手法に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS230)。
 予測単位の分割を許容し、かつ新たな予測モード情報が復号される場合には、予測制御部91bは、上述した第2の手法に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS240)。
 予測単位の分割を許容せず、かつ新たな予測モード情報が復号されない場合には、予測制御部91bは、上述した第3の手法に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS270)。
 予測単位の分割を許容せず、かつ新たな予測モード情報が復号される場合には、予測制御部91bは、上述した第4の手法に従って、エンハンスメントレイヤのイントラ予測処理を実行する(ステップS280)。
   (3)第1の手法
 図15Aは、下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第1の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。
 図15Aを参照すると、まず、係数取得部92bは、予測対象の予測単位(以下、注目PUという)に対応する下位レイヤ内の予測単位のために計算されたLMモードの予測関数の係数を、共通メモリ7内の係数バッファから取得する(ステップS231)。
 次に、予測制御部91bは、注目PUのサイズがLMモードが利用可能な最大サイズ(例えば、16×16画素)を超えるか否かを判定する(ステップS232)。ここで、注目PUのサイズが最大サイズを超えない場合には、処理はステップS233へ進む。一方、注目PUのサイズが最大サイズを超える場合には、処理はステップS234へ進む。
 ステップS233において、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、注目PUの予測画像をLMモードで生成する(ステップS233)。
 ステップS234において、予測制御部91bは、注目PUを複数のサブブロックに分割する(ステップS234)。サブブロックの個数Nは、注目PUのサイズと上記最大サイズとに基づいて決定され得る。次に、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、N個のサブブロックの各々の予測画像を、LMモードで生成する(ステップS235)。
   (4)第2の手法
 図15Bは、下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第2の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。
 図15Bを参照すると、まず、係数取得部92bは、注目PUに対応する下位レイヤ内のPUのために計算されたLMモードの予測関数の係数を、共通メモリ7内の係数バッファから取得する(ステップS241)。
 次に、予測制御部91bは、注目PUのサイズがLMモードが利用可能な最大サイズを超えるか否かを判定する(ステップS242)。ここで、注目PUのサイズが最大サイズを超えない場合には、処理はステップS243へ進む。一方、注目PUのサイズが最大サイズを超える場合には、処理はステップS247へ進む。
 ステップS243において、予測制御部91bは、注目PUについて、復号された新たな予測モード情報を取得する(ステップS243)。ここで取得された新たな予測モード情報もまたLMモードを示す場合には(ステップS244)、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、注目PUの予測画像をLMモードで生成する(ステップS245)。一方、新たな予測モード情報が非LMモードを示す場合には、予測部95bは、指定された当該非LMモードで、注目PUの予測画像を生成する(ステップS246)。
 ステップS247において、予測制御部91bは、注目PUについて、復号された新たな予測モード情報を取得する(ステップS247)。ここで取得された新たな予測モード情報もまたLMモードを示す場合には(ステップS248)、予測制御部91bは、注目PUを複数のサブブロックに分割する(ステップS249)。次に、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、N個のサブブロックの各々の予測画像を、LMモードで生成する(ステップS250)。一方、新たな予測モード情報が非LMモードを示す場合には、予測部95bは、指定された当該非LMモードで、注目PUの予測画像を生成する(ステップS251)。
   (5)第3の手法
 図15Cは、下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第3の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。
 図15Cを参照すると、まず、係数取得部92bは、注目PUに対応する下位レイヤ内のPUのために計算されたLMモードの予測関数の係数を、共通メモリ7内の係数バッファから取得する(ステップS271)。
 次に、予測制御部91bは、注目PUのサイズがLMモードが利用可能な最大サイズを超えるか否かを判定する(ステップS272)。ここで、注目PUのサイズが最大サイズを超えない場合には、処理はステップS273へ進む。一方、注目PUのサイズが最大サイズを超える場合には、処理はステップS274へ進む。
 ステップS273において、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、注目PUの予測画像をLMモードで生成する(ステップS273)。
 ステップS274において、予測制御部91bは、注目PUについて、復号された新たな予測モード情報を取得する(ステップS274)。ここで取得される新たな予測モード情報は、いずれかの非LMモードを示す。予測部95bは、指定された当該非LMモードで、注目PUの予測画像を生成する(ステップS275)。
   (6)第4の手法
 図15Dは、下位レイヤにおいてLMモードが指定された場合に上位レイヤにおいて第4の手法に従って実行される復号時のイントラ予測処理の流れの一例を示すフローチャートである。
 図15Dを参照すると、まず、予測制御部91bは、注目PUについて、復号された新たな予測モード情報を取得する(ステップS281)。
 ここで取得された新たな予測モード情報もまたLMモードを示す場合には(ステップS282)、係数取得部92bは、注目PUに対応する下位レイヤ内のPUのために計算されたLMモードの予測関数の係数を、共通メモリ7内の係数バッファから取得する(ステップS283)。そして、予測部95bは、係数取得部92bにより取得された係数を有する予測関数を用いて、注目PUの予測画像をLMモードで生成する(ステップS284)。
 一方、新たな予測モード情報が非LMモードを示す場合には、予測部95bは、指定された当該非LMモードで、注目PUの予測画像を生成する(ステップS285)。
 <6.応用例>
  [6-1.様々な製品への応用]
 上述した実施形態に係る画像符号化装置10及び画像復号装置60は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
   (1)第1の応用例
 図16は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
 チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
 デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
 映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
 表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。
 音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
 外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
 ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
 バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
 このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、テレビジョン装置900での画像のスケーラブル復号に際して、LMモードの予測関数の係数を再利用することにより処理コストを低減することができる。
   (2)第2の応用例
 図17は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
 アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
 携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
 音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
 記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
 また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。
 また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、携帯電話機920での画像のスケーラブル符号化及び復号に際して、LMモードの予測関数の係数を再利用することにより処理コストを低減することができる。
   (3)第3の応用例
 図18は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
 記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
 チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
 外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
 エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
 HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
 ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)又はBlu-ray(登録商標)ディスクなどであってよい。
 セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
 デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
 OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
 制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
 ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
 このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置10の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、記録再生装置940での画像のスケーラブル符号化及び復号に際して、LMモードの予測関数の係数を再利用することにより処理コストを低減することができる。
   (4)第4の応用例
 図19は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
 撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
 光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
 光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
 信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
 画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
 OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
 外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
 メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
 制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
 ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
 このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、撮像装置960での画像のスケーラブル符号化及び復号に際して、LMモードの予測関数の係数を再利用することにより処理コストを低減することができる。
  [6-2.スケーラブル符号化の様々な用途]
 上述したスケーラブル符号化の利点は、様々な用途において享受され得る。以下、3つの用途の例について説明する。
   (1)第1の例
 第1の例において、スケーラブル符号化は、データの選択的な伝送のために利用される。図20を参照すると、データ伝送システム1000は、ストリーム記憶装置1001及び配信サーバ1002を含む。配信サーバ1002は、ネットワーク1003を介して、いくつかの端末装置と接続される。ネットワーク1003は、有線ネットワークであっても無線ネットワークであってもよく、又はそれらの組合せであってもよい。図20には、端末装置の例として、PC(Personal Computer)1004、AV機器1005、タブレット装置1006及び携帯電話機1007が示されている。
 ストリーム記憶装置1001は、例えば、画像符号化装置10により生成される多重化ストリームを含むストリームデータ1011を記憶する。多重化ストリームは、ベースレイヤ(BL)の符号化ストリーム及びエンハンスメントレイヤ(EL)の符号化ストリームを含む。配信サーバ1002は、ストリーム記憶装置1001に記憶されているストリームデータ1011を読み出し、読み出したストリームデータ1011の少なくとも一部分を、ネットワーク1003を介して、PC1004、AV機器1005、タブレット装置1006、及び携帯電話機1007へ配信する。
 端末装置へのストリームの配信の際、配信サーバ1002は、端末装置の能力又は通信環境などの何らかの条件に基づいて、配信すべきストリームを選択する。例えば、配信サーバ1002は、端末装置が扱うことのできる画質を上回るほど高い画質を有する符号化ストリームを配信しないことにより、端末装置における遅延、オーバフロー又はプロセッサの過負荷の発生を回避してもよい。また、配信サーバ1002は、高い画質を有する符号化ストリームを配信しないことにより、ネットワーク1003の通信帯域が占有されることを回避してもよい。一方、配信サーバ1002は、これら回避すべきリスクが存在しない場合、又はユーザとの契約若しくは何らかの条件に基づいて適切だと判断される場合に、多重化ストリームの全てを端末装置へ配信してもよい。
 図20の例では、配信サーバ1002は、ストリーム記憶装置1001からストリームデータ1011を読み出す。そして、配信サーバ1002は、高い処理能力を有するPC1004へ、ストリームデータ1011をそのまま配信する。また、AV機器1005は低い処理能力を有するため、配信サーバ1002は、ストリームデータ1011から抽出されるベースレイヤの符号化ストリームのみを含むストリームデータ1012を生成し、ストリームデータ1012をAV機器1005へ配信する。また、配信サーバ1002は、高い通信レートで通信可能であるタブレット装置1006へストリームデータ1011をそのまま配信する。また、携帯電話機1007は低い通信レートでしか通信できないため、配信サーバ1002は、ベースレイヤの符号化ストリームのみを含むストリームデータ1012を携帯電話機1007へ配信する。
 このように多重化ストリームを用いることにより、伝送されるトラフィックの量を適応的に調整することができる。また、個々のレイヤがそれぞれ単独に符号化されるケースと比較して、ストリームデータ1011の符号量は削減されるため、ストリームデータ1011の全体が配信されるとしても、ネットワーク1003に掛かる負荷は抑制される。さらに、ストリーム記憶装置1001のメモリリソースも節約される。
 端末装置のハードウエア性能は、装置ごとに異なる。また、端末装置において実行されるアプリケーションのケイパビリティも様々である。さらに、ネットワーク1003の通信容量もまた様々である。データ伝送のために利用可能な容量は、他のトラフィックの存在に起因して、時々刻々と変化し得る。そこで、配信サーバ1002は、ストリームデータの配信を開始する前に、配信先の端末装置との間のシグナリングを通じて、端末装置のハードウエア性能及びアプリケーションケイパビリティなどに関する端末情報と、ネットワーク1003の通信容量などに関するネットワーク情報とを取得してもよい。そして、配信サーバ1002は、取得した情報に基づいて、配信すべきストリームを選択し得る。
 なお、復号すべきレイヤの抽出は、端末装置において行われてもよい。例えば、PC1004は、受信した多重化ストリームから抽出され復号されるベースレイヤ画像をその画面に表示してもよい。また、PC1004は、受信した多重化ストリームからベースレイヤの符号化ストリームを抽出してストリームデータ1012を生成し、生成したストリームデータ1012を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 図20に示したデータ伝送システム1000の構成は一例に過ぎない。データ伝送システム1000は、いかなる数のストリーム記憶装置1001、配信サーバ1002、ネットワーク1003、及び端末装置を含んでもよい。
   (2)第2の例
 第2の例において、スケーラブル符号化は、複数の通信チャネルを介するデータの伝送のために利用される。図21を参照すると、データ伝送システム1100は、放送局1101及び端末装置1102を含む。放送局1101は、地上波チャネル1111上で、ベースレイヤの符号化ストリーム1121を放送する。また、放送局1101は、ネットワーク1112を介して、エンハンスメントレイヤの符号化ストリーム1122を端末装置1102へ送信する。
 端末装置1102は、放送局1101により放送される地上波放送を受信するための受信機能を有し、地上波チャネル1111を介してベースレイヤの符号化ストリーム1121を受信する。また、端末装置1102は、放送局1101と通信するための通信機能を有し、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信する。
 端末装置1102は、例えば、ユーザからの指示に応じて、ベースレイヤの符号化ストリーム1121を受信し、受信した符号化ストリーム1121からベースレイヤ画像を復号してベースレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したベースレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 また、端末装置1102は、例えば、ユーザからの指示に応じて、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信し、ベースレイヤの符号化ストリーム1121とエンハンスメントレイヤの符号化ストリーム1122とを多重化することにより多重化ストリームを生成してもよい。また、端末装置1102は、エンハンスメントレイヤの符号化ストリーム1122からエンハンスメントレイヤ画像を復号してエンハンスメントレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したエンハンスメントレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 上述したように、多重化ストリームに含まれる各レイヤの符号化ストリームは、レイヤごとに異なる通信チャネルを介して伝送され得る。それにより、個々のチャネルに掛かる負荷を分散させて、通信の遅延若しくはオーバフローの発生を抑制することができる。
 また、何らかの条件に応じて、伝送のために使用される通信チャネルが動的に選択されてもよい。例えば、データ量が比較的多いベースレイヤの符号化ストリーム1121は帯域幅の広い通信チャネルを介して伝送され、データ量が比較的少ないエンハンスメントレイヤの符号化ストリーム1122は帯域幅の狭い通信チャネルを介して伝送され得る。また、特定のレイヤの符号化ストリーム1122が伝送される通信チャネルが、通信チャネルの帯域幅に応じて切り替えられてもよい。それにより、個々のチャネルに掛かる負荷をより効果的に抑制することができる。
 なお、図21に示したデータ伝送システム1100の構成は一例に過ぎない。データ伝送システム1100は、いかなる数の通信チャネル及び端末装置を含んでもよい。また、放送以外の用途において、ここで説明したシステムの構成が利用されてもよい。
   (3)第3の例
 第3の例において、スケーラブル符号化は、映像の記憶のために利用される。図22を参照すると、データ伝送システム1200は、撮像装置1201及びストリーム記憶装置1202を含む。撮像装置1201は、被写体1211を撮像することにより生成される画像データをスケーラブル符号化し、多重化ストリーム1221を生成する。多重化ストリーム1221は、ベースレイヤの符号化ストリーム及びエンハンスメントレイヤの符号化ストリームを含む。そして、撮像装置1201は、多重化ストリーム1221をストリーム記憶装置1202へ供給する。
 ストリーム記憶装置1202は、撮像装置1201から供給される多重化ストリーム1221を、モードごとに異なる画質で記憶する。例えば、ストリーム記憶装置1202は、通常モードにおいて、多重化ストリーム1221からベースレイヤの符号化ストリーム1222を抽出し、抽出したベースレイヤの符号化ストリーム1222を記憶する。これに対し、ストリーム記憶装置1202は、高画質モードにおいて、多重化ストリーム1221をそのまま記憶する。それにより、ストリーム記憶装置1202は、高画質での映像の記録が望まれる場合にのみ、データ量の多い高画質のストリームを記録することができる。そのため、画質の劣化のユーザへの影響を抑制しながら、メモリリソースを節約することができる。
 例えば、撮像装置1201は、監視カメラであるものとする。撮像画像に監視対象(例えば侵入者)が映っていない場合には、通常モードが選択される。この場合、撮像画像は重要でない可能性が高いため、データ量の削減が優先され、映像は低画質で記録される(即ち、ベースレイヤの符号化ストリーム1222のみが記憶される)。これに対し、撮像画像に監視対象(例えば、侵入者である被写体1211)が映っている場合には、高画質モードが選択される。この場合、撮像画像は重要である可能性が高いため、画質の高さが優先され、映像は高画質で記録される(即ち、多重化ストリーム1221が記憶される)。
 図22の例では、モードは、例えば画像解析結果に基づいて、ストリーム記憶装置1202により選択される。しかしながら、かかる例に限定されず、撮像装置1201がモードを選択してもよい。後者の場合、撮像装置1201は、通常モードにおいて、ベースレイヤの符号化ストリーム1222をストリーム記憶装置1202へ供給し、高画質モードにおいて、多重化ストリーム1221をストリーム記憶装置1202へ供給してもよい。
 なお、モードを選択するための選択基準は、いかなる基準であってもよい。例えば、マイクロフォンを通じて取得される音声の大きさ又は音声の波形などに応じて、モードが切り替えられてもよい。また、周期的にモードが切り替えられてもよい。また、ユーザがらの指示に応じてモードが切り替えられてもよい。さらに、選択可能なモードの数は、階層化されるレイヤの数を超えない限り、いかなる数であってもよい。
 図22に示したデータ伝送システム1200の構成は一例に過ぎない。データ伝送システム1200は、いかなる数の撮像装置1201を含んでもよい。また、監視カメラ以外の用途において、ここで説明したシステムの構成が利用されてもよい。
  [6-3.その他]
   (1)マルチビューコーデックへの応用
 マルチビューコーデックは、マルチレイヤコーデックの一種であり、いわゆる多視点映像を符号化し及び復号するための画像符号化方式である。図23は、マルチビューコーデックについて説明するための説明図である。図23を参照すると、3つの視点においてそれぞれ撮影される3つのビューのフレームのシーケンスが示されている。各ビューには、ビューID(view_id)が付与される。これら複数のビューのうちいずれか1つのビューが、ベースビュー(base view)に指定される。ベースビュー以外のビューは、ノンベースビューと呼ばれる。図23の例では、ビューIDが“0”であるビューがベースビューであり、ビューIDが“1”又は“2”である2つのビューがノンベースビューである。これらビューが階層的に符号化される場合、各ビューがレイヤに相当し得る。図中に矢印で示したように、ノンベースビューの画像は、ベースビューの画像を参照して符号化され及び復号される(他のノンベースビューの画像も参照されてよい)。
 図24は、マルチビューコーデックをサポートする画像符号化装置10vの概略的な構成を示すブロック図である。図24を参照すると、画像符号化装置10vは、第1レイヤ符号化部1c、第2レイヤ符号化部1d、共通メモリ2及び多重化部3を備える。
 第1レイヤ符号化部1cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像を受け取ることを除き、図3を用いて説明した第1符号化部1aの機能と同等である。第1レイヤ符号化部1cは、ベースビュー画像を符号化し、第1レイヤの符号化ストリームを生成する。第2レイヤ符号化部1dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像を受け取ることを除き、図3を用いて説明した第2符号化部1bの機能と同等である。第2レイヤ符号化部1dは、ノンベースビュー画像を符号化し、第2レイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、第1レイヤ符号化部1cにより生成される第1レイヤの符号化ストリームと、第2レイヤ符号化部1dにより生成される第2レイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
 図25は、マルチビューコーデックをサポートする画像復号装置60vの概略的な構成を示すブロック図である。図25を参照すると、画像復号装置60vは、逆多重化部5、第1レイヤ復号部6c、第2レイヤ復号部6d及び共通メモリ7を備える。
 逆多重化部5は、マルチレイヤの多重化ストリームを第1レイヤの符号化ストリーム及び第2レイヤの符号化ストリームに逆多重化する。第1レイヤ復号部6cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図4を用いて説明した第1復号部6aの機能と同等である。第1レイヤ復号部6cは、第1レイヤの符号化ストリームからベースビュー画像を復号する。第2レイヤ復号部6dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図4を用いて説明した第2復号部6bの機能と同等である。第2レイヤ復号部6dは、第2レイヤの符号化ストリームからノンベースビュー画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
 マルチビューの画像データを符号化し又は復号する際、本開示に係る技術に従って、LMモードの処理に要する処理コストが低減されてもよい。
   (2)ストリーミング技術への応用
 本開示に係る技術は、ストリーミングプロトコルに適用されてもよい。例えば、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)では、解像度などのパラメータが互いに異なる複数の符号化ストリームがストリーミングサーバにおいて予め用意される。そして、ストリーミングサーバは、複数の符号化ストリームからストリーミングすべき適切なデータをセグメント単位で動的に選択し、選択したデータを配信する。このようなストリーミングプロトコルにおいて、本開示に係る技術に従って、LMモードの処理に要する処理コストが低減されてもよい。
 <7.まとめ>
 ここまで、図1~図25を用いて、一実施形態に係る画像符号化装置10及び画像復号装置60について説明した。上述した実施形態によれば、スケーラブル符号化における画像の符号化及び復号の際に、ベースレイヤにおいて計算されたLMモードの予測関数の係数を、エンハンスメントレイヤにおいて再利用することができる。それにより、他の予測モードの演算と比較して多くの処理コストを要する係数算出処理がエンハンスメントレイヤにおいて省略されるため、スケーラブル符号化においてLMモードを採用する際の性能の悪化を回避することができる。ここで、ベースレイヤ内の予測単位について最適なイントラ予測モードとしてLMモードが選択された場合、そこで計算された係数を有する予測関数は、当該予測単位における輝度成分と色差成分との間の相関を良好に表現していると言える。そのような予測関数がエンハンスメントレイヤ内の対応する予測単位について再利用されるため、処理コストを低減することができるだけでなく、エンハンスメントレイヤにおけるイントラ予測の予測精度を高く維持することもできる。
 また、上述した第1の手法又は第3の手法によれば、ベースレイヤ内の第1の予測単位についてLMモードが選択された場合に、エンハンスメントレイヤ内の対応する第2の予測単位についても、予測モードの再探索が行われることなくLMモードが適用される。この場合、エンハンスメントレイヤにおいて予測モード情報が符号化されないため、エンハンスメントレイヤの符号化ストリームの符号化効率を向上することができる。また、エンコーダ側で予測モードの再探索が省略されるため、エンコーダ側のイントラ予測の処理コストを大幅に低減することができる。
 また、上述した第1の手法又は第2の手法によれば、エンハンスメントレイヤ内の予測単位のサイズがLMモードが利用可能な最大サイズを超える場合には、当該予測単位が複数のサブブロックに分割され、各サブブロックにLMモードが適用される。従って、より大きいブロックサイズがサポートされるようにLMモードの処理モジュールを拡張することなく、ベースレイヤの予測単位のサイズがいかなるサイズであっても、エンハンスメントレイヤにおいてLMモードで予測画像を生成することができる。よって、LMモードの高い予測精度を維持しながら、係数の再利用による処理コストの低減の恩恵をより広く享受することができる。
 また、上述した第2の手法又は第4の手法によれば、ベースレイヤにおいてLMモードが選択された場合であっても、エンハンスメントレイヤ内の予測単位について予測モードの再探索が実行され、新たな予測モード情報が符号化される。従って、エンハンスメントレイヤにおいてLMモード以外のより良好な予測モードが存在する場合に、その良好な予測モードを採用して、予測精度を一層高めることができる。
 なお、本明細書では、イントラ予測に関する情報及びインター予測に関する情報が、符号化ストリームのヘッダに多重化されて、符号化側から復号側へ伝送される例について主に説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 スケーラブル復号される画像のベースレイヤ内の色差成分の第1の予測単位についてのイントラ予測のための予測モード情報を取得するベースレイヤ予測部と、
 前記ベースレイヤ予測部により取得される前記予測モード情報が輝度ベース色差予測モードを示す場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成するエンハンスメントレイヤ予測部と、
 を備える画像処理装置。
(2)
 前記エンハンスメントレイヤ予測部は、前記予測モード情報が前記輝度ベース色差予測モードを示す場合に、前記第2の予測単位について、新たな予測モード情報を取得することなく、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、前記(1)に記載の画像処理装置。
(3)
 前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
 前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合に、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
 前記(2)に記載の画像処理装置。
(4)
 前記エンハンスメントレイヤ予測部は、前記予測モード情報が前記輝度ベース色差予測モードを示す場合において、前記第2の予測単位について新たに取得される予測モード情報が前記輝度ベース色差予測モードを示すときに、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、前記(1)に記載の画像処理装置。
(5)
 前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
 前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合に、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
 前記(4)に記載の画像処理装置。
(6)
 前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
 前記エンハンスメントレイヤ予測部は、前記予測モード情報が輝度ベース色差予測モードを示す場合において、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超えるときは、前記第2の予測単位について、新たに取得される予測モード情報に従って予測画像を生成する、
 前記(2)に記載の画像処理装置。
(7)
 前記画像処理装置は、前記第1の予測単位のために計算される前記係数が前記第2の予測単位のために再利用されるかを示すパラメータを復号する復号部、をさらに備え、
 前記エンハンスメントレイヤ予測部は、前記係数が再利用されることを前記パラメータが示す場合に、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、
 前記(1)~(6)のいずれか1項に記載の画像処理装置。
(8)
 前記画像処理装置は、前記第2の予測単位について新たな予測モード情報が符号化されるかを示すパラメータを復号する復号部、をさらに備え、
 前記エンハンスメントレイヤ予測部は、前記新たな予測モード情報が符号化されることを前記パラメータが示す場合に、前記第2の予測単位について前記新たな予測モード情報を参照する、
 前記(4)又は前記(5)に記載の画像処理装置。
(9)
 前記画像処理装置は、前記第2の予測単位のサイズが前記最大サイズを超える場合に前記第2の予測単位が複数のサブブロックに分割されるかを示すパラメータを復号する復号部、をさらに備え、
 前記エンハンスメントレイヤ予測部は、前記第2の予測単位が複数のサブブロックに分割されることを前記パラメータが示す場合に、前記第2の予測単位を複数のサブブロックに分割する、
 前記(3)又は前記(5)に記載の画像処理装置。
(10)
 スケーラブル復号される画像のベースレイヤ内の色差成分の第1の予測単位についてのイントラ予測のための予測モード情報を取得することと、
 取得された前記予測モード情報が輝度ベース色差予測モードを示す場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成することと、
 を含む画像処理方法。
(11)
 スケーラブル符号化される画像のベースレイヤ内の色差成分の第1の予測単位について最適なイントラ予測モードを選択するベースレイヤ予測部と、
 前記ベースレイヤ予測部により前記第1の予測単位について輝度ベース色差予測モードが選択された場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成するエンハンスメントレイヤ予測部と、
 を備える画像処理装置。
(12)
 前記エンハンスメントレイヤ予測部は、前記第1の予測単位について前記輝度ベース色差予測モードが選択された場合に、前記第2の予測単位について、予測モードの探索を行うことなく、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、前記(11)に記載の画像処理装置。
(13)
 前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
 前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合に、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
 前記(12)に記載の画像処理装置。
(14)
 前記エンハンスメントレイヤ予測部は、前記第1の予測単位について前記輝度ベース色差予測モードが選択された場合に、前記第2の予測単位について、前記係数を用いる前記輝度ベース色差予測モード及び他の予測モードから、最適な予測モードを探索する、前記(11)に記載の画像処理装置。
(15)
 前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
 前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合には、前記最適な予測モードの探索のために、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
 前記(14)に記載の画像処理装置。
(16)
 前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
 前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合において、前記第1の予測単位について前記輝度ベース色差予測モードが選択されたときは、前記第2の予測単位について、前記輝度ベース色差予測モード以外の複数の予測モードから、最適な予測モードを探索する、
 前記(12)又は前記(14)に記載の画像処理装置。
(17)
 前記画像処理装置は、前記第1の予測単位のために計算される前記係数が前記第2の予測単位のために再利用されるか、を示すパラメータを符号化する符号化部、をさらに備える、前記(11)~(16)のいずれか1項に記載の画像処理装置。
(18)
 前記画像処理装置は、前記第1の予測単位について前記輝度ベース色差予測モードが選択された場合に、前記第2の予測単位について新たな予測モード情報が符号化されるか、を示すパラメータを符号化する符号化部、をさらに備える、前記(11)~(17)のいずれか1項に記載の画像処理装置。
(19)
 前記画像処理装置は、前記第2の予測単位のサイズが前記最大サイズを超える場合に前記第2の予測単位が複数のサブブロックに分割されるかを示すパラメータを符号化する符号化部、をさらに備える、
 前記(13)又は前記(15)に記載の画像処理装置。
(20)
 スケーラブル符号化される画像のベースレイヤ内の色差成分の第1の予測単位について最適なイントラ予測モードを選択することと、
 前記第1の予測単位について輝度ベース色差予測モードが選択された場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成することと、
 を含む画像処理方法。
 10    画像符号化装置(画像処理装置)
 40a   イントラ予測部(ベースレイヤ予測部)
 40b   イントラ予測部(エンハンスメントレイヤ予測部)
 60    画像復号装置(画像処理装置)
 90a   イントラ予測部(ベースレイヤ予測部)
 90b   イントラ予測部(エンハンスメントレイヤ予測部)

Claims (20)

  1.  スケーラブル復号される画像のベースレイヤ内の色差成分の第1の予測単位についてのイントラ予測のための予測モード情報を取得するベースレイヤ予測部と、
     前記ベースレイヤ予測部により取得される前記予測モード情報が輝度ベース色差予測モードを示す場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成するエンハンスメントレイヤ予測部と、
     を備える画像処理装置。
  2.  前記エンハンスメントレイヤ予測部は、前記予測モード情報が前記輝度ベース色差予測モードを示す場合に、前記第2の予測単位について、新たな予測モード情報を取得することなく、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、請求項1に記載の画像処理装置。
  3.  前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
     前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合に、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
     請求項2に記載の画像処理装置。
  4.  前記エンハンスメントレイヤ予測部は、前記予測モード情報が前記輝度ベース色差予測モードを示す場合において、前記第2の予測単位について新たに取得される予測モード情報が前記輝度ベース色差予測モードを示すときに、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、請求項1に記載の画像処理装置。
  5.  前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
     前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合に、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
     請求項4に記載の画像処理装置。
  6.  前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
     前記エンハンスメントレイヤ予測部は、前記予測モード情報が輝度ベース色差予測モードを示す場合において、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超えるときは、前記第2の予測単位について、新たに取得される予測モード情報に従って予測画像を生成する、
     請求項2に記載の画像処理装置。
  7.  前記画像処理装置は、前記第1の予測単位のために計算される前記係数が前記第2の予測単位のために再利用されるかを示すパラメータを復号する復号部、をさらに備え、
     前記エンハンスメントレイヤ予測部は、前記係数が再利用されることを前記パラメータが示す場合に、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、
     請求項1に記載の画像処理装置。
  8.  前記画像処理装置は、前記第2の予測単位について新たな予測モード情報が符号化されるかを示すパラメータを復号する復号部、をさらに備え、
     前記エンハンスメントレイヤ予測部は、前記新たな予測モード情報が符号化されることを前記パラメータが示す場合に、前記第2の予測単位について前記新たな予測モード情報を参照する、
     請求項4に記載の画像処理装置。
  9.  前記画像処理装置は、前記第2の予測単位のサイズが前記最大サイズを超える場合に前記第2の予測単位が複数のサブブロックに分割されるかを示すパラメータを復号する復号部、をさらに備え、
     前記エンハンスメントレイヤ予測部は、前記第2の予測単位が複数のサブブロックに分割されることを前記パラメータが示す場合に、前記第2の予測単位を複数のサブブロックに分割する、
     請求項3に記載の画像処理装置。
  10.  スケーラブル復号される画像のベースレイヤ内の色差成分の第1の予測単位についてのイントラ予測のための予測モード情報を取得することと、
     取得された前記予測モード情報が輝度ベース色差予測モードを示す場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成することと、
     を含む画像処理方法。
  11.  スケーラブル符号化される画像のベースレイヤ内の色差成分の第1の予測単位について最適なイントラ予測モードを選択するベースレイヤ予測部と、
     前記ベースレイヤ予測部により前記第1の予測単位について輝度ベース色差予測モードが選択された場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成するエンハンスメントレイヤ予測部と、
     を備える画像処理装置。
  12.  前記エンハンスメントレイヤ予測部は、前記第1の予測単位について前記輝度ベース色差予測モードが選択された場合に、前記第2の予測単位について、予測モードの探索を行うことなく、前記係数を用いて前記輝度ベース色差予測モードで前記予測画像を生成する、請求項11に記載の画像処理装置。
  13.  前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
     前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合に、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
     請求項12に記載の画像処理装置。
  14.  前記エンハンスメントレイヤ予測部は、前記第1の予測単位について前記輝度ベース色差予測モードが選択された場合に、前記第2の予測単位について、前記係数を用いる前記輝度ベース色差予測モード及び他の予測モードから、最適な予測モードを探索する、請求項11に記載の画像処理装置。
  15.  前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
     前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合には、前記最適な予測モードの探索のために、前記第2の予測単位を複数のサブブロックに分割し、前記複数のサブブロックの各々に前記係数を用いて前記輝度ベース色差予測モードを適用することにより、前記予測画像を生成する、
     請求項14に記載の画像処理装置。
  16.  前記エンハンスメントレイヤの空間解像度又は色差成分の密度は、前記ベースレイヤよりも高く、
     前記エンハンスメントレイヤ予測部は、前記第2の予測単位のサイズが前記輝度ベース色差予測モードを利用する際の最大サイズを超える場合において、前記第1の予測単位について前記輝度ベース色差予測モードが選択されたときは、前記第2の予測単位について、前記輝度ベース色差予測モード以外の複数の予測モードから、最適な予測モードを探索する、
     請求項12に記載の画像処理装置。
  17.  前記画像処理装置は、前記第1の予測単位のために計算される前記係数が前記第2の予測単位のために再利用されるか、を示すパラメータを符号化する符号化部、をさらに備える、請求項11に記載の画像処理装置。
  18.  前記画像処理装置は、前記第1の予測単位について前記輝度ベース色差予測モードが選択された場合に、前記第2の予測単位について新たな予測モード情報が符号化されるか、を示すパラメータを符号化する符号化部、をさらに備える、請求項11に記載の画像処理装置。
  19.  前記画像処理装置は、前記第2の予測単位のサイズが前記最大サイズを超える場合に前記第2の予測単位が複数のサブブロックに分割されるかを示すパラメータを符号化する符号化部、をさらに備える、
     請求項13に記載の画像処理装置。
  20.  スケーラブル符号化される画像のベースレイヤ内の色差成分の第1の予測単位について最適なイントラ予測モードを選択することと、
     前記第1の予測単位について輝度ベース色差予測モードが選択された場合に、前記第1の予測単位のために計算された係数を用いて、エンハンスメントレイヤ内の前記第1の予測単位に対応する色差成分の第2の予測単位について前記輝度ベース色差予測モードで予測画像を生成することと、
     を含む画像処理方法。
     
PCT/JP2013/055106 2012-04-05 2013-02-27 画像処理装置及び画像処理方法 WO2013150838A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/379,090 US20150016522A1 (en) 2012-04-05 2013-02-27 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-086273 2012-04-05
JP2012086273 2012-04-05

Publications (1)

Publication Number Publication Date
WO2013150838A1 true WO2013150838A1 (ja) 2013-10-10

Family

ID=49300337

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/055106 WO2013150838A1 (ja) 2012-04-05 2013-02-27 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US20150016522A1 (ja)
JP (1) JPWO2013150838A1 (ja)
WO (1) WO2013150838A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177343A (ja) * 2014-03-14 2015-10-05 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2017130798A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 撮影システム、情報処理装置及びその制御方法、コンピュータプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104871537B (zh) * 2013-03-26 2018-03-16 联发科技股份有限公司 色彩间帧内预测的方法
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
US20170359575A1 (en) * 2016-06-09 2017-12-14 Apple Inc. Non-Uniform Digital Image Fidelity and Video Coding
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
TW201944778A (zh) * 2018-04-09 2019-11-16 晨星半導體股份有限公司 幀內預測模式決定裝置與幀內預測模式決定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009520383A (ja) * 2005-10-05 2009-05-21 エルジー エレクトロニクス インコーポレイティド ビデオ信号デコーディング及びエンコーディング方法
JP2009533938A (ja) * 2006-04-11 2009-09-17 サムスン エレクトロニクス カンパニー リミテッド 多階層基盤のビデオエンコーディング方法および装置
JP2013034163A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8175168B2 (en) * 2005-03-18 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for picture up-sampling
US8879635B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
CN105635737B (zh) * 2010-04-09 2019-03-15 Lg电子株式会社 处理视频数据的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009520383A (ja) * 2005-10-05 2009-05-21 エルジー エレクトロニクス インコーポレイティド ビデオ信号デコーディング及びエンコーディング方法
JP2009533938A (ja) * 2006-04-11 2009-09-17 サムスン エレクトロニクス カンパニー リミテッド 多階層基盤のビデオエンコーディング方法および装置
JP2013034163A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN: "BoG report on simplification of intra_chromaFromLuma mode prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, 6TH MEETING, 14 July 2011 (2011-07-14), TORINO *
JUNGSUN KIM ET AL.: "New intra chroma prediction using inter-channel correlation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, 2ND MEETING, 21 July 2010 (2010-07-21), GENEVA, CH *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177343A (ja) * 2014-03-14 2015-10-05 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2017130798A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 撮影システム、情報処理装置及びその制御方法、コンピュータプログラム

Also Published As

Publication number Publication date
US20150016522A1 (en) 2015-01-15
JPWO2013150838A1 (ja) 2015-12-17

Similar Documents

Publication Publication Date Title
JP6610735B2 (ja) 画像処理装置及び画像処理方法
WO2013150838A1 (ja) 画像処理装置及び画像処理方法
KR102074601B1 (ko) 화상 처리 장치 및 방법, 및 기록 매체
JP6455434B2 (ja) 画像処理装置及び画像処理方法
JP6094688B2 (ja) 画像処理装置及び画像処理方法
KR102407030B1 (ko) 화상 부호화 장치 및 방법 및 화상 복호 장치 및 방법
JP6345650B2 (ja) 画像処理装置及び画像処理方法
WO2013164922A1 (ja) 画像処理装置及び画像処理方法
WO2015053001A1 (ja) 画像処理装置及び画像処理方法
WO2015005025A1 (ja) 画像処理装置及び画像処理方法
WO2013001939A1 (ja) 画像処理装置及び画像処理方法
JP2015192381A (ja) 画像処理装置及び画像処理方法
JP5900612B2 (ja) 画像処理装置及び画像処理方法
WO2013157308A1 (ja) 画像処理装置及び画像処理方法
WO2014038330A1 (ja) 画像処理装置及び画像処理方法
WO2013088833A1 (ja) 画像処理装置及び画像処理方法
WO2014148070A1 (ja) 画像処理装置及び画像処理方法
KR102197557B1 (ko) 화상 처리 장치 및 방법
WO2015005024A1 (ja) 画像処理装置及び画像処理方法
WO2015052979A1 (ja) 画像処理装置及び画像処理方法
WO2014097703A1 (ja) 画像処理装置及び画像処理方法
WO2014050311A1 (ja) 画像処理装置及び画像処理方法
WO2015098231A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13772968

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14379090

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014509079

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13772968

Country of ref document: EP

Kind code of ref document: A1