WO2015098231A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2015098231A1
WO2015098231A1 PCT/JP2014/076733 JP2014076733W WO2015098231A1 WO 2015098231 A1 WO2015098231 A1 WO 2015098231A1 JP 2014076733 W JP2014076733 W JP 2014076733W WO 2015098231 A1 WO2015098231 A1 WO 2015098231A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
region
reference image
layer
Prior art date
Application number
PCT/JP2014/076733
Other languages
English (en)
French (fr)
Inventor
佐藤 数史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2015098231A1 publication Critical patent/WO2015098231A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Definitions

  • the present disclosure relates to an image processing apparatus and an image processing method.
  • HEVC High Efficiency Video Coding
  • SHVC Scalable HEVC
  • Scalable encoding generally refers to a technique for hierarchically encoding a layer that transmits a coarse image signal and a layer that transmits a fine image signal.
  • the scalable coding is typically classified into three types of schemes, that is, a spatial scalability scheme, a temporal scalability scheme, and an SNR (Signal to Noise Ratio) scalability scheme in accordance with hierarchized attributes.
  • a spatial scalability scheme spatial resolution (or image size) is hierarchized, and lower layer images are used to encode or decode higher layer images after being upsampled.
  • the temporal scalability method the frame rate is hierarchized.
  • the SNR scalability method the SN ratio is hierarchized by changing the roughness of quantization.
  • bit depth scalability schemes and chroma format scalability schemes are also discussed, although not yet adopted in the standard.
  • Non-Patent Document 2 proposes several methods for inter-layer prediction.
  • the image quality of the lower layer image that is a reference image affects the prediction accuracy. Therefore,
  • Non-Patent Document 3 proposes a method of using a cross color filter as a method of showing a good gain in order to refine the image quality of the lower layer image.
  • the cross color filter is a kind of refinement filter, and refines a color difference component based on a nearby luminance component.
  • Each of the image areas (no division) is calculated and encoded on the encoder side.
  • Non-Patent Document 3 is poor in flexibility (or degree of freedom) of dividing a picture into image regions. For example, when a plurality of slices or a plurality of tiles are set in a picture, the slice boundary or the tile boundary does not necessarily coincide with a dividing line that divides the picture into four or sixteen equal parts. Trying to derive optimal filter coefficients across these boundaries can be a factor that hinders the use of parallel processing. Also, the optimal filter coefficients of the cross color filter may depend on local image characteristics, but the image characteristics can vary anywhere in the picture. Therefore, the area division pattern of no division, four equal divisions, or sixteen equal divisions is too small to maximize the image quality gain by the cross color filter.
  • the technology according to the present disclosure is intended to provide a mechanism that allows a cross color filter to be applied based on more flexible region division in order to improve the quality of a reference image for inter-layer prediction. .
  • an acquisition unit that acquires a reference image for encoding or decoding a second layer image having an attribute different from that of the first layer, based on the first layer decoded image, and the reference image
  • a setting unit that sets the image region in the reference image acquired by the acquisition unit based on region number information indicating the number of one or more image regions to be set in the setting unit, and the setting unit that sets the image region
  • An image processing apparatus includes a filtering unit that generates a refined reference image by applying a cross color filter to each of the image regions with a filter coefficient unique to the image region.
  • the image processing apparatus may be realized as an image decoding apparatus that decodes an image, or may be realized as an image encoding apparatus that encodes an image.
  • obtaining a reference image for encoding or decoding a second layer image having an attribute different from that of the first layer based on the first layer decoded image, and the reference Based on the area number information indicating the number of one or more image areas to be set in the image, the image area is set in the acquired reference image, and the image is set in each of the set image areas.
  • An image processing method includes generating a refined reference image by applying a cross color filter with filter coefficients specific to the region.
  • the acquisition unit that acquires a reference image for encoding or decoding a second layer image having an attribute different from that of the first layer based on the first layer decoded image;
  • a setting unit that sets the image area in the reference image acquired by the acquisition unit, and a setting unit that sets the image area based on boundary information that indicates a boundary between one or more image areas to be set in the reference image
  • An image processing apparatus includes a filtering unit that generates a refined reference image by applying a cross color filter to each of the image regions with a filter coefficient unique to the image region.
  • the image processing apparatus may be realized as an image decoding apparatus that decodes an image, or may be realized as an image encoding apparatus that encodes an image.
  • obtaining a reference image for encoding or decoding a second layer image having an attribute different from that of the first layer based on the first layer decoded image and the reference A setting unit that sets the image area in the acquired reference image based on boundary information indicating a boundary of one or more image areas to be set in the image, and the image in each of the set image areas
  • An image processing method includes generating a refined reference image by applying a cross color filter with filter coefficients specific to the region.
  • the image quality of a reference image can be effectively improved by applying a cross color filter to a reference image for inter-layer prediction based on more flexible region division.
  • the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
  • FIG. 10 is an explanatory diagram for describing a region division pattern proposed in JCTVC-N0229_r2. It is a block diagram which shows the schematic structure of an image coding apparatus. It is a block diagram which shows the schematic structure of an image decoding apparatus. It is a block diagram which shows an example of a structure of the EL encoding part which concerns on 1st Embodiment. 3 is a block diagram illustrating an example of a detailed configuration of a refinement unit according to the first embodiment.
  • FIG. 10 is an explanatory diagram for describing a region division pattern proposed in JCTVC-N0229_r2. It is a block diagram which shows the schematic structure of an image coding apparatus. It is a block diagram which shows the schematic structure of an image decoding apparatus. It is a block diagram which shows an example of a structure of the EL encoding part which concerns on 1st Embodiment. 3 is a block diagram illustrating an example of a detailed configuration of a refinement unit according to the first embodiment.
  • FIG. 3 is a block diagram illustrating an example of a detailed configuration of a refinement unit according to the first embodiment.
  • FIG. It is a flowchart which shows an example of the flow of the schematic process at the time of decoding. It is a flowchart which shows an example of the flow of the process relevant to refinement
  • scalable coding In scalable encoding, a plurality of layers each including a series of images are encoded.
  • the base layer is a layer that expresses the coarsest image that is encoded first.
  • the base layer coded stream may be decoded independently without decoding the other layer coded streams.
  • a layer other than the base layer is a layer called an enhancement layer (enhancement layer) that represents a finer image.
  • the enhancement layer encoded stream is encoded using information included in the base layer encoded stream. Accordingly, in order to reproduce the enhancement layer image, both the base layer and enhancement layer encoded streams are decoded.
  • the number of layers handled in scalable coding may be any number of two or more. When three or more layers are encoded, the lowest layer is the base layer, and the remaining layers are enhancement layers.
  • the higher enhancement layer encoded stream may be encoded and decoded using information contained in the lower enhancement layer or base layer encoded stream.
  • FIG. 1 is an explanatory diagram for describing a spatial scalability method.
  • Layer L11 is a base layer
  • layers L12 and L13 are enhancement layers.
  • the ratio of the spatial resolution of the layer L12 to the layer L11 is 2: 1.
  • the ratio of the spatial resolution of the layer L13 to the layer L11 is 4: 1.
  • the resolution ratio here is only an example, and a non-integer resolution ratio such as 1.5: 1 may be used.
  • the block B11 of the layer L11 is a processing unit of the encoding process in the base layer picture.
  • the block B12 of the layer L12 is a processing unit of the encoding process in the enhancement layer picture in which a scene common to the block B11 is shown.
  • the block B12 corresponds to the block B11 of the layer L11.
  • the block B13 of the layer L13 is a processing unit for encoding processing in a picture of a higher enhancement layer that shows a scene common to the blocks B11 and B12.
  • the block B13 corresponds to the block B11 of the layer L11 and the block B12 of the layer L12.
  • the texture of the image is similar between layers showing a common scene. That is, the textures of the block B11 in the layer L11, the block B12 in the layer L12, and the block B13 in the layer L13 are similar. Therefore, for example, if the pixel of the block B12 or the block B13 is predicted using the block B11 as the reference block, or the pixel of the block B13 is predicted using the block B12 as the reference block, high prediction accuracy may be obtained. .
  • Such prediction between layers is called inter-layer prediction.
  • intra-BL prediction which is a type of inter-layer prediction, a base layer decoded image (reconstructed image) is used as a reference image for predicting an enhancement layer decoded image.
  • a base layer prediction error (residual) image is used as a reference image for predicting an enhancement layer prediction error image.
  • the spatial resolution of the enhancement layer is higher than the spatial resolution of the base layer. Therefore, the base layer image is up-sampled according to the resolution ratio and used as a reference image.
  • An upsampling filter for inter-layer prediction is usually designed in the same manner as an interpolation filter for motion compensation.
  • the interpolation filter for motion compensation has a tap number of 7 taps or 8 taps for luminance components and 4 taps for color difference components.
  • FIG. 2 is an explanatory diagram for explaining the SNR scalability method.
  • the layer L21 is a base layer, and the layers L22 and L23 are enhancement layers.
  • the layer L21 is encoded so as to include only the coarsest quantized data (data quantized by the largest quantization step) among the three layers.
  • the layer L22 is encoded so as to include quantized data that compensates for the quantization error of the layer L21.
  • the block B21 of the layer L21 is a processing unit of the encoding process in the base layer picture.
  • the block B22 of the layer L22 is a processing unit of the encoding process in the enhancement layer picture in which a scene common to the block B21 is shown. Block B22 corresponds to block B21 of layer L21.
  • the block B23 of the layer L23 is a processing unit of encoding processing in a picture of a higher enhancement layer that shows a scene common to the blocks B21 and B22.
  • the block B23 corresponds to the block B21 of the layer L21 and the block B22 of the layer L22.
  • the texture of the image is similar between layers showing a common scene. Therefore, in the inter-layer prediction, for example, if the pixel of the block B22 or the block B23 is predicted using the block B21 as a reference block, or the pixel of the block B23 is predicted using the block B22 as a reference block, high prediction accuracy can be obtained. There is a possibility that.
  • the spatial resolution of the enhancement layer is equal to the spatial resolution of the base layer. Therefore, upsampling is not required in order to use the base layer image as a reference image. When the spatial scalability scheme and the SNR scalability scheme are combined, the base layer image is upsampled.
  • FIG. 3 is an explanatory diagram for explaining a refinement method using a cross color filter.
  • the cross color filter proposed by Non-Patent Document 3 is indicated by a square mark in the figure in addition to the color difference component P20.
  • Eight luminance components P11 to P18 are used as filter taps.
  • the filter coefficients are calculated on the encoder side using Wiener filters separately for the Cb component and the Cr component so as to minimize the mean square error between the original image and the refined image.
  • the calculation of filter coefficients is performed for each of one or more image regions formed by dividing a picture and having a uniform size with respect to each other. More specifically, as shown in FIG.
  • n 4 n image regions, where n is equal to zero, 1 or 2.
  • n 0, the picture PIC0 at the upper left in the figure is not divided, and only one image area corresponding to the entire picture PIC0 is set (upper right in the figure).
  • the area division pattern of no division, 4 divisions or 16 divisions is too few to maximize the image quality gain by the cross color filter.
  • a picture is divided into a plurality of slices, and an encoding process and a decoding process can be executed for each slice.
  • a slice boundary is located between any two of a series of LCUs in raster scan order within a picture, but the slice boundary does not necessarily coincide with a dividing line of 4 or 16 equal parts of a picture.
  • tiles can be set in a lattice pattern in a picture, and encoding processing and decoding processing can be performed in parallel between a plurality of tiles. However, the tile boundary does not necessarily coincide with the dividing line of 4 or 16 equal parts of the picture.
  • Non-Patent Document 3 lacks the flexibility (or flexibility) of the pattern of area division, and it cannot be said that the effect of improving the image quality by the cross color filter is sufficiently brought out. Therefore, an exemplary embodiment that enables a cross color filter to be applied based on more flexible region division to improve the quality of a reference image for inter-layer prediction will be described in detail later.
  • FIG. 5 is a block diagram illustrating a schematic configuration of the image encoding device 10 that supports scalable encoding.
  • the image encoding device 10 includes a base layer (BL) encoding unit 1 a, an enhancement layer (EL) encoding unit 1 b, a common memory 2 and a multiplexing unit 3.
  • BL base layer
  • EL enhancement layer
  • the BL encoding unit 1a encodes a base layer image and generates a base layer encoded stream.
  • the EL encoding unit 1b encodes the enhancement layer image, and generates an enhancement layer encoded stream.
  • the common memory 2 stores information commonly used between layers.
  • the multiplexing unit 3 multiplexes the encoded stream of the base layer generated by the BL encoding unit 1a and the encoded stream of one or more enhancement layers generated by the EL encoding unit 1b. Generate a multiplexed stream.
  • FIG. 6 is a block diagram illustrating a schematic configuration of an image decoding device 60 that supports scalable coding.
  • the image decoding device 60 includes a demultiplexing unit 5, a base layer (BL) decoding unit 6 a, an enhancement layer (EL) decoding unit 6 b, and a common memory 7.
  • BL base layer
  • EL enhancement layer
  • the demultiplexing unit 5 demultiplexes the multi-layer multiplexed stream into a base layer encoded stream and one or more enhancement layer encoded streams.
  • the BL decoding unit 6a decodes a base layer image from the base layer encoded stream.
  • the EL decoding unit 6b decodes the enhancement layer image from the enhancement layer encoded stream.
  • the common memory 7 stores information commonly used between layers.
  • the configuration of the BL encoding unit 1a for encoding the base layer and the configuration of the EL encoding unit 1b for encoding the enhancement layer are similar to each other. .
  • Some parameters and images generated or acquired by the BL encoder 1a can be buffered using the common memory 2 and reused by the EL encoder 1b. In the following sections, some embodiments of the configuration of such an EL encoding unit 1b will be described.
  • the configuration of the BL decoding unit 6a for decoding the base layer and the configuration of the EL decoding unit 6b for decoding the enhancement layer are similar to each other. Some parameters and images generated or acquired by the BL decoding unit 6a can be buffered using the common memory 7 and reused by the EL decoding unit 6b. In the following sections, some embodiments of the configuration of such an EL decoding unit 6b are also described.
  • FIG. 7 is a block diagram illustrating an example of a configuration of the EL encoding unit 1b according to the first embodiment.
  • the EL encoding unit 1b includes a rearrangement buffer 11, a subtraction unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, a storage buffer 17, a rate control unit 18, and an inverse quantization.
  • the rearrangement buffer 11 rearranges images included in a series of image data.
  • the rearrangement buffer 11 rearranges the images according to the GOP (Group of Pictures) structure related to the encoding process, and then subtracts the rearranged image data, the intra prediction unit 30, the inter prediction unit 35, and the fine image data. To the conversion unit 40.
  • GOP Group of Pictures
  • the subtraction unit 13 is supplied with image data input from the rearrangement buffer 11 and predicted image data input from the intra prediction unit 30 or the inter prediction unit 35 described later.
  • the subtraction unit 13 calculates prediction error data that is a difference between the image data input from the rearrangement buffer 11 and the prediction image data, and outputs the calculated prediction error data to the orthogonal transformation unit 14.
  • the orthogonal transform unit 14 performs orthogonal transform on the prediction error data input from the subtraction unit 13.
  • the orthogonal transformation performed by the orthogonal transformation part 14 may be discrete cosine transformation (Discrete Cosine Transform: DCT) or Karoonen-Labe transformation, for example.
  • the orthogonal transform unit 14 outputs transform coefficient data acquired by the orthogonal transform process to the quantization unit 15.
  • the quantization unit 15 is supplied with transform coefficient data input from the orthogonal transform unit 14 and a rate control signal from the rate control unit 18 described later.
  • the rate control signal specifies a quantization parameter for each color component for each block.
  • the quantization error of the transform coefficient data also increases.
  • the enhancement layer quantization error is smaller than the base layer quantization error.
  • the quantization unit 15 quantizes the transform coefficient data in a quantization step that depends on the quantization parameter (and the quantization matrix), and converts the quantized transform coefficient data (hereinafter referred to as quantized data) to the lossless encoding unit 16. And output to the inverse quantization unit 21.
  • the lossless encoding unit 16 performs a lossless encoding process on the quantized data input from the quantization unit 15 to generate an enhancement layer encoded stream.
  • the lossless encoding unit 16 encodes various parameters referred to when decoding the encoded stream, and inserts the encoded parameters into the header area of the encoded stream.
  • the parameters encoded by the lossless encoding unit 16 may include information related to intra prediction and information related to inter prediction, which will be described later.
  • region division information and filter coefficient information generated by the refinement unit 40 to be described later can also be encoded in the enhancement layer. Then, the lossless encoding unit 16 outputs the generated encoded stream to the accumulation buffer 17.
  • the accumulation buffer 17 temporarily accumulates the encoded stream input from the lossless encoding unit 16 using a storage medium such as a semiconductor memory. Then, the accumulation buffer 17 outputs the accumulated encoded stream to a transmission unit (not shown) (for example, a communication interface or a connection interface with a peripheral device) at a rate corresponding to the bandwidth of the transmission path.
  • a transmission unit for example, a communication interface or a connection interface with a peripheral device
  • the rate control unit 18 monitors the free capacity of the accumulation buffer 17. Then, the rate control unit 18 generates a rate control signal according to the free capacity of the accumulation buffer 17 and outputs the generated rate control signal to the quantization unit 15. For example, the rate control unit 18 generates a rate control signal for reducing the bit rate of the quantized data when the free capacity of the storage buffer 17 is small. For example, when the free capacity of the accumulation buffer 17 is sufficiently large, the rate control unit 18 generates a rate control signal for increasing the bit rate of the quantized data.
  • the inverse quantization unit 21, the inverse orthogonal transform unit 22, and the addition unit 23 constitute a local decoder.
  • the inverse quantization unit 21 performs the same quantization step as that used by the quantization unit 15 and inversely quantizes the enhancement layer quantization data to restore the transform coefficient data. Then, the inverse quantization unit 21 outputs the restored transform coefficient data to the inverse orthogonal transform unit 22.
  • the inverse orthogonal transform unit 22 restores the prediction error data by performing an inverse orthogonal transform process on the transform coefficient data input from the inverse quantization unit 21. Then, the inverse orthogonal transform unit 22 outputs the restored prediction error data to the addition unit 23.
  • the adding unit 23 adds decoded image error data (enhancement layer) by adding the restored prediction error data input from the inverse orthogonal transform unit 22 and the predicted image data input from the intra prediction unit 30 or the inter prediction unit 35. Of the reconstructed image). Then, the adder 23 outputs the generated decoded image data to the loop filter 24 and the frame memory 25.
  • the loop filter 24 includes a filter group for the purpose of improving the image quality.
  • the deblocking filter (DF) is a filter that reduces block distortion that occurs when an image is encoded.
  • a sample adaptive offset (SAO) filter is a filter that adds an adaptively determined offset value to each pixel value.
  • the adaptive loop filter (ALF) is a filter that minimizes an error between the image after SAO and the original image.
  • the loop filter 24 filters the decoded image data input from the adding unit 23 and outputs the decoded image data after filtering to the frame memory 25.
  • the frame memory 25 includes enhancement layer decoded image data input from the adder 23, enhancement layer filtered image data input from the loop filter 24, and base layer reference image input from the refinement unit 40. Data is stored using a storage medium.
  • the selector 26 reads out the decoded image data before filtering used for intra prediction from the frame memory 25 and supplies the read decoded image data to the intra prediction unit 30 as reference image data.
  • the selector 26 reads out the decoded image data after filtering used for inter prediction from the frame memory 25 and supplies the read out decoded image data to the inter prediction unit 35 as reference image data.
  • the selector 26 supplies the reference image data of the base layer to the intra prediction unit 30 or the inter prediction unit 35.
  • the selector 27 In the intra prediction mode, the selector 27 outputs predicted image data as a result of the intra prediction output from the intra prediction unit 30 to the subtraction unit 13 and outputs information related to the intra prediction to the lossless encoding unit 16. Further, in the inter prediction mode, the selector 27 outputs predicted image data as a result of the inter prediction output from the inter prediction unit 35 to the subtraction unit 13 and outputs information related to the inter prediction to the lossless encoding unit 16. .
  • the selector 27 switches between the intra prediction mode and the inter prediction mode according to the size of the cost function value.
  • the intra prediction unit 30 performs an intra prediction process based on the original image data and decoded image data of the enhancement layer. For example, the intra prediction unit 30 evaluates the prediction result of each candidate mode in the prediction mode set using a predetermined cost function. Next, the intra prediction unit 30 selects the prediction mode with the smallest cost function value, that is, the prediction mode with the highest compression rate, as the optimum prediction mode. The intra prediction unit 30 generates enhancement layer predicted image data according to the optimal prediction mode.
  • the intra prediction unit 30 may include inter layer prediction in the prediction mode set in the enhancement layer.
  • the intra prediction unit 30 outputs information related to intra prediction including prediction mode information representing the selected optimal prediction mode, cost function values, and predicted image data to the selector 27.
  • the inter prediction unit 35 performs inter prediction processing based on the enhancement layer original image data and decoded image data. For example, the inter prediction unit 35 evaluates the prediction result of each candidate mode in the prediction mode set using a predetermined cost function. Next, the inter prediction unit 35 selects a prediction mode with the smallest cost function value, that is, a prediction mode with the highest compression rate, as the optimum prediction mode. Further, the inter prediction unit 35 generates enhancement layer predicted image data according to the optimal prediction mode.
  • the inter prediction unit 35 may include inter layer prediction in the prediction mode set in the enhancement layer.
  • the inter prediction unit 35 outputs information about the inter prediction including the prediction mode information representing the selected optimal prediction mode and the motion information, the cost function value, and the prediction image data to the selector 27.
  • the refinement unit 40 acquires a base layer image buffered by the common memory 2 as a reference image, and applies a cross color filter to the acquired reference image to generate a refined reference image.
  • the refinement unit 40 also performs reference image upsampling.
  • the refined reference image generated by the refinement unit 40 is stored in the frame memory 25 and can be referred to in the inter-layer prediction by the intra prediction unit 30 or the inter prediction unit 35.
  • the refinement unit 40 generates region division information and filter coefficient information for each picture corresponding to the reference image, and outputs the generated region division information and filter coefficient information to the lossless encoding unit 16.
  • the area division information specifies how each picture is divided into one or more image areas.
  • the filter coefficient information specifies a filter coefficient set of a cross color filter unique to each image area.
  • FIG. 8 is a block diagram illustrating an example of a detailed configuration of the refinement unit 40 according to the first embodiment.
  • the refinement unit 40 includes a reference image acquisition unit 41, a region setting unit 43, a coefficient calculation unit 47, and a filtering unit 49.
  • the reference image acquisition unit 41 acquires a base layer decoded image buffered by the common memory 2 as a reference image for encoding an enhancement layer image.
  • An enhancement layer image is an image that can be divided into multiple slices or multiple tiles.
  • the reference image acquisition unit 41 sets the area of the acquired reference image as it is. To the unit 43.
  • the reference image acquisition unit 41 upsamples the decoded image of the base layer according to the resolution ratio. To do. Then, the reference image acquisition unit 41 outputs the base layer decoded image after the upsampling to the region setting unit 43 as a reference image.
  • the region setting unit 43 recognizes how to divide the reference image input from the reference image acquisition unit 41 into one or more image regions.
  • the region setting unit 43 is configured to set each picture (each reference image input from the reference image acquisition unit 41) based on a prior setting by a user using the image encoding device 10 or based on an image analysis performed in advance. ) Can be recognized. Then, the area setting unit 43 generates area division information that identifies the recognized area division.
  • each of the image areas includes one or more LCUs that are consecutive in raster scan order.
  • each of the image areas corresponds to a rectangular area formed by dividing a picture into a lattice shape.
  • the region division information may include region number information and LCU number information.
  • FIG. 9 is an explanatory diagram for describing a first example of area number information and LCU number information.
  • the picture PIC1 shown in FIG. 9 is divided into three image regions RG11, RG12, and RG13. That is, the number of regions is equal to 3.
  • the image area RG11 includes 16 LCUs that are consecutive in the raster scan order from the top of the picture PIC1.
  • the image area RG12 includes 22 LCUs following the image area RG11.
  • the image area RG13 includes 10 LCUs following the image area RG12. That is, the number of LCUs in the image area RG11 is equal to 16, the number of LCUs in the image area RG12 is equal to 22, and the number of LCUs in the image area RG13 is equal to 10.
  • the area division information generated by the area setting unit 43 includes area number information indicating the number of image areas to be set in the reference image. Since the number of areas is at least one, the area number information can typically indicate a value obtained by subtracting 1 from the number of areas described above (“2” in the case of FIG. 9). Further, the region division information may include LCU number information indicating the number of LCUs included in each image region. Since the total number of LCUs included in the picture can be identified from other parameters, the LCU number information includes the number of LCUs included in the last region of the series of image regions (in the case of FIG. 9, the number of LCUs in the image region RG13). ) May not be included.
  • the LCU number information may typically indicate a value obtained by subtracting 1 from the number of LCUs in each image region.
  • the LCU number information may indicate a set of values of (15, 21).
  • the shape of each image region fits the shape of an arbitrary slice as compared to the region formed by equally dividing the picture into 4n pieces.
  • the region setting unit 43 sets such an image region in the reference image input from the reference image acquisition unit 41 with reference to region division information that may include region number information and LCU number information. Then, the region setting unit 43 outputs the region division information to the lossless encoding unit 16.
  • FIG. 10 is an explanatory diagram for describing a second example of the area number information and the LCU number information.
  • the picture PIC2 shown in FIG. 10 is divided into six image regions RG21, RG22, RG23, RG24, RG25, and RG26.
  • the area division information generated by the area setting unit 43 includes first area number information indicating the number of image areas in the horizontal direction and second area number information indicating the number of image areas in the vertical direction. including.
  • the second area number information indicates the number of image areas in the vertical direction.
  • the region division information includes first LCU number information indicating the width of each column of the image region, and second LCU number information indicating the height of each row of the image region.
  • the first LCU number information need not indicate the width of the rightmost column.
  • the second LCU number information may not indicate the height of the bottom row.
  • the first LCU number information may indicate a set of values (1, 3)
  • the second LCU information may indicate a value of “1”.
  • the shape of each image region fits the shape of an arbitrary tile as compared with the region formed by equally dividing the picture into 4n pieces.
  • the region setting unit 43 refers to the region division information that may include the first and second region number information and the first and second LCU number information, and applies the reference image input from the reference image acquisition unit 41 to the reference image. Set the correct image area. Then, the region setting unit 43 outputs the region division information to the lossless encoding unit 16.
  • the coefficient calculation unit 47 calculates a filter coefficient set of a cross color filter that is optimal for each image region set by the region setting unit 43. For example, the coefficient calculation unit 47 may calculate an area-specific filter coefficient set using a Wiener filter so that the mean square error between the original image and the refined image is minimized for each image area. Then, the coefficient calculation unit 47 generates filter coefficient information indicating the calculated filter coefficient, and outputs the generated filter coefficient information to the filtering unit 49 and the lossless encoding unit 16.
  • the filtering unit 49 generates a refined reference image by applying a cross color filter to each of the image regions set by the region setting unit 43 with a filter coefficient unique to the image region.
  • the filter taps of the cross color filter are a target component (Cb component or Cr component) of a reference image in each image region and a plurality of luminance components in the vicinity of the target component.
  • the filter coefficient is input from the coefficient calculation unit 47.
  • the pixel values sequentially calculated as a result of the filter operation by the filtering unit 49 constitute a refined reference image of each image region. Then, the filtering unit 49 stores the generated refined reference image in the frame memory 25.
  • FIG. 11 is a flowchart illustrating an example of a schematic processing flow during encoding. Note that processing steps that are not directly related to the technology according to the present disclosure are omitted from the drawing for the sake of simplicity of explanation.
  • the BL encoding unit 1a performs base layer encoding processing to generate a base layer encoded stream (step S11).
  • the common memory 2 buffers the base layer image and some parameters (for example, resolution information) generated in the base layer encoding process (step S12).
  • the EL encoding unit 1b performs an enhancement layer encoding process to generate an enhancement layer encoded stream (step S13).
  • the enhancement layer encoding process executed here the base layer image buffered by the common memory 2 is refined by the refinement unit 40 and used as a reference image in inter-layer prediction.
  • the multiplexing unit 3 multiplexes the base layer encoded stream generated by the BL encoding unit 1a and the enhancement layer encoded stream generated by the EL encoding unit 1b, and performs multi-layer multiplexing.
  • a stream is generated (step S14).
  • FIG. 12 is a flowchart illustrating an example of a flow of processing related to refinement of a reference image during encoding.
  • the reference image acquisition unit 41 determines whether to perform upsampling based on the resolution ratio between layers (step S21). If it is determined that upsampling should be performed, the reference image acquisition unit 41 applies the upsampling filter to the base layer image buffered by the common memory 2 to acquire the reference image (step). S22). On the other hand, if it is determined that upsampling should not be performed, the reference image acquisition unit 41 acquires the base layer image buffered by the common memory 2 as it is as a reference image (step S23).
  • the area setting unit 43 recognizes area division suitable for the reference image based on, for example, presetting or image analysis, and sets one or more image areas in the picture according to the recognized area division (step S24).
  • the coefficient calculation unit 47 calculates the filter coefficient of the cross color filter that is optimal for the image region set by the region setting unit 43 (step S25).
  • the filtering unit 49 filters the reference image of the image area with a filter coefficient specific to the image area calculated by the coefficient calculation unit 47 (step S26).
  • the processes in steps S25 and S26 are repeated for each image region set in the picture (step S27).
  • the lossless encoding unit 16 encodes the region division information referred to by the region setting unit 43 (step S28). Further, the lossless encoding unit 16 encodes filter coefficient information indicating filter coefficients (number of filter coefficient sets indicated by the area number information) specific to each image region used by the filtering unit (step S29).
  • FIG. 13A is a flowchart showing a first example of a detailed flow of region division information encoding processing that can correspond to step S28 in FIG.
  • the lossless encoding unit 16 encodes region number information indicating the number of image regions to be set in the reference image (step S111).
  • the number-of-regions information may indicate a value obtained by subtracting 1 from the number of image regions to be actually set from the viewpoint of encoding efficiency.
  • the next step S115 can be skipped if the number of image areas is one (step S113).
  • the lossless encoding unit 16 encodes LCU number information indicating the number of LCUs included in each image region (step S115).
  • the LCU number information may not indicate the number of LCUs included in the last area of the series of image areas.
  • FIG. 13B is a flowchart illustrating a second example of a detailed flow of the region division information encoding process, which can correspond to step S28 in FIG.
  • the lossless encoding unit 16 encodes first area number information indicating the number of horizontal image areas to be set in the reference image (step S121).
  • the next step S124 can be skipped if the number of horizontal image areas is one (step S123).
  • the lossless encoding unit 16 encodes first LCU number information indicating the width of each column of the image area (step S124).
  • the lossless encoding unit 16 encodes second area number information indicating the number of vertical image areas to be set in the reference image (step S126).
  • the next step S129 can be skipped if the number of vertical image areas is one (step S128).
  • the lossless encoding unit 16 encodes second LCU number information indicating the height of each row of the image area (step S129).
  • FIG. 14 is a block diagram showing an example of the configuration of the EL decoding unit 6b according to the first embodiment.
  • the EL decoding unit 6b includes a storage buffer 61, a lossless decoding unit 62, an inverse quantization unit 63, an inverse orthogonal transform unit 64, an addition unit 65, a loop filter 66, a rearrangement buffer 67, a D / A ( Digital to Analogue) conversion unit 68, frame memory 69, selectors 70 and 71, intra prediction unit 80, inter prediction unit 85, and refinement unit 90.
  • D / A Digital to Analogue
  • the accumulation buffer 61 temporarily accumulates the enhancement layer encoded stream input from the demultiplexer 5 using a storage medium.
  • the lossless decoding unit 62 decodes enhancement layer quantized data from the enhancement layer encoded stream input from the accumulation buffer 61 according to the encoding method used for encoding. In addition, the lossless decoding unit 62 decodes information inserted in the header area of the encoded stream.
  • the information decoded by the lossless decoding unit 62 may include, for example, information related to intra prediction, information related to inter prediction, region division information, and filter coefficient information.
  • the lossless decoding unit 62 outputs the quantized data to the inverse quantization unit 63. Further, the lossless decoding unit 62 outputs information related to intra prediction to the intra prediction unit 80. In addition, the lossless decoding unit 62 outputs information on inter prediction to the inter prediction unit 85. Further, the lossless decoding unit 62 outputs the region division information and the filter coefficient information to the refinement unit 90.
  • the inverse quantization unit 63 performs inverse quantization on the quantized data input from the lossless decoding unit 62 in the same quantization step (or the same quantization matrix) used for encoding, and performs enhancement layer conversion. Restore the coefficient data. Then, the inverse quantization unit 63 outputs the restored transform coefficient data to the inverse orthogonal transform unit 64.
  • the inverse orthogonal transform unit 64 generates prediction error data by performing inverse orthogonal transform on the transform coefficient data input from the inverse quantization unit 63 according to the orthogonal transform method used at the time of encoding. Then, the inverse orthogonal transform unit 64 outputs the generated prediction error data to the addition unit 65.
  • the addition unit 65 adds the prediction error data input from the inverse orthogonal transform unit 64 and the prediction image data input from the selector 71 to generate decoded image data. Then, the addition unit 65 outputs the generated decoded image data to the loop filter 66 and the frame memory 69.
  • the loop filter 66 is a deblocking filter that reduces block distortion, a sample adaptive offset filter that adds an offset value to each pixel value, and an adaptation that minimizes an error from the original image.
  • a loop filter may be included.
  • the loop filter 66 filters the decoded image data input from the adding unit 65 and outputs the filtered decoded image data to the rearrangement buffer 67 and the frame memory 69.
  • the rearrangement buffer 67 generates a series of time-series image data by rearranging the images input from the loop filter 66. Then, the rearrangement buffer 67 outputs the generated image data to the D / A conversion unit 68.
  • the D / A converter 68 converts the digital image data input from the rearrangement buffer 67 into an analog image signal. Then, the D / A conversion unit 68 displays an enhancement layer image, for example, by outputting an analog image signal to a display (not shown) connected to the image decoding device 60.
  • the frame memory 69 stores the decoded image data before filtering input from the adding unit 65, the decoded image data after filtering input from the loop filter 66, and the reference image data of the base layer input from the refinement unit 90. Store using media.
  • the selector 70 switches the output destination of the image data from the frame memory 69 between the intra prediction unit 80 and the inter prediction unit 85 for each block in the image according to the mode information acquired by the lossless decoding unit 62. .
  • the selector 70 outputs the decoded image data before filtering supplied from the frame memory 69 to the intra prediction unit 80 as reference image data.
  • the selector 70 outputs the decoded image data after filtering to the inter prediction unit 85 as reference image data.
  • the selector 70 supplies the reference image data (refinement reference image) of the base layer to the intra prediction unit 80 or the inter prediction unit 85.
  • the selector 71 switches the output source of the predicted image data to be supplied to the adding unit 65 between the intra prediction unit 80 and the inter prediction unit 85 according to the mode information acquired by the lossless decoding unit 62. For example, the selector 71 supplies the prediction image data output from the intra prediction unit 80 to the adding unit 65 when the intra prediction mode is designated. Further, when the inter prediction mode is designated, the selector 71 supplies the predicted image data output from the inter prediction unit 85 to the addition unit 65.
  • the intra prediction unit 80 performs the intra prediction process of the enhancement layer based on the information related to the intra prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 69, and generates predicted image data.
  • the intra prediction unit 80 refers to the reference image data of the base layer when a mode corresponding to the inter layer prediction is designated as the intra prediction mode.
  • the intra prediction unit 80 outputs the generated predicted image data of the enhancement layer to the selector 71.
  • the inter prediction unit 85 performs the inter prediction process (motion compensation process) of the enhancement layer based on the information related to the inter prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 69, and generates predicted image data. To do.
  • the inter prediction unit 85 refers to the reference image data of the base layer.
  • the inter prediction unit 85 outputs the generated prediction image data of the enhancement layer to the selector 71.
  • the refinement unit 90 acquires a base layer image buffered by the common memory 7 as a reference image, and applies a cross color filter to the acquired reference image to generate a refined reference image.
  • the refinement unit 90 also performs reference image upsampling.
  • the refined reference image generated by the refinement unit 90 is stored in the frame memory 69 and can be referred to in the inter-layer prediction by the intra prediction unit 80 or the inter prediction unit 85.
  • the refinement unit 90 refers to the region division information and filter coefficient information decoded by the lossless decoding unit 62 from the encoded stream.
  • the area division information specifies how each picture is divided into one or more image areas.
  • the filter coefficient information specifies a filter coefficient set of a cross color filter unique to each image area.
  • FIG. 15 is a block diagram illustrating an example of a detailed configuration of the refinement unit 90 according to the first embodiment.
  • the refinement unit 90 includes a reference image acquisition unit 91, a region setting unit 93, a coefficient acquisition unit 97, and a filtering unit 99.
  • the reference image acquisition unit 91 acquires a base layer decoded image buffered by the common memory 7 as a reference image for decoding an enhancement layer image.
  • An enhancement layer image is an image that can be divided into multiple slices or multiple tiles.
  • the reference image acquisition unit 91 outputs the acquired reference image to the region setting unit 93 as it is.
  • the reference image acquisition unit 91 upsamples the decoded image of the base layer according to the resolution ratio between the layers. Then, the reference image acquisition unit 91 outputs the base layer decoded image after the upsampling to the region setting unit 93 as a reference image.
  • the region setting unit 93 acquires the region division information decoded by the lossless decoding unit 62, and sets an image region in the reference image based on the acquired region division information.
  • the area division information includes area number information indicating the number of image areas to be set in the reference image. Further, the region division information may also include LCU number information.
  • each of the image areas includes one or more LCUs that are consecutive in the raster scan order.
  • the area number information is decoded by the lossless decoding unit 62.
  • the region number information may indicate the number of image regions in the picture (or minus one thereof). If the number of image regions is two or more, the lossless decoding unit 62 can further decode the LCU number information.
  • the LCU number information may indicate a set of values corresponding to the number of LCUs (or minus one thereof) included in each image area. Since the total number of LCUs included in the picture can be identified from other parameters, the LCU number information does not have to indicate the number of LCUs included in the last region of the series of image regions.
  • each of the image areas corresponds to a rectangular area formed by dividing a picture into a grid.
  • the lossless decoding unit 62 decodes the first area number information and the second area number information.
  • the first area number information indicates the number of image areas in the horizontal direction (or minus one thereof).
  • the second area number information indicates the number of image areas in the vertical direction (or minus one thereof).
  • the number of image areas in the picture is equal to the product of the number of image areas in the horizontal direction and the number of image areas in the vertical direction.
  • the lossless decoding unit 62 can further decode the first LCU number information.
  • the lossless decoding unit 62 can further decode the second LCU number information.
  • the first LCU number information indicates the width of each column of the image area by the number of LCUs (or minus one thereof). Since the number of horizontal LCUs included in the picture can be identified from other parameters, the first LCU number information need not indicate the width of the rightmost column.
  • the second LCU number information is indicated by the height LCU number (or minus one thereof) of each row in the image area. Since the number of vertical LCUs included in the picture can be identified from other parameters, the second LCU number information need not indicate the height of the bottom row.
  • the coefficient acquisition unit 97 acquires filter coefficient information decoded by the lossless decoding unit 62.
  • the filter coefficient information indicates an optimum filter coefficient set specific to each image area set by the area setting unit 93. Then, the coefficient acquisition unit 97 generates a filter coefficient set indicated by the acquired filter coefficient information, and outputs the generated filter coefficient set to the filtering unit 99.
  • the filtering unit 99 generates a refined reference image by applying a cross color filter to each of the image regions set by the region setting unit 93 with a filter coefficient unique to the image region.
  • the filter taps of the cross color filter are a target component (Cb component or Cr component) of a reference image in each image region and a plurality of luminance components in the vicinity of the target component.
  • the filter coefficient is input from the coefficient acquisition unit 97. Pixel values sequentially calculated as a result of the filter operation by the filtering unit 99 constitute a refined reference image of each image region. Then, the filtering unit 99 stores the generated refined reference image in the frame memory 69.
  • FIG. 16 is a flowchart illustrating an example of a schematic processing flow during decoding. Note that processing steps that are not directly related to the technology according to the present disclosure are omitted from the drawing for the sake of simplicity of explanation.
  • the demultiplexing unit 5 demultiplexes the multi-layer multiplexed stream into the base layer encoded stream and the enhancement layer encoded stream (step S60).
  • the BL decoding unit 6a executes base layer decoding processing to reconstruct a base layer image from the base layer encoded stream (step S61).
  • the common memory 7 buffers the base layer image and some parameters (for example, resolution information) generated in the base layer decoding process (step S62).
  • the EL decoding unit 6b executes enhancement layer decoding processing to reconstruct the enhancement layer image (step S63).
  • the enhancement layer decoding process executed here the base layer image buffered by the common memory 7 is refined by the refinement unit 90 and used as a reference image in inter-layer prediction.
  • FIG. 17 is a flowchart illustrating an example of a flow of processing related to refinement of a reference image at the time of decoding.
  • the lossless decoding unit 62 decodes the region division information from the enhancement layer encoded stream (step S71). Further, the lossless decoding unit 62 decodes filter coefficient information indicating filter coefficients specific to each image area calculated on the encoder side (step S72).
  • the reference image acquisition unit 91 determines whether upsampling should be executed based on the resolution ratio between layers (step S73). If it is determined that upsampling should be performed, the reference image acquisition unit 91 applies the upsampling filter to the base layer image buffered by the common memory 7 to acquire a reference image (step). S74). On the other hand, if it is determined that upsampling should not be performed, the reference image acquisition unit 91 acquires the base layer image buffered by the common memory 7 as a reference image (step S75).
  • the region setting unit 93 sets one or more image regions in the picture based on the region division information decoded by the lossless decoding unit 62 (step S76).
  • the coefficient acquisition unit 97 generates the filter coefficient of the cross color filter that is optimal for a certain image area, which is indicated by the filter coefficient information decoded by the lossless decoding unit 62 (step S77).
  • the filtering unit 99 filters the reference image of the image area with the filter coefficient generated by the coefficient acquisition unit 97 (step S78). The processes in steps S77 and S78 are repeated for each image area set in the picture (step S79).
  • FIG. 18A is a flowchart showing a first example of a detailed flow of region division information decoding processing that can correspond to step S71 in FIG.
  • the lossless decoding unit 62 decodes area number information indicating the number of image areas to be set in the reference image (step S161). The next step S165 can be skipped if the number of image regions is one (step S163). When the number of image areas is two or more, the lossless decoding unit 62 decodes LCU number information indicating the number of LCUs included in each image area (step S165).
  • FIG. 18B is a flowchart showing a second example of a detailed flow of the region division information decoding process, which can correspond to Step S71 of FIG.
  • the lossless decoding unit 62 decodes first area number information indicating the number of horizontal image areas to be set in the reference image (step S171).
  • the next step S174 may be skipped when the number of horizontal image areas is one (step S173).
  • the lossless decoding unit 62 decodes first LCU number information indicating the width of each column of the image area (step S174).
  • the lossless decoding unit 62 decodes second area number information indicating the number of image areas in the vertical direction to be set in the reference image (step S176).
  • the next step S179 can be skipped if the number of vertical image areas is one (step S178).
  • the lossless decoding unit 62 decodes second LCU number information indicating the height of each row of the image area (step S179).
  • the EL encoding unit 1b generates region division information of a type different from that in the first embodiment.
  • the overall configuration of the EL encoding unit 1b according to the second embodiment may be the same as the configuration described with reference to FIG.
  • FIG. 19 is a block diagram illustrating an example of a detailed configuration of the refinement unit 40 according to the second embodiment.
  • the refinement unit 40 includes a reference image acquisition unit 41, a region setting unit 45, a coefficient calculation unit 47, and a filtering unit 49.
  • the region setting unit 45 recognizes how to divide the reference image input from the reference image acquisition unit 41 into one or more image regions. For example, the region setting unit 45 is configured to set each picture (each reference image input from the reference image acquisition unit 41) based on a prior setting by a user using the image encoding device 10 or based on an image analysis executed in advance. ) Can be recognized. Then, the area setting unit 45 generates area division information that identifies the recognized area division.
  • each image region to be set as a reference image includes one or more LCUs that are consecutive in the raster scan order.
  • the area division information includes boundary information indicating the boundary of the image area.
  • the boundary information includes a marker flag (hereinafter referred to as a boundary flag) in the header of the LCU that marks the head LCU included in each image area.
  • a boundary flag in the header of the LCU that marks the head LCU included in each image area.
  • the boundary information includes LCU number information indicating the number of LCUs included in each image region.
  • FIG. 20 is an explanatory diagram for describing a first example of boundary information.
  • the picture PIC3 shown in FIG. 20 is divided into three image regions RG31, RG32, and RG33.
  • the image area RG31 includes 16 LCUs that are consecutive in the raster scan order from the top of the picture PIC3.
  • the image area RG32 includes 22 LCUs following the image area RG31.
  • the image area RG33 includes 10 LCUs following the image area RG32.
  • the area setting unit 45 generates a boundary flag to be included in the header of each LCU.
  • the boundary flag is set to a true value (True) when the LCU corresponding to the boundary flag is located at the head of the image area, and is set to a false value (False) otherwise.
  • a boundary flag given a true value is indicated by a circle. More specifically, the leading LCU U32 of the image area RG32 and the leading LCU U33 of the image area RG33 indicate true values. Since the head LCU U31 of the image region RG31 is located at the head of the picture, it does not necessarily include a boundary flag (a boundary flag set to a true value may be included).
  • an image region having a boundary between arbitrary LCUs as a region boundary can be flexibly set to a picture only by employing an additional flag of several bits.
  • the shape of each image region fits the shape of an arbitrary slice as compared to the region formed by equally dividing a picture into 4n pieces.
  • the region setting unit 45 refers to region division information that can include such boundary information, and sets one or more image regions in the reference image input from the reference image acquisition unit 41. Then, the region setting unit 45 outputs the region division information to the lossless encoding unit 16.
  • FIG. 21 is an explanatory diagram for describing a second example of boundary information.
  • the picture PIC4 shown in FIG. 21 is divided into four image regions RG41, RG42, RG43, and RG44.
  • the image area RG41 includes twelve LCUs that are consecutive in the raster scan order from the top of the picture PIC4.
  • the image area RG42 includes 12 LCUs following the image area RG41.
  • the image area RG43 includes 12 LCUs that follow the image area RG42.
  • the image area RG44 includes 12 LCUs following the image area RG43. That is, here, the number of LCUs included in each image area is fixed.
  • the area setting unit 45 generates LCU number information indicating the number of fixed LCUs included in each image area. Since each image region includes a minimum of one LCU, the LCU number information may typically indicate a value obtained by subtracting 1 from the actual fixed LCU number. In the case of FIG. 21, the LCU number information may indicate the value “11”.
  • an image area having an arbitrary size can be flexibly set to a picture simply by additionally encoding a single numerical value.
  • the shape of each image area fits the shape of the slice.
  • the region setting unit 45 can sequentially set image regions each including a fixed number of LCUs indicated by the LCU number information while scanning the LCUs in the picture in the raster scan order. Then, the region setting unit 45 outputs the region division information to the lossless encoding unit 16.
  • FIG. 10, FIG. 20 and FIG. 21 show various formats of area division information for specifying how each picture is divided into one or more image areas. These formats may be combined in any way. For example, flags that can be additionally encoded and decoded with variable LCU number information in the picture described with reference to FIG. 9 and fixed LCU number information described with reference to FIG. It may be selectively used depending on the value of the format switching flag).
  • the format switching flag indicates, for example, whether the number of LCUs included in each image area is fixed or variable.
  • the region setting unit 45 uses, as a reference image, one or more image regions each including a fixed number of LCUs indicated by the LCU number information. Set.
  • the region setting unit 45 sets one or more image regions each including the number of LCUs indicated by the LCU number information as reference images. To do. According to such a combination of formats, it is possible to achieve an appropriate balance between flexibility of area division and efficient coding of area division information.
  • Table 1 below shows an example of syntax of area division information when adaptive switching of formats is adopted.
  • the variable LCU number information described in FIG. 9 and the fixed LCU number information described with reference to FIG. 21 are selectively used. .
  • the syntax in Table 1 is included in the extension of the slice header at the top of the picture, for example.
  • the parameter num_region_minus1 is region number information, and indicates the number of image regions (minus 1) set in the picture.
  • the syntax is included in the i-th image region (i is an integer greater than or equal to zero and less than the number of image regions minus 1).
  • Parameter num_ctb_in_region [i] indicating the number of LCUs to be transmitted.
  • Table 1 also shows a syntax function filter_coef () that defines filter coefficient information for the i-th image area (i is an integer not less than zero and the number of image areas minus 1).
  • FIG. 22A is a flowchart showing a third example of a detailed flow of region division information encoding processing.
  • the area division information includes the boundary information described with reference to FIG.
  • the processing shown in FIG. 22A can be executed while sequentially scanning the LCUs in the picture.
  • one LCU to be processed is called a current LCU.
  • the region setting unit 45 determines whether the current LCU is the first LCU in the image region (step S131). When the current LCU is the first LCU in the image area, the area setting unit 45 sets the boundary flag of the current LCU to a true value (True) (step S132). If the current LCU is not the first LCU in the image area, the area setting unit 45 sets the boundary flag of the current LCU to a false value (False) (step S133).
  • the lossless encoding unit 16 encodes the boundary flag set to the true value (True) or the false value (False) into the header of the current LCU as boundary information (step S134). Thereafter, when there is an unprocessed next LCU (step S135), the next LCU is set as the current LCU (step S136), and the process returns to step S131. If there is no unprocessed next LCU, the area division information encoding process illustrated in FIG. 22A ends.
  • FIG. 22B is a flowchart illustrating a fourth example of a detailed flow of the region division information encoding process.
  • the region division information includes boundary information (LCU number information) described with reference to FIG.
  • the lossless encoding unit 16 encodes the LCU number information generated by the region setting unit 45, which indicates the number of fixed LCUs included in each image region, as boundary information (step S143). ).
  • FIG. 22C is a flowchart illustrating a fifth example of a detailed flow of region division information encoding processing.
  • the region division information selectively includes the region number information and the LCU number information described with reference to FIG. 9 or the boundary information (LCU number information) described with reference to FIG.
  • the lossless encoding unit 16 encodes a format switching flag indicating whether the number of LCUs included in each image area is fixed or variable (step S141). Subsequent processing branches depending on whether the number of LCUs included in each image area is fixed or variable.
  • the lossless encoding unit 16 encodes LCU number information indicating the number of fixed LCUs included in each image area as boundary information (step S1). S143).
  • the lossless encoding unit 16 encodes region number information indicating the number of image regions to be set in the reference image (step S144). The next step S146 may be skipped if the number of image areas is one (step S145). When the number of image areas is two or more, the lossless encoding unit 16 encodes LCU number information indicating the number of LCUs included in each image area (step S146).
  • the EL decoding unit 6b sets an image region for the cross color filter based on different types of region division information from the first embodiment.
  • the overall configuration of the EL decoding unit 6b according to the second embodiment may be the same as the configuration described with reference to FIG.
  • FIG. 23 is a block diagram illustrating an example of a detailed configuration of the refinement unit 90 according to the second embodiment.
  • the refinement unit 90 includes a reference image acquisition unit 91, a region setting unit 95, a coefficient acquisition unit 97, and a filtering unit 99.
  • the region setting unit 95 acquires the region division information decoded by the lossless decoding unit 62, and sets an image region in the reference image based on the acquired region division information.
  • each image region to be set as a reference image includes one or more LCUs that are consecutive in the raster scan order.
  • the area division information includes boundary information indicating the boundary of the image area.
  • the boundary information includes a boundary flag in the header of the head LCU included in each image area.
  • the boundary flag is decoded from the header of each LCU by the lossless decoding unit 62.
  • the boundary flag is set to a true value (True) when the LCU corresponding to the boundary flag is located at the head of the image area, and to a false value (False) otherwise. Is set.
  • the header of the LCU located at the beginning of the picture may not include the boundary flag.
  • the region setting unit 95 recognizes that a new image region is started in the LCU, and sets the new image region in the picture.
  • the filtering unit 99 uses the new filter coefficient set generated by the coefficient acquisition unit 97 based on the filter coefficient information (a set different from the set used for the previous LCU) as a reference to the new image area. It will be used to refine the image.
  • the number of LCUs included in each image area is fixed, and the boundary information includes LCU number information indicating the number of LCUs included in each image area.
  • the lossless decoding unit 62 decodes the LCU number information indicating the single LCU number as described with reference to FIG.
  • the region setting unit 45 sequentially sets image regions each including a fixed number of LCUs indicated by the LCU number information while scanning the LCUs in the picture in the raster scan order.
  • the filtering unit 99 refines the reference image while updating the set of filter coefficients every time a new image region is set.
  • the lossless decoding unit 62 may decode the format switching flag from the encoded stream and switch the format of the region division information to be decoded according to the value of the format switching flag. For example, when the format switching flag indicates that the number of LCUs is fixed, the LCU information indicating the fixed number of LCUs described with reference to FIG. Sets one or more image areas of uniform size as reference images according to the LCU information. On the other hand, when the format switching flag indicates that the number of LCUs is variable, the region number information and the LCU information described with reference to FIG. 9 are decoded by the lossless decoding unit 62, and the region setting unit 95 Image areas of different sizes are set as reference images according to the number information and the LCU information.
  • a schematic processing flow at the time of decoding and a processing flow related to refinement according to the second embodiment may be the same as those described with reference to FIGS. 16 and 17.
  • FIG. 24A is a flowchart illustrating a third example of a detailed flow of region division information decoding processing.
  • the area division information includes the boundary information described with reference to FIG.
  • the processing shown in FIG. 24A can be executed while sequentially scanning the LCUs in the picture.
  • the lossless decoding unit 62 decodes a boundary flag from the header of the current LCU (step S181).
  • the area setting unit 95 determines whether or not the boundary flag of the current LCU indicates a true value (True) (step S182).
  • the region setting unit 95 recognizes a new image region having the current LCU as the head LCU (step S183).
  • the next LCU is set as the current LCU (step S185), and the process returns to step S181. If there is no unprocessed next LCU, the region division information decoding processing shown in FIG. 24A ends.
  • FIG. 24B is a flowchart illustrating a fourth example of a detailed flow of region division information decoding processing.
  • the region division information includes boundary information (LCU number information) described with reference to FIG.
  • the lossless decoding unit 62 decodes the LCU number information indicating the number of fixed LCUs included in each image area as boundary information (step S193).
  • FIG. 24C is a flowchart illustrating a fifth example of a detailed flow of region division information decoding processing.
  • the region division information selectively includes the region number information and the LCU number information described with reference to FIG. 9 or the boundary information (LCU number information) described with reference to FIG.
  • the lossless decoding unit 62 decodes a format switching flag indicating whether the number of LCUs included in each image area is fixed or variable (step S191). The subsequent processing branches depending on whether or not the format switching flag indicates that the number of LCUs included in each image area is fixed.
  • the lossless decoding unit 62 decodes LCU number information indicating the number of fixed LCUs included in each image region as boundary information (step S193). .
  • the lossless decoding unit 62 decodes area number information indicating the number of image areas to be set in the reference image (step S194).
  • the next step S196 can be skipped if the number of image areas is one (step S195).
  • the lossless decoding unit 62 decodes LCU number information indicating the number of LCUs included in each image area (step S196).
  • the image encoding device 10 and the image decoding device 60 are a transmitter or a receiver in satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication,
  • the present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory, or a playback device that reproduces an image from these storage media.
  • a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory
  • a playback device that reproduces an image from these storage media.
  • FIG. 25 illustrates an example of a schematic configuration of a television device.
  • the television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.
  • Tuner 902 extracts a signal of a desired channel from a broadcast signal received via antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. In addition, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.
  • EPG Electronic Program Guide
  • the decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.
  • the video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video.
  • the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network.
  • the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting.
  • the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.
  • GUI Graphic User Interface
  • the display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays a video or an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OLED).
  • a display device for example, a liquid crystal display, a plasma display, or an OLED.
  • the audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904, and outputs audio from the speaker 908.
  • the audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.
  • the external interface 909 is an interface for connecting the television apparatus 900 to an external device or a network.
  • a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the control unit 910 has a processor such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like.
  • the program stored in the memory is read and executed by the CPU when the television device 900 is activated, for example.
  • the CPU controls the operation of the television device 900 according to an operation signal input from the user interface 911, for example, by executing the program.
  • the user interface 911 is connected to the control unit 910.
  • the user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like.
  • the user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.
  • the bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.
  • the decoder 904 has the function of the image decoding device 60. Accordingly, when the television device 900 refines an image referred between layers, the image quality of the reference image can be improved by applying the cross color filter based on flexible region division.
  • FIG. 26 shows an example of a schematic configuration of a mobile phone.
  • a cellular phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.
  • the antenna 921 is connected to the communication unit 922.
  • the speaker 924 and the microphone 925 are connected to the audio codec 923.
  • the operation unit 932 is connected to the control unit 931.
  • the bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.
  • the mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.
  • the analog voice signal generated by the microphone 925 is supplied to the voice codec 923.
  • the audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922.
  • the communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923.
  • the audio codec 923 expands the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the control unit 931 generates character data constituting the e-mail in response to an operation by the user via the operation unit 932.
  • the control unit 931 causes the display unit 930 to display characters.
  • the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922.
  • the communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931.
  • the control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.
  • the recording / reproducing unit 929 has an arbitrary readable / writable storage medium.
  • the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card. May be.
  • the camera unit 926 images a subject to generate image data, and outputs the generated image data to the image processing unit 927.
  • the image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the recording / playback unit 929.
  • the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to.
  • the communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • These transmission signal and reception signal may include an encoded bit stream.
  • the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928.
  • the demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923.
  • the image processing unit 927 decodes the video stream and generates video data.
  • the video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930.
  • the audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the image processing unit 927 has the functions of the image encoding device 10 and the image decoding device 60. Accordingly, when the mobile phone 920 refines an image referred to between layers, the image quality of the reference image can be improved by applying a cross color filter based on flexible region division.
  • FIG. 27 shows an example of a schematic configuration of a recording / reproducing apparatus.
  • the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium.
  • the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example.
  • the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.
  • the recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.
  • Tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.
  • the external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network.
  • the external interface 942 may be, for example, an IEEE 1394 interface, a network interface, a USB interface, or a flash memory interface.
  • video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.
  • the encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.
  • the HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Also, the HDD 944 reads out these data from the hard disk when playing back video and audio.
  • the disk drive 945 performs recording and reading of data to and from the mounted recording medium.
  • the recording medium loaded in the disk drive 945 may be, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. .
  • the selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.
  • the decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.
  • the OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.
  • a GUI image such as a menu, a button, or a cursor
  • the control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example.
  • the CPU controls the operation of the recording / reproducing device 940 according to an operation signal input from the user interface 950, for example, by executing the program.
  • the user interface 950 is connected to the control unit 949.
  • the user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like.
  • the user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.
  • the encoder 943 has the function of the image encoding device 10.
  • the decoder 947 has the function of the image decoding device 60.
  • FIG. 28 illustrates an example of a schematic configuration of an imaging apparatus.
  • the imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.
  • the imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.
  • the optical block 961 is connected to the imaging unit 962.
  • the imaging unit 962 is connected to the signal processing unit 963.
  • the display unit 965 is connected to the image processing unit 964.
  • the user interface 971 is connected to the control unit 970.
  • the bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.
  • the optical block 961 includes a focus lens and a diaphragm mechanism.
  • the optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 includes an image sensor such as a CCD or a CMOS, and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.
  • the signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962.
  • the signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.
  • the image processing unit 964 encodes the image data input from the signal processing unit 963 and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.
  • the OSD 969 generates a GUI image such as a menu, a button, or a cursor, for example, and outputs the generated image to the image processing unit 964.
  • the external interface 966 is configured as a USB input / output terminal, for example.
  • the external interface 966 connects the imaging device 960 and a printer, for example, when printing an image.
  • a drive is connected to the external interface 966 as necessary.
  • a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960.
  • the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.
  • the recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. Further, a recording medium may be fixedly attached to the media drive 968, and a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • the control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example.
  • the CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971, for example, by executing the program.
  • the user interface 971 is connected to the control unit 970.
  • the user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960.
  • the user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.
  • the image processing unit 964 has the functions of the image encoding device 10 and the image decoding device 60. Thereby, when the imaging device 960 refines an image referred between layers, the image quality of the reference image can be improved by applying a cross color filter based on flexible region division.
  • the data transmission system 1000 includes a stream storage device 1001 and a distribution server 1002.
  • Distribution server 1002 is connected to several terminal devices via network 1003.
  • Network 1003 may be a wired network, a wireless network, or a combination thereof.
  • FIG. 29 shows a PC (Personal Computer) 1004, an AV device 1005, a tablet device 1006, and a mobile phone 1007 as examples of terminal devices.
  • PC Personal Computer
  • the stream storage device 1001 stores, for example, stream data 1011 including a multiplexed stream generated by the image encoding device 10.
  • the multiplexed stream includes a base layer (BL) encoded stream and an enhancement layer (EL) encoded stream.
  • the distribution server 1002 reads the stream data 1011 stored in the stream storage device 1001, and at least a part of the read stream data 1011 is transmitted via the network 1003 to the PC 1004, the AV device 1005, the tablet device 1006, and the mobile phone 1007. Delivered to.
  • the distribution server 1002 selects a stream to be distributed based on some condition such as the capability of the terminal device or the communication environment. For example, the distribution server 1002 may avoid the occurrence of delay, overflow, or processor overload in the terminal device by not distributing an encoded stream having a high image quality that exceeds the image quality that can be handled by the terminal device. . The distribution server 1002 may avoid occupying the communication band of the network 1003 by not distributing an encoded stream having high image quality. On the other hand, the distribution server 1002 distributes all of the multiplexed streams to the terminal device when there is no risk to be avoided or when it is determined to be appropriate based on a contract with the user or some condition. Good.
  • the distribution server 1002 reads stream data 1011 from the stream storage device 1001. Then, the distribution server 1002 distributes the stream data 1011 as it is to the PC 1004 having high processing capability. Also, since the AV device 1005 has low processing capability, the distribution server 1002 generates stream data 1012 including only the base layer encoded stream extracted from the stream data 1011, and distributes the stream data 1012 to the AV device 1005. To do. Also, the distribution server 1002 distributes the stream data 1011 as it is to the tablet device 1006 that can communicate at a high communication rate. Further, since the cellular phone 1007 can communicate only at a low communication rate, the distribution server 1002 distributes the stream data 1012 including only the base layer encoded stream to the cellular phone 1007.
  • the multiplexed stream By using the multiplexed stream in this way, the amount of traffic to be transmitted can be adjusted adaptively.
  • the code amount of the stream data 1011 is reduced as compared with the case where each layer is individually encoded, even if the entire stream data 1011 is distributed, the load on the network 1003 is suppressed. Is done. Furthermore, memory resources of the stream storage device 1001 are also saved.
  • the hardware performance of terminal devices varies from device to device.
  • the communication capacity of the network 1003 also varies.
  • the capacity available for data transmission can change from moment to moment due to the presence of other traffic. Therefore, the distribution server 1002 transmits terminal information regarding the hardware performance and application capability of the terminal device, the communication capacity of the network 1003, and the like through signaling with the distribution destination terminal device before starting the distribution of the stream data. And network information may be acquired. Then, the distribution server 1002 can select a stream to be distributed based on the acquired information.
  • extraction of a layer to be decoded may be performed in the terminal device.
  • the PC 1004 may display a base layer image extracted from the received multiplexed stream and decoded on the screen. Further, the PC 1004 may extract a base layer encoded stream from the received multiplexed stream to generate stream data 1012, store the generated stream data 1012 in a storage medium, or transfer the stream data 1012 to another device. .
  • the configuration of the data transmission system 1000 shown in FIG. 29 is merely an example.
  • the data transmission system 1000 may include any number of stream storage devices 1001, a distribution server 1002, a network 1003, and terminal devices.
  • the data transmission system 1100 includes a broadcast station 1101 and a terminal device 1102.
  • the broadcast station 1101 broadcasts a base layer encoded stream 1121 on the terrestrial channel 1111.
  • the broadcast station 1101 transmits an enhancement layer encoded stream 1122 to the terminal device 1102 via the network 1112.
  • the terminal device 1102 has a reception function for receiving a terrestrial broadcast broadcast by the broadcast station 1101, and receives a base layer encoded stream 1121 via the terrestrial channel 1111. Also, the terminal device 1102 has a communication function for communicating with the broadcast station 1101 and receives the enhancement layer encoded stream 1122 via the network 1112.
  • the terminal device 1102 receives the base layer encoded stream 1121 in accordance with an instruction from the user, decodes the base layer image from the received encoded stream 1121, and displays the base layer image on the screen. Good. Further, the terminal device 1102 may store the decoded base layer image in a storage medium or transfer it to another device.
  • the terminal device 1102 receives, for example, an enhancement layer encoded stream 1122 via the network 1112 in accordance with an instruction from the user, and generates a base layer encoded stream 1121 and an enhancement layer encoded stream 1122. Multiplexed streams may be generated by multiplexing. Also, the terminal apparatus 1102 may decode the enhancement layer image from the enhancement layer encoded stream 1122 and display the enhancement layer image on the screen. In addition, the terminal device 1102 may store the decoded enhancement layer image in a storage medium or transfer it to another device.
  • the encoded stream of each layer included in the multiplexed stream can be transmitted via a different communication channel for each layer. Accordingly, it is possible to distribute the load applied to each channel and suppress the occurrence of communication delay or overflow.
  • the communication channel used for transmission may be dynamically selected according to some condition. For example, a base layer encoded stream 1121 having a relatively large amount of data is transmitted via a communication channel having a wide bandwidth, and an enhancement layer encoded stream 1122 having a relatively small amount of data is transmitted via a communication channel having a small bandwidth. Can be transmitted. Also, the communication channel for transmitting the encoded stream 1122 of a specific layer may be switched according to the bandwidth of the communication channel. Thereby, the load applied to each channel can be more effectively suppressed.
  • the configuration of the data transmission system 1100 shown in FIG. 30 is merely an example.
  • the data transmission system 1100 may include any number of communication channels and terminal devices.
  • the system configuration described here may be used for purposes other than broadcasting.
  • the data transmission system 1200 includes an imaging device 1201 and a stream storage device 1202.
  • the imaging device 1201 performs scalable coding on image data generated by imaging the subject 1211 and generates a multiplexed stream 1221.
  • the multiplexed stream 1221 includes a base layer encoded stream and an enhancement layer encoded stream. Then, the imaging device 1201 supplies the multiplexed stream 1221 to the stream storage device 1202.
  • the stream storage device 1202 stores the multiplexed stream 1221 supplied from the imaging device 1201 with different image quality for each mode. For example, in the normal mode, the stream storage device 1202 extracts the base layer encoded stream 1222 from the multiplexed stream 1221 and stores the extracted base layer encoded stream 1222. On the other hand, the stream storage device 1202 stores the multiplexed stream 1221 as it is in the high image quality mode. Thereby, the stream storage device 1202 can record a high-quality stream with a large amount of data only when video recording with high quality is desired. Therefore, it is possible to save memory resources while suppressing the influence of image quality degradation on the user.
  • the imaging device 1201 is assumed to be a surveillance camera.
  • the monitoring target for example, an intruder
  • the normal mode is selected.
  • the video is recorded with low image quality (that is, only the base layer coded stream 1222 is stored).
  • the monitoring target for example, the subject 1211 as an intruder
  • the high image quality mode is selected. In this case, since the captured image is likely to be important, priority is given to the high image quality, and the video is recorded with high image quality (that is, the multiplexed stream 1221 is stored).
  • the mode is selected by the stream storage device 1202 based on the image analysis result, for example.
  • the imaging device 1201 may select a mode. In the latter case, the imaging device 1201 may supply the base layer encoded stream 1222 to the stream storage device 1202 in the normal mode and supply the multiplexed stream 1221 to the stream storage device 1202 in the high image quality mode.
  • the selection criteria for selecting the mode may be any standard.
  • the mode may be switched according to the volume of sound acquired through a microphone or the waveform of sound. Further, the mode may be switched periodically. Further, the mode may be switched according to an instruction from the user.
  • the number of selectable modes may be any number as long as the number of layers to be layered does not exceed.
  • the configuration of the data transmission system 1200 shown in FIG. 31 is merely an example.
  • the data transmission system 1200 may include any number of imaging devices 1201. Further, the system configuration described here may be used in applications other than the surveillance camera.
  • the multi-view codec is a kind of multi-layer codec, and is an image encoding method for encoding and decoding so-called multi-view video.
  • FIG. 32 is an explanatory diagram for describing the multi-view codec. Referring to FIG. 32, a sequence of frames of three views that are respectively photographed at three viewpoints is shown. Each view is given a view ID (view_id). Any one of the plurality of views is designated as a base view. Views other than the base view are called non-base views. In the example of FIG. 32, a view with a view ID “0” is a base view, and two views with a view ID “1” or “2” are non-base views.
  • each view may correspond to a layer.
  • the non-base view image is encoded and decoded with reference to the base view image (other non-base view images may also be referred to).
  • FIG. 33 is a block diagram illustrating a schematic configuration of an image encoding device 10v that supports a multi-view codec.
  • the image encoding device 10v includes a first layer encoding unit 1c, a second layer encoding unit 1d, a common memory 2, and a multiplexing unit 3.
  • the function of the first layer encoding unit 1c is equivalent to the function of the BL encoding unit 1a described with reference to FIG. 5 except that a base view image is received instead of the base layer image as an input.
  • the first layer encoding unit 1c encodes the base view image and generates an encoded stream of the first layer.
  • the function of the second layer encoding unit 1d is the same as the function of the EL encoding unit 1b described with reference to FIG. 5 except that a non-base view image is received instead of the enhancement layer image as an input.
  • the second layer encoding unit 1d encodes the non-base view image and generates a second layer encoded stream.
  • the common memory 2 stores information commonly used between layers.
  • the multiplexing unit 3 multiplexes the encoded stream of the first layer generated by the first layer encoding unit 1c and the encoded stream of the second layer generated by the second layer encoding unit 1d. A multiplexed stream of layers is generated.
  • FIG. 34 is a block diagram showing a schematic configuration of an image decoding device 60v that supports a multi-view codec.
  • the image decoding device 60v includes a demultiplexing unit 5, a first layer decoding unit 6c, a second layer decoding unit 6d, and a common memory 7.
  • the demultiplexer 5 demultiplexes the multi-layer multiplexed stream into the first layer encoded stream and the second layer encoded stream.
  • the function of the first layer decoding unit 6c is equivalent to the function of the BL decoding unit 6a described with reference to FIG. 6 except that it receives an encoded stream obtained by encoding a base view image instead of a base layer image as an input. It is.
  • the first layer decoding unit 6c decodes the base view image from the encoded stream of the first layer.
  • the function of the second layer decoding unit 6d is the same as the function of the EL decoding unit 6b described with reference to FIG. 6 except that it receives an encoded stream in which a non-base view image is encoded instead of an enhancement layer image as an input. It is equivalent.
  • the second layer decoding unit 6d decodes the non-base view image from the second layer encoded stream.
  • the common memory 7 stores information commonly used between layers.
  • refinement of images referenced between views may be controlled according to the technology according to the present disclosure.
  • the multi-view codec it is possible to improve the image quality of the reference image by applying the cross color filter based on flexible region division.
  • the technology according to the present disclosure may be applied to a streaming protocol.
  • a streaming protocol For example, in MPEG-DASH (Dynamic Adaptive Streaming over HTTP), a plurality of encoded streams having different parameters such as resolution are prepared in advance in a streaming server. Then, the streaming server dynamically selects appropriate data to be streamed from a plurality of encoded streams in units of segments, and distributes the selected data.
  • refinement of reference images that are referred to between encoded streams may be controlled according to the technique according to the present disclosure.
  • the reference image based on the decoded image of the first layer, and the reference image for encoding or decoding the image of the second layer having an attribute different from the first layer is cross-colored.
  • a refined reference image is generated by applying a filter, one or more image regions are set in the reference image without being restricted by a region division pattern such as four or sixteen, and the set image A cross color filter is applied with a filter coefficient unique to each of the regions. Therefore, compared with the existing method, the effect of refinement by the cross color filter can be enhanced, and the image quality of the reference image for the inter-layer prediction can be improved to achieve high prediction accuracy.
  • the image area can be set based on area number information indicating the number of image areas to be set in the reference image.
  • the number of image areas can be set adaptively, and the filter coefficient of the cross color filter can be used properly for each image area.
  • each of the image areas may include one or more LCUs that are consecutive in the raster scan order, and the image area may be further set based on LCU number information indicating the number of LCUs included in the image area. According to such an example, it is possible to use an optimum filter coefficient for a slice having an arbitrary shape.
  • the image area is formed by dividing a picture into a grid pattern, and the area number information indicates the number of image areas in the horizontal direction and the number of image areas in the vertical direction. According to such an example, when parallel processing is performed between tiles, it is possible to use optimum filter coefficients for individual tiles without hindering parallel processing.
  • the image area can be set based on the boundary information indicating the boundary of the image area to be set as the reference image.
  • the boundary of the image area is aligned with the slice boundary or the tile boundary, and it becomes easy to use the filter coefficient specific to the slice or the filter coefficient specific to the tile.
  • each of the image regions includes one or more LCUs that are consecutive in the raster scan order, and the boundary information includes a boundary flag in the header of the first LCU included in each image region. According to such an example, it is possible to flexibly set an image region having a boundary between arbitrary LCUs as a region boundary by simply employing an additional flag of several bits.
  • each of the image areas includes one or more LCUs that are consecutive in the raster scan order, and the boundary information indicates the number of fixed LCUs included in each image area. According to such an example, it is possible to set an image area having an arbitrary size (although it is uniform) as a picture only by additionally encoding a single numerical value.
  • the region division information may be transmitted from the encoding side to the decoding side, for example, in PPS (Picture Parameter Set) or its extension, slice header or its extension, or LCU header.
  • PPS Picture Parameter Set
  • CU In HEVC, the terms CU, PU, and TU mean a logical unit including a syntax associated with each block. When focusing only on individual blocks as a part of an image, these may be replaced by the terms CB (Coding Block), PB (Prediction Block), and TB (Transform Block), respectively.
  • the CB is formed by hierarchically dividing a CTB (Coding Tree Block) into a quad-tree shape. An entire quadtree corresponds to CTB, and a logical unit corresponding to CTB is called CTU (Coding Tree Unit).
  • CTB and CB in HEVC are H.264 and H.B. It has a role similar to a macroblock in H.264 / AVC.
  • CTB and CB differ from macroblocks in that their sizes are not fixed (the size of macroblocks is always 16 ⁇ 16 pixels).
  • the CTB size is selected from 16 ⁇ 16 pixels, 32 ⁇ 32 pixels, and 64 ⁇ 64 pixels, and is specified by a parameter in the encoded stream.
  • the size of the CB can vary depending on the division depth of the CTB.
  • the method for transmitting such information is not limited to such an example.
  • these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream.
  • the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means. That is, information may be transmitted on a transmission path different from that of the image (or bit stream).
  • Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream). Furthermore, the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.
  • An acquisition unit that acquires a reference image for encoding or decoding a second layer image having an attribute different from that of the first layer, based on the first layer decoded image;
  • a setting unit that sets the image region in the reference image acquired by the acquisition unit based on region number information indicating the number of one or more image regions to be set in the reference image;
  • a filtering unit that generates a refined reference image by applying a cross color filter to each of the image regions set by the setting unit with a filter coefficient unique to the image region;
  • An image processing apparatus comprising: (2)
  • the image processing apparatus further includes a decoding unit that decodes the area number information, The setting unit sets the image region in the reference image based on the number-of-regions information decoded by the decoding unit;
  • the image processing apparatus according to (1).
  • the image processing device further comprising: an encoding unit that encodes the number-of-regions information referred to by the setting unit when the image region is set in the reference image. apparatus.
  • Each of the image regions includes one or more LCUs (Largest Coding Units) that are consecutive in raster scan order, The decoding unit further decodes LCU number information indicating the number of LCUs included in each image region, The setting unit sets the image region in the reference image based on the LCU number information decoded by the decoding unit; The image processing apparatus according to (2).
  • the image processing apparatus according to (2).
  • the image processing apparatus according to (4), wherein the LCU number information does not indicate the number of LCUs included in a last area of a series of image areas.
  • the setting unit adds the image area to the reference image based on first area number information indicating the number of the image areas in the horizontal direction and second area number information indicating the number of the image areas in the vertical direction.
  • the image processing apparatus according to (2) which is set in a lattice shape.
  • the decoding unit further decodes first LCU number information indicating the width of each column of the image area, and second LCU number information indicating the height of each row of the image area,
  • the setting unit sets the image region in the reference image based on the first LCU number information and the second LCU number information decoded by the decoding unit;
  • the image processing apparatus according to (6).
  • the image processing apparatus wherein the decoding unit further decodes filter coefficient information indicating the filter coefficient specific to each of the image regions set by the setting unit.
  • the encoding unit further encodes filter coefficient information indicating the filter coefficient specific to each image region used by the filtering unit when generating the refined reference image, according to (3).
  • Image processing device
  • An image processing method including: (11) An acquisition unit that acquires a reference image for encoding or decoding a second layer image having an attribute different from that of the first layer, based on the first layer decoded image; A setting unit that sets the image region in the reference image acquired by the acquisition unit based on boundary information indicating a boundary of one or more image regions to be set in the reference image; A filtering unit that generates a refined reference image by applying a cross color filter to each of the image regions set by the setting unit with a filter coefficient unique to the image region; An image processing apparatus comprising: (12) The image processing
  • the image processing device further comprising: an encoding unit that encodes the boundary information referred to by the setting unit when setting the image region in the reference image. .
  • Each of the image regions includes one or more LCUs (Largest Coding Units) that are consecutive in raster scan order,
  • the boundary information includes a first flag in the header of the head LCU included in each image area.
  • the image processing apparatus according to (12).
  • Each of the image regions includes one or more LCUs (Largest Coding Units) that are consecutive in raster scan order,
  • the boundary information includes LCU number information indicating the number of LCUs included in each image region.
  • the image processing apparatus according to (12).
  • the number of LCUs included in each image area is fixed,
  • the setting unit sets the image area including each of a fixed number of LCUs indicated by the LCU number information as the reference image.
  • the image processing apparatus according to (15).
  • the decoding unit further decodes a second flag indicating whether the number of LCUs included in each image region is fixed or variable, The setting unit When the second flag indicates that the number of LCUs is fixed, the image area including each of the fixed number of LCUs indicated by the LCU number information is set as the reference image, When the second flag indicates that the number of LCUs is variable, the image area including the number of LCUs respectively indicated by the LCU number information is set as the reference image.
  • the image processing apparatus according to (15).
  • a setting unit configured to set the image region in the acquired reference image based on boundary information indicating a boundary of one or more image regions to be set in the reference image; Generating a refined reference image by applying a cross color filter to each of the set image areas with a filter coefficient specific to the image area;

Abstract

【課題】インターレイヤ予測の参照画像の画質を効果的に向上させること。 【解決手段】第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得する取得部と、前記参照画像に設定すべき1つ以上の画像領域の数を示す領域数情報に基づいて、前記取得部により取得される前記参照画像に前記画像領域を設定する設定部と、前記設定部により設定される前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成するフィルタリング部と、を備える画像処理装置を提供する。

Description

画像処理装置及び画像処理方法
 本開示は、画像処理装置及び画像処理方法に関する。
 現在、H.264/AVCよりも符号化効率をさらに向上することを目的として、ITU-TとISO/IECとの共同の標準化団体であるJCTVC(Joint Collaboration Team-Video Coding)により、HEVC(High Efficiency Video Coding)と呼ばれる画像符号化方式の標準化が進められている(例えば、非特許文献1参照)。HEVCは、MPEG2及びAVC(Advanced Video Coding)などの既存の画像符号化方式と同様、シングルレイヤの符号化のみならず、スケーラブル符号化をも提供する。HEVCのスケーラブル符号化技術を、SHVC(Scalable HEVC)ともいう(例えば、非特許文献2参照)。
 スケーラブル符号化とは、一般には、粗い画像信号を伝送するレイヤと精細な画像信号を伝送するレイヤとを階層的に符号化する技術をいう。スケーラブル符号化は、典型的には、階層化される属性に応じて、空間スケーラビリティ方式、時間スケーラビリティ方式及びSNR(Signal to Noise Ratio)スケーラビリティ方式という3種類の方式に分類される。空間スケーラビリティ方式では、空間解像度(あるいは画像サイズ)が階層化され、下位レイヤの画像は、アップサンプリングされた後に上位レイヤの画像を符号化し又は復号するために用いられる。時間スケーラビリティ方式では、フレームレートが階層化される。SNRスケーラビリティ方式では、量子化の粗さを変化させることにより、SN比が階層化される。さらに、標準規格で未だ採用されていないものの、ビット深度スケーラビリティ方式及びクロマフォーマットスケーラビリティ方式もまた議論されている。
 スケーラブル符号化において、下位レイヤの画像を参照画像として用いて上位レイヤの画像を予測することを、インターレイヤ予測(inter-layer prediction)という。非特許文献2は、インターレイヤ予測のためのいくつかの手法を提案している。エンハンスメントレイヤでのインターレイヤ予測において、参照画像である下位レイヤの画像の画質は、予測精度を左右する。そこで、非特許文献3は、下位レイヤの画像の画質を精細化するために良好なゲインを示す手法として、クロスカラーフィルタを使用する手法を提案している。クロスカラーフィルタは、精細化フィルタの一種であり、近傍の輝度成分に基づいて色差成分を精細化する。非特許文献3によれば、フィルタ係数は、ピクチャを4(=2×2)等分し若しくは16(=4×4)等分することにより形成される画像領域、又はピクチャ全体に対応する1個の画像領域(分割無し)の各々について、エンコーダ側で計算され符号化される。
Benjamin Bross, Woo-Jin Han, Gary J. Sullivan, Jens-Rainer Ohm, Gary J. Sullivan, Ye-Kui Wang, Thomas Wiegand, "High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Consent)"(JCTVC-L1003_v4, 2013年1月14-23日) Jianle Chen, el. al, "Description of scalable video coding technology proposal by Qualcomm (configuration 2)"(JCTVC-K0036, 2012年10月10-19日) Xiang Li, el. al, "Non-SCE3: Region based Inter-layer Cross-Color Filtering"(JCTVC-N0229_r2, 2013年7月25-8月2日)
 しかしながら、非特許文献3において提案された手法は、画像領域へのピクチャの分割の柔軟性(あるいは自由度)に乏しい。例えば、ピクチャ内に複数のスライス又は複数のタイルが設定される場合に、スライス境界又はタイル境界は、必ずしもピクチャの4等分又は16等分の分割線に一致しない。これら境界をまたいて最適なフィルタ係数を導出しようとすることは、並列処理の活用を妨げる要因にもなり得る。また、クロスカラーフィルタの最適なフィルタ係数は、局所的な画像の特徴に依存し得るが、画像の特徴はピクチャ内のいかなる場所でも変化し得る。よって、分割無し、4等分又は16等分という領域分割のパターンは、クロスカラーフィルタによる画質のゲインを最大化するためには少な過ぎる。
 そこで、本開示に係る技術は、インターレイヤ予測の参照画像の画質向上のために、より柔軟な領域分割に基づいてクロスカラーフィルタを適用することを可能とする仕組みを提供することを目的とする。
 本開示によれば、第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得する取得部と、前記参照画像に設定すべき1つ以上の画像領域の数を示す領域数情報に基づいて、前記取得部により取得される前記参照画像に前記画像領域を設定する設定部と、前記設定部により設定される前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成するフィルタリング部と、を備える画像処理装置が提供される。
 上記画像処理装置は、画像を復号する画像復号装置として実現されてもよく、又は画像を符号化する画像符号化装置として実現されてもよい。
 また、本開示によれば、第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得することと、前記参照画像に設定すべき1つ以上の画像領域の数を示す領域数情報に基づいて、取得される前記参照画像に前記画像領域を設定することと、設定された前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成することと、を含む画像処理方法が提供される。
 また、本開示によれば、第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得する取得部と、前記参照画像に設定すべき1つ以上の画像領域の境界を示す境界情報に基づいて、前記取得部により取得される前記参照画像に前記画像領域を設定する設定部と、前記設定部により設定される前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成するフィルタリング部と、を備える画像処理装置が提供される。
 上記画像処理装置は、画像を復号する画像復号装置として実現されてもよく、又は画像を符号化する画像符号化装置として実現されてもよい。
 また、本開示によれば、第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得することと、前記参照画像に設定すべき1つ以上の画像領域の境界を示す境界情報に基づいて、取得された前記参照画像に前記画像領域を設定する設定部と、設定された前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成することと、を含む画像処理方法が提供される。
 本開示に係る技術によれば、インターレイヤ予測の参照画像に、より柔軟な領域分割に基づいてクロスカラーフィルタを適用することで、参照画像の画質を効果的に向上させることができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果と共に、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。
空間スケーラビリティ方式について説明するための説明図である。 SNRスケーラビリティ方式について説明するための説明図である。 クロスカラーフィルタを用いる精細化の手法について説明するための説明図である。 JCTVC-N0229_r2において提案された領域分割のパターンについて説明するための説明図である。 画像符号化装置の概略的な構成を示すブロック図である。 画像復号装置の概略的な構成を示すブロック図である。 第1の実施形態に係るEL符号化部の構成の一例を示すブロック図である。 第1の実施形態に係る精細化部の詳細な構成の一例を示すブロック図である。 領域数情報及びLCU数情報の第1の例について説明するための説明図である。 領域数情報及びLCU数情報の第2の例について説明するための説明図である。 符号化時の概略的な処理の流れの一例を示すフローチャートである。 符号化時の参照画像の精細化に関連する処理の流れの一例を示すフローチャートである。 領域分割情報符号化処理の詳細な流れの第1の例を示すフローチャートである。 領域分割情報符号化処理の詳細な流れの第2の例を示すフローチャートである。 第1の実施形態に係るEL復号部の構成の一例を示すブロック図である。 第1の実施形態に係る精細化部の詳細な構成の一例を示すブロック図である。 復号時の概略的な処理の流れの一例を示すフローチャートである。 復号時の参照画像の精細化に関連する処理の流れの一例を示すフローチャートである。 領域分割情報復号処理の詳細な流れの第1の例を示すフローチャートである。 領域分割情報復号処理の詳細な流れの第2の例を示すフローチャートである。 第2の実施形態に係る精細化部の詳細な構成の一例を示すブロック図である。 境界情報の第1の例について説明するための説明図である。 境界情報の第2の例について説明するための説明図である。 領域分割情報符号化処理の詳細な流れの第3の例を示すフローチャートである。 領域分割情報符号化処理の詳細な流れの第4の例を示すフローチャートである。 領域分割情報符号化処理の詳細な流れの第5の例を示すフローチャートである。 第2の実施形態に係る精細化部の詳細な構成の一例を示すブロック図である。 領域分割情報復号処理の詳細な流れの第3の例を示すフローチャートである。 領域分割情報復号処理の詳細な流れの第4の例を示すフローチャートである。 領域分割情報復号処理の詳細な流れの第5の例を示すフローチャートである。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。 スケーラブル符号化の用途の第1の例について説明するための説明図である。 スケーラブル符号化の用途の第2の例について説明するための説明図である。 スケーラブル符号化の用途の第3の例について説明するための説明図である。 マルチビューコーデックについて説明するための説明図である。 マルチビューコーデックのための画像符号化装置の概略的な構成を示すブロック図である。 マルチビューコーデックのための画像復号装置の概略的な構成を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下の順序で説明を行う。
  1.概要
   1-1.スケーラブル符号化
   1-2.参照画像の精細化
   1-3.エンコーダの基本的な構成例
   1-4.デコーダの基本的な構成例
  2.EL符号化部の構成例(第1の実施形態)
   2-1.全体的な構成
   2-2.精細化部の構成
   2-3.処理の流れ
  3.EL復号部の構成例(第1の実施形態)
   3-1.全体的な構成
   3-2.精細化部の構成
   3-3.処理の流れ
  4.EL符号化部の構成例(第2の実施形態)
   4-1.精細化部の構成
   4-2.処理の流れ
  5.EL復号部の構成例(第2の実施形態)
   5-1.精細化部の構成
   5-2.処理の流れ
  6.応用例
   6-1.様々な製品への応用
   6-2.スケーラブル符号化の様々な用途
   6-3.その他
  7.まとめ
 <1.概要>
  [1-1.スケーラブル符号化]
 スケーラブル符号化においては、一連の画像をそれぞれ含む複数のレイヤが符号化される。ベースレイヤ(base layer)は、最初に符号化される、最も粗い画像を表現するレイヤである。ベースレイヤの符号化ストリームは、他のレイヤの符号化ストリームを復号することなく、独立して復号され得る。ベースレイヤ以外のレイヤは、エンハンスメントレイヤ(enhancement layer)と呼ばれる、より精細な画像を表現するレイヤである。エンハンスメントレイヤの符号化ストリームは、ベースレイヤの符号化ストリームに含まれる情報を用いて符号化される。従って、エンハンスメントレイヤの画像を再現するためには、ベースレイヤ及びエンハンスメントレイヤの双方の符号化ストリームが復号されることになる。スケーラブル符号化において扱われるレイヤの数は、2つ以上のいかなる数であってもよい。3つ以上のレイヤが符号化される場合には、最下位のレイヤがベースレイヤ、残りの複数のレイヤがエンハンスメントレイヤである。より上位のエンハンスメントレイヤの符号化ストリームは、より下位のエンハンスメントレイヤ又はベースレイヤの符号化ストリームに含まれる情報を用いて符号化され及び復号され得る。
   (1)空間スケーラビリティ方式
 図1は、空間スケーラビリティ方式について説明するための説明図である。図1を参照すると、空間スケーラビリティ方式でスケーラブル符号化される3つのレイヤL11、L12及びL13が示されている。レイヤL11はベースレイヤであり、レイヤL12及びL13はエンハンスメントレイヤである。レイヤL12のレイヤL11に対する空間解像度の比は、2:1である。レイヤL13のレイヤL11に対する空間解像度の比は、4:1である。なお、ここでの解像度比は一例に過ぎず、例えば1.5:1などの非整数の解像度比が使用されてもよい。レイヤL11のブロックB11は、ベースレイヤのピクチャ内の符号化処理の処理単位である。レイヤL12のブロックB12は、ブロックB11と共通するシーンを映したエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB12は、レイヤL11のブロックB11に対応する。レイヤL13のブロックB13は、ブロックB11及びB12と共通するシーンを映したより上位のエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB13は、レイヤL11のブロックB11及びレイヤL12のブロックB12に対応する。
 図1に例示したレイヤ構造において、画像のテクスチャは、共通するシーンを映したレイヤ間で類似する。即ち、レイヤL11内のブロックB11、レイヤL12内のブロックB12、及びレイヤL13内のブロックB13のテクスチャは類似する。従って、例えばブロックB11を参照ブロックとして用いてブロックB12又はブロックB13の画素を予測し、又はブロックB12を参照ブロックとして用いてブロックB13の画素を予測すれば、高い予測精度が得られる可能性がある。このようなレイヤ間の予測を、インターレイヤ予測という。インターレイヤ予測の一種であるイントラBL予測では、ベースレイヤの復号画像(リコンストラクト画像)が、エンハンスメントレイヤの復号画像を予測するための参照画像として使用される。イントラ残差予測及びインター残差予測では、ベースレイヤの予測誤差(残差)画像が、エンハンスメントレイヤの予測誤差画像を予測するための参照画像として使用される。空間スケーラビリティ方式では、エンハンスメントレイヤの空間解像度は、ベースレイヤの空間解像度よりも高い。従って、ベースレイヤの画像は、解像度比に従ってアップサンプリングされた上で参照画像として使用される。インターレイヤ予測のためのアップサンプリングフィルタは、通常、動き補償のための補間フィルタと同様に設計される。動き補償のための補間フィルタは、輝度成分について7タップ又は8タップ、色差成分について4タップのタップ数を有する。
   (2)SNRスケーラビリティ方式
 図2は、SNRスケーラビリティ方式について説明するための説明図である。図2を参照すると、SNRスケーラビリティ方式でスケーラブル符号化される3つのレイヤL21、L22及びL23が示されている。レイヤL21はベースレイヤであり、レイヤL22及びL23はエンハンスメントレイヤである。レイヤL21は、3つのレイヤの中で最も粗い量子化データ(最も大きい量子化ステップで量子化されたデータ)のみを含むように符号化される。レイヤL22は、レイヤL21の量子化誤差を補償する量子化データを含むように符号化される。よって、レイヤL21及びL22を復号すれば、レイヤL21のみを復号する場合よりも精細な(SN比のより高い)復号画像を得ることができる。レイヤL23は、レイヤL22の量子化誤差をさらに補償する量子化データを含むように符号化される。よって、レイヤL21、L22及びL23を復号すれば、さらに精細な復号画像を得ることができる。レイヤL21のブロックB21は、ベースレイヤのピクチャ内の符号化処理の処理単位である。レイヤL22のブロックB22は、ブロックB21と共通するシーンを映したエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB22は、レイヤL21のブロックB21に対応する。レイヤL23のブロックB23は、ブロックB21及びB22と共通するシーンを映したより上位のエンハンスメントレイヤのピクチャ内の符号化処理の処理単位である。ブロックB23は、レイヤL21のブロックB21及びレイヤL22のブロックB22に対応する。
 図2に例示したレイヤ構造においても、画像のテクスチャは共通するシーンを映したレイヤ間で類似する。従って、インターレイヤ予測において、例えばブロックB21を参照ブロックとして用いてブロックB22又はブロックB23の画素を予測し、又はブロックB22を参照ブロックとして用いてブロックB23の画素を予測すれば、高い予測精度が得られる可能性がある。単独のSNRスケーラビリティ方式では、エンハンスメントレイヤの空間解像度は、ベースレイヤの空間解像度と等しい。従って、ベースレイヤの画像を参照画像として使用するために、アップサンプリングは不要である。空間スケーラビリティ方式とSNRスケーラビリティ方式とが組合せられる場合には、ベースレイヤの画像はアップサンプリングされる。
  [1-2.参照画像の精細化]
 インターレイヤ予測において、ベースレイヤから取得される参照画像の画質は、予測精度を左右する。そこで、予測処理に先立って参照画像を精細化するためのいくつかの手法がこれまでに提案されている。中でも、良好なゲインを示す1つの手法は、非特許文献3により説明されているクロスカラーフィルタを用いる手法である。
 図3は、クロスカラーフィルタを用いる精細化の手法について説明するための説明図である。非特許文献3により提案されているクロスカラーフィルタは、図中に丸印で示した1つの色差成分P20を精細化するために、この色差成分P20に加えて、図中に四角印で示した8つの輝度成分P11~P18をフィルタタップとして使用する。フィルタ係数は、エンコーダ側で、原画像と精細化画像との間の平均二乗誤差を最小にするように、Cb成分及びCr成分について別々にWienerフィルタを用いて計算される。フィルタ係数の計算は、ピクチャを分割することにより形成される、互いに均一なサイズを有する1つ以上の画像領域の各々について実行される。より具体的には、図4に示したように、ピクチャを4個の画像領域に分割することが許容されており、nはゼロ、1又は2に等しい。n=0の場合、図中左上のピクチャPIC0は分割されず、ピクチャPIC0の全体に対応する1つの画像領域のみが設定される(図中右上)。n=1の場合、ピクチャPIC0は、4(=2×2)個の画像領域に等分される。n=2の場合、ピクチャPIC0は、16(=2×2)個の画像領域に等分される。
 しかしながら、分割無し、4等分又は16等分という領域分割のパターンは、クロスカラーフィルタによる画質のゲインを最大化するためには少な過ぎる。例えば、HEVCでは、ピクチャが複数のスライスに分割され、スライスごとに符号化処理及び復号処理が実行され得る。スライス境界はピクチャ内のラスタスキャン順の一連のLCUの中のいずれか2つの間に位置するが、そのスライス境界は必ずしもピクチャの4等分又は16等分の分割線に一致しない。また、HEVCでは、ピクチャに格子状にタイルを設定して、複数のタイル間で符号化処理及び復号処理を並列的に実行することができる。しかし、タイル境界もまた必ずしもピクチャの4等分又は16等分の分割線に一致しない。そして、これら境界をまたいで最適なフィルタ係数を導出しようとすることは、並列処理の活用を妨げる要因となり得る。さらに、クロスカラーフィルタの最適なフィルタ係数は局所的な画像の特徴に依存し、例えば風景画像中の青空領域と地上領域とでは、互いに異なるフィルタ係数が良好なゲインを示し得る。しかし、そうした領域の境界線が存在する場所は、ピクチャ内で固定的ではない。従って、非特許文献3において提案された手法は領域分割のパターンの柔軟性(あるいは自由度)に欠けており、クロスカラーフィルタによる画質向上の効果を十分に引き出すとは言い難い。そこで、インターレイヤ予測の参照画像の画質向上のために、より柔軟な領域分割に基づいてクロスカラーフィルタを適用することを可能とする例示的な実施形態について、後に詳細に説明する。
  [1-3.エンコーダの基本的な構成例]
 図5は、スケーラブル符号化をサポートする画像符号化装置10の概略的な構成を示すブロック図である。図5を参照すると、画像符号化装置10は、ベースレイヤ(BL)符号化部1a、エンハンスメントレイヤ(EL)符号化部1b、共通メモリ2及び多重化部3を備える。
 BL符号化部1aは、ベースレイヤ画像を符号化し、ベースレイヤの符号化ストリームを生成する。EL符号化部1bは、エンハンスメントレイヤ画像を符号化し、エンハンスメントレイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、BL符号化部1aにより生成されるベースレイヤの符号化ストリームと、EL符号化部1bにより生成される1つ以上のエンハンスメントレイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
  [1-4.デコーダの基本的な構成例]
 図6は、スケーラブル符号化をサポートする画像復号装置60の概略的な構成を示すブロック図である。図6を参照すると、画像復号装置60は、逆多重化部5、ベースレイヤ(BL)復号部6a、エンハンスメントレイヤ(EL)復号部6b及び共通メモリ7を備える。
 逆多重化部5は、マルチレイヤの多重化ストリームをベースレイヤの符号化ストリーム及び1つ以上のエンハンスメントレイヤの符号化ストリームに逆多重化する。BL復号部6aは、ベースレイヤの符号化ストリームからベースレイヤ画像を復号する。EL復号部6bは、エンハンスメントレイヤの符号化ストリームからエンハンスメントレイヤ画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
 図5に例示した画像符号化装置10において、ベースレイヤの符号化のためのBL符号化部1aの構成と、エンハンスメントレイヤの符号化のためのEL符号化部1bの構成とは、互いに類似する。BL符号化部1aにより生成され又は取得されるいくつかのパラメータ及び画像は、共通メモリ2を用いてバッファリングされ、EL符号化部1bにより再利用され得る。次節以降で、そのようなEL符号化部1bの構成のいくつかの実施形態について説明する。
 同様に、図6に例示した画像復号装置60において、ベースレイヤの復号のためのBL復号部6aの構成と、エンハンスメントレイヤの復号のためのEL復号部6bの構成とは、互いに類似する。BL復号部6aにより生成され又は取得されるいくつかのパラメータ及び画像は、共通メモリ7を用いてバッファリングされ、EL復号部6bにより再利用され得る。次節以降で、そのようなEL復号部6bの構成のいくつかの実施形態についても説明する。
 <2.EL符号化部の構成例(第1の実施形態)>
  [2-1.全体的な構成]
 図7は、第1の実施形態に係るEL符号化部1bの構成の一例を示すブロック図である。図7を参照すると、EL符号化部1bは、並び替えバッファ11、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18、逆量子化部21、逆直交変換部22、加算部23、ループフィルタ24、フレームメモリ25、セレクタ26及び27、イントラ予測部30、インター予測部35並びに精細化部40を備える。
 並び替えバッファ11は、一連の画像データに含まれる画像を並び替える。並び替えバッファ11は、符号化処理に係るGOP(Group of Pictures)構造に応じて画像を並び替えた後、並び替え後の画像データを減算部13、イントラ予測部30、インター予測部35及び精細化部40へ出力する。
 減算部13には、並び替えバッファ11から入力される画像データ、及び後に説明するイントラ予測部30又はインター予測部35から入力される予測画像データが供給される。減算部13は、並び替えバッファ11から入力される画像データと予測画像データとの差分である予測誤差データを算出し、算出した予測誤差データを直交変換部14へ出力する。
 直交変換部14は、減算部13から入力される予測誤差データについて直交変換を行う。直交変換部14により実行される直交変換は、例えば、離散コサイン変換(Discrete Cosine Transform:DCT)又はカルーネン・レーベ変換などであってよい。直交変換部14は、直交変換処理により取得される変換係数データを量子化部15へ出力する。
 量子化部15には、直交変換部14から入力される変換係数データ、及び後に説明するレート制御部18からのレート制御信号が供給される。レート制御信号は、ブロックごとの各色成分についての量子化パラメータを特定する。典型的には、量子化パラメータが大きい場合、変換係数データの量子化誤差も大きくなる。SNRスケーラビリティ方式においては、エンハンスメントレイヤの量子化誤差は、ベースレイヤの量子化誤差よりも小さい。量子化部15は、量子化パラメータ(及び量子化行列)に依存する量子化ステップで変換係数データを量子化し、量子化後の変換係数データ(以下、量子化データという)を可逆符号化部16及び逆量子化部21へ出力する。
 可逆符号化部16は、量子化部15から入力される量子化データについて可逆符号化処理を行うことにより、エンハンスメントレイヤの符号化ストリームを生成する。また、可逆符号化部16は、符号化ストリームを復号する際に参照される様々なパラメータを符号化して、符号化されたパラメータを符号化ストリームのヘッダ領域に挿入する。可逆符号化部16により符号化されるパラメータは、後に説明するイントラ予測に関する情報及びインター予測に関する情報を含み得る。また、後述する精細化部40により生成される領域分割情報及びフィルタ係数情報もまた、エンハンスメントレイヤにおいて符号化され得る。そして、可逆符号化部16は、生成した符号化ストリームを蓄積バッファ17へ出力する。
 蓄積バッファ17は、可逆符号化部16から入力される符号化ストリームを半導体メモリなどの記憶媒体を用いて一時的に蓄積する。そして、蓄積バッファ17は、蓄積した符号化ストリームを、伝送路の帯域に応じたレートで、図示しない伝送部(例えば、通信インタフェース又は周辺機器との接続インタフェースなど)へ出力する。
 レート制御部18は、蓄積バッファ17の空き容量を監視する。そして、レート制御部18は、蓄積バッファ17の空き容量に応じてレート制御信号を生成し、生成したレート制御信号を量子化部15へ出力する。例えば、レート制御部18は、蓄積バッファ17の空き容量が少ない時には、量子化データのビットレートを低下させるためのレート制御信号を生成する。また、例えば、レート制御部18は、蓄積バッファ17の空き容量が十分大きい時には、量子化データのビットレートを高めるためのレート制御信号を生成する。
 逆量子化部21、逆直交変換部22及び加算部23は、ローカルデコーダを構成する。逆量子化部21は、量子化部15により使用されたものと同じ量子化ステップで、エンハンスメントレイヤの量子化データを逆量子化し、変換係数データを復元する。そして、逆量子化部21は、復元した変換係数データを逆直交変換部22へ出力する。
 逆直交変換部22は、逆量子化部21から入力される変換係数データについて逆直交変換処理を行うことにより、予測誤差データを復元する。そして、逆直交変換部22は、復元した予測誤差データを加算部23へ出力する。
 加算部23は、逆直交変換部22から入力される復元された予測誤差データとイントラ予測部30又はインター予測部35から入力される予測画像データとを加算することにより、復号画像データ(エンハンスメントレイヤのリコンストラクト画像)を生成する。そして、加算部23は、生成した復号画像データをループフィルタ24及びフレームメモリ25へ出力する。
 ループフィルタ24は、画質の向上を目的とするフィルタ群を含む。デブロックフィルタ(DF)は、画像の符号化時に生じるブロック歪みを軽減するフィルタである。サンプル適応オフセット(SAO)フィルタは、各画素値に適応的に決定されるオフセット値を加えるフィルタである。適応ループフィルタ(ALF)は、SAO後の画像と原画像との誤差を最小化するフィルタである。ループフィルタ24は、加算部23から入力される復号画像データをフィルタリングし、フィルタリング後の復号画像データをフレームメモリ25へ出力する。
 フレームメモリ25は、加算部23から入力されるエンハンスメントレイヤの復号画像データ、ループフィルタ24から入力されるエンハンスメントレイヤのフィルタリング後の復号画像データ、及び精細化部40から入力されるベースレイヤの参照画像データを記憶媒体を用いて記憶する。
 セレクタ26は、イントラ予測のために使用されるフィルタリング前の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてイントラ予測部30に供給する。また、セレクタ26は、インター予測のために使用されるフィルタリング後の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてインター予測部35に供給する。さらに、イントラ予測部30又はインター予測部35においてインターレイヤ予測が実行される場合、セレクタ26は、ベースレイヤの参照画像データをイントラ予測部30又はインター予測部35へ供給する。
 セレクタ27は、イントラ予測モードにおいて、イントラ予測部30から出力されるイントラ予測の結果としての予測画像データを減算部13へ出力すると共に、イントラ予測に関する情報を可逆符号化部16へ出力する。また、セレクタ27は、インター予測モードにおいて、インター予測部35から出力されるインター予測の結果としての予測画像データを減算部13へ出力すると共に、インター予測に関する情報を可逆符号化部16へ出力する。セレクタ27は、イントラ予測モードとインター予測モードとを、コスト関数値の大きさに応じて切り替える。
 イントラ予測部30は、エンハンスメントレイヤの原画像データ及び復号画像データに基づいて、イントラ予測処理を行う。例えば、イントラ予測部30は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、イントラ予測部30は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、イントラ予測部30は、当該最適な予測モードに従ってエンハンスメントレイヤの予測画像データを生成する。イントラ予測部30は、エンハンスメントレイヤにおける予測モードセットに、インターレイヤ予測を含めてもよい。イントラ予測部30は、選択した最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。
 インター予測部35は、エンハンスメントレイヤの原画像データ及び復号画像データに基づいて、インター予測処理を行う。例えば、インター予測部35は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、インター予測部35は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、インター予測部35は、当該最適な予測モードに従ってエンハンスメントレイヤの予測画像データを生成する。インター予測部35は、エンハンスメントレイヤにおける予測モードセットに、インターレイヤ予測を含めてもよい。インター予測部35は、選択した最適な予測モードを表す予測モード情報と動き情報とを含むインター予測に関する情報、コスト関数値、及び予測画像データを、セレクタ27へ出力する。
 精細化部40は、共通メモリ2によりバッファリングされるベースレイヤの画像を参照画像として取得し、取得した参照画像にクロスカラーフィルタを適用して、精細化参照画像を生成する。精細化部40は、ベースレイヤとエンハンスメントレイヤとの間で空間解像度が異なる場合には、参照画像のアップサンプリングも実行する。精細化部40により生成される精細化参照画像は、フレームメモリ25に格納され、イントラ予測部30又はインター予測部35により、インターレイヤ予測において参照され得る。また、精細化部40は、参照画像に相当する各ピクチャについて、領域分割情報及びフィルタ係数情報を生成し、生成した領域分割情報及びフィルタ係数情報を可逆符号化部16へ出力する。領域分割情報は、各ピクチャがどのように1つ以上の画像領域へ分割されるかを特定する。フィルタ係数情報は、各画像領域に固有のクロスカラーフィルタのフィルタ係数セットを特定する。
  [2-2.精細化部の構成]
 図8は、第1の実施形態に係る精細化部40の詳細な構成の一例を示すブロック図である。図8を参照すると、精細化部40は、参照画像取得部41、領域設定部43、係数計算部47及びフィルタリング部49を有する。
   (1)参照画像取得部
 参照画像取得部41は、共通メモリ2によりバッファリングされるベースレイヤの復号画像を、エンハンスメントレイヤの画像の符号化のための参照画像として取得する。エンハンスメントレイヤの画像は、複数のスライス又は複数のタイルに分割され得る画像である。例えば、単独のSNRスケーラビリティ方式でエンハンスメントレイヤが符号化される場合、即ちベースレイヤとエンハンスメントレイヤとの間で空間解像度が等しい場合には、参照画像取得部41は、取得した参照画像をそのまま領域設定部43へ出力する。一方、参照画像取得部41は、空間スケーラビリティ方式でエンハンスメントレイヤが符号化される場合、即ちベースレイヤがエンハンスメントレイヤよりも低い空間解像度を有する場合には、ベースレイヤの復号画像を解像度比に従ってアップサンプリングする。そして、参照画像取得部41は、アップサンプリング後のベースレイヤの復号画像を、参照画像として領域設定部43へ出力する。
   (2)領域設定部
 領域設定部43は、参照画像取得部41から入力される参照画像をどのように1つ以上の画像領域へ分割すべきかを認識する。領域設定部43は、例えば、画像符号化装置10を用いるユーザによる事前の設定に基づいて、又は予め実行される画像解析に基づいて、各ピクチャ(参照画像取得部41から入力される各参照画像)に適した領域分割を認識し得る。そして、領域設定部43は、認識した領域分割を特定する領域分割情報を生成する。第1の例において、画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCUを含む。第2の例において、画像領域の各々は、ピクチャを格子状に分割することにより形成される矩形領域に相当する。第1及び第2の例の双方において、領域分割情報は、領域数情報とLCU数情報とを含み得る。
 図9は、領域数情報及びLCU数情報の第1の例について説明するための説明図である。図9に示したピクチャPIC1は、3つの画像領域RG11、RG12及びRG13に分割されている。即ち、領域数は3に等しい。画像領域RG11は、ピクチャPIC1の先頭からラスタスキャン順に連続する16個のLCUを含む。画像領域RG12は、画像領域RG11に後続する22個のLCUを含む。画像領域RG13は、画像領域RG12に後続する10個のLCUを含む。即ち、画像領域RG11のLCU数は16に、画像領域RG12のLCU数は22に、画像領域RG13のLCU数は10にそれぞれ等しい。
 第1の例において、領域設定部43により生成される領域分割情報は、参照画像に設定すべき画像領域の数を示す領域数情報を含む。領域数は最小で1つであることから、領域数情報は、典型的には、上述した領域数から1を減算した値(図9のケースでは、“2”)を示し得る。さらに、領域分割情報は、各画像領域に含まれるLCUの数を示すLCU数情報を含み得る。ピクチャに含まれるLCUの総数は他のパラメータから識別可能であるため、LCU数情報は、一連の画像領域の末尾の領域に含まれるLCUの数(図9のケースでは、画像領域RG13のLCU数)を含まなくてもよい。各画像領域内のLCU数は最小で1つであることから、LCU数情報は、典型的には、各画像領域内のLCU数から1を減算した値を示し得る。結果的に、図9のケースでは、LCU数情報は、(15,21)という値のセットを示し得る。
 第1の例のような領域分割によれば、各画像領域の形状は、ピクチャを4個に等分することにより形成される領域と比較して、任意のスライスの形状にフィットする。領域設定部43は、領域数情報及びLCU数情報を含み得る領域分割情報を参照して、参照画像取得部41から入力される参照画像にこのような画像領域を設定する。そして、領域設定部43は、領域分割情報を可逆符号化部16へ出力する。
 図10は、領域数情報及びLCU数情報の第2の例について説明するための説明図である。図10に示したピクチャPIC2は、6つの画像領域RG21、RG22、RG23、RG24、RG25及びRG26に分割されている。画像領域RG21は、ピクチャPIC2の左上の矩形領域であり、2×2=4個のLCUを含む。画像領域RG22は、ピクチャPIC2の中央上の矩形領域であり、4×2=8個のLCUを含む。画像領域RG23は、ピクチャPIC2の右上の矩形領域であり、2×2=4個のLCUを含む。画像領域RG24は、ピクチャPIC2の左下の矩形領域であり、2×4=8個のLCUを含む。画像領域RG25は、ピクチャPIC2の中央下の矩形領域であり、4×4=16個のLCUを含む。画像領域RG26は、ピクチャPIC2の右下の矩形領域であり、2×4=8個のLCUを含む。即ち、ピクチャPIC2は、水平方向に3個、垂直方向に2個で計(3×2=)6個の格子状に設定される画像領域を矩形の画像領域を含む。
 第2の例において、領域設定部43により生成される領域分割情報は、水平方向の画像領域の数を示す第1の領域数情報及び垂直方向の画像領域の数を示す第2の領域数情報を含む。図10のケースでは、第1の領域数情報は水平方向の画像領域の数(=3)から1を減算した値“2”を示し、第2の領域数情報は垂直方向の画像領域の数(=2)から1を減算した値“1”を示し得る。さらに、領域分割情報は、画像領域の各列の幅を示す第1のLCU数情報、及び画像領域の各行の高さを示す第2のLCU数情報を含む。但し、ピクチャに含まれる水平方向のLCUの数は他のパラメータから識別可能であるため、第1のLCU数情報は、右端の列の幅を示さなくてよい。同様に、ピクチャに含まれる垂直方向のLCUの数は他のパラメータから識別可能であるため、第2のLCU数情報は、下端の行の高さを示さなくてよい。結果的に、図10のケースでは、第1のLCU数情報は(1,3)という値のセットを、第2のLCU情報は、“1”という値を示し得る。
 第2の例のような領域分割によれば、各画像領域の形状は、ピクチャを4個に等分することにより形成される領域と比較して、任意のタイルの形状にフィットする。領域設定部43は、第1及び第2の領域数情報並びに第1及び第2のLCU数情報を含み得る領域分割情報を参照して、参照画像取得部41から入力される参照画像にこのような画像領域を設定する。そして、領域設定部43は、領域分割情報を可逆符号化部16へ出力する。
   (3)係数計算部
 係数計算部47は、領域設定部43により設定された各画像領域に最適なクロスカラーフィルタのフィルタ係数セットを計算する。係数計算部47は、例えば、画像領域ごとに、原画像と精細化画像との間の平均二乗誤差が最小化されるように、Wienerフィルタを用いて領域固有のフィルタ係数セットを計算し得る。そして、係数計算部47は、計算したフィルタ係数を示すフィルタ係数情報を生成し、生成したフィルタ係数情報をフィルタリング部49及び可逆符号化部16へ出力する。
   (4)フィルタリング部
 フィルタリング部49は、領域設定部43により設定される画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成する。クロスカラーフィルタのフィルタタップは、各画像領域の参照画像の注目成分(Cb成分又はCr成分)と、当該注目成分の近傍の複数の輝度成分である。フィルタ係数は、係数計算部47から入力される。フィルタリング部49によりフィルタ演算の結果として順次計算される画素値は、各画像領域の精細化参照画像を構成する。そして、フィルタリング部49は、生成した精細化参照画像を、フレームメモリ25へ格納する。
  [2-3.処理の流れ]
   (1)概略的な流れ
 図11は、符号化時の概略的な処理の流れの一例を示すフローチャートである。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しない処理ステップは、図から省略されている。
 図11を参照すると、まず、BL符号化部1aは、ベースレイヤの符号化処理を実行し、ベースレイヤの符号化ストリームを生成する(ステップS11)。
 共通メモリ2は、ベースレイヤの符号化処理において生成されるベースレイヤの画像及びいくつかのパラメータ(例えば、解像度情報)をバッファリングする(ステップS12)。
 次に、EL符号化部1bは、エンハンスメントレイヤの符号化処理を実行し、エンハンスメントレイヤの符号化ストリームを生成する(ステップS13)。ここで実行されるエンハンスメントレイヤの符号化処理において、共通メモリ2によりバッファリングされているベースレイヤの画像は、精細化部40により精細化され、インターレイヤ予測において参照画像として使用される。
 次に、多重化部3は、BL符号化部1aにより生成されるベースレイヤの符号化ストリームと、EL符号化部1bにより生成されるエンハンスメントレイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する(ステップS14)。
   (2)精細化関連処理
 図12は、符号化時の参照画像の精細化に関連する処理の流れの一例を示すフローチャートである。
 図12を参照すると、まず、参照画像取得部41は、レイヤ間の解像度比に基づいて、アップサンプリングを実行すべきかを判定する(ステップS21)。アップサンプリングを実行すべきであると判定されると、参照画像取得部41は、共通メモリ2によりバッファリングされているベースレイヤの画像にアップサンプリングフィルタを適用して、参照画像を取得する(ステップS22)。一方、アップサンプリングを実行すべきでないと判定されると、参照画像取得部41は、共通メモリ2によりバッファリングされているベースレイヤの画像を参照画像としてそのまま取得する(ステップS23)。
 次に、領域設定部43は、例えば事前設定又は画像解析に基づいて参照画像に適した領域分割を認識し、認識した領域分割に従ってピクチャ内に1つ以上の画像領域を設定する(ステップS24)。係数計算部47は、領域設定部43により設定される画像領域に最適なクロスカラーフィルタのフィルタ係数を計算する(ステップS25)。フィルタリング部49は、係数計算部47により計算される画像領域に固有のフィルタ係数で当該画像領域の参照画像をフィルタリングする(ステップS26)。ステップS25及びS26の処理は、ピクチャ内に設定された画像領域の各々について繰り返される(ステップS27)。可逆符号化部16は、領域設定部43により参照された領域分割情報を符号化する(ステップS28)。さらに、可逆符号化部16は、フィルタリング部により使用された各画像領域に固有のフィルタ係数(領域数情報により示される数のフィルタ係数セット)を示すフィルタ係数情報を符号化する(ステップS29)
   (3)領域分割情報符号化処理-第1の例
 図13Aは、図12のステップS28に相当し得る、領域分割情報符号化処理の詳細な流れの第1の例を示すフローチャートである。
 図13Aを参照すると、まず、可逆符号化部16は、参照画像に設定すべき画像領域の数を示す領域数情報を符号化する(ステップS111)。領域数情報は、符号化効率の観点から、実際に設定されるべき画像領域の数から1だけ減算した値を示してよい。次のステップS115は、画像領域の数が1つである場合にはスキップされ得る(ステップS113)。画像領域の数が2つ以上である場合、可逆符号化部16は、各画像領域に含まれるLCUの数を示すLCU数情報を符号化する(ステップS115)。LCU数情報は、一連の画像領域の末尾の領域に含まれるLCUの数を示さなくてもよい。
   (4)領域分割情報符号化処理-第2の例
 図13Bは、図12のステップS28に相当し得る、領域分割情報符号化処理の詳細な流れの第2の例を示すフローチャートである。
 図13Bを参照すると、まず、可逆符号化部16は、参照画像に設定すべき水平方向の画像領域の数を示す第1の領域数情報を符号化する(ステップS121)。次のステップS124は、水平方向の画像領域の数が1つである場合にはスキップされ得る(ステップS123)。水平方向の画像領域の数が2つ以上である場合、可逆符号化部16は、画像領域の各列の幅を示す第1のLCU数情報を符号化する(ステップS124)。次に、可逆符号化部16は、参照画像に設定すべき垂直方向の画像領域の数を示す第2の領域数情報を符号化する(ステップS126)。次のステップS129は、垂直方向の画像領域の数が1つである場合にはスキップされ得る(ステップS128)。垂直方向の画像領域の数が2つ以上である場合、可逆符号化部16は、画像領域の各行の高さを示す第2のLCU数情報を符号化する(ステップS129)。
 <3.EL復号部の構成例(第1の実施形態)>
  [3-1.全体的な構成]
 図14は、第1の実施形態に係るEL復号部6bの構成の一例を示すブロック図である。図14を参照すると、EL復号部6bは、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、加算部65、ループフィルタ66、並び替えバッファ67、D/A(Digital to Analogue)変換部68、フレームメモリ69、セレクタ70及び71、イントラ予測部80、インター予測部85並びに精細化部90を備える。
 蓄積バッファ61は、逆多重化部5から入力されるエンハンスメントレイヤの符号化ストリームを記憶媒体を用いて一時的に蓄積する。
 可逆復号部62は、蓄積バッファ61から入力されるエンハンスメントレイヤの符号化ストリームから、符号化の際に使用された符号化方式に従ってエンハンスメントレイヤの量子化データを復号する。また、可逆復号部62は、符号化ストリームのヘッダ領域に挿入されている情報を復号する。可逆復号部62により復号される情報は、例えば、イントラ予測に関する情報、インター予測に関する情報、並びに領域分割情報及びフィルタ係数情報を含み得る。可逆復号部62は、量子化データを逆量子化部63へ出力する。また、可逆復号部62は、イントラ予測に関する情報をイントラ予測部80へ出力する。また、可逆復号部62は、インター予測に関する情報をインター予測部85へ出力する。また、可逆復号部62は、領域分割情報及びフィルタ係数情報を精細化部90へ出力する。
 逆量子化部63は、可逆復号部62から入力される量子化データを、符号化の際に使用されたものと同じ量子化ステップ(又は同じ量子化行列)で逆量子化し、エンハンスメントレイヤの変換係数データを復元する。そして、逆量子化部63は、復元した変換係数データを逆直交変換部64へ出力する。
 逆直交変換部64は、符号化の際に使用された直交変換方式に従い、逆量子化部63から入力される変換係数データについて逆直交変換を行うことにより、予測誤差データを生成する。そして、逆直交変換部64は、生成した予測誤差データを加算部65へ出力する。
 加算部65は、逆直交変換部64から入力される予測誤差データと、セレクタ71から入力される予測画像データとを加算することにより、復号画像データを生成する。そして、加算部65は、生成した復号画像データをループフィルタ66及びフレームメモリ69へ出力する。
 ループフィルタ66は、EL符号化部1bのループフィルタ24と同様、ブロック歪みを軽減するデブロックフィルタ、各画素値にオフセット値を加えるサンプル適応オフセットフィルタ、及び原画像との誤差を最小化する適応ループフィルタを含み得る。ループフィルタ66は、加算部65から入力される復号画像データをフィルタリングし、フィルタリング後の復号画像データを並び替えバッファ67及びフレームメモリ69へ出力する。
 並び替えバッファ67は、ループフィルタ66から入力される画像を並び替えることにより、時系列の一連の画像データを生成する。そして、並び替えバッファ67は、生成した画像データをD/A変換部68へ出力する。
 D/A変換部68は、並び替えバッファ67から入力されるデジタル形式の画像データをアナログ形式の画像信号に変換する。そして、D/A変換部68は、例えば、画像復号装置60と接続されるディスプレイ(図示せず)にアナログ画像信号を出力することにより、エンハンスメントレイヤの画像を表示させる。
 フレームメモリ69は、加算部65から入力されるフィルタリング前の復号画像データ、ループフィルタ66から入力されるフィルタリング後の復号画像データ、及び精細化部90から入力されるベースレイヤの参照画像データを記憶媒体を用いて記憶する。
 セレクタ70は、可逆復号部62により取得されるモード情報に応じて、画像内のブロックごとに、フレームメモリ69からの画像データの出力先をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ70は、イントラ予測モードが指定された場合には、フレームメモリ69から供給されるフィルタリング前の復号画像データを参照画像データとしてイントラ予測部80へ出力する。また、セレクタ70は、インター予測モードが指定された場合には、フィルタリング後の復号画像データを参照画像データとしてインター予測部85へ出力する。さらに、イントラ予測部80又はインター予測部85においてインターレイヤ予測が実行される場合、セレクタ70は、ベースレイヤの参照画像データ(精細化参照画像)をイントラ予測部80又はインター予測部85へ供給する。
 セレクタ71は、可逆復号部62により取得されるモード情報に応じて、加算部65へ供給すべき予測画像データの出力元をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ71は、イントラ予測モードが指定された場合には、イントラ予測部80から出力される予測画像データを加算部65へ供給する。また、セレクタ71は、インター予測モードが指定された場合には、インター予測部85から出力される予測画像データを加算部65へ供給する。
 イントラ予測部80は、可逆復号部62から入力されるイントラ予測に関する情報とフレームメモリ69からの参照画像データとに基づいてエンハンスメントレイヤのイントラ予測処理を行い、予測画像データを生成する。イントラ予測部80は、イントラ予測モードとしてインターレイヤ予測に相当するモードが指定された場合には、ベースレイヤの参照画像データを参照する。イントラ予測部80は、生成したエンハンスメントレイヤの予測画像データをセレクタ71へ出力する。
 インター予測部85は、可逆復号部62から入力されるインター予測に関する情報とフレームメモリ69からの参照画像データとに基づいてエンハンスメントレイヤのインター予測処理(動き補償処理)を行い、予測画像データを生成する。インター予測部85は、インター予測モードとしてインターレイヤ予測に相当するモードが指定された場合には、ベースレイヤの参照画像データを参照する。インター予測部85は、生成したエンハンスメントレイヤの予測画像データをセレクタ71へ出力する。
 精細化部90は、共通メモリ7によりバッファリングされるベースレイヤの画像を参照画像として取得し、取得した参照画像にクロスカラーフィルタを適用して、精細化参照画像を生成する。精細化部90は、ベースレイヤとエンハンスメントレイヤとの間で空間解像度が異なる場合には、参照画像のアップサンプリングも実行する。精細化部90により生成される精細化参照画像は、フレームメモリ69に格納され、イントラ予測部80又はインター予測部85により、インターレイヤ予測において参照され得る。精細化部90は、参照画像にクロスカラーフィルタを適用する際に、符号化ストリームから可逆復号部62により復号される領域分割情報及びフィルタ係数情報を参照する。領域分割情報は、各ピクチャがどのように1つ以上の画像領域へ分割されるかを特定する。フィルタ係数情報は、各画像領域に固有のクロスカラーフィルタのフィルタ係数セットを特定する。
  [3-2.精細化部の構成]
 図15は、第1の実施形態に係る精細化部90の詳細な構成の一例を示すブロック図である。図15を参照すると、精細化部90は、参照画像取得部91、領域設定部93、係数取得部97及びフィルタリング部99を有する。
   (1)参照画像取得部
 参照画像取得部91は、共通メモリ7によりバッファリングされるベースレイヤの復号画像を、エンハンスメントレイヤの画像の復号のための参照画像として取得する。エンハンスメントレイヤの画像は、複数のスライス又は複数のタイルに分割され得る画像である。例えば、単独のSNRスケーラビリティ方式でエンハンスメントレイヤが復号される場合、参照画像取得部91は、取得した参照画像をそのまま領域設定部93へ出力する。一方、参照画像取得部91は、空間スケーラビリティ方式でエンハンスメントレイヤが復号される場合、ベースレイヤの復号画像をレイヤ間の解像度比に従ってアップサンプリングする。そして、参照画像取得部91は、アップサンプリング後のベースレイヤの復号画像を、参照画像として領域設定部93へ出力する。
   (2)領域設定部
 領域設定部93は、可逆復号部62により復号される領域分割情報を取得し、取得した当該領域分割情報に基づいて参照画像に画像領域を設定する。本実施形態において、領域分割情報は、参照画像に設定すべき画像領域の数を示す領域数情報を含む。さらに、領域分割情報は、LCU数情報をも含み得る。
 より具体的には、第1の例において、画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCUを含む。この場合、可逆復号部62により領域数情報が復号される。図9を用いて説明したように、領域数情報は、ピクチャ内の画像領域の数(又はそのマイナス1)を示し得る。画像領域の数が2つ以上である場合には、可逆復号部62によりさらにLCU数情報が復号され得る。LCU数情報は、各画像領域に含まれるLCUの数(又はそのマイナス1)に相当する値のセットを示し得る。ピクチャに含まれるLCUの総数は他のパラメータから識別可能であるため、LCU数情報は、一連の画像領域の末尾の領域に含まれるLCUの数を示さなくてよい。
 第2の例において、画像領域の各々は、ピクチャを格子状に分割することにより形成される矩形領域に相当する。この場合、可逆復号部62により第1の領域数情報及び第2の領域数情報が復号される。図10を用いて説明したように、第1の領域数情報は、水平方向の画像領域の数(又はそのマイナス1)を示す。第2の領域数情報は、垂直方向の画像領域の数(又はそのマイナス1)を示す。ピクチャ内の画像領域の数は、水平方向の画像領域の数と垂直方向の画像領域の数との積に等しい。水平方向の画像領域の数が2つ以上である場合には、可逆復号部62によりさらに第1のLCU数情報が復号され得る。垂直方向の画像領域の数が2つ以上である場合には、可逆復号部62によりさらに第2のLCU数情報が復号され得る。第1のLCU数情報は、画像領域の各列の幅をLCU数(又はそのマイナス1)で示す。ピクチャに含まれる水平方向のLCUの数は他のパラメータから識別可能であるため、第1のLCU数情報は、右端の列の幅を示さなくてよい。第2のLCU数情報は、画像領域の各行の高さLCU数(又はそのマイナス1)で示す。ピクチャに含まれる垂直方向のLCUの数は他のパラメータから識別可能であるため、第2のLCU数情報は、下端の行の高さを示さなくてよい。
   (3)係数取得部
 係数取得部97は、可逆復号部62により復号されるフィルタ係数情報を取得する。フィルタ係数情報は、領域設定部93により設定される画像領域の各々に固有の最適なフィルタ係数セットを示す。そして、係数取得部97は、取得したフィルタ係数情報により示されるフィルタ係数セットを生成し、生成したフィルタ係数セットをフィルタリング部99へ出力する。
   (4)フィルタリング部
 フィルタリング部99は、領域設定部93により設定される画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成する。クロスカラーフィルタのフィルタタップは、各画像領域の参照画像の注目成分(Cb成分又はCr成分)と、当該注目成分の近傍の複数の輝度成分である。フィルタ係数は、係数取得部97から入力される。フィルタリング部99によりフィルタ演算の結果として順次計算される画素値は、各画像領域の精細化参照画像を構成する。そして、フィルタリング部99は、生成した精細化参照画像を、フレームメモリ69へ格納する。
  [3-3.処理の流れ]
   (1)概略的な流れ
 図16は、復号時の概略的な処理の流れの一例を示すフローチャートである。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しない処理ステップは、図から省略されている。
 図16を参照すると、まず、逆多重化部5は、マルチレイヤの多重化ストリームをベースレイヤの符号化ストリーム及びエンハンスメントレイヤの符号化ストリームに逆多重化する(ステップS60)。
 次に、BL復号部6aは、ベースレイヤの復号処理を実行し、ベースレイヤの符号化ストリームからベースレイヤ画像を再構築する(ステップS61)。
 共通メモリ7は、ベースレイヤの復号処理において生成されるベースレイヤの画像及びいくつかのパラメータ(例えば、解像度情報)をバッファリングする(ステップS62)。
 次に、EL復号部6bは、エンハンスメントレイヤの復号処理を実行し、エンハンスメントレイヤ画像を再構築する(ステップS63)。ここで実行されるエンハンスメントレイヤの復号処理において、共通メモリ7によりバッファリングされているベースレイヤの画像は、精細化部90により精細化され、インターレイヤ予測において参照画像として使用される。
   (2)精細化関連処理
 図17は、復号時の参照画像の精細化に関連する処理の流れの一例を示すフローチャートである。
 図17を参照すると、まず、可逆復号部62は、エンハンスメントレイヤの符号化ストリームから、領域分割情報を復号する(ステップS71)。また、可逆復号部62は、エンコーダ側で計算された各画像領域に固有のフィルタ係数を示すフィルタ係数情報を復号する(ステップS72)。
 次に、参照画像取得部91は、レイヤ間の解像度比に基づいて、アップサンプリングを実行すべきかを判定する(ステップS73)。アップサンプリングを実行すべきであると判定されると、参照画像取得部91は、共通メモリ7によりバッファリングされているベースレイヤの画像にアップサンプリングフィルタを適用して、参照画像を取得する(ステップS74)。一方、アップサンプリングを実行すべきでないと判定されると、参照画像取得部91は、共通メモリ7によりバッファリングされているベースレイヤの画像を参照画像としてそのまま取得する(ステップS75)。
 次に、領域設定部93は、可逆復号部62により復号された領域分割情報に基づいて、ピクチャ内に1つ以上の画像領域を設定する(ステップS76)。係数取得部97は、可逆復号部62により復号されたフィルタ係数情報により示される、ある画像領域に最適なクロスカラーフィルタのフィルタ係数を生成する(ステップS77)。フィルタリング部99は、係数取得部97により生成されたフィルタ係数で当該画像領域の参照画像をフィルタリングする(ステップS78)。ステップS77及びS78の処理は、ピクチャ内に設定された画像領域の各々について繰り返される(ステップS79)。
   (3)領域分割情報復号処理-第1の例
 図18Aは、図17のステップS71に相当し得る、領域分割情報復号処理の詳細な流れの第1の例を示すフローチャートである。
 図18Aを参照すると、まず、可逆復号部62は、参照画像に設定すべき画像領域の数を示す領域数情報を復号する(ステップS161)。次のステップS165は、画像領域の数が1つである場合にはスキップされ得る(ステップS163)。画像領域の数が2つ以上である場合、可逆復号部62は、各画像領域に含まれるLCUの数を示すLCU数情報を復号する(ステップS165)。
   (4)領域分割情報復号処理-第2の例
 図18Bは、図17のステップS71に相当し得る、領域分割情報復号処理の詳細な流れの第2の例を示すフローチャートである。
 図18Bを参照すると、まず、可逆復号部62は、参照画像に設定すべき水平方向の画像領域の数を示す第1の領域数情報を復号する(ステップS171)。次のステップS174は、水平方向の画像領域の数が1つである場合にはスキップされ得る(ステップS173)。水平方向の画像領域の数が2つ以上である場合、可逆復号部62は、画像領域の各列の幅を示す第1のLCU数情報を復号する(ステップS174)。次に、可逆復号部62は、参照画像に設定すべき垂直方向の画像領域の数を示す第2の領域数情報を復号する(ステップS176)。次のステップS179は、垂直方向の画像領域の数が1つである場合にはスキップされ得る(ステップS178)。垂直方向の画像領域の数が2つ以上である場合、可逆復号部62は、画像領域の各行の高さを示す第2のLCU数情報を復号する(ステップS179)。
 <4.EL符号化部の構成例(第2の実施形態)>
 第2の実施形態において、EL符号化部1bは、第1の実施形態とは異なる種類の領域分割情報を生成する。第2の実施形態に係るEL符号化部1bの全体的な構成は、図7を用いて説明した構成と同様であってよい。
  [4-1.精細化部の構成]
 図19は、第2の実施形態に係る精細化部40の詳細な構成の一例を示すブロック図である。図19を参照すると、精細化部40は、参照画像取得部41、領域設定部45、係数計算部47及びフィルタリング部49を有する。
 領域設定部45は、参照画像取得部41から入力される参照画像をどのように1つ以上の画像領域へ分割すべきかを認識する。領域設定部45は、例えば、画像符号化装置10を用いるユーザによる事前の設定に基づいて、又は予め実行される画像解析に基づいて、各ピクチャ(参照画像取得部41から入力される各参照画像)に適した領域分割を認識し得る。そして、領域設定部45は、認識した領域分割を特定する領域分割情報を生成する。本実施形態において、参照画像に設定すべき画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCUを含む。領域分割情報は、画像領域の境界を示す境界情報を含む。第1の例において、境界情報は、各画像領域に含まれる先頭のLCUをマーク付けする、当該LCUのヘッダ内のマーカフラグ(以下、境界フラグという)を含む。第2の例において、各画像領域に含まれるLCUの数は固定的であり、境界情報は各画像領域に含まれるLCUの数を示すLCU数情報を含む。
 図20は、境界情報の第1の例について説明するための説明図である。図20に示したピクチャPIC3は、3つの画像領域RG31、RG32及びRG33に分割されている。画像領域RG31は、ピクチャPIC3の先頭からラスタスキャン順に連続する16個のLCUを含む。画像領域RG32は、画像領域RG31に後続する22個のLCUを含む。画像領域RG33は、画像領域RG32に後続する10個のLCUを含む。
 第1の例において、領域設定部45は、各LCUのヘッダに含まれるべき境界フラグを生成する。境界フラグは、当該境界フラグに対応するLCUが画像領域の先頭に位置する場合には真値(True)に、そうでない場合には偽値(False)に設定される。図中では、真値を与えられた境界フラグが丸印で示されている。より具体的には、画像領域RG32の先頭のLCU U32及び画像領域RG33の先頭のLCU U33が真値を示す。画像領域RG31の先頭のLCU U31はピクチャの先頭に位置するため、必ずしも境界フラグを含まなくてもよい(真値に設定された境界フラグを含んでもよい)。
 境界情報の第1の例によれば、数ビットの追加的なフラグを採用するだけで、任意のLCU間の境界を領域境界とする画像領域を柔軟にピクチャに設定することができる。各画像領域の形状は、ピクチャを4個に等分することにより形成される領域と比較して、任意のスライスの形状にフィットする。領域設定部45は、このような境界情報を含み得る領域分割情報を参照して、参照画像取得部41から入力される参照画像に1つ以上の画像領域を設定する。そして、領域設定部45は、領域分割情報を可逆符号化部16へ出力する。
 図21は、境界情報の第2の例について説明するための説明図である。図21に示したピクチャPIC4は、4つの画像領域RG41、RG42、RG43及びRG44に分割されている。画像領域RG41は、ピクチャPIC4の先頭からラスタスキャン順に連続する12個のLCUを含む。画像領域RG42は、画像領域RG41に後続する12個のLCUを含む。画像領域RG43は、画像領域RG42に後続する12個のLCUを含む。画像領域RG44は、画像領域RG43に後続する12個のLCUを含む。即ち、ここでは、各画像領域に含まれるLCUの数は固定的である。
 第2の例において、領域設定部45は、各画像領域に含まれる固定的なLCUの数を示すLCU数情報を生成する。各画像領域は最小で1つのLCUを含むことから、LCU数情報は、典型的には、実際の固定的なLCU数から1を減算した値を示し得る。図21のケースでは、LCU数情報は、値“11”を示し得る。
 境界情報の第2の例によれば、単一の数値を追加的に符号化するだけで、任意のサイズを有する画像領域を柔軟にピクチャに設定することができる。各画像領域の形状は、スライスの形状にフィットする。領域設定部45は、ピクチャ内のLCUをラスタスキャン順に走査しつつ、LCU数情報により示される固定的な数のLCUをそれぞれ含む画像領域を順次設定し得る。そして、領域設定部45は、領域分割情報を可逆符号化部16へ出力する。
 図9、図10、図20及び図21では、各ピクチャがどのように1つ以上の画像領域へ分割されるかを特定する領域分割情報の様々なフォーマットが示されている。これらフォーマットは、互いにどのように組み合わされてもよい。例えば、図9を用いて説明したピクチャ内で可変的なLCU数情報と、図21を用いて説明した固定的なLCU数情報とが、追加的に符号化され及び復号され得るフラグ(以下、フォーマット切替えフラグという)の値に依存して選択的に利用されてもよい。フォーマット切替えフラグは、例えば、各画像領域に含まれるLCUの数が固定的か可変的かを示す。領域設定部45は、LCUの数が固定的であることをフォーマット切替えフラグが示す場合には、LCU数情報により示される固定的な数のLCUをそれぞれ含む1つ以上の画像領域を参照画像に設定する。一方、領域設定部45は、LCUの数が可変的であることをフォーマット切替えフラグが示す場合には、LCU数情報によりそれぞれ示される数のLCUを含む1つ以上の画像領域を参照画像に設定する。このようなフォーマットの組合せによれば、領域分割の柔軟性と領域分割情報の効率的な符号化との適度なバランスを実現することができる。
 下の表1は、フォーマットの適応的な切替えが採用される場合の領域分割情報のシンタックスの一例を示している。ここでは、限定ではないものの、図9を用いて説明したピクチャ内で可変的なLCU数情報と、図21を用いて説明した固定的なLCU数情報とが選択的に利用されるものとする。
Figure JPOXMLDOC01-appb-T000001
 表1のシンタックスは、例えば、ピクチャ先頭のスライスヘッダの拡張に含まれる。パラメータnum_region_minus1は領域数情報であり、ピクチャ内に設定される画像領域の数(マイナス1)を示す。パラメータunified_region_flagはフォーマット切替えフラグに相当し、ここでは各画像領域に含まれるLCUの数が固定的か可変的かを示す。各画像領域に含まれるLCUの数が固定的である場合(unified_region_flag=True)には、シンタックスは、固定的な(均一な)LCUの数を示すパラメータnum_ctb_in_unified_regionを含む。各画像領域に含まれるLCUの数が可変的である場合(unified_region_flag=False)には、シンタックスは、i番目(iは、ゼロ以上かつ画像領域数マイナス1未満の整数)の画像領域に含まれるLCUの数を示すパラメータnum_ctb_in_region[i]を含む。表1には、さらに、i番目(iは、ゼロ以上かつ画像領域数マイナス1以下の整数)の画像領域についてのフィルタ係数情報を定義するシンタックスの関数filter_coef()も示されている。
  [4-2.処理の流れ]
 第2の実施形態に係る符号化時の概略的な処理の流れ及び精細化に関連する処理の流れは、図11及び図12を用いて説明した流れと同様であってよい。
   (1)領域分割情報符号化処理-第3の例
 図22Aは、領域分割情報符号化処理の詳細な流れの第3の例を示すフローチャートである。第3の例において、領域分割情報は、図20を用いて説明した境界情報を含むものとする。
 図22Aに示した処理は、ピクチャ内のLCUを順にスキャンしながら実行され得る。ここでは、処理対象の1つのLCUをカレントLCUという。まず、領域設定部45は、カレントLCUが画像領域内の先頭のLCUであるかを判定する(ステップS131)。カレントLCUが画像領域内の先頭のLCUである場合、領域設定部45は、カレントLCUの境界フラグを真値(True)に設定する(ステップS132)。カレントLCUが画像領域内の先頭のLCUではない場合、領域設定部45は、カレントLCUの境界フラグを偽値(False)に設定する(ステップS133)。次に、可逆符号化部16は、カレントLCUのヘッダへ、真値(True)又は偽値(False)に設定された境界フラグを境界情報として符号化する(ステップS134)。その後、未処理の次のLCUが存在する場合には(ステップS135)、次のLCUがカレントLCUに設定され(ステップS136)、処理はステップS131へ戻る。未処理の次のLCUが存在しない場合には、図22Aに示した領域分割情報符号化処理は終了する。
   (2)領域分割情報符号化処理-第4の例
 図22Bは、領域分割情報符号化処理の詳細な流れの第4の例を示すフローチャートである。第4の例において、領域分割情報は、図21を用いて説明した境界情報(LCU数情報)を含むものとする。
 図22Bを参照すると、可逆符号化部16は、各画像領域に含まれる固定的なLCUの数を示す、領域設定部45により生成されるLCU数情報を、境界情報として符号化する(ステップS143)。
   (3)領域分割情報符号化処理-第5の例
 図22Cは、領域分割情報符号化処理の詳細な流れの第5の例を示すフローチャートである。第5の例において、領域分割情報は、図9を用いて説明した領域数情報及びLCU数情報、又は図21を用いて説明した境界情報(LCU数情報)を選択的に含むものとする。
 図22Cを参照すると、まず、可逆符号化部16は、各画像領域に含まれるLCUの数が固定的か可変的かを示すフォーマット切替えフラグを符号化する(ステップS141)。その後の処理は、各画像領域に含まれるLCUの数が固定的か可変的かに依存して分岐する。
 各画像領域に含まれるLCUの数が固定的である場合、可逆符号化部16は、各画像領域に含まれる固定的なLCUの数を示すLCU数情報を、境界情報として符号化する(ステップS143)。
 各画像領域に含まれるLCUの数が可変的である場合、可逆符号化部16は、参照画像に設定すべき画像領域の数を示す領域数情報を符号化する(ステップS144)。次のステップS146は、画像領域の数が1つである場合にはスキップされ得る(ステップS145)。画像領域の数が2つ以上である場合、可逆符号化部16は、各画像領域に含まれるLCUの数を示すLCU数情報を符号化する(ステップS146)。
 <5.EL復号部の構成例(第2の実施形態)>
 第2の実施形態において、EL復号部6bは、第1の実施形態とは異なる種類の領域分割情報に基づいてクロスカラーフィルタのための画像領域を設定する。第2の実施形態に係るEL復号部6bの全体的な構成は、図14を用いて説明した構成と同様であってよい。
  [5-1.精細化部の構成]
 図23は、第2の実施形態に係る精細化部90の詳細な構成の一例を示すブロック図である。図23を参照すると、精細化部90は、参照画像取得部91、領域設定部95、係数取得部97及びフィルタリング部99を有する。
 領域設定部95は、可逆復号部62により復号される領域分割情報を取得し、取得した当該領域分割情報に基づいて参照画像に画像領域を設定する。本実施形態において、参照画像に設定すべき画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCUを含む。領域分割情報は、画像領域の境界を示す境界情報を含む。
 より具体的には、第1の例において、境界情報は、各画像領域に含まれる先頭のLCUのヘッダ内の境界フラグを含む。この場合、可逆復号部62により各LCUのヘッダから境界フラグが復号される。図20を用いて説明したように、境界フラグは、当該境界フラグに対応するLCUが画像領域の先頭に位置する場合には真値(True)に、そうでない場合には偽値(False)に設定される。ピクチャの先頭に位置するLCUのヘッダは、境界フラグを含まなくてもよい。領域設定部95は、例えば、LCUのヘッダから真値を示す境界フラグが復号されると、当該LCUにおいて新たな画像領域が開始されることを認識し、新たな画像領域をピクチャ内に設定する。結果として、フィルタリング部99は、係数取得部97によりフィルタ係数情報に基づいて生成される新たなフィルタ係数セット(前のLCUのために使用したセットとは異なるセット)を、新たな画像領域の参照画像を精細化するために使用することとなる。
 第2の例において、各画像領域に含まれるLCUの数は固定的であり、境界情報は各画像領域に含まれるLCUの数を示すLCU数情報を含む。この場合、可逆復号部62により、図21を用いて説明したような単一のLCU数を示すLCU数情報が復号される。領域設定部45は、ピクチャ内のLCUをラスタスキャン順に走査しつつ、LCU数情報により示される固定的な数のLCUをそれぞれ含む画像領域を順次設定する。フィルタリング部99は、新たな画像領域が設定される度にフィルタ係数のセットを更新しながら、参照画像を精細化する。
 復号側においても、表1に関連して説明したように、領域分割情報の複数のフォーマットが選択的に利用されてよい。例えば、可逆復号部62は、符号化ストリームからフォーマット切替えフラグを復号し、フォーマット切替えフラグの値に従って、復号すべき領域分割情報のフォーマットを切り替えてよい。例えば、LCUの数が固定的であることをフォーマット切替えフラグが示す場合には、図21を用いて説明した固定的なLCU数を示すLCU情報が可逆復号部62により復号され、領域設定部95は当該LCU情報に従って均一なサイズの1つ以上の画像領域を参照画像に設定する。一方、LCUの数が可変的であることをフォーマット切替えフラグが示す場合には、図9を用いて説明した領域数情報及びLCU情報が可逆復号部62により復号され、領域設定部95は当該領域数情報及び当該LCU情報に従って異なるサイズの画像領域を参照画像に設定する。
  [5-2.処理の流れ]
 第2の実施形態に係る復号時の概略的な処理の流れ及び精細化に関連する処理の流れは、図16及び図17を用いて説明した流れと同様であってよい。
   (1)領域分割情報復号処理-第3の例
 図24Aは、領域分割情報復号処理の詳細な流れの第3の例を示すフローチャートである。第3の例において、領域分割情報は、図20を用いて説明した境界情報を含むものとする。
 図24Aに示した処理は、ピクチャ内のLCUを順にスキャンしながら実行され得る。まず、可逆復号部62は、カレントLCUのヘッダから、境界フラグを復号する(ステップS181)。次に、領域設定部95は、カレントLCUの境界フラグが真値(True)を示すか否かを判定する(ステップS182)。カレントLCUの境界フラグが真値を示す場合(又はカレントLCUがピクチャの先頭に位置する場合)、領域設定部95は、カレントLCUを先頭のLCUとする新たな画像領域を認識する(ステップS183)。その後、未処理の次のLCUが存在する場合には(ステップS184)、次のLCUがカレントLCUに設定され(ステップS185)、処理はステップS181へ戻る。未処理の次のLCUが存在しない場合には、図24Aに示した領域分割情報復号処理は終了する。
   (2)領域分割情報復号処理-第4の例
 図24Bは、領域分割情報復号処理の詳細な流れの第4の例を示すフローチャートである。第4の例において、領域分割情報は、図21を用いて説明した境界情報(LCU数情報)を含むものとする。
 図24Bを参照すると、可逆復号部62は、各画像領域に含まれる固定的なLCUの数を示すLCU数情報を境界情報として復号する(ステップS193)。
   (3)領域分割情報復号処理-第5の例
 図24Cは、領域分割情報復号処理の詳細な流れの第5の例を示すフローチャートである。第5の例において、領域分割情報は、図9を用いて説明した領域数情報及びLCU数情報、又は図21を用いて説明した境界情報(LCU数情報)を選択的に含むものとする。
 図24Cを参照すると、まず、可逆復号部62は、各画像領域に含まれるLCUの数が固定的か可変的かを示すフォーマット切替えフラグを復号する(ステップS191)。その後の処理は、各画像領域に含まれるLCUの数が固定的であることをフォーマット切替えフラグが示しているか否かに依存して分岐する。
 各画像領域に含まれるLCUの数が固定的である場合、可逆復号部62は、各画像領域に含まれる固定的なLCUの数を示すLCU数情報を、境界情報として復号する(ステップS193)。
 各画像領域に含まれるLCUの数が可変的である場合、可逆復号部62は、参照画像に設定すべき画像領域の数を示す領域数情報を復号する(ステップS194)。次のステップS196は、画像領域の数が1つである場合にはスキップされ得る(ステップS195)。画像領域の数が2つ以上である場合、可逆復号部62は、各画像領域に含まれるLCUの数を示すLCU数情報を復号する(ステップS196)。
 <6.応用例>
  [6-1.様々な製品への応用]
 上述した実施形態に係る画像符号化装置10及び画像復号装置60は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
   (1)第1の応用例
 図25は、テレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
 チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
 デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
 映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
 表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。
 音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
 外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
 ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
 バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
 このように構成されたテレビジョン装置900において、デコーダ904は、画像復号装置60の機能を有する。それにより、テレビジョン装置900がレイヤ間で参照される画像を精細化する際に、柔軟な領域分割に基づいてクロスカラーフィルタを適用して参照画像の画質を改善することができる。
   (2)第2の応用例
 図26は、携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
 アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
 携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
 音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
 記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
 また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。
 また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 このように構成された携帯電話機920において、画像処理部927は、画像符号化装置10及び画像復号装置60の機能を有する。それにより、携帯電話機920がレイヤ間で参照される画像を精細化する際に、柔軟な領域分割に基づいてクロスカラーフィルタを適用して参照画像の画質を改善することができる。
   (3)第3の応用例
 図27は、記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
 記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
 チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
 外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
 エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
 HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
 ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)又はBlu-ray(登録商標)ディスクなどであってよい。
 セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
 デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
 OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
 制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
 ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
 このように構成された記録再生装置940において、エンコーダ943は、画像符号化装置10の機能を有する。また、デコーダ947は、画像復号装置60の機能を有する。それにより、記録再生装置940がレイヤ間で参照される画像を精細化する際に、柔軟な領域分割に基づいてクロスカラーフィルタを適用して参照画像の画質を改善することができる。
   (4)第4の応用例
 図28は、撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
 撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
 光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
 光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
 信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
 画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
 OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
 外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
 メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
 制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
 ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
 このように構成された撮像装置960において、画像処理部964は、画像符号化装置10及び画像復号装置60の機能を有する。それにより、撮像装置960がレイヤ間で参照される画像を精細化する際に、柔軟な領域分割に基づいてクロスカラーフィルタを適用して参照画像の画質を改善することができる。
  [6-2.スケーラブル符号化の様々な用途]
 上述したスケーラブル符号化の利点は、様々な用途において享受され得る。以下、3つの用途の例について説明する。
   (1)第1の例
 第1の例において、スケーラブル符号化は、データの選択的な伝送のために利用される。図29を参照すると、データ伝送システム1000は、ストリーム記憶装置1001及び配信サーバ1002を含む。配信サーバ1002は、ネットワーク1003を介して、いくつかの端末装置と接続される。ネットワーク1003は、有線ネットワークであっても無線ネットワークであってもよく、又はそれらの組合せであってもよい。図29には、端末装置の例として、PC(Personal Computer)1004、AV機器1005、タブレット装置1006及び携帯電話機1007が示されている。
 ストリーム記憶装置1001は、例えば、画像符号化装置10により生成される多重化ストリームを含むストリームデータ1011を記憶する。多重化ストリームは、ベースレイヤ(BL)の符号化ストリーム及びエンハンスメントレイヤ(EL)の符号化ストリームを含む。配信サーバ1002は、ストリーム記憶装置1001に記憶されているストリームデータ1011を読み出し、読み出したストリームデータ1011の少なくとも一部分を、ネットワーク1003を介して、PC1004、AV機器1005、タブレット装置1006、及び携帯電話機1007へ配信する。
 端末装置へのストリームの配信の際、配信サーバ1002は、端末装置の能力又は通信環境などの何らかの条件に基づいて、配信すべきストリームを選択する。例えば、配信サーバ1002は、端末装置が扱うことのできる画質を上回るほど高い画質を有する符号化ストリームを配信しないことにより、端末装置における遅延、オーバフロー又はプロセッサの過負荷の発生を回避してもよい。また、配信サーバ1002は、高い画質を有する符号化ストリームを配信しないことにより、ネットワーク1003の通信帯域が占有されることを回避してもよい。一方、配信サーバ1002は、これら回避すべきリスクが存在しない場合、又はユーザとの契約若しくは何らかの条件に基づいて適切だと判断される場合に、多重化ストリームの全てを端末装置へ配信してもよい。
 図29の例では、配信サーバ1002は、ストリーム記憶装置1001からストリームデータ1011を読み出す。そして、配信サーバ1002は、高い処理能力を有するPC1004へ、ストリームデータ1011をそのまま配信する。また、AV機器1005は低い処理能力を有するため、配信サーバ1002は、ストリームデータ1011から抽出されるベースレイヤの符号化ストリームのみを含むストリームデータ1012を生成し、ストリームデータ1012をAV機器1005へ配信する。また、配信サーバ1002は、高い通信レートで通信可能であるタブレット装置1006へストリームデータ1011をそのまま配信する。また、携帯電話機1007は低い通信レートでしか通信できないため、配信サーバ1002は、ベースレイヤの符号化ストリームのみを含むストリームデータ1012を携帯電話機1007へ配信する。
 このように多重化ストリームを用いることにより、伝送されるトラフィックの量を適応的に調整することができる。また、個々のレイヤがそれぞれ単独に符号化されるケースと比較して、ストリームデータ1011の符号量は削減されるため、ストリームデータ1011の全体が配信されるとしても、ネットワーク1003に掛かる負荷は抑制される。さらに、ストリーム記憶装置1001のメモリリソースも節約される。
 端末装置のハードウエア性能は、装置ごとに異なる。また、端末装置において実行されるアプリケーションのケイパビリティも様々である。さらに、ネットワーク1003の通信容量もまた様々である。データ伝送のために利用可能な容量は、他のトラフィックの存在に起因して、時々刻々と変化し得る。そこで、配信サーバ1002は、ストリームデータの配信を開始する前に、配信先の端末装置との間のシグナリングを通じて、端末装置のハードウエア性能及びアプリケーションケイパビリティなどに関する端末情報と、ネットワーク1003の通信容量などに関するネットワーク情報とを取得してもよい。そして、配信サーバ1002は、取得した情報に基づいて、配信すべきストリームを選択し得る。
 なお、復号すべきレイヤの抽出は、端末装置において行われてもよい。例えば、PC1004は、受信した多重化ストリームから抽出され復号されるベースレイヤ画像をその画面に表示してもよい。また、PC1004は、受信した多重化ストリームからベースレイヤの符号化ストリームを抽出してストリームデータ1012を生成し、生成したストリームデータ1012を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 図29に示したデータ伝送システム1000の構成は一例に過ぎない。データ伝送システム1000は、いかなる数のストリーム記憶装置1001、配信サーバ1002、ネットワーク1003、及び端末装置を含んでもよい。
   (2)第2の例
 第2の例において、スケーラブル符号化は、複数の通信チャネルを介するデータの伝送のために利用される。図30を参照すると、データ伝送システム1100は、放送局1101及び端末装置1102を含む。放送局1101は、地上波チャネル1111上で、ベースレイヤの符号化ストリーム1121を放送する。また、放送局1101は、ネットワーク1112を介して、エンハンスメントレイヤの符号化ストリーム1122を端末装置1102へ送信する。
 端末装置1102は、放送局1101により放送される地上波放送を受信するための受信機能を有し、地上波チャネル1111を介してベースレイヤの符号化ストリーム1121を受信する。また、端末装置1102は、放送局1101と通信するための通信機能を有し、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信する。
 端末装置1102は、例えば、ユーザからの指示に応じて、ベースレイヤの符号化ストリーム1121を受信し、受信した符号化ストリーム1121からベースレイヤ画像を復号してベースレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したベースレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 また、端末装置1102は、例えば、ユーザからの指示に応じて、ネットワーク1112を介してエンハンスメントレイヤの符号化ストリーム1122を受信し、ベースレイヤの符号化ストリーム1121とエンハンスメントレイヤの符号化ストリーム1122とを多重化することにより多重化ストリームを生成してもよい。また、端末装置1102は、エンハンスメントレイヤの符号化ストリーム1122からエンハンスメントレイヤ画像を復号してエンハンスメントレイヤ画像を画面に表示してもよい。また、端末装置1102は、復号したエンハンスメントレイヤ画像を記憶媒体に記憶させ、又は他の装置へ転送してもよい。
 上述したように、多重化ストリームに含まれる各レイヤの符号化ストリームは、レイヤごとに異なる通信チャネルを介して伝送され得る。それにより、個々のチャネルに掛かる負荷を分散させて、通信の遅延若しくはオーバフローの発生を抑制することができる。
 また、何らかの条件に応じて、伝送のために使用される通信チャネルが動的に選択されてもよい。例えば、データ量が比較的多いベースレイヤの符号化ストリーム1121は帯域幅の広い通信チャネルを介して伝送され、データ量が比較的少ないエンハンスメントレイヤの符号化ストリーム1122は帯域幅の狭い通信チャネルを介して伝送され得る。また、特定のレイヤの符号化ストリーム1122が伝送される通信チャネルが、通信チャネルの帯域幅に応じて切り替えられてもよい。それにより、個々のチャネルに掛かる負荷をより効果的に抑制することができる。
 なお、図30に示したデータ伝送システム1100の構成は一例に過ぎない。データ伝送システム1100は、いかなる数の通信チャネル及び端末装置を含んでもよい。また、放送以外の用途において、ここで説明したシステムの構成が利用されてもよい。
   (3)第3の例
 第3の例において、スケーラブル符号化は、映像の記憶のために利用される。図31を参照すると、データ伝送システム1200は、撮像装置1201及びストリーム記憶装置1202を含む。撮像装置1201は、被写体1211を撮像することにより生成される画像データをスケーラブル符号化し、多重化ストリーム1221を生成する。多重化ストリーム1221は、ベースレイヤの符号化ストリーム及びエンハンスメントレイヤの符号化ストリームを含む。そして、撮像装置1201は、多重化ストリーム1221をストリーム記憶装置1202へ供給する。
 ストリーム記憶装置1202は、撮像装置1201から供給される多重化ストリーム1221を、モードごとに異なる画質で記憶する。例えば、ストリーム記憶装置1202は、通常モードにおいて、多重化ストリーム1221からベースレイヤの符号化ストリーム1222を抽出し、抽出したベースレイヤの符号化ストリーム1222を記憶する。これに対し、ストリーム記憶装置1202は、高画質モードにおいて、多重化ストリーム1221をそのまま記憶する。それにより、ストリーム記憶装置1202は、高画質での映像の記録が望まれる場合にのみ、データ量の多い高画質のストリームを記録することができる。そのため、画質の劣化のユーザへの影響を抑制しながら、メモリリソースを節約することができる。
 例えば、撮像装置1201は、監視カメラであるものとする。撮像画像に監視対象(例えば侵入者)が映っていない場合には、通常モードが選択される。この場合、撮像画像は重要でない可能性が高いため、データ量の削減が優先され、映像は低画質で記録される(即ち、ベースレイヤの符号化ストリーム1222のみが記憶される)。これに対し、撮像画像に監視対象(例えば、侵入者である被写体1211)が映っている場合には、高画質モードが選択される。この場合、撮像画像は重要である可能性が高いため、画質の高さが優先され、映像は高画質で記録される(即ち、多重化ストリーム1221が記憶される)。
 図31の例では、モードは、例えば画像解析結果に基づいて、ストリーム記憶装置1202により選択される。しかしながら、かかる例に限定されず、撮像装置1201がモードを選択してもよい。後者の場合、撮像装置1201は、通常モードにおいて、ベースレイヤの符号化ストリーム1222をストリーム記憶装置1202へ供給し、高画質モードにおいて、多重化ストリーム1221をストリーム記憶装置1202へ供給してもよい。
 なお、モードを選択するための選択基準は、いかなる基準であってもよい。例えば、マイクロフォンを通じて取得される音声の大きさ又は音声の波形などに応じて、モードが切り替えられてもよい。また、周期的にモードが切り替えられてもよい。また、ユーザからの指示に応じてモードが切り替えられてもよい。さらに、選択可能なモードの数は、階層化されるレイヤの数を超えない限り、いかなる数であってもよい。
 図31に示したデータ伝送システム1200の構成は一例に過ぎない。データ伝送システム1200は、いかなる数の撮像装置1201を含んでもよい。また、監視カメラ以外の用途において、ここで説明したシステムの構成が利用されてもよい。
  [6-3.その他]
   (1)マルチビューコーデックへの応用
 マルチビューコーデックは、マルチレイヤコーデックの一種であり、いわゆる多視点映像を符号化し及び復号するための画像符号化方式である。図32は、マルチビューコーデックについて説明するための説明図である。図32を参照すると、3つの視点においてそれぞれ撮影される3つのビューのフレームのシーケンスが示されている。各ビューには、ビューID(view_id)が付与される。これら複数のビューのうちいずれか1つのビューが、ベースビュー(base view)に指定される。ベースビュー以外のビューは、ノンベースビューと呼ばれる。図32の例では、ビューIDが“0”であるビューがベースビューであり、ビューIDが“1”又は“2”である2つのビューがノンベースビューである。これらビューが階層的に符号化される場合、各ビューがレイヤに相当し得る。図中に矢印で示したように、ノンベースビューの画像は、ベースビューの画像を参照して符号化され及び復号される(他のノンベースビューの画像も参照されてよい)。
 図33は、マルチビューコーデックをサポートする画像符号化装置10vの概略的な構成を示すブロック図である。図33を参照すると、画像符号化装置10vは、第1レイヤ符号化部1c、第2レイヤ符号化部1d、共通メモリ2及び多重化部3を備える。
 第1レイヤ符号化部1cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像を受け取ることを除き、図5を用いて説明したBL符号化部1aの機能と同等である。第1レイヤ符号化部1cは、ベースビュー画像を符号化し、第1レイヤの符号化ストリームを生成する。第2レイヤ符号化部1dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像を受け取ることを除き、図5を用いて説明したEL符号化部1bの機能と同等である。第2レイヤ符号化部1dは、ノンベースビュー画像を符号化し、第2レイヤの符号化ストリームを生成する。共通メモリ2は、レイヤ間で共通的に利用される情報を記憶する。多重化部3は、第1レイヤ符号化部1cにより生成される第1レイヤの符号化ストリームと、第2レイヤ符号化部1dにより生成される第2レイヤの符号化ストリームとを多重化し、マルチレイヤの多重化ストリームを生成する。
 図34は、マルチビューコーデックをサポートする画像復号装置60vの概略的な構成を示すブロック図である。図34を参照すると、画像復号装置60vは、逆多重化部5、第1レイヤ復号部6c、第2レイヤ復号部6d及び共通メモリ7を備える。
 逆多重化部5は、マルチレイヤの多重化ストリームを第1レイヤの符号化ストリーム及び第2レイヤの符号化ストリームに逆多重化する。第1レイヤ復号部6cの機能は、入力としてベースレイヤ画像の代わりにベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図6を用いて説明したBL復号部6aの機能と同等である。第1レイヤ復号部6cは、第1レイヤの符号化ストリームからベースビュー画像を復号する。第2レイヤ復号部6dの機能は、入力としてエンハンスメントレイヤ画像の代わりにノンベースビュー画像が符号化された符号化ストリームを受け取ることを除き、図6を用いて説明したEL復号部6bの機能と同等である。第2レイヤ復号部6dは、第2レイヤの符号化ストリームからノンベースビュー画像を復号する。共通メモリ7は、レイヤ間で共通的に利用される情報を記憶する。
 マルチビューの画像データを符号化し又は復号する際、本開示に係る技術に従って、ビュー間で参照される画像の精細化が制御されてもよい。それにより、スケーラブル符号化のケースと同様に、マルチビューコーデックにおいても、柔軟な領域分割に基づいてクロスカラーフィルタを適用して参照画像の画質を改善することができる。
   (2)ストリーミング技術への応用
 本開示に係る技術は、ストリーミングプロトコルに適用されてもよい。例えば、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)では、解像度などのパラメータが互いに異なる複数の符号化ストリームがストリーミングサーバにおいて予め用意される。そして、ストリーミングサーバは、複数の符号化ストリームからストリーミングすべき適切なデータをセグメント単位で動的に選択し、選択したデータを配信する。このようなストリーミングプロトコルにおいて、本開示に係る技術に従って、符号化ストリーム間で参照される参照画像の精細化が制御されてもよい。
 <7.まとめ>
 ここまで、図1~図34を用いて、本開示に係る技術の様々な実施形態について詳細に説明した。上述した実施形態によれば、第1レイヤの復号画像に基づく参照画像であって、第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための当該参照画像にクロスカラーフィルタを適用して精細化参照画像を生成する際に、4等分又は16等分といった領域分割のパターンに制約されることなく参照画像に1つ以上の画像領域が設定され、設定された画像領域の各々に固有のフィルタ係数でクロスカラーフィルタが適用される。従って、既存の手法と比較して、クロスカラーフィルタによる精細化の効果を高め、インターレイヤ予測の参照画像の画質を向上させて高い予測精度を実現することができる。
 第1の実施形態によれば、画像領域は、参照画像に設定すべき画像領域の数を示す領域数情報に基づいて設定され得る。この場合、画像領域の数を適応的に設定して、画像領域ごとにクロスカラーフィルタのフィルタ係数を使い分けることが可能となる。一例として、画像領域の各々はラスタスキャン順に連続する1つ以上のLCUを含み、画像領域は当該画像領域に含まれるLCUの数を示すLCU数情報にさらに基づいて設定され得る。かかる例によれば、任意の形状のスライスについて最適なフィルタ係数を用いることが可能となる。他の例として、画像領域はピクチャを格子状に分割することにより形成され、領域数情報は水平方向の画像領域の数及び垂直方向の画像領域の数を示す。かかる例によれば、タイル間で並列処理が行われる場合に、並列処理を阻害することなく個々のタイルについて最適なフィルタ係数を用いることが可能となる。
 第2の実施形態によれば、画像領域は、参照画像に設定すべき画像領域の境界を示す境界情報に基づいて設定され得る。この場合、例えばスライス境界又はタイル境界に画像領域の境界を合わせ、スライス固有のフィルタ係数又はタイル固有のフィルタ係数を用いることが容易となる。一例として、画像領域の各々はラスタスキャン順に連続する1つ以上のLCUを含み、境界情報は各画像領域に含まれる先頭のLCUのヘッダ内の境界フラグを含む。かかる例によれば、数ビットの追加的なフラグを採用するだけで、任意のLCU間の境界を領域境界とする画像領域を柔軟にピクチャに設定することが可能となる。他の例として、画像領域の各々はラスタスキャン順に連続する1つ以上のLCUを含み、境界情報は各画像領域に含まれる固定的なLCUの数を示す。かかる例によれば、単一の数値を追加的に符号化するだけで、(均一ではあるものの)任意のサイズを有する画像領域をピクチャに設定することが可能となる。
 なお、本明細書では、主に、様々なフォーマットの領域分割情報に従ってピクチャが1つ以上の画像領域に分割されるものと説明したが、本開示に係る技術は、スライス又はタイルを1つ以上の画像領域に分割する用途にも同じように適用可能である。領域分割情報(及びフィルタ係数情報)は、例えば、PPS(Picture Parameter Set)若しくはその拡張、スライスヘッダ若しくはその拡張、又はLCUのヘッダなどにおいて、符号化側から復号側へ伝送されてよい。
 また、HEVCにおいて、CU、PU及びTUとの用語は、個々のブロックに関連付けられるシンタックスをも含む論理的な単位を意味する。画像の一部分としての個々のブロックのみに着目する場合、これらは、CB(Coding Block)、PB(Prediction Block)及びTB(Transform Block)との用語にそれぞれ置き換えられてもよい。CBは、CTB(Coding Tree Block)を四分木(Quad-Tree)状に階層的に分割することにより形成される。1つの四分木の全体がCTBに相当し、CTBに対応する論理的な単位はCTU(Coding Tree Unit)と呼ばれる。HEVCにおけるCTB及びCBは、符号化処理の処理単位である点でH.264/AVCにおけるマクロブロックに類似する役割を有する。但し、CTB及びCBは、そのサイズが固定的でない点でマクロブロックと異なる(マクロブロックのサイズは常に16×16画素である)。CTBのサイズは16×16画素、32×32画素及び64×64画素から選択され、符号化ストリーム内でパラメータにより指定される。CBのサイズは、CTBの分割の深さによって変化し得る。
 また、本明細書では、精細化の制御に関する情報が、符号化ストリームのヘッダに多重化されて、符号化側から復号側へ伝送される例について主に説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果と共に、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得する取得部と、
 前記参照画像に設定すべき1つ以上の画像領域の数を示す領域数情報に基づいて、前記取得部により取得される前記参照画像に前記画像領域を設定する設定部と、
 前記設定部により設定される前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成するフィルタリング部と、
 を備える画像処理装置。
(2)
 前記画像処理装置は、前記領域数情報を復号する復号部、をさらに備え、
 前記設定部は、前記復号部により復号される前記領域数情報に基づいて、前記参照画像に前記画像領域を設定する、
 前記(1)に記載の画像処理装置。
(3)
 前記画像処理装置は、前記参照画像に前記画像領域を設定する際に前記設定部により参照された前記領域数情報を符号化する符号化部、をさらに備える、前記(1)に記載の画像処理装置。
(4)
 前記画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCU(Largest Coding Unit)を含み、
 前記復号部は、各画像領域に含まれるLCUの数を示すLCU数情報をさらに復号し、
 前記設定部は、前記復号部により復号される前記LCU数情報にさらに基づいて、前記参照画像に前記画像領域を設定する、
 前記(2)に記載の画像処理装置。
(5)
 前記LCU数情報は、一連の画像領域の末尾の領域に含まれるLCUの数を示さない、前記(4)に記載の画像処理装置。
(6)
 前記設定部は、水平方向の前記画像領域の数を示す第1の領域数情報及び垂直方向の前記画像領域の数を示す第2の領域数情報に基づいて、前記参照画像に前記画像領域を格子状に設定する、前記(2)に記載の画像処理装置。
(7)
 前記復号部は、前記画像領域の各列の幅を示す第1のLCU数情報、及び前記画像領域の各行の高さを示す第2のLCU数情報をさらに復号し、
 前記設定部は、前記復号部により復号される前記第1のLCU数情報及び前記第2のLCU数情報にさらに基づいて、前記参照画像に前記画像領域を設定する、
 前記(6)に記載の画像処理装置。
(8)
 前記復号部は、前記設定部により設定される前記画像領域の各々に固有の前記フィルタ係数を示すフィルタ係数情報をさらに復号する、前記(2)に記載の画像処理装置。
(9)
 前記符号化部は、前記精細化参照画像を生成する際に前記フィルタリング部により使用された各画像領域に固有の前記フィルタ係数を示すフィルタ係数情報をさらに符号化する、前記(3)に記載の画像処理装置。
(10)
 第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得することと、
 前記参照画像に設定すべき1つ以上の画像領域の数を示す領域数情報に基づいて、取得される前記参照画像に前記画像領域を設定することと、
 設定された前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成することと、
 を含む画像処理方法。
(11)
 第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得する取得部と、
 前記参照画像に設定すべき1つ以上の画像領域の境界を示す境界情報に基づいて、前記取得部により取得される前記参照画像に前記画像領域を設定する設定部と、
 前記設定部により設定される前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成するフィルタリング部と、
 を備える画像処理装置。
(12)
 前記画像処理装置は、前記境界情報を復号する復号部、をさらに備え、
 前記設定部は、前記復号部により復号される前記境界情報に基づいて、前記参照画像に前記画像領域を設定する、
 前記(11)に記載の画像処理装置。
(13)
 前記画像処理装置は、前記参照画像に前記画像領域を設定する際に前記設定部により参照された前記境界情報を符号化する符号化部、をさらに備える、前記(11)に記載の画像処理装置。
(14)
 前記画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCU(Largest Coding Unit)を含み、
 前記境界情報は、各画像領域に含まれる先頭のLCUのヘッダ内の第1のフラグを含む、
 前記(12)に記載の画像処理装置。
(15)
 前記画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCU(Largest Coding Unit)を含み、
 前記境界情報は、各画像領域に含まれるLCUの数を示すLCU数情報を含む、
 前記(12)に記載の画像処理装置。
(16)
 各画像領域に含まれるLCUの数は固定的であり、
 前記設定部は、前記LCU数情報により示される固定的な数のLCUをそれぞれ含む前記画像領域を前記参照画像に設定する、
 前記(15)に記載の画像処理装置。
(17)
 前記復号部は、各画像領域に含まれるLCUの数が固定的か可変的かを示す第2のフラグをさらに復号し、
 前記設定部は、
 前記LCUの数が固定的であることを前記第2のフラグが示す場合には、前記LCU数情報により示される固定的な数のLCUをそれぞれ含む前記画像領域を前記参照画像に設定し、
 前記LCUの数が可変的であることを前記第2のフラグが示す場合には、前記LCU数情報によりそれぞれ示される数のLCUを含む前記画像領域を前記参照画像に設定する、
 前記(15)に記載の画像処理装置。
(18)
 前記復号部は、前記設定部により設定される前記画像領域の各々に固有の前記フィルタ係数を示すフィルタ係数情報をさらに復号する、前記(12)に記載の画像処理装置。
(19)
 前記符号化部は、前記精細化参照画像を生成する際に前記フィルタリング部により使用された各画像領域に固有の前記フィルタ係数を示すフィルタ係数情報をさらに符号化する、前記(13)に記載の画像処理装置。
(20)
 第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得することと、
 前記参照画像に設定すべき1つ以上の画像領域の境界を示す境界情報に基づいて、取得された前記参照画像に前記画像領域を設定する設定部と、
 設定された前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成することと、
 を含む画像処理方法。
 10,10v    画像符号化装置(画像処理装置)
 16        可逆符号化部
 41        参照画像取得部
 43,45     領域設定部
 49        フィルタリング部
 60,60v    画像復号装置(画像処理装置)
 62        可逆復号部
 91        参照画像取得部
 93,95     領域設定部
 99        フィルタリング部
 

Claims (20)

  1.  第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得する取得部と、
     前記参照画像に設定すべき1つ以上の画像領域の数を示す領域数情報に基づいて、前記取得部により取得される前記参照画像に前記画像領域を設定する設定部と、
     前記設定部により設定される前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成するフィルタリング部と、
     を備える画像処理装置。
  2.  前記画像処理装置は、前記領域数情報を復号する復号部、をさらに備え、
     前記設定部は、前記復号部により復号される前記領域数情報に基づいて、前記参照画像に前記画像領域を設定する、
     請求項1に記載の画像処理装置。
  3.  前記画像処理装置は、前記参照画像に前記画像領域を設定する際に前記設定部により参照された前記領域数情報を符号化する符号化部、をさらに備える、請求項1に記載の画像処理装置。
  4.  前記画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCU(Largest Coding Unit)を含み、
     前記復号部は、各画像領域に含まれるLCUの数を示すLCU数情報をさらに復号し、
     前記設定部は、前記復号部により復号される前記LCU数情報にさらに基づいて、前記参照画像に前記画像領域を設定する、
     請求項2に記載の画像処理装置。
  5.  前記LCU数情報は、一連の画像領域の末尾の領域に含まれるLCUの数を示さない、請求項4に記載の画像処理装置。
  6.  前記設定部は、水平方向の前記画像領域の数を示す第1の領域数情報及び垂直方向の前記画像領域の数を示す第2の領域数情報に基づいて、前記参照画像に前記画像領域を格子状に設定する、請求項2に記載の画像処理装置。
  7.  前記復号部は、前記画像領域の各列の幅を示す第1のLCU数情報、及び前記画像領域の各行の高さを示す第2のLCU数情報をさらに復号し、
     前記設定部は、前記復号部により復号される前記第1のLCU数情報及び前記第2のLCU数情報にさらに基づいて、前記参照画像に前記画像領域を設定する、
     請求項6に記載の画像処理装置。
  8.  前記復号部は、前記設定部により設定される前記画像領域の各々に固有の前記フィルタ係数を示すフィルタ係数情報をさらに復号する、請求項2に記載の画像処理装置。
  9.  前記符号化部は、前記精細化参照画像を生成する際に前記フィルタリング部により使用された各画像領域に固有の前記フィルタ係数を示すフィルタ係数情報をさらに符号化する、請求項3に記載の画像処理装置。
  10.  第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得することと、
     前記参照画像に設定すべき1つ以上の画像領域の数を示す領域数情報に基づいて、取得される前記参照画像に前記画像領域を設定することと、
     設定された前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成することと、
     を含む画像処理方法。
  11.  第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得する取得部と、
     前記参照画像に設定すべき1つ以上の画像領域の境界を示す境界情報に基づいて、前記取得部により取得される前記参照画像に前記画像領域を設定する設定部と、
     前記設定部により設定される前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成するフィルタリング部と、
     を備える画像処理装置。
  12.  前記画像処理装置は、前記境界情報を復号する復号部、をさらに備え、
     前記設定部は、前記復号部により復号される前記境界情報に基づいて、前記参照画像に前記画像領域を設定する、
     請求項11に記載の画像処理装置。
  13.  前記画像処理装置は、前記参照画像に前記画像領域を設定する際に前記設定部により参照された前記境界情報を符号化する符号化部、をさらに備える、請求項11に記載の画像処理装置。
  14.  前記画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCU(Largest Coding Unit)を含み、
     前記境界情報は、各画像領域に含まれる先頭のLCUのヘッダ内の第1のフラグを含む、
     請求項12に記載の画像処理装置。
  15.  前記画像領域の各々は、ラスタスキャン順に連続する1つ以上のLCU(Largest Coding Unit)を含み、
     前記境界情報は、各画像領域に含まれるLCUの数を示すLCU数情報を含む、
     請求項12に記載の画像処理装置。
  16.  各画像領域に含まれるLCUの数は固定的であり、
     前記設定部は、前記LCU数情報により示される固定的な数のLCUをそれぞれ含む前記画像領域を前記参照画像に設定する、
     請求項15に記載の画像処理装置。
  17.  前記復号部は、各画像領域に含まれるLCUの数が固定的か可変的かを示す第2のフラグをさらに復号し、
     前記設定部は、
     前記LCUの数が固定的であることを前記第2のフラグが示す場合には、前記LCU数情報により示される固定的な数のLCUをそれぞれ含む前記画像領域を前記参照画像に設定し、
     前記LCUの数が可変的であることを前記第2のフラグが示す場合には、前記LCU数情報によりそれぞれ示される数のLCUを含む前記画像領域を前記参照画像に設定する、
     請求項15に記載の画像処理装置。
  18.  前記復号部は、前記設定部により設定される前記画像領域の各々に固有の前記フィルタ係数を示すフィルタ係数情報をさらに復号する、請求項12に記載の画像処理装置。
  19.  前記符号化部は、前記精細化参照画像を生成する際に前記フィルタリング部により使用された各画像領域に固有の前記フィルタ係数を示すフィルタ係数情報をさらに符号化する、請求項13に記載の画像処理装置。
  20.  第1レイヤの復号画像に基づく、前記第1レイヤとは異なる属性を有する第2レイヤの画像の符号化又は復号のための参照画像を取得することと、
     前記参照画像に設定すべき1つ以上の画像領域の境界を示す境界情報に基づいて、取得された前記参照画像に前記画像領域を設定する設定部と、
     設定された前記画像領域の各々に、当該画像領域に固有のフィルタ係数でクロスカラーフィルタを適用することにより、精細化参照画像を生成することと、
     を含む画像処理方法。
     
PCT/JP2014/076733 2013-12-27 2014-10-06 画像処理装置及び画像処理方法 WO2015098231A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013273226 2013-12-27
JP2013-273226 2013-12-27

Publications (1)

Publication Number Publication Date
WO2015098231A1 true WO2015098231A1 (ja) 2015-07-02

Family

ID=53478111

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/076733 WO2015098231A1 (ja) 2013-12-27 2014-10-06 画像処理装置及び画像処理方法

Country Status (1)

Country Link
WO (1) WO2015098231A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264600A (ja) * 1994-03-16 1995-10-13 Fujitsu Ltd 画像符号化データの同期ワード多重化方式
WO2011004577A1 (ja) * 2009-07-06 2011-01-13 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、プログラムおよび集積回路
WO2013014884A1 (ja) * 2011-07-22 2013-01-31 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、および動画像復号化装置
JP2013141094A (ja) * 2011-12-28 2013-07-18 Sharp Corp 画像復号装置、画像符号化装置、画像フィルタ装置、および符号化データのデータ構造
JP2013541918A (ja) * 2011-01-09 2013-11-14 メディアテック インコーポレイテッド 効率的なサンプル適応オフセットの装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264600A (ja) * 1994-03-16 1995-10-13 Fujitsu Ltd 画像符号化データの同期ワード多重化方式
WO2011004577A1 (ja) * 2009-07-06 2011-01-13 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、プログラムおよび集積回路
JP2013541918A (ja) * 2011-01-09 2013-11-14 メディアテック インコーポレイテッド 効率的なサンプル適応オフセットの装置及び方法
WO2013014884A1 (ja) * 2011-07-22 2013-01-31 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、および動画像復号化装置
JP2013141094A (ja) * 2011-12-28 2013-07-18 Sharp Corp 画像復号装置、画像符号化装置、画像フィルタ装置、および符号化データのデータ構造

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIANG LI ET AL.: "Non-SCE3: Region based Inter-layer Cross-Color Filtering", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC-N02298_R2, ITU-T, 27 July 2013 (2013-07-27), pages 1 - 14 *

Similar Documents

Publication Publication Date Title
US10448017B2 (en) Image processing device and image processing method for image decoding based on non-square quantization matrix
JP6455434B2 (ja) 画像処理装置及び画像処理方法
JP6094688B2 (ja) 画像処理装置及び画像処理方法
JP6345650B2 (ja) 画像処理装置及び画像処理方法
KR102307099B1 (ko) 화상 처리 장치 및 화상 처리 방법
WO2015053001A1 (ja) 画像処理装置及び画像処理方法
JP6330507B2 (ja) 画像処理装置及び画像処理方法
WO2013164922A1 (ja) 画像処理装置及び画像処理方法
WO2015005025A1 (ja) 画像処理装置及び画像処理方法
WO2015146278A1 (ja) 画像処理装置及び画像処理方法
JP5900612B2 (ja) 画像処理装置及び画像処理方法
WO2014148070A1 (ja) 画像処理装置及び画像処理方法
WO2015005024A1 (ja) 画像処理装置及び画像処理方法
WO2015052979A1 (ja) 画像処理装置及び画像処理方法
WO2015098231A1 (ja) 画像処理装置及び画像処理方法
WO2014097703A1 (ja) 画像処理装置及び画像処理方法
WO2014050311A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14873611

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14873611

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP