WO2014002901A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
WO2014002901A1
WO2014002901A1 PCT/JP2013/067114 JP2013067114W WO2014002901A1 WO 2014002901 A1 WO2014002901 A1 WO 2014002901A1 JP 2013067114 W JP2013067114 W JP 2013067114W WO 2014002901 A1 WO2014002901 A1 WO 2014002901A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
dynamic range
characteristic information
range characteristic
Prior art date
Application number
PCT/JP2013/067114
Other languages
English (en)
French (fr)
Inventor
しのぶ 服部
俊也 浜田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to EP13809522.9A priority Critical patent/EP2869558B1/en
Priority to CN201380033132.8A priority patent/CN104380738B/zh
Priority to EP19158894.6A priority patent/EP3512203B1/en
Priority to AU2013281949A priority patent/AU2013281949B2/en
Priority to CA2875199A priority patent/CA2875199C/en
Priority to JP2014522599A priority patent/JP6219823B2/ja
Priority to MX2014015818A priority patent/MX344551B/es
Priority to BR112014032224-4A priority patent/BR112014032224B1/pt
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to RU2014152106A priority patent/RU2653464C2/ru
Priority to KR1020147035887A priority patent/KR102161017B1/ko
Publication of WO2014002901A1 publication Critical patent/WO2014002901A1/ja
Priority to US14/497,249 priority patent/US20150010059A1/en
Priority to ZA2014/09126A priority patent/ZA201409126B/en
Priority to US14/601,358 priority patent/US20150131904A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Definitions

  • the present disclosure relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method capable of accurately reproducing the dynamic range of an image.
  • H.264 / AVC High Efficiency Video Coding
  • JCTVC Joint Collaboration Team-Video Coding
  • tone mapping information is transmitted in SEI (Supplemental Enhancement Information) shown in FIG.
  • the content of the tone mapping information is the same as that specified in AVC as shown in FIG. 2 (see Non-Patent Document 2).
  • Non-Patent Document 1 the dynamic range for the decoded image is defined. Was not.
  • the present disclosure has been made in view of such a situation, and makes it possible to accurately reproduce the dynamic range of an image.
  • An image processing apparatus includes an encoding unit that encodes an image to generate a bitstream, and dynamic range characteristic information indicating characteristics of a dynamic range assigned to the developed image with respect to the captured image And a transmission unit for transmitting the bitstream generated by the encoding unit and the dynamic range characteristic information set by the setting unit.
  • the setting unit can set, as the dynamic range characteristic information, code information indicating a dynamic range code assigned to the developed image with respect to the captured image.
  • the setting unit can set, as the dynamic range characteristic information, code information indicating a code assigned to the developed image with respect to the white level of the captured image.
  • the setting unit can set white level code information indicating a code assigned to the developed image with respect to the white level of the captured image as the dynamic range characteristic information.
  • the setting unit can set the maximum white level code information indicating the maximum value of the code assigned to the white level of the developed image as the dynamic range characteristic information.
  • the setting unit can set black level code information indicating the black level code of the developed image as the dynamic range characteristic information.
  • the setting unit can set gray level code information indicating the gray level code of the developed image as the dynamic range characteristic information.
  • the setting unit can set maximum white level information indicating the maximum value of the white level of the captured image as the dynamic range characteristic information.
  • the setting unit can set information indicating a luminance range of a region of interest of an image obtained by decoding the bitstream as the dynamic range characteristic information.
  • the setting unit can set information indicating the position and offset of a region of interest of an image obtained by decoding the bitstream as the dynamic range characteristic information.
  • the transmission unit can transmit the dynamic range characteristic information as auxiliary information used when displaying an image obtained by decoding the bit stream.
  • the transmission unit can transmit the dynamic range characteristic information as extended auxiliary information obtained by extending existing auxiliary information.
  • the transmission unit can transmit the dynamic range characteristic information as tone_mapping_information SEI (Supplemental enhancement information).
  • the transmission unit can transmit the dynamic range characteristic information as SEI by extending the model_id used when transmitting the dynamic range characteristic information for tone_mapping_information SEI.
  • the transmission unit can transmit the dynamic range characteristic information as VUI (Video Usability Information) indicating the usability of the image in sequence units.
  • VUI Video Usability Information
  • the encoding unit can encode the image in accordance with an encoding method conforming to the AVC / H.264 standard.
  • the image processing method generates a bitstream by encoding an image, sets dynamic range characteristic information indicating characteristics of a dynamic range assigned to the developed image for the captured image, The generated bit stream and the set dynamic range characteristic information are transmitted.
  • An image processing apparatus includes a decoding unit that decodes a bitstream to generate an image, and dynamic range characteristic information indicating characteristics of a dynamic range assigned to the developed image with respect to the captured image. And an image adjusting unit that adjusts a dynamic range for the image generated by the decoding unit.
  • the image processing apparatus further includes a receiving unit that receives the bit stream and the characteristic information, wherein the decoding unit decodes the bit stream received by the receiving unit, and the image adjustment unit is a dynamic unit that is received by the receiving unit.
  • the dynamic range for the image generated by the decoding unit can be adjusted using the range characteristic information.
  • the image processing method decodes a bitstream to generate an image, and uses dynamic range characteristic information indicating dynamic range characteristics assigned to a developed image with respect to a captured image. Adjust the dynamic range for the generated image.
  • a bit stream is generated by encoding an image, and dynamic range characteristic information indicating a dynamic range characteristic assigned to the developed image is set for the captured image. Then, the generated bit stream and the set dynamic range characteristic information are transmitted.
  • an image is generated by decoding the bitstream. And the dynamic range with respect to the produced
  • the above-described image processing apparatus may be an independent apparatus, or may be an internal block constituting one image encoding apparatus or image decoding apparatus.
  • an image can be encoded.
  • the dynamic range of the image can be accurately reproduced.
  • an image can be decoded.
  • the dynamic range of the image can be accurately reproduced.
  • FIG. 17 is a flowchart describing details of the encoding process of FIG. 16.
  • FIG. 17 is a flowchart describing details of the encoding process of FIG. 16.
  • FIG. 24 is a block diagram illustrating a configuration example of an encoding unit in FIG. 23. It is a block diagram which shows the structural example of 2nd Embodiment of the decoding apparatus to which this technique is applied. It is a block diagram which shows the structural example of the decoding part of FIG.
  • FIG. 20 is a block diagram illustrating a main configuration example of a computer. It is a block diagram which shows an example of a schematic structure of a television apparatus.
  • FIG. 3 is a block diagram illustrating a configuration example of the first embodiment of the encoding device as an image processing device to which the present technology is applied.
  • 3 includes an encoding unit 2, a setting unit 3, and a transmission unit 4, and encodes an image such as a captured image using the HEVC method.
  • an image such as a captured image in units of frames is input to the encoding unit 2 of the encoding device 1 as an input signal.
  • the encoding unit 2 encodes the input signal by the HEVC method, and supplies the encoded data obtained as a result to the setting unit 3.
  • the setting unit 3 includes SPS (Sequence Parameter Set), PPS (Picture Parameter Set), VUI (Video Usability Information) indicating characteristics (usability) of an image corresponding to encoded data for each sequence, SEI (Supplemental Enhancement Information), and the like. Set.
  • the setting unit 3 generates an encoded stream from the set SPS, PPS, VUI, and SEI and the encoded data supplied from the encoding unit 2.
  • the setting unit 3 supplies the encoded stream to the transmission unit 4.
  • the transmission unit 4 transmits the encoded stream supplied from the setting unit 3 to a decoding device to be described later.
  • FIG. 4 is a block diagram illustrating a configuration example of the encoding unit 2 of FIG.
  • a / D conversion unit 11 includes an A / D conversion unit 11, a screen rearrangement buffer 12, a calculation unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, a storage buffer 17, and an inverse quantization unit.
  • an inverse orthogonal transform unit 19 includes an addition unit 20, a deblock filter 21, a frame memory 22, a switch 23, an intra prediction unit 24, a motion prediction / compensation unit 25, a predicted image selection unit 26, and a rate control unit 27. Configured.
  • an adaptive offset filter 41 and an adaptive loop filter 42 are provided between the deblock filter 21 and the frame memory 22.
  • the A / D conversion unit 11 of the encoding unit 2 performs A / D conversion on an image in frame units input as an input signal, and outputs and stores the image in the screen rearrangement buffer 12.
  • the screen rearrangement buffer 12 rearranges the stored frame-by-frame images in the order for encoding in accordance with the GOP (Group of Picture) structure, the arithmetic unit 13, the intra prediction unit 24, and Output to the motion prediction / compensation unit 25.
  • the calculation unit 13 performs encoding by calculating the difference between the predicted image supplied from the predicted image selection unit 26 and the encoding target image output from the screen rearrangement buffer 12. Specifically, the calculation unit 13 performs encoding by subtracting the prediction image supplied from the prediction image selection unit 26 from the encoding target image output from the screen rearrangement buffer 12. The calculation unit 13 outputs the image obtained as a result to the orthogonal transform unit 14 as residual information. When the predicted image is not supplied from the predicted image selection unit 26, the calculation unit 13 outputs the image read from the screen rearrangement buffer 12 to the orthogonal transform unit 14 as residual information as it is.
  • the orthogonal transform unit 14 performs orthogonal transform on the residual information from the calculation unit 13 and supplies a coefficient obtained as a result of the orthogonal transform to the quantization unit 15.
  • the quantization unit 15 quantizes the coefficient supplied from the orthogonal transform unit 14.
  • the quantized coefficient is input to the lossless encoding unit 16.
  • the lossless encoding unit 16 acquires information indicating the optimal intra prediction mode (hereinafter referred to as intra prediction mode information) from the intra prediction unit 24.
  • information indicating the optimal inter prediction mode hereinafter referred to as inter prediction mode information
  • inter prediction mode information information indicating the optimal inter prediction mode
  • a motion vector information for specifying a reference image, and the like are acquired from the motion prediction / compensation unit 25.
  • the lossless encoding unit 16 acquires the storage flag, index or offset, and type information from the adaptive offset filter 41 as offset filter information, and acquires filter coefficients from the adaptive loop filter 42.
  • the lossless encoding unit 16 performs variable length encoding (for example, CAVLC (Context-Adaptive Variable Length Coding)), arithmetic encoding (for example, CABAC) on the quantized coefficients supplied from the quantization unit 15. (Context-Adaptive Binary Arithmetic Coding) etc.) is performed.
  • variable length encoding for example, CAVLC (Context-Adaptive Variable Length Coding)
  • CABAC arithmetic encoding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the lossless encoding unit 16 uses the intra prediction mode information or the inter prediction mode information, the motion vector, the information specifying the reference image, the offset filter information, the filter coefficient, and the like as the encoding information related to the encoding. Turn into.
  • the lossless encoding unit 16 supplies the encoding information and the coefficients that have been losslessly encoded to the accumulation buffer 17 as encoded data and accumulates them.
  • the losslessly encoded information may be the header information of the losslessly encoded coefficient.
  • the accumulation buffer 17 temporarily stores the encoded data supplied from the lossless encoding unit 16. Further, the accumulation buffer 17 supplies the stored encoded data to the setting unit 3 in FIG.
  • the quantized coefficient output from the quantization unit 15 is also input to the inverse quantization unit 18, subjected to inverse quantization, and then supplied to the inverse orthogonal transform unit 19.
  • the inverse orthogonal transform unit 19 performs inverse orthogonal transform on the coefficients supplied from the inverse quantization unit 18 and supplies residual information obtained as a result to the addition unit 20.
  • the adding unit 20 adds the residual information as the decoding target image supplied from the inverse orthogonal transform unit 19 and the predicted image supplied from the predicted image selecting unit 26 to obtain a locally decoded image. .
  • the adding unit 20 sets the residual information supplied from the inverse orthogonal transform unit 19 as a locally decoded image.
  • the adder 20 supplies the locally decoded image to the deblocking filter 21 and also supplies it to the frame memory 22 for storage.
  • the deblocking filter 21 removes block distortion by filtering the locally decoded image supplied from the adding unit 20.
  • the deblocking filter 21 supplies an image obtained as a result to the adaptive offset filter 41.
  • the adaptive offset filter 41 performs an adaptive offset filter (SAO: Sample adaptive offset) process that mainly removes ringing on the image after the adaptive deblock filter process by the deblock filter 21.
  • SAO Sample adaptive offset
  • the adaptive offset filter 41 determines the type of adaptive offset filter processing for each LCU (Largest Coding Unit) which is the maximum coding unit, and obtains an offset used in the adaptive offset filter processing.
  • the adaptive offset filter 41 performs the determined type of adaptive offset filter processing on the image after the adaptive deblocking filter processing, using the obtained offset. Then, the adaptive offset filter 41 supplies the image after the adaptive offset filter processing to the adaptive loop filter 42.
  • the adaptive offset filter 41 has a buffer for storing the offset.
  • the adaptive offset filter 41 determines whether the offset used for the adaptive deblocking filter processing is already stored in the buffer for each LCU.
  • the adaptive offset filter 41 determines that the offset used for the adaptive deblocking filter processing is already stored in the buffer, the adaptive offset filter 41 stores a storage flag indicating whether the offset is stored in the buffer, and the offset is stored in the buffer. Is set to a value (1 in this case) indicating that the
  • the adaptive offset filter 41 stores, for each LCU, a storage flag that is set to 1, an index that indicates the storage position of the offset in the buffer, and type information that indicates the type of adaptive offset filter processing that has been performed. 16 is supplied.
  • the adaptive offset filter 41 stores the offset in order in the buffer. Further, the adaptive offset filter 41 sets the storage flag to a value (here, 0) indicating that the offset is not stored in the buffer. Then, the adaptive offset filter 41 supplies the storage flag, offset, and type information set to 0 to the lossless encoding unit 16 for each LCU.
  • the adaptive loop filter 42 performs an adaptive loop filter (ALF: Adaptive Loop Filter) process on the image after the adaptive offset filter process supplied from the adaptive offset filter 41, for example, for each LCU.
  • ALF Adaptive Loop Filter
  • the adaptive loop filter process for example, a process using a two-dimensional Wiener filter is used. Of course, filters other than the Wiener filter may be used.
  • the adaptive loop filter 42 is configured so that the residual of the original image that is the image output from the screen rearrangement buffer 12 and the image after the adaptive loop filter processing is minimized for each LCU. A filter coefficient used in the processing is calculated. Then, the adaptive loop filter 42 performs an adaptive loop filter process for each LCU using the calculated filter coefficient on the image after the adaptive offset filter process.
  • the adaptive loop filter 42 supplies the image after the adaptive loop filter processing to the frame memory 22.
  • the adaptive loop filter 42 supplies the filter coefficient to the lossless encoding unit 16.
  • the adaptive loop filter processing is performed for each LCU, but the processing unit of the adaptive loop filter processing is not limited to the LCU. However, the processing can be efficiently performed by combining the processing units of the adaptive offset filter 41 and the adaptive loop filter 42.
  • the image stored in the frame memory 22 is output as a reference image to the intra prediction unit 24 or the motion prediction / compensation unit 25 via the switch 23.
  • the intra prediction unit 24 uses the reference image that has not been filtered by the deblocking filter 21 that is read from the frame memory 22 via the switch 23, and is used for all intra prediction modes in units of tiles and slices. Perform prediction processing.
  • the intra prediction unit 24 calculates cost function values for all candidate intra prediction modes based on the image read from the screen rearrangement buffer 12 and the prediction image generated as a result of the intra prediction process. (Details will be described later). Then, the intra prediction unit 24 determines the intra prediction mode that minimizes the cost function value as the optimal intra prediction mode.
  • the intra prediction unit 24 supplies the predicted image generated in the optimal intra prediction mode and the corresponding cost function value to the predicted image selection unit 26.
  • the intra prediction unit 24 supplies the intra prediction mode information to the lossless encoding unit 16 when the prediction image selection unit 26 is notified of selection of a prediction image generated in the optimal intra prediction mode.
  • the cost function value is also called RD (Rate Distortion) cost. It is calculated based on a method of either High Complexity mode or Low Complexity mode as defined by JM (Joint Model) which is reference software in the H.264 / AVC format.
  • D is the difference (distortion) between the original image and the decoded image
  • R is the amount of generated code including up to the coefficient of orthogonal transform
  • is the Lagrange multiplier given as a function of the quantization parameter QP.
  • D is the difference (distortion) between the original image and the decoded image
  • Header_Bit is the header bit for the prediction mode
  • QPtoQuant is a function given as a function of the quantization parameter QP.
  • the motion prediction / compensation unit 25 performs motion prediction / compensation processing for all candidate inter prediction modes in units of tiles and slices. Specifically, the motion prediction / compensation unit 25 is based on the image supplied from the screen rearrangement buffer 12 and the filtered reference image read from the frame memory 22 via the switch 23 in units of tiles and slices. , Detecting motion vectors of all candidate inter prediction modes. Then, the motion prediction / compensation unit 25 performs compensation processing on the reference image based on the motion vector in units of tiles and slices, and generates a predicted image.
  • the motion prediction / compensation unit 25 calculates a cost function value for all candidate inter prediction modes based on the image and the predicted image supplied from the screen rearrangement buffer 12, and calculates the cost function value.
  • the inter prediction mode that minimizes is determined as the optimal inter measurement mode.
  • the motion prediction / compensation unit 25 supplies the cost function value of the optimal inter prediction mode and the corresponding predicted image to the predicted image selection unit 26.
  • the motion prediction / compensation unit 25 specifies inter prediction mode information, a corresponding motion vector, and information for specifying a reference image. Are output to the lossless encoding unit 16.
  • the predicted image selection unit 26 Based on the cost function values supplied from the intra prediction unit 24 and the motion prediction / compensation unit 25, the predicted image selection unit 26 has a smaller corresponding cost function value of the optimal intra prediction mode and the optimal inter prediction mode. Are determined as the optimum prediction mode. Then, the predicted image selection unit 26 supplies the predicted image in the optimal prediction mode to the calculation unit 13 and the addition unit 20. Further, the predicted image selection unit 26 notifies the intra prediction unit 24 or the motion prediction / compensation unit 25 of selection of the predicted image in the optimal prediction mode.
  • the rate control unit 27 controls the quantization operation rate of the quantization unit 15 based on the encoded data stored in the storage buffer 17 so that overflow or underflow does not occur.
  • the horizontal axis represents the white level of the captured image.
  • the vertical axis represents a digital code assigned to a developed image.
  • the developed image is an image having a bit gradation or the like.
  • 800 800% on the horizontal axis is the value of camera sensitivity and optimum exposure (during shooting and development), and the maximum brightness during shooting. This value is set and transmitted as camera_iso_sensitivity and max_image_white_level, which are one of dynamic range characteristic information.
  • the camera sensitivity and optimum exposure values are the same as the maximum brightness at the time of shooting, but they may be different.
  • the vertical axis value (940) corresponding to the maximum white level is a digital value to which the maximum white level is assigned to the developed image, and this value is set as max_white_level_code_value, which is one of dynamic range characteristic information. Transmitted to the decoding side.
  • white_level_code_value is one of dynamic range characteristic information, and is decoded. Is transmitted to the side.
  • the 20% on the horizontal axis is a level (gray level) that is generally used as a standard exposure indicating Gray, and is often set on the camera side.
  • the value of the vertical axis for this gray level is a digital value to which a gray level (20% white) is assigned to the developed image, and this value is set as gray_level_code_value, which is one of dynamic range characteristic information, and is decoded. Is transmitted to the side.
  • 0 0% on the horizontal axis is the black level.
  • the value (64) on the vertical axis for this black level is a digital value to which a black level (0% white) is assigned to the developed image, and this value is set as black_level_code_value, which is one of dynamic range characteristic information. And transmitted to the decoding side.
  • code information indicating a dynamic range code assigned to a developed image is set as dynamic range characteristic information for a captured image and transmitted to the decoding side. That is, for the captured image, dynamic range characteristic information indicating the dynamic range characteristic assigned to the developed image is set and transmitted to the decoding side.
  • Such dynamic range characteristic information is included in the information and content indicating the quality of the content (information indicating that the quality of the image information related to the white level is high, such as the dynamic range being wider than the existing content) Information indicating that the current potential is high) is clearly transmitted from the content creation side and transmitted to the display side (decoding side).
  • the content creation side has a motivation to provide with the image intended by the creator.
  • the dynamic range is expanded (increased) or narrowed (decreased) based on this information. Further, by referring to this information, the following processing can be accurately performed on the display side.
  • the range can be lowered using tone mapping or the like in accordance with its own display capability.
  • a plurality of white_level_code_values can be set and transmitted in addition to white_level_code_value between black_level_code_value and max_white_level_code_value.
  • FIG. 6 shows an example in which white_level_code_value_0 to white_level_code_value_4 are set and transmitted when the white level of the captured image is between 0% and 800%.
  • FIG. 7 is a diagram showing an example of dynamic range characteristic information.
  • the dynamic range characteristic information is configured to include camera_iso_sensitivity, output_exposure_index, screen_lw, black_level_code_value, gray_level_code_value, white_level_code_value, and max_white_level_code_value.
  • Camera_iso_sensitivity specifies the sensitivity of the camera when an image is taken, as described above with reference to FIG.
  • the output_exposure_index specifies an exposure index that is set to be used in the image development process (that is, an exposure index at the time of development).
  • ref_screen_lw specifies the reference display brightness of the white level set to be used in the image development process.
  • black_level_code_value, gray_level_code_value, white_level_code_value, and max_white_level_code_value specify the code data of the luminance to which the black level, white level, gray level, and maximum white level are assigned.
  • the dynamic range characteristic information includes the maximum brightness during capture (captured image), the optimal exposure value during capture, the optimal exposure value during development (developed image), and the maximum white level after development.
  • Digital values that are assigned a white level after development (100% white) digital values that are assigned a gray level after development, digital values that are assigned a black level after development, and development It is desirable to include digital values between the next 100% white and the maximum white 0%.
  • the above-described dynamic range characteristic information is transmitted to the decoding side by any one of the transmission methods 1 to 4 described below.
  • FIG. 8 is a diagram illustrating an example of tone mapping SEI (tone_mapping_information SEI).
  • SEI is auxiliary information used when displaying an image obtained by decoding an encoded stream.
  • camera_iso_sensitivity and output_exposure_index that are not hatched in the frame are existing information (conventional technology) as camera setting parameters.
  • this is different from the prior art in that the information is transmitted in an encoded bit stream or the dynamic range is adjusted using the information.
  • TBD is To BE Determined Value and represents a preset value or a parameter set when content is created.
  • FIG. 9 is a diagram showing another example of tone mapping SEI.
  • Camera_iso_sensitivity_idc specifies a code indicating the sensitivity that can be acquired by the camera. The meaning of this code is shown in the table of FIG. When camera_iso_sensitivity_idc points to Extended_ISO, ISO_numner is represented by camera_iso_sensitivity on the next line. That is, by setting camera_iso_sensitivity_idc to Extended_ISO, camera_iso_sensitivity_idc can be set to any value.
  • Exposure_index_idc specifies a code indicating an exposure index at the time of shooting. The meaning of this code is shown in the table of FIG. When exposure_index_idc points to Extended_ISO, ISO_numner is represented by exposure_index_rating in the next line. That is, by setting exposure_index_idc to Extended_ISO, exposure_index_idc can be set to any value.
  • Sign_image_exposure_value specifies the sign of the exposure at the time of development relative to the exposure value at the time of shooting.
  • image_expoure_value0 specifies the numerator value of the relative value of the exposure at the time of development with respect to the value of the exposure at the time of photographing.
  • image_expoure_value1 specifies the value of the denominator of the relative value of the exposure at the time of development with respect to the value of the exposure at the time of photographing.
  • the value of exposure at the time of development (output_exposure_index in FIG. ).
  • the value of exposure at the time of development can be expressed by a decimal number.
  • Ref_screen_lw is a content that is supposed to be displayed in white of what cd / m2 (candela), and clearly indicates that it should be displayed in white.
  • Max_image_white_level specifies the dynamic range of the brightness of the image expressed as a percentage of an integer with reference to the standard white level.
  • Black_level_code_value, white_level_code_value, and max_white_level_code_value specify the code data of the luminance to which the black level, the white level, and the maximum white level are assigned, as in the example of FIG.
  • camera_iso_sensitivity, exposure_index_idc, sign_image_exposure, image_expoure_value0, and image_expoure_value1 that are not hatched in the frame are existing information ( Prior art).
  • Prior art the information is transmitted in an encoded bit stream or the dynamic range is adjusted using the information.
  • FIG. 10 is a diagram showing a table of meanings of values indicated by the sensitivity of the camera and values indicated by the exposure index.
  • the ISO number is not specified.
  • the value indicated is 1
  • the ISO number is 10.
  • the indicated value is 2 to 30, the illustration is omitted, but the ISO number is specified.
  • the ISO number is Reserved.
  • the value to be indicated is 255, it is specified that ISO number is Extended_ISO. If ISO_number is Extended_ISO, as described above with reference to FIG. 9, both camera_iso_sensitivity_idc and exposure_index_idc can indicate desired values.
  • FIG. 11 is a diagram illustrating an example of luminance dynamic range SEI (luminance_dynamic_range_information SEI).
  • a luminance dynamic range SEI luminance_dynamic_range_info
  • luminance_dynamic_range_info luminance_dynamic_range_info
  • VUI Video Usability Information
  • FIG. 12 is a diagram illustrating an example of the VUI syntax when linked with the transmission method 1.
  • tone_mapping_flag tone mapping flag
  • tone mapping flag is a flag indicating presence / absence information indicating the presence / absence of tone mapping SEI.
  • the tone mapping flag is 1 when indicating that there is tone mapping SEI, and is 0 when indicating that there is no tone mapping SEI.
  • FIG. 13 is a diagram illustrating an example of VUI syntax when linked with the transmission method 2.
  • luminance_dynamic_range_flag luminance dynamic range flag
  • luminance dynamic range flag is a flag indicating presence / absence information indicating the presence / absence of the luminance dynamic range SEI.
  • the luminance dynamic range flag is set to 1 when indicating that the luminance dynamic range SEI is present, and is set to 0 when indicating that there is no luminance dynamic range SEI.
  • the dynamic range characteristic information may be transmitted as the above-described VUI parameters. That is, in this case, instead of the flag shown in FIG. 12 or 13 (or in addition to the flag), the dynamic range characteristic information itself is transmitted as a VUI parameter.
  • dynamic range characteristic information when dynamic range characteristic information is included in SEI, it can be applied not only to the HEVC method but also to the AVC method. On the other hand, since many values used on the display side are included in the VUI, when dynamic range characteristic information is included in the VUI, the information can be collected.
  • FIG. 14 is a diagram illustrating an example of VUI syntax in the case of the transmission method 4.
  • tone_mapping_flag tone mapping flag of FIG. 12 is described as shown above the frame, and the tone mapping flag does not have to be immediately after (if it is within the VUI). ) Is 1 when dynamic range characteristic information is described, and 0 when dynamic range characteristic information is not described.
  • the dynamic range characteristic information shown in the frame of FIG. 14 is referred to.
  • FIG. 15 is a diagram showing an example of dynamic range characteristic information.
  • the dynamic range characteristic information is information described in tone mapping SEI, luminance dynamic range SEI, VUI, or the like. In the example of FIG. "Xxxxx ()" is described at the beginning of the tax.
  • the dynamic range characteristic information in FIG. 15 is different from the dynamic range characteristic information in FIG. 9 in that information indicating the luminance range of the attention area and / or the position and offset of the attention area is added below max_white_level_code_value. ing.
  • roi_luminance_range_flag is a flag indicating whether or not information indicating the luminance range of the region of interest (region of interest) and / or the position and offset of the region of interest is described.
  • roi_luminance_range_flag When the value of roi_luminance_range_flag is 1, min_roi_luminance_range, max_roi_luminance_range, roi_region_x, roi_region_y, roi_region_x_offset, and roi_region_y_offset are described as shown in the black solid part.
  • Min_roi_luminance_range specifies the minimum value of the luminance range of the region of interest.
  • max_roi_luminance_range specifies the maximum value of the luminance range of the region of interest.
  • roi_region_x and roi_region_y specify x-coordinate and y-coordinate at the upper left of the attention area, respectively.
  • Roi_region_x offset and “roi_region_y offset” represent offset values from the upper left roi_region_x and roi_region_y, respectively. Thereby, the attention area from roi_region_x and roi_region_y can be pointed out.
  • the luminance range of the region of interest and / or the position of the region of interest and its offset are included in the dynamic range characteristic information, so that the intention to perform tone mapping that matches the region of interest is decoded. I can tell the side.
  • a flag may be added.
  • the video that had only been 100% white so far has more white, and since the display ability is varied, it can be output as a video suitable for yourself. It was made to give such information.
  • FIG. 16 is a flowchart illustrating the generation process of the encoding device 1 of FIG. In the example of FIG. 16, an example of the transmission method 3 described above will be described.
  • step S1 of FIG. 16 the encoding unit 2 of the encoding device 1 performs an encoding process for encoding an image such as a captured image in units of frames input as an input signal from the outside using the HEVC method. Details of this encoding process will be described with reference to FIGS. 17 and 18 to be described later.
  • step S2 the setting unit 3 sets SPS.
  • step S3 the setting unit 3 sets the PPS.
  • step S4 the setting unit 3 determines whether the image to be encoded is an HDR (High Dynamic Range) image based on an operation of an input unit (not shown) by the user.
  • the image having the dynamic range characteristic information described above will be described below as an HDR image.
  • step S5 When it is determined in step S4 that the image to be encoded is an HDR image, in step S5, the setting unit 3 sets a VUI including 1 as the HDR image flag. In step S6, the setting unit 3 sets the SEI such as the HDR image SEI and advances the process to step S8.
  • the HDR image flag is tone_mapping_flag described above with reference to FIG. 12 or luminance_dynamic_range_flag described above with reference to FIG.
  • the HDR image SEI is the tone mapping SEI described above with reference to FIG. 8 or the luminance dynamic range SEI described above with reference to FIG.
  • step S7 when it is determined in step S4 that the image to be encoded is not an HDR image, in step S7, the setting unit 3 sets a VUI including 0 as the HDR image flag. In addition, the setting unit 3 sets SEI other than the HDR image SEI as necessary, and advances the processing to step S8.
  • step S8 the setting unit 3 generates an encoded stream from the set SPS, PPS, VUI, and SEI and the encoded data supplied from the encoding unit 2.
  • the setting unit 3 supplies the encoded stream to the transmission unit 4.
  • step S9 the transmission unit 4 transmits the encoded stream supplied from the setting unit 3 to a decoding device to be described later, and ends the process.
  • 17 and 18 are flowcharts illustrating details of the encoding process in step S1 of FIG.
  • the A / D conversion unit 11 of the encoding unit 2 performs A / D conversion on the frame unit image input as the input signal, and outputs and stores the image in the screen rearrangement buffer 12.
  • step S12 the screen rearrangement buffer 12 rearranges the stored frame images in the display order in the order for encoding according to the GOP structure.
  • the screen rearrangement buffer 12 supplies the rearranged frame-unit images to the calculation unit 13, the intra prediction unit 24, and the motion prediction / compensation unit 25.
  • or S31 is performed per CU (Coding
  • the intra prediction unit 24 performs intra prediction processing for all candidate intra prediction modes. Further, the intra prediction unit 24 calculates cost function values for all candidate intra prediction modes based on the image read from the screen rearrangement buffer 12 and the prediction image generated as a result of the intra prediction process. Is calculated. Then, the intra prediction unit 24 determines the intra prediction mode that minimizes the cost function value as the optimal intra prediction mode. The intra prediction unit 24 supplies the predicted image generated in the optimal intra prediction mode and the corresponding cost function value to the predicted image selection unit 26.
  • the motion prediction / compensation unit 25 performs motion prediction / compensation processing for all candidate inter prediction modes.
  • the motion prediction / compensation unit 25 calculates cost function values for all candidate inter prediction modes based on the images and prediction images supplied from the screen rearrangement buffer 12, and the cost function values are calculated. The minimum inter prediction mode is determined as the optimum inter measurement mode. Then, the motion prediction / compensation unit 25 supplies the cost function value of the optimal inter prediction mode and the corresponding predicted image to the predicted image selection unit 26.
  • step S14 the predicted image selection unit 26 selects one of the optimal intra prediction mode and the optimal inter prediction mode based on the cost function values supplied from the intra prediction unit 24 and the motion prediction / compensation unit 25 by the process of step S13. The one with the smallest cost function value is determined as the optimum prediction mode. Then, the predicted image selection unit 26 supplies the predicted image in the optimal prediction mode to the calculation unit 13 and the addition unit 20.
  • step S15 the predicted image selection unit 26 determines whether or not the optimal prediction mode is the optimal inter prediction mode.
  • the predicted image selection unit 26 notifies the motion prediction / compensation unit 25 of the selection of the predicted image generated in the optimal inter prediction mode.
  • step S16 the motion prediction / compensation unit 25 supplies the inter prediction mode information, the corresponding motion vector, and information for specifying the reference image to the lossless encoding unit 16. Then, the process proceeds to step S18.
  • step S15 when it is determined in step S15 that the optimal prediction mode is not the optimal inter prediction mode, that is, when the optimal prediction mode is the optimal intra prediction mode, the predicted image selection unit 26 performs the prediction generated in the optimal intra prediction mode.
  • the intra prediction unit 24 is notified of image selection.
  • step S17 the intra prediction unit 24 supplies the intra prediction mode information to the lossless encoding unit 16. Then, the process proceeds to step S18.
  • step S18 the calculation unit 13 performs encoding by subtracting the prediction image supplied from the prediction image selection unit 26 from the image supplied from the screen rearrangement buffer 12.
  • the calculation unit 13 outputs the image obtained as a result to the orthogonal transform unit 14 as residual information.
  • step S ⁇ b> 19 the orthogonal transformation unit 14 performs orthogonal transformation on the residual information from the calculation unit 13 and supplies the coefficient obtained as a result to the quantization unit 15.
  • step S20 the quantization unit 15 quantizes the coefficient supplied from the orthogonal transform unit.
  • the quantized coefficient is input to the lossless encoding unit 16 and the inverse quantization unit 18.
  • step S21 the inverse quantization unit 18 inversely quantizes the quantized coefficient supplied from the quantization unit 15.
  • step S22 the inverse orthogonal transform unit 19 performs inverse orthogonal transform on the coefficient supplied from the inverse quantization unit 18, and supplies the residual information obtained as a result to the addition unit 20.
  • step S23 the addition unit 20 adds the residual information supplied from the inverse orthogonal transform unit 19 and the prediction image supplied from the prediction image selection unit 26, and obtains a locally decoded image.
  • the adding unit 20 supplies the obtained image to the deblocking filter 21 and also supplies it to the frame memory 22.
  • step S24 the deblocking filter 21 performs a deblocking filtering process on the locally decoded image supplied from the adding unit 20.
  • the deblocking filter 21 supplies an image obtained as a result to the adaptive offset filter 41.
  • step S25 the adaptive offset filter 41 performs an adaptive offset filter process on the image supplied from the deblocking filter 21 for each LCU.
  • the adaptive offset filter 41 supplies the resulting image to the adaptive loop filter 42. Further, the adaptive offset filter 41 supplies the storage flag, index or offset, and type information to the lossless encoding unit 16 as offset filter information for each LCU.
  • step S26 the adaptive loop filter 42 performs an adaptive loop filter process for each LCU on the image supplied from the adaptive offset filter 41.
  • the adaptive loop filter 42 supplies the resulting image to the frame memory 22.
  • the adaptive loop filter 42 supplies the filter coefficient used in the adaptive loop filter process to the lossless encoding unit 16.
  • the frame memory 22 stores the images before and after filtering. Specifically, the frame memory 22 stores the image supplied from the adder 20 and the image supplied from the adaptive loop filter 42. The image stored in the frame memory 22 is output as a reference image to the intra prediction unit 24 or the motion prediction / compensation unit 25 via the switch 23.
  • step S28 the lossless encoding unit 16 performs lossless encoding on the intra prediction mode information, the inter prediction mode information, the motion vector, the information specifying the reference image, and the like, and the offset filter information and the filter coefficient as the encoding information. To do.
  • step S29 the lossless encoding unit 16 performs lossless encoding on the quantized coefficient supplied from the quantization unit 15. Then, the lossless encoding unit 16 generates encoded data from the encoding information that has been losslessly encoded in the process of step S28 and the losslessly encoded coefficient.
  • step S30 the lossless encoding unit 16 supplies the encoded data to the storage buffer 17 and stores it.
  • step S31 the accumulation buffer 17 outputs the accumulated encoded data to the setting unit 3 in FIG. And a process returns to step S1 of FIG. 16, and progresses to step S2.
  • the intra prediction processing and the motion prediction / compensation processing are always performed, but in actuality, either one depends on the picture type or the like. Sometimes only.
  • the encoding apparatus 1 sets an HDR image SEI (tone mapping SEI or luminance dynamic range SEI) and an HDR image flag (tone_mapping_flag or luminance_dynamic_range_flag), and transmits the HDR image with encoded data obtained by encoding the HDR image.
  • HDR image SEI tone mapping SEI or luminance dynamic range SEI
  • HDR image flag tone_mapping_flag or luminance_dynamic_range_flag
  • the decoding device that decodes and displays the encoded stream of the HDR image uses the HDR image SEI preferentially and reliably reproduces and displays the dynamic range of the HDR image. be able to. Therefore, the encoding apparatus 1 generates an HDR image encoded stream so that the dynamic range of the HDR image can be reliably reproduced and displayed when the encoded image stream of the HDR image is decoded and displayed. I can say that.
  • FIG. 19 is a block diagram illustrating a configuration example of a first embodiment of a decoding device as an image processing device to which the present technology is applied, which decodes an encoded stream transmitted from the encoding device 1 in FIG. 3. .
  • 19 includes a reception unit 51, an extraction unit 52, a decoding unit 53, an image adjustment unit 54, a display control unit 55, and a display unit 56.
  • the receiving unit 51 of the decoding device 50 receives the encoded stream transmitted from the encoding device 1 in FIG. 3 and supplies it to the extracting unit 52.
  • the extraction unit 52 extracts SPS, PPS, VUI, SEI, encoded data, and the like from the encoded stream supplied from the receiving unit 51.
  • the extraction unit 52 supplies the encoded data to the decoding unit 53.
  • the extraction unit 52 also supplies SPS, PPS, VUI, SEI, and the like to the decoding unit 53 and the image adjustment unit 54 as necessary.
  • the decoding unit 53 refers to SPS, PPS, VUI, SEI, etc. supplied from the extraction unit 52 as necessary, and decodes the encoded data supplied from the extraction unit 52 by the HEVC method.
  • the decoding unit 53 supplies an image such as an HDR image obtained as a result of decoding to the image adjustment unit 54 as an output signal.
  • the image adjustment unit 54 adjusts the dynamic range of the HDR image supplied as an output signal from the decoding unit 53 based on SPS, PPS, VUI, SEI and the like supplied from the extraction unit 52 as necessary. For example, the image adjustment unit 54 adjusts the dynamic range of the image in accordance with the display dynamic range. Then, the image adjustment unit 54 supplies the HDR image as an output signal to the display control unit 55.
  • the display control unit 55 generates a display image based on the HDR image supplied from the image adjustment unit 54 (a display method notified from the display unit 56 as necessary).
  • the display control unit 55 supplies the generated display image to the display unit 56 for display.
  • the display unit 56 displays the display image supplied from the display control unit 55.
  • the display unit 56 notifies the display control unit 55 of a display method set in advance or a display method designated by the user among the display methods set in advance.
  • FIG. 20 is a block diagram illustrating a configuration example of the decoding unit 53 of FIG.
  • a storage buffer 101 includes a storage buffer 101, a lossless decoding unit 102, an inverse quantization unit 103, an inverse orthogonal transform unit 104, an addition unit 105, a deblock filter 106, a screen rearrangement buffer 107, and a D / A conversion unit 108.
  • Frame memory 109 switch 110, intra prediction unit 111, motion compensation unit 112, and switch 113.
  • an adaptive offset filter 141 and an adaptive loop filter 142 are provided between the deblock filter 106 and the screen rearrangement buffer 107 and the frame memory 109.
  • the accumulation buffer 101 of the decoding unit 53 receives and accumulates the encoded data from the extraction unit 52 of FIG.
  • the accumulation buffer 101 supplies the accumulated encoded data to the lossless decoding unit 102.
  • the lossless decoding unit 102 obtains quantized coefficients and encoded information by performing lossless decoding such as variable length decoding and arithmetic decoding on the encoded data from the accumulation buffer 101.
  • the lossless decoding unit 102 supplies the quantized coefficient to the inverse quantization unit 103.
  • the lossless decoding unit 102 supplies intra prediction mode information or the like as encoded information to the intra prediction unit 111, and provides motion vectors, information for identifying reference images, inter prediction mode information, and the like to the motion compensation unit 112. Supply. Further, the lossless decoding unit 102 supplies intra prediction mode information or inter prediction mode information as encoded information to the switch 113.
  • the lossless decoding unit 102 supplies offset filter information as encoded information to the adaptive offset filter 141 and supplies filter coefficients to the adaptive loop filter 142.
  • the inverse quantization unit 103, the inverse orthogonal transform unit 104, the addition unit 105, the deblock filter 106, the frame memory 109, the switch 110, the intra prediction unit 111, and the motion compensation unit 112 are the same as the inverse quantization unit 18, FIG.
  • the same processing as that performed by the inverse orthogonal transform unit 19, the addition unit 20, the deblock filter 21, the frame memory 22, the switch 23, the intra prediction unit 24, and the motion prediction / compensation unit 25 is performed, whereby the image is decoded.
  • the inverse quantization unit 103 inversely quantizes the quantized coefficient from the lossless decoding unit 102 and supplies the resulting coefficient to the inverse orthogonal transform unit 104.
  • the inverse orthogonal transform unit 104 performs inverse orthogonal transform on the coefficient from the inverse quantization unit 103, and supplies residual information obtained as a result to the addition unit 105.
  • the addition unit 105 performs decoding by adding the residual information as the decoding target image supplied from the inverse orthogonal transform unit 104 and the prediction image supplied from the switch 113.
  • the adding unit 105 supplies the image obtained as a result of decoding to the deblocking filter 106 and also supplies it to the frame memory 109.
  • the addition unit 105 supplies the image, which is residual information supplied from the inverse orthogonal transform unit 104, to the deblocking filter 106 as an image obtained as a result of decoding. It is supplied to the frame memory 109 and accumulated.
  • the deblock filter 106 removes block distortion by filtering the image supplied from the addition unit 105.
  • the deblocking filter 106 supplies the resulting image to the adaptive offset filter 141.
  • the adaptive offset filter 141 has a buffer for sequentially storing offsets supplied from the lossless decoding unit 102. Further, the adaptive offset filter 141 performs adaptive offset filter processing on the image after the adaptive deblocking filter processing by the deblocking filter 106 based on the offset filter information supplied from the lossless decoding unit 102 for each LCU. .
  • the adaptive offset filter 141 uses the offset included in the offset filter information for the image after the deblocking filter processing in units of LCUs.
  • the type of adaptive offset filter processing indicated by the type information is performed.
  • the adaptive offset filter 141 is stored at the position indicated by the index included in the offset filter information with respect to the image after the deblocking filter processing in units of LCUs. Read the offset. Then, the adaptive offset filter 141 performs the type of adaptive offset filter processing indicated by the type information, using the read offset. The adaptive offset filter 141 supplies the image after the adaptive offset filter processing to the adaptive loop filter 142.
  • the adaptive loop filter 142 performs an adaptive loop filter process for each LCU on the image supplied from the adaptive offset filter 141 using the filter coefficient supplied from the lossless decoding unit 102.
  • the adaptive loop filter 142 supplies the image obtained as a result to the frame memory 109 and the screen rearrangement buffer 107.
  • the image stored in the frame memory 109 is read as a reference image via the switch 110 and supplied to the motion compensation unit 112 or the intra prediction unit 111.
  • the screen rearrangement buffer 107 stores the image supplied from the deblock filter 106 in units of frames.
  • the screen rearrangement buffer 107 rearranges the stored frame-by-frame images for encoding in the original display order and supplies them to the D / A conversion unit 108.
  • the D / A conversion unit 108 performs D / A conversion on the frame unit image supplied from the screen rearrangement buffer 107, and outputs it as an output signal to the image adjustment unit 54 in FIG.
  • the intra prediction unit 111 uses the reference image not filtered by the deblocking filter 106 read out from the frame memory 109 via the switch 110 in units of tiles and slices, and is supplied from the lossless decoding unit 102. Intra prediction processing in the intra prediction mode indicated by the mode information is performed. The intra prediction unit 111 supplies the prediction image generated as a result to the switch 113.
  • the motion compensation unit 112 is filtered by the deblocking filter 106 from the frame memory 109 via the switch 110 based on the information for specifying the reference image supplied from the lossless decoding unit 102 in units of tiles and slices. Read the reference image.
  • the motion compensation unit 112 performs motion compensation processing in the optimal inter prediction mode indicated by the inter prediction mode information using the motion vector and the reference image.
  • the motion compensation unit 112 supplies the predicted image generated as a result to the switch 113.
  • the switch 113 supplies the prediction image supplied from the intra prediction unit 111 to the addition unit 105.
  • the switch 113 supplies the predicted image supplied from the motion compensation unit 112 to the adding unit 105.
  • FIG. 21 is a flowchart for explaining display processing by the decoding device 50 of FIG.
  • the reception unit 51 of the decoding device 50 receives the encoded stream transmitted from the encoding device 1 of FIG. 3 and supplies the encoded stream to the extraction unit 52.
  • step S51 the extraction unit 52 extracts SPS, PPS, VUI, SEI, encoded data, and the like from the encoded stream supplied from the receiving unit 51.
  • the extraction unit 52 supplies the encoded data to the decoding unit 53.
  • the extraction unit 52 also supplies SPS, PPS, VUI, SEI, and the like to the decoding unit 53 and the image adjustment unit 54 as necessary.
  • step S52 the decoding unit 53 refers to SPS, PPS, VUI, SEI, and the like supplied from the extraction unit 52 as necessary, and decodes the encoded data supplied from the extraction unit 52 using the HEVC method. I do. Details of this decoding process will be described with reference to FIG.
  • step S53 the image adjustment unit 54 determines whether the HDR image flag included in the VUI supplied from the extraction unit 52 is 1. As described above with reference to FIG. 16, the HDR image flag is tone_mapping_flag shown in FIG. 12 or luminance_dynamic_range_flag shown in FIG. When it is determined in step S53 that the HDR image flag is 1, the image adjustment unit 54 determines that the output signal supplied from the decoding unit 53 is an HDR image.
  • step S54 the image adjustment unit 54 acquires dynamic range characteristic information included in the HDR image SEI supplied from the extraction unit 52. Specifically, as described above with reference to FIG. 16, dynamic range characteristic information is acquired from the tone mapping SEI shown in FIG. 8 or the luminance dynamic range SEI shown in FIG.
  • step S55 the image adjusting unit 54 adjusts the dynamic range of the image according to the display dynamic range based on the dynamic range characteristic information acquired in step S54.
  • This dynamic range adjustment processing includes, for example, tone mapping processing.
  • the image adjustment unit 54 supplies the adjusted image to the display control unit 55.
  • the image adjustment in step S55 can be roughly divided into two methods, and both processes are processes that match the display capability of the user.
  • step S53 if it is determined in step S53 that the HDR image flag is not 1, steps S54 and S55 are skipped, and the process proceeds to step S56. That is, in this case, the image adjustment unit 54 supplies the image from the decoding unit 53 to the display control unit 55 as it is.
  • step S56 the display control unit 55 generates a display image based on the HDR image supplied from the image adjustment unit 54, and supplies the generated display image to the display unit 56, whereby the display image is displayed on the display unit 56. Is displayed and the process is terminated.
  • FIG. 22 is a flowchart for explaining details of the decoding process in step S52 of FIG.
  • the accumulation buffer 101 of the decoding unit 53 receives and accumulates the encoded data in units of frames from the extraction unit 52 of FIG. 19.
  • the accumulation buffer 101 supplies the accumulated encoded data to the lossless decoding unit 102. Note that the processing in the following steps S112 to S124 is performed, for example, in units of CUs.
  • the lossless decoding unit 102 losslessly decodes the encoded data from the storage buffer 101 to obtain quantized coefficients and encoded information.
  • the lossless decoding unit 102 supplies the quantized coefficient to the inverse quantization unit 103.
  • the lossless decoding unit 102 supplies intra prediction mode information or the like as encoded information to the intra prediction unit 111, and provides motion vector, inter prediction mode information, information for specifying a reference image, and the like to the motion compensation unit 112. Supply. Further, the lossless decoding unit 102 supplies intra prediction mode information or inter prediction mode information as encoded information to the switch 113.
  • the lossless decoding unit 102 supplies offset filter information as encoded information to the adaptive offset filter 141 and supplies filter coefficients to the adaptive loop filter 142.
  • step S113 the inverse quantization unit 103 inversely quantizes the quantized coefficient from the lossless decoding unit 102, and supplies the coefficient obtained as a result to the inverse orthogonal transform unit 104.
  • step S114 the motion compensation unit 112 determines whether or not the inter prediction mode information is supplied from the lossless decoding unit 102. If it is determined in step S114 that the inter prediction mode information has been supplied, the process proceeds to step S115.
  • step S115 the motion compensation unit 112 outputs the reference image filtered by the deblocking filter 106 based on the motion vector supplied from the lossless decoding unit 102, the inter prediction mode information, and information for specifying the reference image. Read and motion compensation processing is performed.
  • the motion compensation unit 112 supplies the predicted image generated as a result to the addition unit 105 via the switch 113, and the process proceeds to step S117.
  • step S114 when it is determined in step S114 that the inter prediction mode information is not supplied, that is, when the intra prediction mode information is supplied to the intra prediction unit 111, the process proceeds to step S116.
  • step S116 the intra prediction unit 111 uses the reference image read from the frame memory 109 via the switch 110 and not filtered by the deblocking filter 106, and the intra prediction mode information indicated by the intra prediction mode information. Perform prediction processing.
  • the intra prediction unit 111 supplies the prediction image generated as a result of the intra prediction process to the addition unit 105 via the switch 113, and the process proceeds to step S117.
  • step S117 the inverse orthogonal transform unit 104 performs inverse orthogonal transform on the coefficient from the inverse quantization unit 103, and supplies the residual information obtained as a result to the addition unit 105.
  • step S118 the adding unit 105 adds the residual information supplied from the inverse orthogonal transform unit 104 and the prediction image supplied from the switch 113.
  • the adding unit 105 supplies the image obtained as a result to the deblocking filter 106 and also supplies it to the frame memory 109.
  • step S119 the deblocking filter 106 performs filtering on the image supplied from the adding unit 105 to remove block distortion.
  • the deblocking filter 106 supplies the resulting image to the adaptive offset filter 141.
  • step S120 the adaptive offset filter 141 performs adaptive offset filter processing for each LCU on the image after the deblocking filter processing by the deblocking filter 106 based on the offset filter information supplied from the lossless decoding unit 102. .
  • the adaptive offset filter 141 supplies the image after the adaptive offset filter processing to the adaptive loop filter 142.
  • step S121 the adaptive loop filter 142 performs adaptive loop filter processing for each LCU using the filter coefficient supplied from the lossless decoding unit 102 on the image supplied from the adaptive offset filter 141.
  • the adaptive loop filter 142 supplies the image obtained as a result to the frame memory 109 and the screen rearrangement buffer 107.
  • step S122 the frame memory 109 stores the image before filtering supplied from the adding unit 105 and the image after filtering supplied from the deblocking filter 106.
  • the image stored in the frame memory 109 is supplied to the motion compensation unit 112 or the intra prediction unit 111 via the switch 110 as a reference image.
  • step S123 the screen rearrangement buffer 107 stores the image supplied from the deblocking filter 106 in units of frames, and rearranges the stored frame-by-frame images for encoding in the original display order. , And supplied to the D / A converter 108.
  • step S124 the D / A conversion unit 108 D / A converts the frame unit image supplied from the screen rearrangement buffer 107, and supplies it as an output signal to the image adjustment unit 54 in FIG. And a process returns to step S52 of FIG. 21, and progresses to step S53.
  • the decoding device 50 decodes the encoded data to generate an image, and when the HDR image flag is 1, the HDR image SEI is preferentially used to reliably reproduce the dynamic range of the HDR image. Can be displayed.
  • HDR image flag may be included in other NAL units such as SPS instead of the VUI.
  • the HEVC method is used as the encoding method.
  • the present technology is a technology for performing display and is not related to the encoding method. Therefore, the present technology is not limited to the HEVC method, and other encoding / decoding methods can be applied.
  • the present invention can also be applied to an apparatus that performs encoding / decoding processing based on the AVC method described below.
  • FIG. 23 is a block diagram illustrating a configuration example of a second embodiment of an encoding device as an image processing device to which the present technology is applied.
  • FIG. 23 differs from the configuration of FIG. 3 in that an encoding unit 211 is provided instead of the encoding unit 2.
  • the configuration of the encoding apparatus 201 is common to the configuration of FIG. 3 in that the setting unit 3 and the transmission unit 4 are provided.
  • An image such as a captured image in units of frames is input to the encoding unit 211 of the encoding device 201 as an input signal.
  • the encoding unit 211 encodes the input signal by the AVC method, and supplies encoded data obtained as a result to the setting unit 3.
  • the setting unit 3 sets the dynamic range characteristic information of the image in a format according to the AVC standard.
  • the setting unit 3 generates an encoded stream from the set characteristic information and the encoded data supplied from the encoding unit 211.
  • the setting unit 3 supplies the encoded stream to the transmission unit 4.
  • the encoding apparatus 201 is different from the encoding apparatus 1 of FIG. 3 only in that the encoding process by the AVC method is performed.
  • FIG. 24 is a block diagram illustrating a configuration example of the encoding unit 211 in FIG.
  • a / D conversion unit 11 includes an A / D conversion unit 11, a screen rearrangement buffer 12, a calculation unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, a storage buffer 17, and an inverse quantization unit. 18, an inverse orthogonal transform unit 19, an addition unit 20, a deblock filter 21, a frame memory 22, a switch 23, an intra prediction unit 24, a motion prediction / compensation unit 25, a predicted image selection unit 26, and a rate control unit 27. Configured.
  • the configuration of the encoding unit 211 in FIG. 24 is only that the adaptive offset filter 41 and the adaptive loop filter 42 are removed, and that the lossless encoding unit 16 performs encoding using the AVC method instead of the HEVC method. Is different from the configuration of FIG. Therefore, the encoding unit 211 performs the encoding process not on a CU basis but on a block basis.
  • the object of the encoding process of the lossless encoding unit 16 is basically the same as that of the lossless encoding unit 16 of FIG. 4 except for the parameters of the adaptive offset filter and the adaptive loop filter. That is, the lossless encoding unit 16 acquires the intra prediction mode information from the intra prediction unit 24 as in the case of the lossless encoding unit 16 of FIG. Also, inter prediction mode information, motion vectors, information for specifying a reference image, and the like are acquired from the motion prediction / compensation unit 25.
  • the lossless encoding unit 16 applies variable length encoding (for example, CAVLC (Context-Adaptive ⁇ Variable Length) to the quantized coefficients supplied from the quantization unit 15. Coding)) and arithmetic coding (for example, CABAC (Context-Adaptive Binary Arithmetic Coding), etc.) are performed.
  • variable length encoding for example, CAVLC (Context-Adaptive ⁇ Variable Length)
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the lossless encoding unit 16 similarly to the lossless encoding unit 16 of FIG. 4, intra prediction mode information, inter prediction mode information, motion vector, information for specifying a reference image, offset filter information, and filter coefficients Etc. are losslessly encoded as encoding information relating to encoding.
  • the lossless encoding unit 16 supplies the encoding information and the coefficients that have been losslessly encoded to the accumulation buffer 17 as encoded data and accumulates them.
  • the losslessly encoded information may be the header information of the losslessly encoded coefficient.
  • the deblocking filter 21 removes block distortion by filtering the locally decoded image supplied from the adding unit 20.
  • the deblocking filter 21 supplies the image obtained as a result to the frame memory 22 and accumulates it.
  • the image stored in the frame memory 22 is output as a reference image to the intra prediction unit 24 or the motion prediction / compensation unit 25 via the switch 23.
  • the present technology can also be applied to such an AVC encoding apparatus 201.
  • FIG. 25 is a block diagram illustrating a configuration example of a second embodiment of a decoding device as an image processing device to which the present technology is applied, which decodes an encoded stream transmitted from the encoding device 201 in FIG. 23. .
  • the configuration of the decoding device 251 is common to the configuration of FIG. 19 in that a receiving unit 51, an extracting unit 52, an image adjusting unit 54, a display control unit 55, and a display unit 56 are provided.
  • the receiving unit 51 receives the encoded stream encoded by the AVC method transmitted from the encoding device 201 in FIG. 23 and supplies the encoded stream to the extracting unit 52.
  • the extraction unit 52 extracts dynamic range characteristic information, encoded data, and the like set according to the AVC standard from the encoded stream supplied from the receiving unit 51.
  • the extraction unit 52 supplies the encoded data to the decoding unit 261.
  • the extraction unit 52 also supplies dynamic range characteristic information to the decoding unit 261 and the image adjustment unit 54 as necessary.
  • the decoding unit 261 refers to SPS, PPS, VUI, SEI and the like supplied from the extraction unit 52 as necessary, and decodes the encoded data supplied from the extraction unit 52 by the AVC method.
  • the decoding unit 261 supplies an image such as an HDR image obtained as a result of decoding to the image adjustment unit 54 as an output signal.
  • the image adjustment unit 54 adjusts the dynamic range of the HDR image supplied as an output signal from the decoding unit 261 based on the dynamic range characteristic information supplied from the extraction unit 52 as necessary. Then, the image adjustment unit 54 supplies the HDR image as an output signal to the display control unit 55.
  • the decoding device 251 is different from the decoding device 50 of FIG. 19 only in that the decoding process by the AVC method is performed.
  • FIG. 26 is a block diagram illustrating a configuration example of the decoding unit 261 in FIG.
  • 26 includes an accumulation buffer 101, a lossless decoding unit 102, an inverse quantization unit 103, an inverse orthogonal transform unit 104, an addition unit 105, a deblock filter 106, a screen rearrangement buffer 107, and a D / A conversion unit 108. , A frame memory 109, a switch 110, an intra prediction unit 111, a motion compensation unit 112, and a switch 113.
  • the configuration of the decoding unit 261 in FIG. 26 is the configuration of FIG. 20 only in that the adaptive offset filter 141 and the adaptive loop filter 142 are removed and that the lossless decoding unit 102 performs decoding by the AVC method instead of the HEVC method. And different. Therefore, in the decoding unit 261, the decoding process is performed in units of blocks, not in units of CUs.
  • the object of the decoding process of the lossless decoding unit 102 is basically the same as that of the lossless decoding unit 102 of FIG. 20 except for the parameters of the adaptive offset filter and the adaptive loop filter. That is, the lossless decoding unit 102 is quantized by performing lossless decoding such as variable-length decoding and arithmetic decoding on the encoded data from the storage buffer 101, similarly to the lossless decoding unit 102 of FIG. Coefficient and coding information are obtained. The lossless decoding unit 102 supplies the quantized coefficient to the inverse quantization unit 103.
  • the lossless decoding unit 102 supplies intra prediction mode information or the like as encoded information to the intra prediction unit 111 in the same manner as the lossless decoding unit 102 of FIG. 20, and information for specifying a motion vector and a reference image. Inter prediction mode information and the like are supplied to the motion compensation unit 112. Further, the lossless decoding unit 102 supplies intra prediction mode information or inter prediction mode information as encoded information to the switch 113.
  • the deblock filter 106 removes block distortion by filtering the image supplied from the addition unit 105.
  • the deblocking filter 106 supplies the resulting image to the frame memory 109 and the screen rearrangement buffer 107.
  • the present technology can also be applied to such an AVC decoding device 251.
  • the present disclosure discloses, for example, image information (bitstream) compressed by orthogonal transformation such as discrete cosine transformation and motion compensation, such as HEVC, satellite broadcasting, cable television, the Internet, or a mobile phone.
  • the present invention can be applied to an image encoding device and an image decoding device used when receiving via a network medium.
  • the present disclosure can be applied to an image encoding device and an image decoding device that are used when processing on a storage medium such as an optical disk, a magnetic disk, and a flash memory.
  • FIG. 27 shows an example of a multi-view image encoding method.
  • the multi-viewpoint image includes a plurality of viewpoint images, and a predetermined one viewpoint image among the plurality of viewpoints is designated as the base view image.
  • Each viewpoint image other than the base view image is treated as a non-base view image.
  • dynamic range characteristic information can be set in each view (same view). In addition, in each view (different view), it is possible to share the dynamic range characteristic information set in the other views.
  • the dynamic range characteristic information set in the base view is used in at least one non-base view.
  • FIG. 28 is a diagram illustrating a multi-view image encoding apparatus that performs the above-described multi-view image encoding.
  • the multi-view image encoding apparatus 600 includes an encoding unit 601, an encoding unit 602, and a multiplexing unit 603.
  • the encoding unit 601 encodes the base view image and generates a base view image encoded stream.
  • the encoding unit 602 encodes the non-base view image and generates a non-base view image encoded stream.
  • the multiplexing unit 603 multiplexes the base view image encoded stream generated by the encoding unit 601 and the non-base view image encoded stream generated by the encoding unit 602 to generate a multi-view image encoded stream. To do.
  • the encoding device 1 (FIG. 3) and the encoding device 201 (FIG. 23) can be applied to the encoding unit 601 and the encoding unit 602 of the multi-view image encoding device 600.
  • the multi-view image encoding apparatus 600 sets and transmits the dynamic range characteristic information set by the encoding unit 601 and the dynamic range characteristic information set by the encoding unit 602.
  • the dynamic range characteristic information set by the encoding unit 601 as described above may be set and transmitted so as to be shared by the encoding unit 601 and the encoding unit 602.
  • the dynamic range characteristic information set collectively by the encoding unit 602 may be set and transmitted so as to be shared by the encoding unit 601 and the encoding unit 602.
  • FIG. 29 is a diagram illustrating a multi-view image decoding apparatus that performs the above-described multi-view image decoding.
  • the multi-view image decoding device 610 includes a demultiplexing unit 611, a decoding unit 612, and a decoding unit 613.
  • the demultiplexing unit 611 demultiplexes the multi-view image encoded stream in which the base view image encoded stream and the non-base view image encoded stream are multiplexed, and the base view image encoded stream and the non-base view image The encoded stream is extracted.
  • the decoding unit 612 decodes the base view image encoded stream extracted by the demultiplexing unit 611 to obtain a base view image.
  • the decoding unit 613 decodes the non-base view image encoded stream extracted by the demultiplexing unit 611 to obtain a non-base view image.
  • the decoding device 50 (FIG. 19) and the decoding device 251 (FIG. 25) can be applied to the decoding unit 612 and the decoding unit 613 of the multi-view image decoding device 610.
  • the multi-viewpoint image decoding apparatus 610 has the dynamic range characteristic information set by the encoding unit 601 and decoded by the decoding unit 612, and the dynamic range characteristic set by the encoding unit 602 and decoded by the decoding unit 613. Process using information.
  • the dynamic range characteristic information set by the encoding unit 601 (or the encoding unit 602) as described above is set and transmitted so as to be shared by the encoding unit 601 and the encoding unit 602. There may be.
  • the multi-viewpoint image decoding apparatus 610 performs processing using the dynamic range characteristic information set by the encoding unit 601 (or encoding unit 602) and decoded by the decoding unit 612 (or decoding unit 613). Done.
  • FIG. 30 shows an example of a multi-view image encoding method.
  • the hierarchical image includes images of a plurality of layers (resolutions), and an image of a predetermined one layer among the plurality of resolutions is designated as the base layer image. Images in each layer other than the base layer image are treated as non-base layer images.
  • dynamic range characteristic information can be set in each layer (same layer). In addition, in each layer (different layers), it is possible to share dynamic range characteristic information set in other layers.
  • the dynamic range characteristic information set in the base layer is used in at least one non-base layer.
  • FIG. 31 is a diagram illustrating a hierarchical image encoding apparatus that performs the hierarchical image encoding described above.
  • the hierarchical image encoding device 620 includes an encoding unit 621, an encoding unit 622, and a multiplexing unit 623.
  • the encoding unit 621 encodes the base layer image and generates a base layer image encoded stream.
  • the encoding unit 622 encodes the non-base layer image and generates a non-base layer image encoded stream.
  • the multiplexing unit 623 multiplexes the base layer image encoded stream generated by the encoding unit 621 and the non-base layer image encoded stream generated by the encoding unit 622 to generate a hierarchical image encoded stream. .
  • the encoding device 1 (FIG. 3) and the encoding device 201 (FIG. 23) can be applied to the encoding unit 621 and the encoding unit 622 of the hierarchical image encoding device 620.
  • the hierarchical image encoding device 620 sets and transmits the dynamic range characteristic information set by the encoding unit 621 and the dynamic range characteristic information set by the encoding unit 602.
  • the dynamic range characteristic information set by the encoding unit 621 as described above may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622.
  • the dynamic range characteristic information set by the encoding unit 622 may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622.
  • FIG. 32 is a diagram illustrating a hierarchical image decoding apparatus that performs the hierarchical image decoding described above.
  • the hierarchical image decoding device 630 includes a demultiplexing unit 631, a decoding unit 632, and a decoding unit 633.
  • the demultiplexing unit 631 demultiplexes the hierarchical image encoded stream in which the base layer image encoded stream and the non-base layer image encoded stream are multiplexed, and the base layer image encoded stream and the non-base layer image code Stream.
  • the decoding unit 632 decodes the base layer image encoded stream extracted by the demultiplexing unit 631 to obtain a base layer image.
  • the decoding unit 633 decodes the non-base layer image encoded stream extracted by the demultiplexing unit 631 to obtain a non-base layer image.
  • the decoding device 50 (FIG. 19) and the decoding device 251 (FIG. 25) can be applied to the decoding unit 632 and the decoding unit 633 of the hierarchical image decoding device 630.
  • the hierarchical image decoding apparatus 630 has dynamic range characteristic information set by the encoding unit 621 and decoded by the decoding unit 632, and dynamic range characteristic information set by the encoding unit 622 and decoded by the decoding unit 633. Process using.
  • the dynamic range characteristic information set by the encoding unit 621 (or the encoding unit 622) is set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622. There may be.
  • the hierarchical image decoding apparatus 630 performs processing using the dynamic range characteristic information set by the encoding unit 621 (or encoding unit 622) and decoded by the decoding unit 632 (or decoding unit 633). Done.
  • ⁇ Fifth embodiment> Computer configuration example
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 33 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processes by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • an input / output interface 805 is connected to the bus 804.
  • An input unit 806, an output unit 807, a storage unit 808, a communication unit 809, and a drive 810 are connected to the input / output interface 805.
  • the input unit 806 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 807 includes a display, a speaker, and the like.
  • the storage unit 808 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 809 includes a network interface or the like.
  • the drive 810 drives a removable medium 811 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 801 loads the program stored in the storage unit 808 to the RAM 803 via the input / output interface 805 and the bus 804 and executes the program, for example. Is performed.
  • the program executed by the computer 800 can be provided by being recorded in, for example, a removable medium 811 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 808 via the input / output interface 805 by attaching the removable medium 811 to the drive 810.
  • the program can be received by the communication unit 809 via a wired or wireless transmission medium and installed in the storage unit 808.
  • the program can be installed in the ROM 802 or the storage unit 808 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
  • system represents the entire apparatus composed of a plurality of devices (apparatuses).
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit).
  • a configuration other than that described above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). . That is, the present technology is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present technology.
  • An image encoding device and an image decoding device include a transmitter or a receiver in optical broadcasting, satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication, etc.
  • the present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as a magnetic disk and a flash memory, or a playback device that reproduces an image from these storage media.
  • a recording device that records an image on a medium such as a magnetic disk and a flash memory
  • a playback device that reproduces an image from these storage media.
  • FIG. 34 shows an example of a schematic configuration of a television apparatus to which the above-described embodiment is applied.
  • the television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.
  • Tuner 902 extracts a signal of a desired channel from a broadcast signal received via antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. Further, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.
  • EPG Electronic Program Guide
  • the decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.
  • the video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video.
  • the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network.
  • the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting.
  • the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.
  • GUI Graphic User Interface
  • the display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OELD (Organic ElectroLuminescence Display) (organic EL display)). Or an image is displayed.
  • a display device for example, a liquid crystal display, a plasma display, or an OELD (Organic ElectroLuminescence Display) (organic EL display)). Or an image is displayed.
  • the audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904, and outputs audio from the speaker 908.
  • the audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.
  • the external interface 909 is an interface for connecting the television apparatus 900 to an external device or a network.
  • a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the control unit 910 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like.
  • the program stored in the memory is read and executed by the CPU when the television apparatus 900 is activated.
  • the CPU executes the program to control the operation of the television device 900 according to an operation signal input from the user interface 911, for example.
  • the user interface 911 is connected to the control unit 910.
  • the user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like.
  • the user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.
  • the bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.
  • the decoder 904 has the function of the image decoding apparatus according to the above-described embodiment.
  • the dynamic range of the image can be accurately reproduced when the television device 900 decodes the image.
  • FIG. 35 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied.
  • a cellular phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.
  • the antenna 921 is connected to the communication unit 922.
  • the speaker 924 and the microphone 925 are connected to the audio codec 923.
  • the operation unit 932 is connected to the control unit 931.
  • the bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.
  • the mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.
  • the analog voice signal generated by the microphone 925 is supplied to the voice codec 923.
  • the audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922.
  • the communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923.
  • the audio codec 923 decompresses the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the control unit 931 generates character data constituting the e-mail in response to an operation by the user via the operation unit 932.
  • the control unit 931 causes the display unit 930 to display characters.
  • the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922.
  • the communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931.
  • the control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.
  • the recording / reproducing unit 929 has an arbitrary readable / writable storage medium.
  • the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted type such as a hard disk, magnetic disk, magneto-optical disk, optical disk, USB (Universal Serial Bus) memory, or memory card. It may be a storage medium.
  • the camera unit 926 images a subject to generate image data, and outputs the generated image data to the image processing unit 927.
  • the image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the storage / playback unit 929.
  • the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to.
  • the communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • These transmission signal and reception signal may include an encoded bit stream.
  • the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928.
  • the demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923.
  • the image processing unit 927 decodes the video stream and generates video data.
  • the video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930.
  • the audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the image processing unit 927 has the functions of the image encoding device and the image decoding device according to the above-described embodiment.
  • the dynamic range of the image can be accurately reproduced when the mobile phone 920 encodes and decodes the image.
  • FIG. 36 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied.
  • the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium.
  • the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example.
  • the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.
  • the recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.
  • Tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.
  • the external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network.
  • the external interface 942 may be, for example, an IEEE1394 interface, a network interface, a USB interface, or a flash memory interface.
  • video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.
  • the encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.
  • the HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Further, the HDD 944 reads out these data from the hard disk when reproducing video and audio.
  • the disk drive 945 performs recording and reading of data to and from the mounted recording medium.
  • the recording medium mounted on the disk drive 945 is, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. It may be.
  • the selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.
  • the decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.
  • OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.
  • the control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example.
  • the CPU controls the operation of the recording / reproducing apparatus 940 in accordance with an operation signal input from the user interface 950, for example, by executing the program.
  • the user interface 950 is connected to the control unit 949.
  • the user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like.
  • the user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.
  • the encoder 943 has the function of the image encoding apparatus according to the above-described embodiment.
  • the decoder 947 has the function of the image decoding apparatus according to the above-described embodiment.
  • FIG. 37 shows an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied.
  • the imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.
  • the imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.
  • the optical block 961 is connected to the imaging unit 962.
  • the imaging unit 962 is connected to the signal processing unit 963.
  • the display unit 965 is connected to the image processing unit 964.
  • the user interface 971 is connected to the control unit 970.
  • the bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.
  • the optical block 961 includes a focus lens and a diaphragm mechanism.
  • the optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 includes an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.
  • CCD Charge-Coupled Device
  • CMOS Complementary Metal-Oxide Semiconductor
  • the signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962.
  • the signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.
  • the image processing unit 964 encodes the image data input from the signal processing unit 963 and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.
  • the OSD 969 generates a GUI image such as a menu, a button, or a cursor, and outputs the generated image to the image processing unit 964.
  • the external interface 966 is configured as a USB input / output terminal, for example.
  • the external interface 966 connects the imaging device 960 and a printer, for example, when printing an image.
  • a drive is connected to the external interface 966 as necessary.
  • a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960.
  • the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.
  • the recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory.
  • a recording medium may be fixedly mounted on the media drive 968, and a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • the control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example.
  • the CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971 by executing the program.
  • the user interface 971 is connected to the control unit 970.
  • the user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960.
  • the user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.
  • the image processing unit 964 has the functions of the image encoding device and the image decoding device according to the above-described embodiment. Accordingly, the dynamic range of the image can be accurately reproduced when the image is encoded and decoded by the imaging device 960.
  • the display control unit 55 and the display unit 56 of FIG. 19 may be provided outside the decoding device 50.
  • the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the method for transmitting such information is not limited to such an example.
  • these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream.
  • the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means. That is, information may be transmitted on a transmission path different from that of the image (or bit stream).
  • Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream). Furthermore, the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.
  • the flag is not limited to alternatives such as presence / absence (0 1), but includes information that can identify a specific item from a plurality of options.
  • this technique can also take the following structures.
  • an encoding unit that encodes an image to generate a bitstream;
  • a setting unit for setting dynamic range characteristic information indicating a dynamic range characteristic assigned to the developed image with respect to the captured image;
  • An image processing apparatus comprising: a transmission unit configured to transmit the bit stream generated by the encoding unit and the dynamic range characteristic information set by the setting unit.
  • the setting unit sets, as the dynamic range characteristic information, code information indicating a dynamic range code assigned to the developed image with respect to the captured image.
  • the setting unit sets, as the dynamic range characteristic information, code information indicating a code assigned to the developed image with respect to a white level of the captured image.
  • the setting unit sets white level code information indicating a code assigned to the developed image with respect to the white level of the captured image as the dynamic range characteristic information.
  • the image processing apparatus described. The setting unit sets, as the dynamic range characteristic information, maximum white level code information indicating a maximum value of a code assigned to a white level of a developed image, according to any one of (1) to (4).
  • Image processing apparatus. (6) The image processing device according to any one of (1) to (5), wherein the setting unit sets black level code information indicating a black level code of a developed image as the dynamic range characteristic information.
  • the setting unit sets gray level code information indicating a gray level code of a developed image as the dynamic range characteristic information.
  • the image processing apparatus sets, as the dynamic range characteristic information, maximum white level information indicating a maximum value of a white level of a captured image.
  • the setting unit sets information indicating a luminance range of a region of interest of an image obtained by decoding the bitstream as the dynamic range characteristic information.
  • the setting unit sets, as the dynamic range characteristic information, information indicating a position and an offset of a region of interest of an image obtained by decoding the bitstream.
  • Image processing device (11) The image processing according to any one of (1) to (10), wherein the transmission unit transmits the dynamic range characteristic information as auxiliary information used when displaying an image obtained by decoding the bitstream.
  • the image processing device according to any one of (1) to (10), wherein the transmission unit transmits the dynamic range characteristic information as extended auxiliary information obtained by extending existing auxiliary information.
  • the transmission unit transmits the dynamic range characteristic information as tone_mapping_information SEI (Supplemental enhancement information).
  • the transmission unit extends model_id used when transmitting the dynamic range characteristic information, and transmits the dynamic range characteristic information as SEI. Any of (1) to (10) Crab image processing device.
  • the image processing device transmits the dynamic range characteristic information as VUI (Video Usability Information) indicating usability of the image in sequence units.
  • VUI Video Usability Information
  • the encoding unit performs an encoding process on the image in accordance with an encoding method conforming to the AVC / H.264 standard.
  • An image is encoded to generate a bitstream, Set the dynamic range characteristic information indicating the dynamic range characteristic assigned to the developed image for the captured image, An image processing method for transmitting a generated bit stream and set dynamic range characteristic information.
  • a receiving unit that receives a bit stream and dynamic range characteristic information indicating a dynamic range characteristic for an image obtained by decoding the bit stream;
  • a decoding unit that decodes the bitstream received by the receiving unit to generate an image;
  • An image processing apparatus comprising: an image adjusting unit that adjusts a dynamic range for an image generated by the decoding unit using the dynamic range characteristic information received by the receiving unit.
  • a receiving unit that receives the bitstream and the dynamic range characteristic information is further provided, The decoding unit decodes the bitstream received by the receiving unit;
  • the image processing device according to (18), wherein the image adjustment unit adjusts a dynamic range for an image generated by the decoding unit, using dynamic range characteristic information received by the receiving unit.

Abstract

 本開示は、画像のダイナミックレンジを正確に再現することができるようにする画像処理装置および方法に関する。 最大ホワイトレベルに対応する縦軸の値は、現像画像に対して最大ホワイトレベル(白800%)が割り当てられるデジタル値であり、ダイナミックレンジの特性情報の1つであるmax_white_level_code_valueとして設定されて伝送される。ホワイトレベルに対する縦軸の値は、現像画像に対してホワイトレベル(白100%)が割り当てられるデジタル値であり、ダイナミックレンジの特性情報の1つであるwhite_level_code_valueとして設定されて伝送される。本開示は、例えば、画像処理装置に適用することができる。

Description

画像処理装置および方法
 本開示は、画像処理装置および方法に関し、特に、画像のダイナミックレンジを正確に再現することができるようにした画像処理装置および方法に関する。
 近年、画像情報をデジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を目的とし、画像情報特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮する符号化方式を採用して画像を圧縮符号する装置が普及しつつある。この符号化方式には、例えば、MPEG(Moving Picture Experts Group)やH.264及びMPEG-4 Part10 (Advanced Video Coding、以下 AVCと記す)などがある。
 そして、現在、H.264/AVCより更なる符号化効率の向上を目的として、ITU-TとISO/IECとの共同の標準化団体であるJCTVC (Joint Collaboration Team - Video Coding) により、HEVC (High Efficiency Video Coding) と呼ばれる符号化方式の標準化が進められている(非特許文献1参照)。
 現時点におけるHEVCのドラフトでは、図1に示されるSEI(Supplemental Enhancement Information)において、トーンマッピングインフォメーションが伝送されている。
 そのトーンマッピングインフォメーションの内容は、図2に示されるように、AVCにおいて規格されているものと同じである(非特許文献2参照)。
Benjamin Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegand," High efficiency video coding (HEVC) text specification draft 7 ", JCTVC-I1003 ver5, 2012.6.12 D.1.24 of Rec. ITU-T H.264 | ISO/IEC 14496-10
 昨今、カメラやディスプレイにおいては、高いダイナミックレンジの画像を撮影したり、表示したりすることができるようになってきている。
 このような状況において、さまざまなダイナミックレンジの画像の表示に対応するため、デコードした画像のダイナミックレンジを広げることが要求されているが、非特許文献1においては、デコードした画像に対するダイナミックレンジについて定義されていなかった。
 本開示は、このような状況に鑑みてなされたものであり、画像のダイナミックレンジを正確に再現することができるようにするものである。
 本開示の第1の側面の画像処理装置は、画像を符号化処理してビットストリームを生成する符号化部と、Captured 画像に対してDeveloped 画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定する設定部と、前記符号化部により生成されたビットストリームと前記設定部により設定されたダイナミックレンジ特性情報とを伝送する伝送部とを備える。
 前記設定部は、Captured 画像に対してDeveloped 画像に割り当てられるダイナミックレンジのコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、Developed 画像のホワイトレベルに割り当てられるコードの最大値を示す最大ホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、Developed 画像のブラックレベルのコードを示すブラックレベルコード情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、Developed 画像のグレイレベルのコードを示すグレイレベルコード情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、Captured 画像のホワイトレベルの最大値を示す最大ホワイトレベル情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、前記ビットストリームを復号処理した画像の注目領域の輝度のレンジを示す情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記設定部は、前記ビットストリームを復号処理した画像の注目領域の位置およびオフセットを示す情報を、前記ダイナミックレンジ特性情報として設定することができる。
 前記伝送部は、前記ダイナミックレンジ特性情報を、前記ビットストリームを復号処理した画像を表示する際に用いる補助情報として伝送することができる。
 前記伝送部は、前記ダイナミックレンジ特性情報を、既存の補助情報を拡張した拡張補助情報として伝送することができる。
 前記伝送部は、前記ダイナミックレンジ特性情報を、tone_mapping_information SEI (Supplemental enhancement information)として伝送することができる。
 前記伝送部は、tone_mapping_information SEIを対象として、前記ダイナミックレンジ特性情報を伝送する際に用いるmodel_idを拡張して、前記ダイナミックレンジ特性情報をSEIとして伝送することができる。
 前記伝送部は、前記ダイナミックレンジ特性情報を、前記画像のユーザビリティをシーケンス単位で示すVUI(Video Usability Information)として伝送することができる。
  前記符号化部は、AVC/H.264規格に準じた符号化方式に従って、前記画像を符号化処理することができる。
 本開示の第1の側面の画像処理方法は、画像を符号化処理してビットストリームを生成し、Captured 画像に対してDeveloped 画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定し、生成されたビットストリームと設定されたダイナミックレンジ特性情報とを伝送する。
 本開示の第2の側面の画像処理装置は、ビットストリームを復号処理して、画像を生成する復号部と、Captured 画像に対してDeveloped 画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整する画像調整部とを備える。
 前記ビットストリームと、前記特性情報とを受け取る受け取り部をさらに備え、前記復号部は、前記受け取り部により受け取られたビットストリームを復号処理し、前記画像調整部は、前記受け取り部により受け取られたダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整することができる。
 本開示の第2の側面の画像処理方法は、ビットストリームを復号処理して、画像を生成し、Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を用いて、生成された画像に対するダイナミックレンジを調整する。
 本開示の第1の側面においては、画像を符号化処理してビットストリームが生成され、Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報が設定される。そして、生成されたビットストリームと設定されたダイナミックレンジ特性情報とが伝送される。
 本開示の第2の側面においては、ビットストリームを復号処理して、画像が生成される。そして、Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を用いて、生成された画像に対するダイナミックレンジが調整される。
 なお、上述の画像処理装置は、独立した装置であっても良いし、1つの画像符号化装置または画像復号装置を構成している内部ブロックであってもよい。
 本開示の第1の側面によれば、画像を符号化することができる。特に、画像のダイナミックレンジを正確に再現することができる。
 本開示の第2の側面によれば、画像を復号することができる。特に、画像のダイナミックレンジを正確に再現することができる。
SEIのシンタクスの例を示す図である。 トーンマッピングSEIのシンタクスの例を示す図である。 本技術を適用した符号化装置の第1実施の形態の構成例を示すブロック図である。 図1の符号化部の構成例を示すブロック図である。 ダイナミックレンジの特性情報を説明する図である。 ダイナミックレンジの特性情報を説明する図である。 ダイナミックレンジの特性情報の例を示す図である。 トーンマッピングSEIのシンタクスの例を示す図である。 トーンマッピングSEIのシンタクスの他の例を示す図である。 カメラの感度と露出インデックスとが指し示す値の意味のテーブルを示す図である。 ルミナンスダイナミックレンジSEIのシンタクスの例を示す図である。 VUIのシンタクスの例を示す図である。 VUIのシンタクスの他の例を示す図である。 VUIのシンタクスのさらに他の例を示す図である。 ダイナミックレンジの特性情報のシンタクスの例を示す図である。 図3の符号化装置の生成処理を説明するフローチャートである。 図16の符号化処理の詳細を説明するフローチャートである。 図16の符号化処理の詳細を説明するフローチャートである。 本技術を適用した復号装置の第1実施の形態の構成例を示すブロック図である。 図19の復号部の構成例を示すブロック図である。 図19の復号装置による表示処理を説明するフローチャートである。 図21の復号処理の詳細を説明するフローチャートである。 本技術を適用した符号化装置の第2実施の形態の構成例を示すブロック図である。 図23の符号化部の構成例を示すブロック図である。 本技術を適用した復号装置の第2実施の形態の構成例を示すブロック図である。 図25の復号部の構成例を示すブロック図である。 多視点画像符号化方式の例を示す図である。 本開示を適用した多視点画像符号化装置の主な構成例を示す図である。 本開示を適用した多視点画像復号装置の主な構成例を示す図である。 階層画像符号化方式の例を示す図である。 本開示を適用した階層画像符号化装置の主な構成例を示す図である。 本開示を適用した階層画像復号装置の主な構成例を示す図である。 コンピュータの主な構成例を示すブロック図である。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(HEVC方式の符号化・復号装置)
2.第2の実施の形態(AVC方式の符号化・復号装置)
3.第3の実施の形態(多視点画像符号化・多視点画像復号装置)
4.第4の実施の形態(階層画像符号化・階層画像復号装置)
5.第5の実施の形態(コンピュータ)
6.応用例
 <第1の実施の形態>
 [符号化装置の第1実施の形態の構成例]
 図3は、本技術を適用した画像処理装置としての、符号化装置の第1実施の形態の構成例を示すブロック図である。
 図3の符号化装置1は、符号化部2、設定部3、および伝送部4により構成され、撮影(Captured)画像等の画像をHEVC方式で符号化する。
 具体的には、符号化装置1の符号化部2には、フレーム単位の撮影画像等の画像が入力信号として入力される。符号化部2は、入力信号をHEVC方式で符号化し、その結果得られる符号化データを設定部3に供給する。
 設定部3は、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、符号化データに対応する画像の特性(ユーザビリティ)をシーケンスごとに示すVUI(Video Usability Information)、SEI(Supplemental Enhancement Information)などを設定する。設定部3は、設定されたSPS、PPS、VUI、およびSEIと、符号化部2から供給される符号化データとから、符号化ストリームを生成する。設定部3は、符号化ストリームを伝送部4に供給する。
 伝送部4は、設定部3から供給される符号化ストリームを、後述する復号装置に伝送する。
 [符号化部の構成例]
 図4は、図3の符号化部2の構成例を示すブロック図である。
 図4の符号化部2は、A/D変換部11、画面並べ替えバッファ12、演算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、逆量子化部18、逆直交変換部19、加算部20、デブロックフィルタ21、フレームメモリ22、スイッチ23、イントラ予測部24、動き予測・補償部25、予測画像選択部26、およびレート制御部27を含むように構成される。
 さらに、デブロックフィルタ21およびフレームメモリ22の間には、適応オフセットフィルタ41と適応ループフィルタ42が備えられている。
 具体的には、符号化部2のA/D変換部11は、入力信号として入力されたフレーム単位の画像をA/D変換し、画面並べ替えバッファ12に出力して記憶させる。画面並べ替えバッファ12は、記憶した表示の順番のフレーム単位の画像を、GOP(Group of Picture)構造に応じて、符号化のための順番に並べ替え、演算部13、イントラ予測部24、および動き予測・補償部25に出力する。
 演算部13は、予測画像選択部26から供給される予測画像と、画面並べ替えバッファ12から出力された符号化対象の画像の差分を演算することにより符号化を行う。具体的には、演算部13は、画面並べ替えバッファ12から出力された符号化対象の画像から、予測画像選択部26から供給される予測画像を減算することにより符号化を行う。演算部13は、その結果得られる画像を、残差情報として直交変換部14に出力する。なお、予測画像選択部26から予測画像が供給されない場合、演算部13は、画面並べ替えバッファ12から読み出された画像をそのまま残差情報として直交変換部14に出力する。
 直交変換部14は、演算部13からの残差情報に対して直交変換を施し、直交変換の結果得られる係数を量子化部15に供給する。
 量子化部15は、直交変換部14から供給される係数を量子化する。量子化された係数は、可逆符号化部16に入力される。
 可逆符号化部16は、最適イントラ予測モードを示す情報(以下、イントラ予測モード情報という)をイントラ予測部24から取得する。また、最適インター予測モードを示す情報(以下、インター予測モード情報という)、動きベクトル、参照画像を特定するための情報などを動き予測・補償部25から取得する。また、可逆符号化部16は、適応オフセットフィルタ41から格納フラグ、インデックスまたはオフセット、および種類情報をオフセットフィルタ情報として取得し、適応ループフィルタ42からフィルタ係数を取得する。
 可逆符号化部16は、量子化部15から供給される量子化された係数に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行う。
 また、可逆符号化部16は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、参照画像を特定する情報、オフセットフィルタ情報、およびフィルタ係数などを、符号化に関する符号化情報として可逆符号化する。可逆符号化部16は、可逆符号化された符号化情報と係数を、符号化データとして蓄積バッファ17に供給し、蓄積させる。なお、可逆符号化された符号化情報は、可逆符号化された係数のヘッダ情報とされてもよい。
 蓄積バッファ17は、可逆符号化部16から供給される符号化データを、一時的に記憶する。また、蓄積バッファ17は、記憶している符号化データを、図3の設定部3に供給する。
 また、量子化部15より出力された、量子化された係数は、逆量子化部18にも入力され、逆量子化された後、逆直交変換部19に供給される。
 逆直交変換部19は、逆量子化部18から供給される係数に対して逆直交変換を施し、その結果得られる残差情報を加算部20に供給する。
 加算部20は、逆直交変換部19から供給される復号対象の画像としての残差情報と、予測画像選択部26から供給される予測画像を加算して、局部的に復号された画像を得る。なお、予測画像選択部26から予測画像が供給されない場合、加算部20は、逆直交変換部19から供給される残差情報を局部的に復号された画像とする。加算部20は、局部的に復号された画像をデブロックフィルタ21に供給するとともに、フレームメモリ22に供給して蓄積させる。
 デブロックフィルタ21は、加算部20から供給される局部的に復号された画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ21は、その結果得られる画像を適応オフセットフィルタ41に供給する。
 適応オフセットフィルタ41は、デブロックフィルタ21による適応デブロックフィルタ処理後の画像に対して、主にリンギングを除去する適応オフセットフィルタ(SAO: Sample adaptive offset)処理を行う。
 より詳細には、適応オフセットフィルタ41は、最大の符号化単位であるLCU(Largest Coding Unit)ごとに適応オフセットフィルタ処理の種類を決定し、その適応オフセットフィルタ処理で用いられるオフセットを求める。適応オフセットフィルタ41は、求められたオフセットを用いて、適応デブロックフィルタ処理後の画像に対して、決定された種類の適応オフセットフィルタ処理を行う。そして、適応オフセットフィルタ41は、適応オフセットフィルタ処理後の画像を適応ループフィルタ42に供給する。
 また、適応オフセットフィルタ41は、オフセットを格納するバッファを有している。適応オフセットフィルタ41は、LCUごとに、適応デブロックフィルタ処理に用いられたオフセットが既にバッファに格納されているかどうかを判定する。
 適応オフセットフィルタ41は、適応デブロックフィルタ処理に用いられたオフセットが既にバッファに格納されていると判定した場合、オフセットがバッファに格納されているかを示す格納フラグを、オフセットがバッファに格納されていることを示す値(ここでは1)に設定する。
 そして、適応オフセットフィルタ41は、LCUごとに、1に設定された格納フラグ、バッファにおけるオフセットの格納位置を示すインデックス、および、行われた適応オフセットフィルタ処理の種類を示す種類情報を可逆符号化部16に供給する。
 一方、適応オフセットフィルタ41は、適応デブロックフィルタ処理に用いられたオフセットがまだバッファに格納されていない場合、そのオフセットを順にバッファに格納する。また、適応オフセットフィルタ41は、格納フラグを、オフセットがバッファに格納されていないことを示す値(ここでは0)に設定する。そして、適応オフセットフィルタ41は、LCUごとに、0に設定された格納フラグ、オフセット、および種類情報を可逆符号化部16に供給する。
 適応ループフィルタ42は、適応オフセットフィルタ41から供給される適応オフセットフィルタ処理後の画像に対して、例えば、LCUごとに、適応ループフィルタ(ALF:Adaptive Loop Filter)処理を行う。適応ループフィルタ処理としては、例えば、2次元のウィナーフィルタ(Wiener Filter)による処理が用いられる。もちろん、ウィナーフィルタ以外のフィルタが用いられてもよい。
 具体的には、適応ループフィルタ42は、LCUごとに、画面並べ替えバッファ12から出力される画像である原画像と適応ループフィルタ処理後の画像の残差が最小となるように、適応ループフィルタ処理で用いられるフィルタ係数を算出する。そして、適応ループフィルタ42は、適応オフセットフィルタ処理後の画像に対して、算出されたフィルタ係数を用いて、LCUごとに適応ループフィルタ処理を行う。
 適応ループフィルタ42は、適応ループフィルタ処理後の画像をフレームメモリ22に供給する。また、適応ループフィルタ42は、フィルタ係数を可逆符号化部16に供給する。
 なお、ここでは、適応ループフィルタ処理は、LCUごとに行われるものとするが、適応ループフィルタ処理の処理単位は、LCUに限定されない。但し、適応オフセットフィルタ41と適応ループフィルタ42の処理単位を合わせることにより、処理を効率的に行うことができる。
 フレームメモリ22に蓄積された画像は、参照画像としてスイッチ23を介してイントラ予測部24または動き予測・補償部25に出力される。
 イントラ予測部24は、フレームメモリ22からスイッチ23を介して読み出されたデブロックフィルタ21でフィルタリングされていない参照画像を用いて、タイルおよびスライス単位で、候補となる全てのイントラ予測モードのイントラ予測処理を行う。
 また、イントラ予測部24は、画面並べ替えバッファ12から読み出された画像と、イントラ予測処理の結果生成される予測画像とに基づいて、候補となる全てのイントラ予測モードに対してコスト関数値(詳細は後述する)を算出する。そして、イントラ予測部24は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。
 イントラ予測部24は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部26に供給する。イントラ予測部24は、予測画像選択部26から最適イントラ予測モードで生成された予測画像の選択が通知された場合、イントラ予測モード情報を可逆符号化部16に供給する。
 なお、コスト関数値は、RD(Rate Distortion)コストともいい、例えば、H.264/AVC方式における参照ソフトウエアであるJM(Joint Model)で定められているような、High Complexity モードか、Low Complexity モードのいずれかの手法に基づいて算出される。
 具体的には、コスト関数値の算出手法としてHigh Complexity モードが採用される場合、候補となる全ての予測モードに対して、仮に可逆符号化までが行われ、次の式(1)で表わされるコスト関数値が各予測モードに対して算出される。
 Cost(Mode)=D+λ・R                 ・・・(1)
 Dは、原画像と復号画像の差分(歪)、Rは、直交変換の係数まで含んだ発生符号量、λは、量子化パラメータQPの関数として与えられるラグランジュ乗数である。
 一方、コスト関数値の算出手法としてLow Complexity モードが採用される場合、候補となる全ての予測モードに対して、復号画像の生成、および、予測モードを示す情報などのヘッダビットの算出が行われ、次の式(2)で表わされるコスト関数値が各予測モードに対して算出される。
 Cost(Mode)=D+QPtoQuant(QP)・Header_Bit       ・・・(2)
 Dは、原画像と復号画像の差分(歪)、Header_Bitは、予測モードに対するヘッダビット、QPtoQuantは、量子化パラメータQPの関数として与えられる関数である。
 Low Complexity モードにおいては、全ての予測モードに対して、復号画像を生成するだけでよく、可逆符号化を行う必要がないため、演算量が少なくて済む。
 動き予測・補償部25は、タイルおよびスライス単位で、候補となる全てのインター予測モードの動き予測・補償処理を行う。具体的には、動き予測・補償部25は、タイルおよびスライス単位で、画面並べ替えバッファ12から供給される画像と、フレームメモリ22からスイッチ23を介して読み出されるフィルタリングされた参照画像に基づいて、候補となる全てのインター予測モードの動きベクトルを検出する。そして、動き予測・補償部25は、タイルおよびスライス単位で、その動きベクトルに基づいて参照画像に補償処理を施し、予測画像を生成する。
 このとき、動き予測・補償部25は、画面並べ替えバッファ12から供給される画像と予測画像とに基づいて、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター測モードに決定する。そして、動き予測・補償部25は、最適インター予測モードのコスト関数値と、対応する予測画像を予測画像選択部26に供給する。また、動き予測・補償部25は、予測画像選択部26から最適インター予測モードで生成された予測画像の選択が通知された場合、インター予測モード情報、対応する動きベクトル、参照画像を特定する情報などを可逆符号化部16に出力する。
 予測画像選択部26は、イントラ予測部24および動き予測・補償部25から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの、対応するコスト関数値が小さい方を、最適予測モードに決定する。そして、予測画像選択部26は、最適予測モードの予測画像を、演算部13および加算部20に供給する。また、予測画像選択部26は、最適予測モードの予測画像の選択をイントラ予測部24または動き予測・補償部25に通知する。
 レート制御部27は、蓄積バッファ17に蓄積された符号化データに基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部15の量子化動作のレートを制御する。
[ダイナミックレンジの特性情報の例]
 次に、図5を参照して、図3の設定部3により設定されるダイナミックレンジの特性情報について説明する。なお、図5における縦軸や横軸の値は一例であり、それらの値に限定されない。
 図5の例において、横軸は、撮像 (captured)画像のホワイトレベルを表している。縦軸は、現像画像(developed)画像に割り当てるデジタルコードを表している。現像画像とは、すなわち、ビット階調などをした画像のことである。
 横軸における800%は、カメラの感度および最適露出(撮影時および現像時)の値であり、かつ、撮影時の最大輝度である。この値は、ダイナミックレンジの特性情報の1つであるcamera_iso_sensitivityおよびmax_image_white_levelとしてそれぞれ設定されて伝送される。
 なお、この例では、カメラの感度および最適露出の値と撮影時の最大輝度とが同じ値となっているが、異なる場合もある。
 この最大ホワイトレベルに対応する縦軸の値(940)は、現像画像に対して最大ホワイトレベルが割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるmax_white_level_code_valueとして設定されてデコード側に伝送される。
 横軸における100%は、ディスプレイにおける基準の値(ホワイトレベル)である。このホワイトレベルに対する縦軸の値は、現像画像に対してホワイトレベル(白100%)が割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるwhite_level_code_valueとして設定されてデコード側に伝送される。
 横軸における20%は、Grayを示す標準露出として汎用的に使われるレベル(グレイレベル)であり、カメラ側で設定されることが多い。このグレイレベルに対する縦軸の値は、現像画像に対してグレイレベル(白20%)が割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるgray_level_code_valueとして設定されてデコード側に伝送される。
 横軸における0%は、ブラックレベルである。このブラックレベルに対する縦軸の値(64)は、現像画像に対してブラックレベル(白0%)が割り当てられるデジタル値であり、この値が、ダイナミックレンジの特性情報の1つであるblack_level_code_valueとして設定されてデコード側に伝送される。
 以上のように、撮影(Captured)画像に対して、現像(Developed)画像に割り当てられるダイナミックレンジのコードを示すコード情報が、ダイナミックレンジの特性情報として設定されてデコード側に伝送される。すなわち、撮影(Captured)画像に対して、現像(Developed)画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報が設定されてデコード側に伝送される。
 このようなダイナミックレンジの特性情報を、コンテンツの質を示す情報(ダイナミックレンジが既存のコンテンツに比べて広いなど、ホワイトレベルに関するような画像の情報の品質が高いことを示す情報、コンテンツが持っているポテンシャルが高いことを示す情報)として、コンテンツ作成側から明示して表示側(デコード側)に伝送する。
 コンテンツ作成側は、作成者の意図した画像(の状態)で提供したいモチベーションがある。表示側では、この情報を基準にしてダイナミックレンジを広げる(上げる)、または狭くする(下げる)処理を行う。また、この情報を参照することにより、表示側で、以下の処理を的確に行うことができる。
 例えば、自分の表示能力よりダイナミックレンジが高い画像が入力された場合、自分の表示能力に合わせて、トーンマッピングなどを用いてレンジを下げる処理を行うことができる。
 また、逆に、自分の表示能力よりダイナミックレンジが低い画像が入力された場合、自分の表示能力に合わせて、トーンマッピングなどを用いてレンジを上げる処理を行うことができる。
 この情報がない場合、デコード画像を表示側で解析した上で、トーンマッピングを行う必要があるが、ダイナミックレンジの特性情報を送ることで、デコード画像の解析が必要なくなり、さらに、ダイナミックレンジの調整を的確に行うことができる。
 なお、図6に示されるように、black_level_code_valueと、max_white_level_code_valueとの間において、white_level_code_value以外にも、複数のwhite_level_code_valueを設定して伝送するようにすることもできる。
 例えば、図6の例においては、撮影画像のホワイトレベルが0%乃至800%の間において、white_level_code_value_0乃至white_level_code_value_4が設定されて伝送される例が示されている。
 また、上記説明においては、max_white_level_code_value、white_level_code_value、およびblack_level_code_valueを、value(値)として設定する例を説明したが、Range(範囲)として設定して伝送するようにしてもよい。
 図7は、ダイナミックレンジの特性情報の例を示す図である。
 ダイナミックレンジの特性情報は、camera_iso_sensitivity、output_exposure_index、screen_lw、black_level_code_value、gray_level_code_value、white_level_code_value、およびmax_white_level_code_valueを含むように構成されている。
 camera_iso_sensitivityは、図5を参照して上述したように、画像を撮影したときのカメラの感度を明示している。output_exposure_indexは、画像の現像工程で使うように設定されている露出インデックス(すなわち、現像時の露出インデックス)を明示している。ref_screen_lwは、画像の現像工程で使うように設定されているホワイトレベルの参照表示輝度を明示している。
 black_level_code_value、gray_level_code_value、white_level_code_value、およびmax_white_level_code_valueは、図5を参照して上述したように、ブラックレベル、ホワイトレベル、グレイレベル、および最大ホワイトレベルが割り当てられる輝度のコードデータをそれぞれ明示している。
 すなわち、ダイナミックレンジの特性情報としては、撮影時(captured image)の最大輝度、撮影時の最適露出の値、現像時(developed image)の最適露出の値、現像後の最大ホワイトレベルが割り当てられているデジタル値、現像後のホワイトレベル(白100%)が割り当てられているデジタル値、現像後のグレイレベルが割り当てられているデジタル値、現像後のブラックレベルが割り当てられているデジタル値、および現像後の白100%から最大白0%までの間のデジタル値が含まれていることが望ましい。
 上述したこれらのダイナミックレンジの特性情報は、以下に説明する伝送方法1乃至4のいずれかの方法で、デコード側に伝送される。
 まず、図8を参照して、伝送方法1として、ダイナミックレンジの特性情報を既存のSEI(Supplemental enhancement information)を拡張して伝送する例について説明する。図8は、トーンマッピングSEI(tone_mapping_information SEI)の例を示す図である。SEIは、符号化ストリームを復号処理した画像を表示する際に用いる補助情報である。
 上述したダイナミックレンジの特性情報は、図8の枠内に示されるように、トーンマッピングSEIにおけるモデルID(model_id)=4を拡張することで、トーンマッピングSEIに設定されて伝送される。
 なお、枠内のうち、ハッチングされていないcamera_iso_sensitivityおよびoutput_exposure_indexは、カメラの設定パラメータとしては既存の情報(従来技術)である。ただし、それらの情報を符号化ビットストリームに入れて伝送するという点、又は、それらの情報を使って、ダイナミックレンジを調整するという点では、従来技術と異なる。
 他方、枠内のうち、ハッチングされているref_screen_lw、max_image_white_level 、black_level_code_value、white_level_code_value、max_white_level_code_valueは、パラメータ自体が新たに設定したものであり、従来技術と異なる。
 ここで、従来のトーンマッピングSEIにおいては、RGB毎に別々の成分が用いられていたが、ダイナミックレンジの特性情報は、デコードした画像の輝度成分を適用対象とする。
 また、TBDは、To BE Determined Valueであり、予め設定された値、または、コンテンツを作成した際に設定されたパラメータであることを表している。
 図9は、トーンマッピングSEIの他の例を示す図である。
 図9の例においても、上述したダイナミックレンジの特性情報は、枠内に示されるように、トーンマッピングSEIにおけるモデルID(model_id)=4を拡張することで、トーンマッピングSEIに設定されて伝送される。
 camera_iso_sensitivity_idcは、カメラが取得できる感度を示すコードを明示している。このコードの意味は、後述する図10のテーブルに示されている。camera_iso_sensitivity_idcがExtended_ISOを指し示す場合、次行のcamera_iso_sensitivityによって、ISO_numnerが表される。すなわち、camera_iso_sensitivity_idcをExtended_ISOとすることで、camera_iso_sensitivity_idcを好きな値に設定することができる。
 exposure_index_idcは、撮影時の露出インデックスを示すコードを明示している。このコードの意味は、後述する図10のテーブルに示されている。exposure_index _idcがExtended_ISOを指し示す場合、次行のexposure_index_ratingによって、ISO_numnerが表される。すなわち、exposure_index_idcをExtended_ISOとすることで、exposure_index_idcを好きな値に設定することができる。
 sign_image_exposure_valueは、撮影時の露出の値に対しての現像時の露出の相対的な符号を明示している。image_expoure_value0は、撮影時の露出の値に対しての現像時の露出の相対的な値のうちの分子の値を明示している。image_expoure_value1は、撮影時の露出の値に対しての現像時の露出の相対的な値のうちの分母の値を明示している。
 すなわち、撮影時に対して現像時は、sign_image_exposure_value、image_expoure_value0、およびimage_expoure_value1を用いて、どのぐらい露出の値を下げたかという、相対的な値を示すことで、現像時の露出の値(図8のoutput_exposure_index)を導くことができる。これにより、現像時の露出の値を小数で表わすことが可能となる。
 ref_screen_lwは、何cd/m2(カンデラ)の白で表示することを想定して作られたコンテンツであり、その白で表示するのがよいことを明示している。
 max_image_white_levelは、基準のホワイトレベルを参照して整数のパーセントとして表された画像の輝度のダイナミックレンジを明示している。
 black_level_code_value、white_level_code_value、およびmax_white_level_code_valueは、図8の例の場合と同様に、ブラックレベル、ホワイトレベル、および最大ホワイトレベルが割り当てられる輝度のコードデータをそれぞれ明示している。
 なお、図9の例においても、図8の例の場合と同様に、枠内のうち、ハッチングされていないcamera_iso_sensitivity、exposure_index_idc、sign_image_exposure、image_expoure_value0、およびimage_expoure_value1は、カメラの設定パラメータとしては既存の情報(従来技術)である。これに対して、その情報を符号化ビットストリームに入れて伝送するという点、又は、それらの情報を使って、ダイナミックレンジを調整するという点では従来技術と異なる。
 これに対して、枠内のうち、ハッチングされているref_screen_lw、max_image_white_level 、black_level_code_value、white_level_code_value、max_white_level_code_valueは、パラメータ自体が新たに設定したものであり、従来技術とは異なる。
 図10は、カメラの感度が指し示す値と露出インデックスが指し示す値の意味のテーブルを示す図である。
 例えば、指し示す値(Indicator)が0の場合、ISO numberは特に明示されていない。指し示す値が1の場合、ISO numberが10であることが明示されている。指し示す値が2乃至30の場合、その図示は省略されているが、ISO numberがそれぞれ明示されている。
 指し示す値が31乃至254の場合、ISO numberはReservedとなっている。指し示す値が255の場合、ISO numberはExtended_ISOであることが明示されている。ISO numberは、Extended_ISOである場合、図9を参照して上述したように、camera_iso_sensitivity_idcも、exposure_index_idcも、好きな値を指示することができる。
 次に、図11を参照して、伝送方法2として、ダイナミックレンジの特性情報を新たな(専用の)SEIを設定して伝送する方法について説明する。図11は、ルミナンスダイナミックレンジSEI(luminance_dynamic_range_information SEI)の例を示す図である。
 すなわち、図11に示されるようなルミナンスダイナミックレンジSEI(luminance_dynamic_range_info)を新たに設定する。そして、上述したダイナミックレンジの特性情報は、図11の枠内に示されるように、そのルミナンスダイナミックレンジSEIに設定されて伝送される。なお、図11の枠内のダイナミックレンジ特性情報は、図8を参照して上述したダイナミックレンジ特性情報と基本的に同様であり、その説明は繰り返しになるので省略される。
 さらに、伝送方法3としては、上述した伝送方法1および2と、VUI(Video Usability Information)パラメータとを連携させて、ダイナミックレンジ特性情報を伝送する方法があげられる。VUIは、画像のユーザビリティをシーケンス単位で示す情報である。
 図12は、伝送方法1と連携した場合のVUIのシンタックスの例を示す図である。図12の例において、tone_mapping_flag(トーンマッピングフラグ)は、トーンマッピングSEIの有無を示す有無情報を示すフラグである。トーンマッピングフラグは、トーンマッピングSEIが有ることを示す場合1とされ、トーンマッピングSEIが無いことを示す場合0とされる。
 図13は、伝送方法2と連携した場合のVUIのシンタックスの例を示す図である。図13の例において、luminance_dynamic_range_flag(ルミナンスダイナミックレンジフラグ)は、ルミナンスダイナミックレンジSEIの有無を示す有無情報を示すフラグである。ルミナンスダイナミックレンジフラグは、ルミナンスダイナミックレンジSEIが有ることを示す場合1とされ、ルミナンスダイナミックレンジSEIが無いことを示す場合0とされる。
 最後に、伝送方法4として、ダイナミックレンジ特性情報は、上述したVUIのパラメータとして伝送するようにしてもよい。すなわち、この場合、図12または図13に示されるフラグの代わりに(または、フラグに追加して)、ダイナミックレンジ特性情報自体がVUIのパラメータとして伝送される。
 ここで、ダイナミックレンジ特性情報をSEIに入れる場合、HEVC方式だけでなく、AVC方式にも適用することができる。一方、VUIには、ディスプレイ側で使う値が多く入っているので、ダイナミックレンジ特性情報をVUIに入れる場合、情報をまとめておくことができる。
 図14は、伝送方法4の場合のVUIのシンタクスの例を示す図である。
 図14のVUIのシンタクスにおいては、枠の上に示すように、図12のtone_mapping_flag(トーンマッピングフラグ)が記述されており、トーンマッピングフラグは、直後(VUI内であれば直後でなくてもよい)に、ダイナミックレンジ特性情報が記述されている場合1とされ、ダイナミックレンジ特性情報が記述されていない場合0とされる。
 したがって、復号側においては、トーンマッピングフラグが1の場合に、図14の枠内に示すダイナミックレンジ特性情報が参照される。
 なお、図14に示されるダイナミックレンジ特性情報は、図9を参照して上述したダイナミックレンジ特性情報と同じであり、繰り返しになるのでその説明は省略される。
 図15は、ダイナミックレンジ特性情報の例を示す図である。なお、ダイナミックレンジ特性情報は、上述したように、トーンマッピングSEI、ルミナンスダイナミックレンジSEI、または、VUIなどに記述される情報であり、図15の例においては、記述位置を特定しないために、シンタックスの先頭に「xxxxx()」が記述されている。
 図15のダイナミックレンジ特性情報は、max_white_level_code_valueの下に、注目領域の輝度のレンジ、かつ/または、注目領域の位置とオフセットを表す情報が追加された点が、図9のダイナミックレンジ特性情報と異なっている。
 すなわち、roi_luminance_range_flagは、注目領域(region of interest:興味領域)の輝度のレンジ、かつ/または、注目領域の位置とオフセットを表す情報が記述されているか否かを示すフラグである。
 roi_luminance_range_flagの値が1の場合、黒ベタ部分に示されるように、min_roi_luminance_range、max_roi_luminance_range、roi_region_x、roi_region_y、roi_region_x_offset、およびroi_region_y_offsetが記述される。
 min_roi_luminance_rangeは、注目領域の輝度レンジの最小値を明示している。max_roi_luminance_rangeは、注目領域の輝度レンジの最大値を明示している。roi_region_xおよびroi_region_yは、注目領域の左上のx座標およびy座標をそれぞれ明示している。
 roi_region_x offsetおよびroi_region_y offsetは、左上のroi_region_xおよびroi_region_yからのオフセットの値をそれぞれ表している。これにより、roi_region_xおよびroi_region_yからの注目領域を指し示すことができる。
 以上のように、注目領域の輝度のレンジおよび(または)注目領域の位置やそのオフセットを、ダイナミックレンジ特性情報に含めるようにしたので、注目領域に合わせたトーンマッピングをしてほしいという意図を復号側に伝えることができる。
 なお、注目領域の輝度のレンジの代わりに、例えば、映画コンテンツのように、輝度の低いレンジをより重視する黒重視フラグや、テレビジョンコンテンツのように、輝度の高いレンジをより重視する白重視フラグを追加するようにしてもよい。
 従来、ディスプレイの表現できる解像度が低かったので、コンテンツ制作者は、100%以上の白を入れておく必要がなかったが、昨今、高い解像度まで表現できるディスプレイが出てきている。
 そこで、上述したように、いままで100%白しか有していなかった映像に対して、それ以上の白をもたせ、さらに、ディスプレイ能力はさまさまだから、自分で自分に適した映像にして出力できるような情報をもたせるようにした。
 これにより、ディスプレイ側において、ダイナミックレンジを正確に再現することができる。
[符号化装置の処理の説明]
 図16は、図3の符号化装置1の生成処理を説明するフローチャートである。なお、図16の例においては、上述した伝送方法3の例について説明する。
 図16のステップS1において、符号化装置1の符号化部2は、外部から入力信号として入力されるフレーム単位の撮影画像等の画像をHEVC方式で符号化する符号化処理を行う。この符号化処理の詳細は、後述する図17および図18を参照して説明する。
 ステップS2において、設定部3は、SPSを設定する。ステップS3において、設定部3は、PPSを設定する。ステップS4において、設定部3は、ユーザによる図示せぬ入力部の操作等に基づいて、符号化対象の画像がHDR(High Dynamic Range)画像であるかどうかを判定する。なお、上述したダイナミックレンジの特性情報を有する画像を、以下、HDR画像であるとして説明する。
 ステップS4で符号化対象の画像がHDR画像であると判定された場合、ステップS5において、設定部3は、HDR画像フラグとして1を含むVUIを設定する。ステップS6において、設定部3は、HDR画像SEIなどのSEIを設定し、処理をステップS8に進める。
 ここで、HDR画像フラグは、図12を参照して上述したtone_mapping_flagまたは図13を参照して上述したluminance_dynamic_range_flagのことである。また、HDR画像SEIは、図8を参照して上述したトーンマッピングSEIまたは図11を参照して上述したルミナンスダイナミックレンジSEIのことである。
 一方、ステップS4で符号化対象の画像がHDR画像ではないと判定された場合、ステップS7において、設定部3は、HDR画像フラグとして0を含むVUIを設定する。また、設定部3は、必要に応じて、HDR画像SEI以外のSEIを設定し、処理をステップS8に進める。
 ステップS8において、設定部3は、設定されたSPS,PPS,VUI、およびSEIと、符号化部2から供給される符号化データとから、符号化ストリームを生成する。設定部3は、符号化ストリームを伝送部4に供給する。
 ステップS9において、伝送部4は、設定部3から供給される符号化ストリームを、後述する復号装置に伝送し、処理を終了する。
 図17および図18は、図16のステップS1の符号化処理の詳細を説明するフローチャートである。
 図17のステップS11において、符号化部2のA/D変換部11は、入力信号として入力されたフレーム単位の画像をA/D変換し、画面並べ替えバッファ12に出力して記憶させる。
 ステップS12において、画面並べ替えバッファ12は、記憶した表示の順番のフレームの画像を、GOP構造に応じて、符号化のための順番に並べ替える。画面並べ替えバッファ12は、並べ替え後のフレーム単位の画像を、演算部13、イントラ予測部24、および動き予測・補償部25に供給する。なお、以下のステップS13乃至S31の処理は、例えばCU(Coding Unit)単位で行われる。
 ステップS13において、イントラ予測部24は、候補となる全てのイントラ予測モードのイントラ予測処理を行う。また、イントラ予測部24は、画面並べ替えバッファ12から読み出された画像と、イントラ予測処理の結果生成される予測画像とに基づいて、候補となる全てのイントラ予測モードに対してコスト関数値を算出する。そして、イントラ予測部24は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。イントラ予測部24は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部26に供給する。
 また、動き予測・補償部25は、候補となる全てのインター予測モードの動き予測・補償処理を行う。また、動き予測・補償部25は、画面並べ替えバッファ12から供給される画像と予測画像とに基づいて、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター測モードに決定する。そして、動き予測・補償部25は、最適インター予測モードのコスト関数値と、対応する予測画像を予測画像選択部26に供給する。
 ステップS14において、予測画像選択部26は、ステップS13の処理によりイントラ予測部24および動き予測・補償部25から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちのコスト関数値が最小となる方を、最適予測モードに決定する。そして、予測画像選択部26は、最適予測モードの予測画像を、演算部13および加算部20に供給する。
 ステップS15において、予測画像選択部26は、最適予測モードが最適インター予測モードであるかどうかを判定する。ステップS15で最適予測モードが最適インター予測モードであると判定された場合、予測画像選択部26は、最適インター予測モードで生成された予測画像の選択を動き予測・補償部25に通知する。
 そして、ステップS16において、動き予測・補償部25は、インター予測モード情報、対応する動きベクトル、および参照画像を特定するための情報を可逆符号化部16に供給する。そして、処理はステップS18に進む。
 一方、ステップS15で最適予測モードが最適インター予測モードではないと判定された場合、即ち最適予測モードが最適イントラ予測モードである場合、予測画像選択部26は、最適イントラ予測モードで生成された予測画像の選択をイントラ予測部24に通知する。
 そして、ステップS17において、イントラ予測部24は、イントラ予測モード情報を可逆符号化部16に供給する。そして、処理はステップS18に進む。
 ステップS18において、演算部13は、画面並べ替えバッファ12から供給される画像から、予測画像選択部26から供給される予測画像を減算することにより符号化を行う。演算部13は、その結果得られる画像を、残差情報として直交変換部14に出力する。
 ステップS19において、直交変換部14は、演算部13からの残差情報に対して直交変換を施し、その結果得られる係数を量子化部15に供給する。
 ステップS20において、量子化部15は、直交変換部14から供給される係数を量子化する。量子化された係数は、可逆符号化部16と逆量子化部18に入力される。
 ステップS21において、逆量子化部18は、量子化部15から供給される量子化された係数を逆量子化する。
 ステップS22において、逆直交変換部19は、逆量子化部18から供給される係数に対して逆直交変換を施し、その結果得られる残差情報を加算部20に供給する。
 ステップS23において、加算部20は、逆直交変換部19から供給される残差情報と、予測画像選択部26から供給される予測画像を加算し、局部的に復号された画像を得る。加算部20は、得られた画像をデブロックフィルタ21に供給するとともに、フレームメモリ22に供給する。
 ステップS24において、デブロックフィルタ21は、加算部20から供給される局部的に復号された画像に対して、デブロッキングフィルタ処理を行う。デブロックフィルタ21は、その結果得られる画像を適応オフセットフィルタ41に供給する。
 ステップS25において、適応オフセットフィルタ41は、デブロックフィルタ21から供給される画像に対して、LCUごとに適応オフセットフィルタ処理を行う。適応オフセットフィルタ41は、その結果得られる画像を適応ループフィルタ42に供給する。また、適応オフセットフィルタ41は、LCUごとに、格納フラグ、インデックスまたはオフセット、および種類情報を、オフセットフィルタ情報として可逆符号化部16に供給する。
 ステップS26において、適応ループフィルタ42は、適応オフセットフィルタ41から供給される画像に対して、LCUごとに適応ループフィルタ処理を行う。適応ループフィルタ42は、その結果得られる画像をフレームメモリ22に供給する。また、適応ループフィルタ42は、適応ループフィルタ処理で用いられたフィルタ係数を可逆符号化部16に供給する。
 ステップS27において、フレームメモリ22は、フィルタリング前後の画像を蓄積する。具体的には、フレームメモリ22は、加算部20から供給される画像と適応ループフィルタ42から供給される画像を蓄積する。フレームメモリ22に蓄積された画像は、参照画像としてスイッチ23を介してイントラ予測部24または動き予測・補償部25に出力される。
 ステップS28において、可逆符号化部16は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、参照画像を特定する情報など、オフセットフィルタ情報、およびフィルタ係数を、符号化情報として可逆符号化する。
 ステップS29において、可逆符号化部16は、量子化部15から供給される量子化された係数を可逆符号化する。そして、可逆符号化部16は、ステップS28の処理で可逆符号化された符号化情報と可逆符号化された係数から、符号化データを生成する。
 ステップS30において、可逆符号化部16は、符号化データを蓄積バッファ17に供給し、蓄積させる。
 ステップS31において、蓄積バッファ17は、蓄積されている符号化データを、図3の設定部3に出力する。そして、処理は図16のステップS1に戻り、ステップS2に進む。
 なお、図17および図18の符号化処理では、説明を簡単化するため、常に、イントラ予測処理と動き予測・補償処理が行われるようにしたが、実際には、ピクチャタイプ等によっていずれか一方のみが行われる場合もある。
 以上のように、符号化装置1は、HDR画像SEI(トーンマッピングSEIまたはルミナンスダイナミックレンジSEI)とHDR画像フラグ(tone_mapping_flagまたはluminance_dynamic_range_flag)を設定し、HDR画像を符号化した符号化データとともに伝送する。
 従って、HDR画像の符号化ストリームを復号して表示させる復号装置は、HDR画像フラグが1である場合、HDR画像SEIを優先的に用いて、HDR画像のダイナミックレンジを確実に再現して表示させることができる。よって、符号化装置1は、HDR画像の符号化ストリームを復号して表示させる場合に、HDR画像のダイナミックレンジを確実に再現し、表示させることができるように、HDR画像の符号化ストリームを生成することができるといえる。
[復号装置の第1実施の形態の構成例]
 図19は、図3の符号化装置1から伝送される符号化ストリームを復号する、本技術を適用した画像処理装置としての、復号装置の第1実施の形態の構成例を示すブロック図である。
 図19の復号装置50は、受け取り部51、抽出部52、復号部53、画像調整部54、表示制御部55、および表示部56により構成される。
 復号装置50の受け取り部51は、図3の符号化装置1から伝送されてくる符号化ストリームを受け取り、抽出部52に供給する。抽出部52は、受け取り部51から供給される符号化ストリームから、SPS,PPS,VUI,SEI、符号化データ等を抽出する。抽出部52は、符号化データを復号部53に供給する。また、抽出部52は、SPS,PPS,VUI,SEI等も、必要に応じて復号部53と画像調整部54に供給する。
 復号部53は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等を参照し、抽出部52から供給される符号化データをHEVC方式で復号する。復号部53は、復号の結果得られるHDR画像等の画像を、出力信号として画像調整部54に供給する。
 画像調整部54は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等に基づいて、復号部53から出力信号として供給されるHDR画像のダイナミックレンジを調整する。例えば、画像調整部54は、表示ダイナミックレンジに合わせて、画像のダイナミックレンジを調整する。そして、画像調整部54は、出力信号としてのHDR画像を表示制御部55に供給する。
 表示制御部55は、画像調整部54から供給されるHDR画像(必要に応じて、表示部56から通知される表示方法)に基づいて、表示画像を生成する。表示制御部55は、生成された表示画像を表示部56に供給することにより、表示させる。
 表示部56は、表示制御部55から供給される表示画像を表示する。また、表示部56は、予め設定された表示方法、または、予め設定された表示方法のうちのユーザにより指定された表示方法を表示制御部55に通知する。
[復号部の構成例]
 図20は、図19の復号部53の構成例を示すブロック図である。
 図20の復号部53は、蓄積バッファ101、可逆復号部102、逆量子化部103、逆直交変換部104、加算部105、デブロックフィルタ106、画面並べ替えバッファ107、D/A変換部108、フレームメモリ109、スイッチ110、イントラ予測部111、動き補償部112、およびスイッチ113により構成される。
 また、デブロックフィルタ106と、画面並べ替えバッファ107およびフレームメモリ109との間には、適応オフセットフィルタ141と適応ループフィルタ142が備えられている。
 復号部53の蓄積バッファ101は、図19の抽出部52から符号化データを受け取り、蓄積する。蓄積バッファ101は、蓄積されている符号化データを可逆復号部102に供給する。
 可逆復号部102は、蓄積バッファ101からの符号化データに対して、可変長復号や、算術復号等の可逆復号を施すことで、量子化された係数と符号化情報を得る。可逆復号部102は、量子化された係数を逆量子化部103に供給する。また、可逆復号部102は、符号化情報としてのイントラ予測モード情報などをイントラ予測部111に供給し、動きベクトル、参照画像を特定するための情報、インター予測モード情報などを動き補償部112に供給する。さらに、可逆復号部102は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ113に供給する。
 可逆復号部102は、符号化情報としてのオフセットフィルタ情報を適応オフセットフィルタ141に供給し、フィルタ係数を適応ループフィルタ142に供給する。
 逆量子化部103、逆直交変換部104、加算部105、デブロックフィルタ106、フレームメモリ109、スイッチ110、イントラ予測部111、および、動き補償部112は、図4の逆量子化部18、逆直交変換部19、加算部20、デブロックフィルタ21、フレームメモリ22、スイッチ23、イントラ予測部24、および、動き予測・補償部25とそれぞれ同様の処理を行い、これにより、画像が復号される。
 具体的には、逆量子化部103は、可逆復号部102からの量子化された係数を逆量子化し、その結果得られる係数を逆直交変換部104に供給する。
 逆直交変換部104は、逆量子化部103からの係数に対して逆直交変換を施し、その結果得られる残差情報を加算部105に供給する。
 加算部105は、逆直交変換部104から供給される復号対象の画像としての残差情報と、スイッチ113から供給される予測画像を加算することにより、復号を行う。加算部105は、復号の結果得られる画像をデブロックフィルタ106に供給するとともに、フレームメモリ109に供給する。なお、スイッチ113から予測画像が供給されない場合、加算部105は、逆直交変換部104から供給される残差情報である画像を復号の結果得られる画像として、デブロックフィルタ106に供給するとともに、フレームメモリ109に供給して蓄積させる。
 デブロックフィルタ106は、加算部105から供給される画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ106は、その結果得られる画像を適応オフセットフィルタ141に供給する。
 適応オフセットフィルタ141は、可逆復号部102から供給されるオフセットを順に格納するバッファを有する。また、適応オフセットフィルタ141は、LCUごとに、可逆復号部102から供給されるオフセットフィルタ情報に基づいて、デブロックフィルタ106による適応デブロックフィルタ処理後の画像に対して、適応オフセットフィルタ処理を行う。
 具体的には、オフセットフィルタ情報に含まれる格納フラグが0である場合、適応オフセットフィルタ141は、LCU単位のデブロックフィルタ処理後の画像に対して、そのオフセットフィルタ情報に含まれるオフセットを用いて、種類情報が示す種類の適応オフセットフィルタ処理を行う。
 一方、オフセットフィルタ情報に含まれる格納フラグが1である場合、適応オフセットフィルタ141は、LCU単位のデブロックフィルタ処理後の画像に対して、そのオフセットフィルタ情報に含まれるインデックスが示す位置に格納されるオフセットを読み出す。そして、適応オフセットフィルタ141は、読み出されたオフセットを用いて、種類情報が示す種類の適応オフセットフィルタ処理を行う。適応オフセットフィルタ141は、適応オフセットフィルタ処理後の画像を、適応ループフィルタ142に供給する。
 適応ループフィルタ142は、適応オフセットフィルタ141から供給される画像に対して、可逆復号部102から供給されるフィルタ係数を用いて、LCUごとに適応ループフィルタ処理を行う。適応ループフィルタ142は、その結果得られる画像をフレームメモリ109および画面並べ替えバッファ107に供給する。
 フレームメモリ109に蓄積された画像は、参照画像としてスイッチ110を介して読み出され、動き補償部112またはイントラ予測部111に供給される。
 画面並べ替えバッファ107は、デブロックフィルタ106から供給される画像をフレーム単位で記憶する。画面並べ替えバッファ107は、記憶した符号化のための順番のフレーム単位の画像を、元の表示の順番に並び替え、D/A変換部108に供給する。
 D/A変換部108は、画面並べ替えバッファ107から供給されるフレーム単位の画像をD/A変換し、出力信号として図19の画像調整部54に出力する。
 イントラ予測部111は、タイルおよびスライス単位で、フレームメモリ109からスイッチ110を介して読み出されたデブロックフィルタ106でフィルタリングされていない参照画像を用いて、可逆復号部102から供給されるイントラ予測モード情報が示すイントラ予測モードのイントラ予測処理を行う。イントラ予測部111は、その結果生成される予測画像をスイッチ113に供給する。
 動き補償部112は、タイルおよびスライス単位で、可逆復号部102から供給される参照画像を特定するための情報に基づいて、フレームメモリ109からスイッチ110を介して、デブロックフィルタ106でフィルタリングされた参照画像を読み出す。動き補償部112は、動きベクトルと参照画像を用いて、インター予測モード情報が示す最適インター予測モードの動き補償処理を行う。動き補償部112は、その結果生成される予測画像をスイッチ113に供給する。
 スイッチ113は、可逆復号部102からイントラ予測モード情報が供給された場合、イントラ予測部111から供給される予測画像を加算部105に供給する。一方、可逆復号部102からインター予測モード情報が供給された場合、スイッチ113は、動き補償部112から供給される予測画像を加算部105に供給する。
 [復号装置の処理の説明]
 図21は、図19の復号装置50による表示処理を説明するフローチャートである。
 図21のステップS50において、復号装置50の受け取り部51は、図3の符号化装置1から伝送されてくる符号化ストリームを受け取り、抽出部52に供給する。
 ステップS51において、抽出部52は、受け取り部51から供給される符号化ストリームから、SPS,PPS,VUI,SEI、符号化データ等を抽出する。抽出部52は、符号化データを復号部53に供給する。また、抽出部52は、SPS,PPS,VUI,SEI等も、必要に応じて復号部53と画像調整部54に供給する。
 ステップS52において、復号部53は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等を参照し、抽出部52から供給される符号化データをHEVC方式で復号する復号処理を行う。この復号処理の詳細は、後述する図22を参照して説明する。
 ステップS53において、画像調整部54は、抽出部52から供給されるVUIに含まれるHDR画像フラグが1であるかどうかを判定する。図16を参照して上述したように、HDR画像フラグは、図12に示されるtone_mapping_flagまたは図13に示されるluminance_dynamic_range_flagのことである。ステップS53でHDR画像フラグが1であると判定された場合、画像調整部54は、復号部53から供給される出力信号がHDR画像であると判定する。
 そして、ステップS54において、画像調整部54は、抽出部52から供給されるHDR画像SEIに含まれるダイナミックレンジ特性情報を取得する。詳しくは、図16を参照して上述したように、図8に示されるトーンマッピングSEIまたは図11に示されるルミナンスダイナミックレンジSEIからダイナミックレンジ特性情報が取得される。
 ステップS55において、画像調整部54は、ステップS54で取得されたダイナミックレンジ特性情報に基づき、表示ダイナミックレンジに合わせて、画像のダイナミックレンジを調整する。このダイナミックレンジの調整処理には、例えば、トーンマッピング処理などが含まれる。画像調整部54は、調整した画像を、表示制御部55に供給する。
 なお、ステップS55における画像の調整には、大きくわけて2つの方法があるが、どちらの処理も、自分の表示能力に合わせる処理である。
 1つ目としては、自分の表示能力よりも、ダイナミックレンジが高い画像が入力された場合、自分の表示能力に合わせて、画像のダイナミックレンジを下げる処理が行われる。
 2つ目としては、自分の表示能力よりも、ダイナミックレンジが低い画像が入力された場合、自分の表示能力に合わせて、画像のダイナミックレンジを上げる処理が行われる。
 一方、ステップS53でHDR画像フラグが1ではないと判定された場合、ステップS54およびS55はスキップされ、処理は、ステップS56に進む。すなわち、この場合、画像調整部54は、復号部53からの画像をそのまま、表示制御部55に供給する。
 ステップS56において、表示制御部55は、画像調整部54から供給されるHDR画像に基づいて、表示画像を生成し、生成した表示画像を表示部56に供給することにより、表示部56に表示画像を表示させ、処理を終了する。
 図22は、図21のステップS52の復号処理の詳細を説明するフローチャートである。
 図22のステップS111において、復号部53の蓄積バッファ101は、図19の抽出部52からフレーム単位の符号化データを受け取り、蓄積する。蓄積バッファ101は、蓄積されている符号化データを可逆復号部102に供給する。なお、以下のステップS112乃至S124の処理は、例えばCU単位で行われる。
 ステップS112において、可逆復号部102は、蓄積バッファ101からの符号化データを可逆復号し、量子化された係数と符号化情報を得る。可逆復号部102は、量子化された係数を逆量子化部103に供給する。また、可逆復号部102は、符号化情報としてのイントラ予測モード情報などをイントラ予測部111に供給し、動きベクトル、インター予測モード情報、参照画像を特定するための情報などを動き補償部112に供給する。さらに、可逆復号部102は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ113に供給する。
 さらに、可逆復号部102は、符号化情報としてのオフセットフィルタ情報を適応オフセットフィルタ141に供給し、フィルタ係数を適応ループフィルタ142に供給する。
 ステップS113において、逆量子化部103は、可逆復号部102からの量子化された係数を逆量子化し、その結果得られる係数を逆直交変換部104に供給する。
 ステップS114において、動き補償部112は、可逆復号部102からインター予測モード情報が供給されたかどうかを判定する。ステップS114でインター予測モード情報が供給されたと判定された場合、処理はステップS115に進む。
 ステップS115において、動き補償部112は、可逆復号部102から供給される動きベクトル、インター予測モード情報、および参照画像を特定するための情報に基づいて、デブロックフィルタ106でフィルタリングされた参照画像を読み出し、動き補償処理を行う。動き補償部112は、その結果生成される予測画像を、スイッチ113を介して加算部105に供給し、処理をステップS117に進める。
 一方、ステップS114でインター予測モード情報が供給されていないと判定された場合、即ちイントラ予測モード情報がイントラ予測部111に供給された場合、処理はステップS116に進む。
 ステップS116において、イントラ予測部111は、フレームメモリ109からスイッチ110を介して読み出された、デブロックフィルタ106でフィルタリングされていない参照画像を用いて、イントラ予測モード情報が示すイントラ予測モードのイントラ予測処理を行う。イントラ予測部111は、イントラ予測処理の結果生成される予測画像を、スイッチ113を介して加算部105に供給し、処理をステップS117に進める。
 ステップS117において、逆直交変換部104は、逆量子化部103からの係数に対して逆直交変換を施し、その結果得られる残差情報を加算部105に供給する。
 ステップS118において、加算部105は、逆直交変換部104から供給される残差情報と、スイッチ113から供給される予測画像を加算する。加算部105は、その結果得られる画像をデブロックフィルタ106に供給するとともに、フレームメモリ109に供給する。
 ステップS119において、デブロックフィルタ106は、加算部105から供給される画像に対してフィルタリングを行い、ブロック歪を除去する。デブロックフィルタ106は、その結果得られる画像を適応オフセットフィルタ141に供給する。
 ステップS120において、適応オフセットフィルタ141は、可逆復号部102から供給されるオフセットフィルタ情報に基づいて、デブロックフィルタ106によるデブロックフィルタ処理後の画像に対して、LCUごとに適応オフセットフィルタ処理を行う。適応オフセットフィルタ141は、適応オフセットフィルタ処理後の画像を、適応ループフィルタ142に供給する。
 ステップS121において、適応ループフィルタ142は、適応オフセットフィルタ141から供給される画像に対して、可逆復号部102から供給されるフィルタ係数を用いて、LCUごとに適応ループフィルタ処理を行う。適応ループフィルタ142は、その結果得られる画像をフレームメモリ109および画面並べ替えバッファ107に供給する。
 ステップS122において、フレームメモリ109は、加算部105から供給されるフィルタリング前の画像と、デブロックフィルタ106から供給されるフィルタリング後の画像を蓄積する。フレームメモリ109に蓄積された画像は、参照画像としてスイッチ110を介して動き補償部112またはイントラ予測部111に供給される。
 ステップS123において、画面並べ替えバッファ107は、デブロックフィルタ106から供給される画像をフレーム単位で記憶し、記憶した符号化のための順番のフレーム単位の画像を、元の表示の順番に並び替え、D/A変換部108に供給する。
 ステップS124において、D/A変換部108は、画面並べ替えバッファ107から供給されるフレーム単位の画像をD/A変換し、出力信号として図19の画像調整部54に供給する。そして、処理は、図21のステップS52に戻り、ステップS53に進む。
 以上のように、復号装置50は、符号化データを復号して画像を生成し、HDR画像フラグが1である場合、HDR画像SEIを優先的に用いて、HDR画像のダイナミックレンジを確実に再現して表示させることができる。
 なお、HDR画像フラグは、VUIではなく、SPS等の他のNALユニットに含まれるようにしてもよい。
 以上においては、符号化方式としてHEVC方式をベースに用いるようにしたが、本技術は、表示を行う際の技術であり、符号化方式に拘らない。したがって、本技術は、HEVC方式に限らず、その他の符号化方式/復号方式を適用することができる。例えば、次に説明するAVC方式をベースに符号化/復号処理を行う装置にも適用することができる。
 <第2の実施の形態>
[符号化装置の第2実施の形態の構成例]
 図23は、本技術を適用した画像処理装置としての、符号化装置の第2実施の形態の構成例を示すブロック図である。
 図23に示す構成のうち、図3の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図23の符号化装置201の構成は、符号化部2の代わりに符号化部211が設けられる点が図3の構成と異なる。符号化装置201の構成は、設定部3および伝送部4が設けられている点が図3の構成と共通している。
 符号化装置201の符号化部211には、フレーム単位の撮影画像等の画像が入力信号として入力される。符号化部211は、入力信号をAVC方式で符号化し、その結果得られる符号化データを設定部3に供給する。
 設定部3は、AVC方式の規格に応じた形式で、画像のダイナミックレンジの特性情報を設定する。設定部3は、設定された特性情報と、符号化部211から供給される符号化データとから、符号化ストリームを生成する。設定部3は、符号化ストリームを伝送部4に供給する。
 すなわち、符号化装置201においては、AVC方式による符号化処理が行われる点のみが、図3の符号化装置1と異なっている。
[符号化部の構成例]
 図24は、図23の符号化部211の構成例を示すブロック図である。
 図24に示す構成のうち、図4の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図24の符号化部211は、A/D変換部11、画面並べ替えバッファ12、演算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、逆量子化部18、逆直交変換部19、加算部20、デブロックフィルタ21、フレームメモリ22、スイッチ23、イントラ予測部24、動き予測・補償部25、予測画像選択部26、およびレート制御部27を含むように構成される。
 すなわち、図24の符号化部211の構成は、適応オフセットフィルタ41と適応ループフィルタ42が除かれている点、および可逆符号化部16がHEVC方式ではなく、AVC方式により符号化を行う点のみが図4の構成と異なる。したがって、符号化部211においては、CU単位ではなく、ブロック単位に符号化処理が行われる。
 可逆符号化部16の符号化処理の対象は、適応オフセットフィルタおよび適応ループフィルタのパラメータを除き、図4の可逆符号化部16の場合と基本的に同様である。すなわち、可逆符号化部16は、図4の可逆符号化部16と同様に、イントラ予測モード情報をイントラ予測部24から取得する。また、インター予測モード情報、動きベクトル、参照画像を特定するための情報などを動き予測・補償部25から取得する。
 可逆符号化部16は、図4の可逆符号化部16と同様に、量子化部15から供給される量子化された係数に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行う。
 また、可逆符号化部16は、図4の可逆符号化部16と同様に、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、参照画像を特定する情報、オフセットフィルタ情報、およびフィルタ係数などを、符号化に関する符号化情報として可逆符号化する。可逆符号化部16は、可逆符号化された符号化情報と係数を、符号化データとして蓄積バッファ17に供給し、蓄積させる。なお、可逆符号化された符号化情報は、可逆符号化された係数のヘッダ情報とされてもよい。
 デブロックフィルタ21は、加算部20から供給される局部的に復号された画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ21は、その結果得られる画像をフレームメモリ22に供給し、蓄積させる。
 フレームメモリ22に蓄積された画像は、参照画像としてスイッチ23を介してイントラ予測部24または動き予測・補償部25に出力される。
 本技術は、このようなAVC方式の符号化装置201にも適用することができる。
 [復号装置の第2実施の形態の構成例]
 図25は、図23の符号化装置201から伝送される符号化ストリームを復号する、本技術を適用した画像処理装置としての、復号装置の第2実施の形態の構成例を示すブロック図である。
 図25に示す構成のうち、図19の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図25の復号装置251の構成は、復号部53の代わりに復号部261が設けられる点が図19の構成と異なる。復号装置251の構成は、受け取り部51、抽出部52、画像調整部54、表示制御部55、表示部56が設けられている点が図19の構成と共通している。
 受け取り部51は、図23の符号化装置201から伝送されてくるAVC方式で符号化された符号化ストリームを受け取り、抽出部52に供給する。抽出部52は、受け取り部51から供給される符号化ストリームから、AVC方式の規格に応じて設定されたダイナミックレンジの特性情報、符号化データ等を抽出する。抽出部52は、符号化データを復号部261に供給する。また、抽出部52は、ダイナミックレンジの特性情報も、必要に応じて復号部261と画像調整部54に供給する。
 復号部261は、必要に応じて抽出部52から供給されるSPS,PPS,VUI,SEI等を参照し、抽出部52から供給される符号化データをAVC方式で復号する。復号部261は、復号の結果得られるHDR画像等の画像を、出力信号として画像調整部54に供給する。
 画像調整部54は、必要に応じて抽出部52から供給されるダイナミックレンジの特性情報に基づいて、復号部261から出力信号として供給されるHDR画像のダイナミックレンジを調整する。そして、画像調整部54は、出力信号としてのHDR画像を表示制御部55に供給する。
 すなわち、復号装置251においては、AVC方式による復号処理が行われる点のみが、図19の復号装置50と異なっている。
 [復号部の構成例]
 図26は、図25の復号部261の構成例を示すブロック図である。
 図26に示す構成のうち、図20の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図26の復号部261は、蓄積バッファ101、可逆復号部102、逆量子化部103、逆直交変換部104、加算部105、デブロックフィルタ106、画面並べ替えバッファ107、D/A変換部108、フレームメモリ109、スイッチ110、イントラ予測部111、動き補償部112、およびスイッチ113により構成される。
 図26の復号部261の構成は、適応オフセットフィルタ141と適応ループフィルタ142が除かれている点、および可逆復号部102がHEVC方式ではなく、AVC方式により復号を行う点のみが図20の構成と異なる。したがって、復号部261においては、CU単位ではなく、ブロック単位に復号処理が行われる。
 可逆復号部102の復号処理の対象は、適応オフセットフィルタおよび適応ループフィルタのパラメータを除き、図20の可逆復号部102の場合と基本的に同様である。すなわち、可逆復号部102は、図20の可逆復号部102と同様に、蓄積バッファ101からの符号化データに対して、可変長復号や、算術復号等の可逆復号を施すことで、量子化された係数と符号化情報を得る。可逆復号部102は、量子化された係数を逆量子化部103に供給する。
 また、可逆復号部102は、図20の可逆復号部102と同様に、符号化情報としてのイントラ予測モード情報などをイントラ予測部111に供給し、動きベクトル、参照画像を特定するための情報、インター予測モード情報などを動き補償部112に供給する。さらに、可逆復号部102は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ113に供給する。
 デブロックフィルタ106は、加算部105から供給される画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ106は、その結果得られる画像をフレームメモリ109および画面並べ替えバッファ107に供給する。
 本技術は、このようなAVC方式の復号装置251にも適用することができる。
 なお、本開示は、例えば、HEVC方式等の様に、離散コサイン変換等の直交変換と動き補償によって圧縮された画像情報(ビットストリーム)を、衛星放送、ケーブルテレビジョン、インターネット、または携帯電話機などのネットワークメディアを介して受信する際に用いられる画像符号化装置および画像復号装置に適用することができる。また、本開示は、光、磁気ディスク、およびフラッシュメモリのような記憶メディア上で処理する際に用いられる画像符号化装置および画像復号装置に適用することができる。
<第3の実施の形態>
[多視画像点符号化・多視点画像復号への適用]
 上述した一連の処理は、多視点画像符号化・多視点画像復号に適用することができる。図27は、多視点画像符号化方式の一例を示す。
 図27に示されるように、多視点画像は、複数の視点の画像を含み、その複数の視点のうちの所定の1つの視点の画像が、ベースビューの画像に指定されている。ベースビューの画像以外の各視点の画像は、ノンベースビューの画像として扱われる。
 図27のような多視点画像符号化を行う場合、各ビュー(同一ビュー)において、ダイナミックレンジの特性情報を設定することができる。また、各ビュー(異なるビュー)において、他のビューで設定されたダイナミックレンジの特性情報を共有することもできる。
 この場合、ベースビューにおいて設定されたダイナミックレンジの特性情報が、少なくとも1つのノンベースビューで用いられる。あるいは、例えば、ノンベースビュー(view_id=i)において設定されたダイナミックレンジの特性情報が、ベースビューおよびノンベースビュー(view_id=j)の少なくともどちらか一方で用いられる。
 これにより、画像のダイナミックレンジを正確に再現することができる。
[多視点画像符号化装置]
 図28は、上述した多視点画像符号化を行う多視点画像符号化装置を示す図である。図28に示されるように、多視点画像符号化装置600は、符号化部601、符号化部602、および多重化部603を有する。
 符号化部601は、ベースビュー画像を符号化し、ベースビュー画像符号化ストリームを生成する。符号化部602は、ノンベースビュー画像を符号化し、ノンベースビュー画像符号化ストリームを生成する。多重化部603は、符号化部601において生成されたベースビュー画像符号化ストリームと、符号化部602において生成されたノンベースビュー画像符号化ストリームとを多重化し、多視点画像符号化ストリームを生成する。
 この多視点画像符号化装置600の符号化部601および符号化部602に対して、符号化装置1(図3)や符号化装置201(図23)を適用することができる。この場合、多視点画像符号化装置600は、符号化部601が設定したダイナミックレンジの特性情報と、符号化部602が設定したダイナミックレンジの特性情報とを設定して伝送させる。
 なお、上述したように符号化部601が設定したダイナミックレンジの特性情報を、符号化部601および符号化部602で共有して用いるように設定して伝送させるようにしてもよい。逆に、符号化部602がまとめて設定したダイナミックレンジの特性情報を、符号化部601および符号化部602で共有して用いるように設定して伝送させるようにしてもよい。
 [多視点画像復号装置]
 図29は、上述した多視点画像復号を行う多視点画像復号装置を示す図である。図29に示されるように、多視点画像復号装置610は、逆多重化部611、復号部612、および復号部613を有する。
 逆多重化部611は、ベースビュー画像符号化ストリームとノンベースビュー画像符号化ストリームとが多重化された多視点画像符号化ストリームを逆多重化し、ベースビュー画像符号化ストリームと、ノンベースビュー画像符号化ストリームとを抽出する。復号部612は、逆多重化部611により抽出されたベースビュー画像符号化ストリームを復号し、ベースビュー画像を得る。復号部613は、逆多重化部611により抽出されたノンベースビュー画像符号化ストリームを復号し、ノンベースビュー画像を得る。
 この多視点画像復号装置610の復号部612および復号部613に対して、復号装置50(図19)や復号装置251(図25)を適用することができる。この場合、多視点画像復号装置610は、符号化部601が設定し、復号部612が復号したダイナミックレンジの特性情報と、符号化部602が設定し、復号部613が復号したダイナミックレンジの特性情報を用いて処理を行う。
 なお、上述したように符号化部601(または、符号化部602)が設定したダイナミックレンジの特性情報を、符号化部601および符号化部602で共有して用いるように設定して伝送されている場合がある。この場合、多視点画像復号装置610においては、符号化部601(または、符号化部602)が設定し、復号部612(または復号部613)が復号したダイナミックレンジの特性情報を用いて処理が行われる。
 <6.第4の実施の形態>
[階層画像点符号化・階層画像復号への適用]
 上述した一連の処理は、階層画像符号化・階層画像復号に適用することができる。図30は、多視点画像符号化方式の一例を示す。
 図30に示されるように、階層画像は、複数の階層(解像度)の画像を含み、その複数の解像度のうちの所定の1つの階層の画像が、ベースレイヤの画像に指定されている。ベースレイヤの画像以外の各階層の画像は、ノンベースレイヤの画像として扱われる。
 図30のような階層画像符号化(空間スケーラビリティ)を行う場合、各レイヤ(同一レイヤ)において、ダイナミックレンジの特性情報を設定することができる。また、各レイヤ(異なるレイヤ)において、他のレイヤで設定されたダイナミックレンジの特性情報を共有することができる。
 この場合、ベースレイヤにおいて設定されたダイナミックレンジの特性情報が、少なくとも1つのノンベースレイヤで用いられる。あるいは、例えば、ノンベースレイヤ(layer _id=i)において設定されたダイナミックレンジの特性情報が、ベースレイヤおよびノンベースレイヤ(layer_id=j)の少なくともどちらか一方で用いられる。
 これにより、画像のダイナミックレンジを正確に再現することができる。
 [階層画像符号化装置]
 図31は、上述した階層画像符号化を行う階層画像符号化装置を示す図である。図31に示されるように、階層画像符号化装置620は、符号化部621、符号化部622、および多重化部623を有する。
 符号化部621は、ベースレイヤ画像を符号化し、ベースレイヤ画像符号化ストリームを生成する。符号化部622は、ノンベースレイヤ画像を符号化し、ノンベースレイヤ画像符号化ストリームを生成する。多重化部623は、符号化部621において生成されたベースレイヤ画像符号化ストリームと、符号化部622において生成されたノンベースレイヤ画像符号化ストリームとを多重化し、階層画像符号化ストリームを生成する。
 この階層画像符号化装置620の符号化部621および符号化部622に対して、符号化装置1(図3)や符号化装置201(図23)を適用することができる。この場合、階層画像符号化装置620は、符号化部621が設定したダイナミックレンジの特性情報と、符号化部602が設定したダイナミックレンジの特性情報とを設定して伝送させる。
 なお、上述したように符号化部621が設定したダイナミックレンジの特性情報を、符号化部621および符号化部622で共有して用いるように設定して伝送させるようにしてもよい。逆に、符号化部622が設定したダイナミックレンジの特性情報を、符号化部621および符号化部622で共有して用いるように設定して伝送させるようにしてもよい。
 [階層画像復号装置]
 図32は、上述した階層画像復号を行う階層画像復号装置を示す図である。図32に示されるように、階層画像復号装置630は、逆多重化部631、復号部632、および復号部633を有する。
 逆多重化部631は、ベースレイヤ画像符号化ストリームとノンベースレイヤ画像符号化ストリームとが多重化された階層画像符号化ストリームを逆多重化し、ベースレイヤ画像符号化ストリームと、ノンベースレイヤ画像符号化ストリームとを抽出する。復号部632は、逆多重化部631により抽出されたベースレイヤ画像符号化ストリームを復号し、ベースレイヤ画像を得る。復号部633は、逆多重化部631により抽出されたノンベースレイヤ画像符号化ストリームを復号し、ノンベースレイヤ画像を得る。
 この階層画像復号装置630の復号部632および復号部633に対して、復号装置50(図19)や復号装置251(図25)を適用することができる。この場合、階層画像復号装置630は、符号化部621が設定し、復号部632が復号したダイナミックレンジの特性情報と、符号化部622が設定し、復号部633が復号したダイナミックレンジの特性情報を用いて処理を行う。
 なお、上述したように符号化部621(または、符号化部622)が設定したダイナミックレンジの特性情報を、符号化部621および符号化部622で共有して用いるように設定して伝送されている場合がある。この場合、階層画像復号装置630においては、符号化部621(または、符号化部622)が設定し、復号部632(または、復号部633)が復号したダイナミックレンジの特性情報を用いて処理が行われる。
 <第5の実施の形態>
[コンピュータの構成例]
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図33は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ800において、CPU(Central Processing Unit)801,ROM(Read Only Memory)802,RAM(Random Access Memory)803は、バス804により相互に接続されている。
 バス804には、さらに、入出力インタフェース805が接続されている。入出力インタフェース805には、入力部806、出力部807、記憶部808、通信部809、及びドライブ810が接続されている。
 入力部806は、キーボード、マウス、マイクロホンなどよりなる。出力部807は、ディスプレイ、スピーカなどよりなる。記憶部808は、ハードディスクや不揮発性のメモリなどよりなる。通信部809は、ネットワークインタフェースなどよりなる。ドライブ810は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア811を駆動する。
 以上のように構成されるコンピュータでは、CPU801が、例えば、記憶部808に記憶されているプログラムを、入出力インタフェース805及びバス804を介して、RAM803にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ800(CPU801)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア811に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア811をドライブ810に装着することにより、入出力インタフェース805を介して、記憶部808にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部809で受信し、記憶部808にインストールすることができる。その他、プログラムは、ROM802や記憶部808に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
 また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
 また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 上述した実施形態に係る画像符号化装置及び画像復号装置は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
 <応用例>
[第1の応用例:テレビジョン受像機]
 図34は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
 チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
 デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
 映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
 表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOELD(Organic ElectroLuminescence Display)(有機ELディスプレイ)など)の映像面上に映像又は画像を表示する。
 音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
 外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 制御部910は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
 ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
 バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
 このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置の機能を有する。それにより、テレビジョン装置900での画像の復号に際して、画像のダイナミックレンジを正確に再現することができる。
 [第2の応用例:携帯電話機]
 図35は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
 アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
 携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
 音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
 記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USB(Universal Serial Bus)メモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
 また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記憶再生部929の記憶媒体に記憶させる。
 また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置及び画像復号装置の機能を有する。それにより、携帯電話機920での画像の符号化及び復号に際して、画像のダイナミックレンジを正確に再現することができる。
 [第3の応用例:記録再生装置]
 図36は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
 記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
 チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
 外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
 エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
 HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラムおよびその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
 ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)又はBlu-ray(登録商標)ディスクなどであってよい。
 セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
 デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
 OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
 制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
 ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
 このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置の機能を有する。それにより、記録再生装置940での画像の符号化及び復号に際して、画像のダイナミックレンジを正確に再現することができる。
 [第4の応用例:撮像装置]
 図37は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
 撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
 光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
 光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
 信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
 画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
 OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
 外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
 メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
 制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
 ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
 このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置及び画像復号装置の機能を有する。それにより、撮像装置960での画像の符号化及び復号に際して、画像のダイナミックレンジを正確に再現することができる。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、図19の表示制御部55と表示部56は、復号装置50の外部に設けられるようにしてもよい。
 また、例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本明細書では、ダイナミックレンジの特性情報等の各種情報が、符号化ストリームに多重化されて、符号化側から復号側へ伝送される例について説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
 また、本実施例においては、フラグは、有無(0 or 1)などの二者択一には限定されず、複数の選択肢の中から特定の項目を識別できる情報を含む。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、本技術は以下のような構成も取ることができる。
 (1) 画像を符号化処理してビットストリームを生成する符号化部と、
 Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定する設定部と、
 前記符号化部により生成されたビットストリームと前記設定部により設定されたダイナミックレンジ特性情報とを伝送する伝送部と
 を備える画像処理装置。
 (2) 前記設定部は、Captured 画像に対してDeveloped 画像に割り当てられるダイナミックレンジのコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)に記載の画像処理装置。
 (3) 前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)または(2)に記載の画像処理装置。
 (4) 前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)乃至(3)のいずれかに記載の画像処理装置。
 (5) 前記設定部は、Developed 画像のホワイトレベルに割り当てられるコードの最大値を示す最大ホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)乃至(4)のいずれかに記載の画像処理装置。
 (6) 前記設定部は、Developed 画像のブラックレベルのコードを示すブラックレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)乃至(5)のいずれかに記載の画像処理装置。
 (7) 前記設定部は、Developed 画像のグレイレベルのコードを示すグレイレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)乃至(6)のいずれかに記載の画像処理装置。
 (8) 前記設定部は、Captured 画像のホワイトレベルの最大値を示す最大ホワイトレベル情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)乃至(7)のいずれかに記載の画像処理装置。
 (9) 前記設定部は、前記ビットストリームを復号処理した画像の注目領域の輝度のレンジを示す情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)乃至(8)のいずれかに記載の画像処理装置。
 (10) 前記設定部は、前記ビットストリームを復号処理した画像の注目領域の位置およびオフセットを示す情報を、前記ダイナミックレンジ特性情報として設定する
 前記(1)乃至(9)のいずれかに記載の画像処理装置。
 (11) 前記伝送部は、前記ダイナミックレンジ特性情報を、前記ビットストリームを復号処理した画像を表示する際に用いる補助情報として伝送する
 前記(1)乃至(10)のいずれかに記載の画像処理装置。
 (12) 前記伝送部は、前記ダイナミックレンジ特性情報を、既存の補助情報を拡張した拡張補助情報として伝送する
 前記(1)乃至(10)のいずれかに記載の画像処理装置。
 (13) 前記伝送部は、前記ダイナミックレンジ特性情報を、tone_mapping_information SEI (Supplemental enhancement information)として伝送する
  前記(1)乃至(10)のいずれかに記載の画像処理装置。
 (14) 前記伝送部は、tone_mapping_information SEI対象として、前記ダイナミックレンジ特性情報を伝送する際に用いるmodel_idを拡張して、前記ダイナミックレンジ特性情報をSEIとして伝送する
 前記(1)乃至(10)のいずれかに画像処理装置。
 (15) 前記伝送部は、前記ダイナミックレンジ特性情報を、前記画像のユーザビリティをシーケンス単位で示すVUI(Video Usability Information)として伝送する
 前記(1)乃至(10)のいずれかに記載の画像処理装置。
 (16)前記符号化部は、AVC/H.264規格に準じた符号化方式に従って、前記画像を符号化処理する
 前記(1)乃至(15)のいずれかに記載の画像処理装置。
 (17) 画像を符号化処理してビットストリームを生成し、
 Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定し、
 生成されたビットストリームと設定されたダイナミックレンジ特性情報とを伝送する
 画像処理方法。
 (18) ビットストリームと、前記ビットストリームを復号処理した画像に対するダイナミックレンジの特性を示すダイナミックレンジ特性情報とを受け取る受け取り部と、
 前記受け取り部により受け取られたビットストリームを復号処理して、画像を生成する復号部と、
 前記受け取り部により受け取られたダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整する画像調整部と
 を備える画像処理装置。
 (19) 前記ビットストリームと、前記ダイナミックレンジ特性情報とを受け取る受け取り部を
 さらに備え、
 前記復号部は、前記受け取り部により受け取られたビットストリームを復号処理し、
 前記画像調整部は、前記受け取り部により受け取られたダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整する
 前記(18)に記載の画像処理装置。
 (20) ビットストリームと、前記ビットストリームを復号処理した画像に対するダイナミックレンジの特性を示すダイナミックレンジ特性情報とを受け取り、
 受け取られたビットストリームを復号処理して、画像を生成し、
 受け取られたダイナミックレンジ特性情報を用いて、生成された画像に対するダイナミックレンジを調整する
 画像処理方法。
1 符号化装置, 2 符号化部, 3 設定部, 4 伝送部, 50 復号装置, 51 受け取り部, 52 抽出部, 53 復号部, 54 画像調整部, 55 表示制御部, 56 表示部, 201 符号化装置, 211 符号化部, 251 復号装置, 261 復号部

Claims (20)

  1.  画像を符号化処理してビットストリームを生成する符号化部と、
     Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定する設定部と、
     前記符号化部により生成されたビットストリームと前記設定部により設定されたダイナミックレンジ特性情報とを伝送する伝送部と
     を備える画像処理装置。
  2.  前記設定部は、Captured 画像に対してDeveloped 画像に割り当てられるダイナミックレンジのコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定する
     請求項1に記載の画像処理装置。
  3.  前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すコード情報を、前記ダイナミックレンジ特性情報として設定する
     請求項2に記載の画像処理装置。
  4.  前記設定部は、Captured 画像のホワイトレベルに対してDeveloped 画像に割り当てられるコードを示すホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
     請求項3に記載の画像処理装置。
  5.  前記設定部は、Developed 画像のホワイトレベルに割り当てられるコードの最大値を示す最大ホワイトレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
     請求項4に記載の画像処理装置。
  6.  前記設定部は、Developed 画像のブラックレベルのコードを示すブラックレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
     請求項1に記載の画像処理装置。
  7.  前記設定部は、Developed 画像のグレイレベルのコードを示すグレイレベルコード情報を、前記ダイナミックレンジ特性情報として設定する
     請求項1に記載の画像処理装置。
  8.  前記設定部は、Captured 画像のホワイトレベルの最大値を示す最大ホワイトレベル情報を、前記ダイナミックレンジ特性情報として設定する
     請求項1に記載の画像処理装置。
  9.  前記設定部は、前記ビットストリームを復号処理した画像の注目領域の輝度のレンジを示す情報を、前記ダイナミックレンジ特性情報として設定する
     請求項1に記載の画像処理装置。
  10.  前記設定部は、前記ビットストリームを復号処理した画像の注目領域の位置およびオフセットを示す情報を、前記ダイナミックレンジ特性情報として設定する
     請求項1に記載の画像処理装置。
  11.  前記伝送部は、前記ダイナミックレンジ特性情報を、前記ビットストリームを復号処理した画像を表示する際に用いる補助情報として伝送する
     請求項1に記載の画像処理装置。
  12.  前記伝送部は、前記ダイナミックレンジ特性情報を、既存の補助情報を拡張した拡張補助情報として伝送する
     請求項1に記載の画像処理装置。
  13.  前記伝送部は、前記ダイナミックレンジ特性情報を、tone_mapping_information SEI (Supplemental enhancement information)として伝送する
     請求項1に記載の画像処理装置。
  14.  前記伝送部は、tone_mapping_information SEIを対象として、前記ダイナミックレンジ特性情報を伝送する際に用いるmodel_idを拡張して、前記ダイナミックレンジ特性情報をSEIとして伝送する
     請求項13に記載の画像処理装置。
  15.  前記伝送部は、前記ダイナミックレンジ特性情報を、前記画像のユーザビリティをシーケンス単位で示すVUI(Video Usability Information)として伝送する
     請求項1に記載の画像処理装置。
  16.  前記符号化部は、AVC/H.264 規格に準じた符号化方式に従って、前記画像を符号化処理する
      請求項1に記載の画像処理装置。
  17.  画像処理装置が、
     画像を符号化処理してビットストリームを生成し、
     Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を設定し、
     生成されたビットストリームと設定されたダイナミックレンジ特性情報とを伝送する
     画像処理方法。
  18.  ビットストリームを復号処理して、画像を生成する復号部と、
     Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整する画像調整部と
     を備える画像処理装置。
  19.  前記ビットストリームと、前記ダイナミックレンジ特性情報とを受け取る受け取り部を
     さらに備え、
     前記復号部は、前記受け取り部により受け取られたビットストリームを復号処理し、
     前記画像調整部は、前記受け取り部により受け取られたダイナミックレンジ特性情報を用いて、前記復号部により生成された画像に対するダイナミックレンジを調整する
     請求項18に記載の画像処理装置。
  20.  ビットストリームを復号処理して、画像を生成し、
     Captured 画像に対してDeveloped画像に割り当てられるダイナミックレンジの特性を示すダイナミックレンジ特性情報を用いて、生成された画像に対するダイナミックレンジを調整する
     画像処理方法。
PCT/JP2013/067114 2012-06-29 2013-06-21 画像処理装置および方法 WO2014002901A1 (ja)

Priority Applications (13)

Application Number Priority Date Filing Date Title
MX2014015818A MX344551B (es) 2012-06-29 2013-06-21 Dispositivo y metodo de procesamiento de imagenes.
EP19158894.6A EP3512203B1 (en) 2012-06-29 2013-06-21 Image processing device and method
AU2013281949A AU2013281949B2 (en) 2012-06-29 2013-06-21 Image processing device and method
CA2875199A CA2875199C (en) 2012-06-29 2013-06-21 Image processing device and method
JP2014522599A JP6219823B2 (ja) 2012-06-29 2013-06-21 画像処理装置および方法、並びに記録媒体
EP13809522.9A EP2869558B1 (en) 2012-06-29 2013-06-21 Image processing device and method
BR112014032224-4A BR112014032224B1 (pt) 2012-06-29 2013-06-21 Dispositivo e método de processamento de imagem, e, meio de armazenamento não transitório legível por computador
CN201380033132.8A CN104380738B (zh) 2012-06-29 2013-06-21 图像处理装置及方法
RU2014152106A RU2653464C2 (ru) 2012-06-29 2013-06-21 Устройство для обработки изображений и способ обработки изображений
KR1020147035887A KR102161017B1 (ko) 2012-06-29 2013-06-21 화상 처리 장치 및 적어도 하나의 컴퓨터 판독가능한 기억 매체
US14/497,249 US20150010059A1 (en) 2012-06-29 2014-09-25 Image processing device and method
ZA2014/09126A ZA201409126B (en) 2012-06-29 2014-12-19 Image processing device and method
US14/601,358 US20150131904A1 (en) 2012-06-29 2015-01-21 Image processing device and method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-147885 2012-06-29
JP2012147885 2012-06-29
JP2012-183164 2012-08-22
JP2012183164 2012-08-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/497,249 Continuation US20150010059A1 (en) 2012-06-29 2014-09-25 Image processing device and method

Publications (1)

Publication Number Publication Date
WO2014002901A1 true WO2014002901A1 (ja) 2014-01-03

Family

ID=49783053

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/067114 WO2014002901A1 (ja) 2012-06-29 2013-06-21 画像処理装置および方法

Country Status (13)

Country Link
US (2) US20150010059A1 (ja)
EP (2) EP2869558B1 (ja)
JP (2) JP6219823B2 (ja)
KR (1) KR102161017B1 (ja)
CN (2) CN104380738B (ja)
AR (1) AR091515A1 (ja)
AU (1) AU2013281949B2 (ja)
BR (1) BR112014032224B1 (ja)
CA (1) CA2875199C (ja)
MX (1) MX344551B (ja)
RU (1) RU2653464C2 (ja)
TW (1) TWI586150B (ja)
WO (1) WO2014002901A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015118909A1 (ja) * 2014-02-07 2015-08-13 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、表示装置および表示方法
WO2015125719A1 (ja) * 2014-02-21 2015-08-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2015192419A (ja) * 2014-03-28 2015-11-02 ソニー株式会社 再生装置、再生方法、およびプログラム
WO2015190246A1 (ja) * 2014-06-13 2015-12-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015198553A1 (ja) * 2014-06-26 2015-12-30 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法
WO2016021120A1 (ja) * 2014-08-07 2016-02-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、再生方法および記録媒体
JP2016034125A (ja) * 2014-07-28 2016-03-10 ソニー株式会社 画像処理装置及び画像処理方法
JP2016039627A (ja) * 2014-08-07 2016-03-22 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
JP2016048888A (ja) * 2014-08-28 2016-04-07 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016058848A (ja) * 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
JP2016082498A (ja) * 2014-10-21 2016-05-16 三菱電機株式会社 デジタル放送受信装置及び方法、並びにプログラム及び記録媒体
WO2016108268A1 (ja) * 2014-12-29 2016-07-07 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016122985A (ja) * 2014-12-25 2016-07-07 株式会社東芝 画像処理システム、画像処理装置および画像処理方法
JP2017509057A (ja) * 2014-02-26 2017-03-30 トムソン ライセンシングThomson Licensing Hdr画像を符号化及び復号する方法及び装置
JP2017085481A (ja) * 2015-10-30 2017-05-18 キヤノン株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP2017143546A (ja) * 2017-03-21 2017-08-17 ソニー株式会社 再生装置、記録媒体、表示装置、および情報処理方法
JP2018530281A (ja) * 2015-09-23 2018-10-11 アリス エンタープライジズ エルエルシーArris Enterprises Llc 高ダイナミックレンジ映像データの再形成および適応のためのシステムおよび方法
JP2018530237A (ja) * 2015-09-23 2018-10-11 アリス エンタープライジズ エルエルシーArris Enterprises Llc トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
JP2018198458A (ja) * 2018-08-28 2018-12-13 ソニー株式会社 再生装置、表示装置、情報処理方法、および記録媒体
US20190075296A1 (en) * 2014-06-27 2019-03-07 Panasonic Intellectual Property Management Co., Ltd. Data output apparatus, data output method, and data generation method
JP2020025277A (ja) * 2014-12-03 2020-02-13 パナソニックIpマネジメント株式会社 データ符号化方法、データ復号方法、データ符号化装置及びデータ復号装置
CN111899769A (zh) * 2014-09-12 2020-11-06 松下电器(美国)知识产权公司 非暂时性计算机可读介质、再现装置以及再现方法
JP2021192558A (ja) * 2020-01-16 2021-12-16 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP2022009011A (ja) * 2014-02-25 2022-01-14 アップル インコーポレイテッド ビデオ符号化及び復号のための適応的伝達関数

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6381215B2 (ja) * 2014-01-29 2018-08-29 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、表示装置の制御方法、及び、プログラム
US10547844B2 (en) * 2014-12-04 2020-01-28 Lg Electronics Inc. Broadcasting signal transmission and reception method and device
US20180070083A1 (en) * 2015-03-24 2018-03-08 Sony Corporation Transmission device, transmission method, reception device, and reception method
CN112040237A (zh) 2015-07-16 2020-12-04 杜比实验室特许公司 用于hdr和宽色域信号的信号整形和编码
JP6986670B2 (ja) * 2015-09-11 2021-12-22 パナソニックIpマネジメント株式会社 映像受信方法及び映像受信装置
EP3349474A4 (en) * 2015-09-11 2018-07-25 Panasonic Intellectual Property Management Co., Ltd. Video reception method, video transmission method, video reception apparatus, and video transmission apparatus
US10129558B2 (en) 2015-09-21 2018-11-13 Qualcomm Incorporated Supplement enhancement information (SEI) messages for high dynamic range and wide color gamut video coding
US10244249B2 (en) * 2015-09-21 2019-03-26 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding
JP6132006B1 (ja) * 2015-12-02 2017-05-24 日本電気株式会社 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
BR112017016037A2 (pt) 2015-12-17 2018-03-20 Koninklijke Philips N.V. decodificador e codificador de vídeo em hdr; método de decodificação de vídeo; método para codificação de vídeo em hdr; e memória legível por computador
US10542296B2 (en) * 2016-05-10 2020-01-21 Dolby Laboratories Licensing Corporation Chroma reshaping of HDR video signals
US11102495B2 (en) * 2016-05-17 2021-08-24 Qualcomm Incorporated Methods and systems for generating and processing content color volume messages for video

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH057351A (ja) * 1991-06-26 1993-01-14 Shimadzu Corp 画像信号変換装置
JP2002542739A (ja) * 1999-04-15 2002-12-10 サーノフ コーポレイション 画像領域のダイナミックレンジの拡大を伴う標準圧縮
JP2006013750A (ja) * 2004-06-24 2006-01-12 Canon Inc 映像処理方法及び装置
JP2007257641A (ja) * 2006-03-24 2007-10-04 Sharp Corp トーンマッピングのメッセージングのための方法、システム、画像受信装置、画像送信装置、およびプログラム
JP2009538560A (ja) * 2006-05-25 2009-11-05 トムソン ライセンシング 重み付け符号化する方法及びシステム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
SG116400A1 (en) * 1997-10-24 2005-11-28 Matsushita Electric Ind Co Ltd A method for computational graceful degradation inan audiovisual compression system.
FR2812506B1 (fr) * 2000-07-25 2002-12-20 Canon Kk Procede et dispositif d'alerte lors du decodage progressif d'une image numerique codee avec une region d'interet
JP2004112048A (ja) * 2002-09-13 2004-04-08 Ricoh Co Ltd 画像読取装置
JP2005143032A (ja) * 2003-11-10 2005-06-02 Fuji Photo Film Co Ltd 撮影装置
JP2005208817A (ja) * 2004-01-21 2005-08-04 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像記録装置
US8155454B2 (en) * 2006-07-20 2012-04-10 Qualcomm Incorporated Method and apparatus for encoder assisted post-processing
RU2400815C2 (ru) * 2006-10-09 2010-09-27 Самсунг Электроникс Ко., Лтд. Способ повышения качества цифрового фотоизображения
US8106880B2 (en) * 2007-03-27 2012-01-31 Avaya Inc. Sharing a video display between telephony and computing devices
JP2008263547A (ja) * 2007-04-13 2008-10-30 Konica Minolta Holdings Inc 撮像装置
US8144214B2 (en) * 2007-04-18 2012-03-27 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
JP5133085B2 (ja) * 2007-04-18 2013-01-30 パナソニック株式会社 撮像装置および撮像方法
US20090317017A1 (en) * 2008-06-20 2009-12-24 The Hong Kong University Of Science And Technology Image characteristic oriented tone mapping for high dynamic range images
JP4977573B2 (ja) * 2007-10-11 2012-07-18 オンセミコンダクター・トレーディング・リミテッド 映像信号処理装置におけるオートゲインコントロール回路
JP2009223722A (ja) * 2008-03-18 2009-10-01 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム
JP4618342B2 (ja) * 2008-05-20 2011-01-26 日本テキサス・インスツルメンツ株式会社 固体撮像装置
CN102132566B (zh) * 2008-10-07 2015-05-20 株式会社Ntt都科摩 图像加工装置及方法、动态图像编码装置及方法、动态图像解码装置及方法、以及编码解码系统和方法
JP5589006B2 (ja) * 2009-03-13 2014-09-10 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジ、視覚ダイナミックレンジ及び広色域のビデオの階層化圧縮
JP5119215B2 (ja) * 2009-07-07 2013-01-16 株式会社エヌ・ティ・ティ・ドコモ 通信端末および通信制御方法
JPWO2011033669A1 (ja) * 2009-09-18 2013-02-07 株式会社東芝 画像表示装置
JP5588022B2 (ja) * 2010-02-22 2014-09-10 ドルビー ラボラトリーズ ライセンシング コーポレイション 表示サブシステムにビデオデータを提供する方法、およびシステム
US9509935B2 (en) * 2010-07-22 2016-11-29 Dolby Laboratories Licensing Corporation Display management server
CN103210418B (zh) * 2010-11-23 2016-08-17 杜比实验室特许公司 高动态范围图像的内容元数据增强
GB2500835B (en) * 2010-12-10 2014-02-12 Ibm High-dynamic range video tone mapping
US9626730B2 (en) * 2011-05-05 2017-04-18 Arm Limited Method of and apparatus for encoding and decoding data
US8787454B1 (en) * 2011-07-13 2014-07-22 Google Inc. Method and apparatus for data compression using content-based features
RU2643485C2 (ru) * 2011-09-27 2018-02-01 Конинклейке Филипс Н.В. Устройство и способ для преобразования динамического диапазона изображений
CN104185991B (zh) * 2011-11-09 2018-07-06 弗劳恩霍夫应用研究促进协会 不同动态采样值范围的层之间的层间预测
WO2013107939A1 (en) * 2012-01-20 2013-07-25 Nokia Corporation Method for video coding and an apparatus, a computer-program product, a system, and a module for the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH057351A (ja) * 1991-06-26 1993-01-14 Shimadzu Corp 画像信号変換装置
JP2002542739A (ja) * 1999-04-15 2002-12-10 サーノフ コーポレイション 画像領域のダイナミックレンジの拡大を伴う標準圧縮
JP2006013750A (ja) * 2004-06-24 2006-01-12 Canon Inc 映像処理方法及び装置
JP2007257641A (ja) * 2006-03-24 2007-10-04 Sharp Corp トーンマッピングのメッセージングのための方法、システム、画像受信装置、画像送信装置、およびプログラム
JP2009538560A (ja) * 2006-05-25 2009-11-05 トムソン ライセンシング 重み付け符号化する方法及びシステム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS; WOO-JIN HAN; JENS-RAINER OHM; GARY J. SULLIVAN; THOMAS WIEGAND: "High efficiency video coding (HEVC) text specification draft 7", JCTVC-I1003 VER5, 12 June 2012 (2012-06-12)
GARY SULLIVAN ET AL.: "Joint Draft 6 of ''New profiles for professional applications'' amendment to ITU-T Rec. H.264 & ISO/IEC 14496- 10 (Amendment 2 to 2005 edition)", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/ IEC JTC 1/SC 29/WG 11 AND ITU-T SG16 Q.6), JVT- V204, 22ND MEETING, January 2007 (2007-01-01), MARRAKECH, MOROCCO, pages 1 - 4, 68-74, XP055176939 *
SALLY HATTORI ET AL.: "Signalling of Luminance Dynamic Range in Tone mapping information SEI", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT- VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, JCTVC-J0149, 10TH MEETING, July 2012 (2012-07-01), STOCKHOLM, SE, pages 1 - 7, XP030053806 *

Cited By (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11418820B2 (en) 2014-02-07 2022-08-16 Sony Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
JP2021083127A (ja) * 2014-02-07 2021-05-27 ソニーグループ株式会社 受信装置および受信方法
JPWO2015118909A1 (ja) * 2014-02-07 2017-03-23 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、表示装置および表示方法
WO2015118909A1 (ja) * 2014-02-07 2015-08-13 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、表示装置および表示方法
US11882320B2 (en) 2014-02-07 2024-01-23 Sony Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
US11595704B2 (en) 2014-02-07 2023-02-28 Sony Group Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
US11290754B2 (en) 2014-02-07 2022-03-29 Sony Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
JP7047952B2 (ja) 2014-02-07 2022-04-05 ソニーグループ株式会社 受信装置および受信方法
JP2020127223A (ja) * 2014-02-07 2020-08-20 ソニー株式会社 受信装置、受信方法および表示装置
US11323752B2 (en) 2014-02-07 2022-05-03 Sony Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
RU2667153C2 (ru) * 2014-02-07 2018-09-17 Сони Корпорейшн Устройство передачи, способ передачи, устройство приема, способ приема, устройство отображения и способ отображения
US20160345032A1 (en) 2014-02-07 2016-11-24 Sony Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
JP7388465B2 (ja) 2014-02-07 2023-11-29 ソニーグループ株式会社 処理装置
US10313709B2 (en) 2014-02-07 2019-06-04 Sony Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
US11716493B2 (en) 2014-02-07 2023-08-01 Sony Group Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
JP2019135871A (ja) * 2014-02-07 2019-08-15 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、表示装置および表示方法
JPWO2015125719A1 (ja) * 2014-02-21 2017-03-30 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10674181B2 (en) 2014-02-21 2020-06-02 Sony Corporation Transmission device, transmission method, reception device, and reception method
WO2015125719A1 (ja) * 2014-02-21 2015-08-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US11330303B2 (en) 2014-02-21 2022-05-10 Sony Corporation Transmission device, transmission method, reception device, and reception method
US10735771B2 (en) 2014-02-21 2020-08-04 Sony Corporation Transmission device, transmission method, reception device, and reception method
JP7429676B2 (ja) 2014-02-25 2024-02-08 アップル インコーポレイテッド ビデオ符号化及び復号のための適応的伝達関数
JP2022009011A (ja) * 2014-02-25 2022-01-14 アップル インコーポレイテッド ビデオ符号化及び復号のための適応的伝達関数
JP2017509057A (ja) * 2014-02-26 2017-03-30 トムソン ライセンシングThomson Licensing Hdr画像を符号化及び復号する方法及び装置
US11727548B2 (en) 2014-02-26 2023-08-15 Interdigital Vc Holdings, Inc. Method and apparatus for encoding and decoding HDR images
JP2015192419A (ja) * 2014-03-28 2015-11-02 ソニー株式会社 再生装置、再生方法、およびプログラム
JPWO2015190246A1 (ja) * 2014-06-13 2017-04-20 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US11418753B2 (en) 2014-06-13 2022-08-16 Sony Corporation Transmission device, transmission method, reception device, and reception method
WO2015190246A1 (ja) * 2014-06-13 2015-12-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP5995032B1 (ja) * 2014-06-26 2016-09-21 パナソニックIpマネジメント株式会社 データ出力装置及びデータ出力方法
CN106165403A (zh) * 2014-06-26 2016-11-23 松下知识产权经营株式会社 数据输出装置、数据输出方法以及数据生成方法
US11140354B2 (en) 2014-06-26 2021-10-05 Panasonic Intellectual Property Management Co., Ltd. Method for generating control information based on characteristic data included in metadata
JP2016208499A (ja) * 2014-06-26 2016-12-08 パナソニックIpマネジメント株式会社 データ出力装置及びデータ出力方法
WO2015198553A1 (ja) * 2014-06-26 2015-12-30 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法
JP5906504B1 (ja) * 2014-06-26 2016-04-20 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法
US10666891B2 (en) 2014-06-26 2020-05-26 Panasonic Intellectual Property Management Co., Ltd. Method for generating control information based on characteristic data included in metadata
CN110708439A (zh) * 2014-06-26 2020-01-17 松下知识产权经营株式会社 显示装置及数据输出方法
US10291874B2 (en) 2014-06-26 2019-05-14 Panasonic Intellectual Property Management Co., Ltd. Method for generating control information based on characteristic data included in metadata
CN106165403B (zh) * 2014-06-26 2019-11-29 松下知识产权经营株式会社 数据输出装置、数据输出方法以及数据生成方法
US10306175B2 (en) 2014-06-26 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Method for generating control information based on characteristic data included in metadata
US11310507B2 (en) 2014-06-27 2022-04-19 Panasonic Intellectual Property Management Co., Ltd. Data output apparatus, data output method, and data generation method
US10645390B2 (en) * 2014-06-27 2020-05-05 Panasonic Intellectual Property Management Co., Ltd. Data output apparatus, data output method, and data generation method
US11856200B2 (en) 2014-06-27 2023-12-26 Panasonic Intellectual Property Management Co., Ltd. Data output apparatus, data output method, and data generation method
US20190075296A1 (en) * 2014-06-27 2019-03-07 Panasonic Intellectual Property Management Co., Ltd. Data output apparatus, data output method, and data generation method
JP2016034125A (ja) * 2014-07-28 2016-03-10 ソニー株式会社 画像処理装置及び画像処理方法
US10565695B2 (en) 2014-07-28 2020-02-18 Sony Corporation Apparatus and method for transmitting and receiving high dynamic range images
US10832737B2 (en) 2014-08-07 2020-11-10 Panasonic Intellectual Property Corporation Of America Playback device, playback method, and recording medium
JP2020167724A (ja) * 2014-08-07 2020-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America デコーダシステムおよびデコード方法
US11538502B2 (en) 2014-08-07 2022-12-27 Panasonic Intellectual Property Corporation Of America Playback device, playback method, and recording medium
JP6991279B2 (ja) 2014-08-07 2022-01-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ デコーダシステムおよびデコード方法
US11929102B2 (en) 2014-08-07 2024-03-12 Panasonic Intellectual Property Corporation Of America Playback device, playback method, and recording medium
CN111276170A (zh) * 2014-08-07 2020-06-12 松下电器(美国)知识产权公司 解码系统以及解码方法
WO2016021120A1 (ja) * 2014-08-07 2016-02-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、再生方法および記録媒体
CN105580081A (zh) * 2014-08-07 2016-05-11 松下电器(美国)知识产权公司 再现装置、再现方法以及记录介质
EP3944241A3 (en) * 2014-08-07 2022-05-04 Panasonic Intellectual Property Corporation of America Decoding system and decoding method
JP2019075819A (ja) * 2014-08-07 2019-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America デコーダシステムおよびデコード方法
JP2016039627A (ja) * 2014-08-07 2016-03-22 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
CN111276170B (zh) * 2014-08-07 2021-09-07 松下电器(美国)知识产权公司 解码系统以及解码方法
US10255951B2 (en) 2014-08-07 2019-04-09 Panasonic Intellectual Property Corporation Of America Playback device, playback method, and recording medium
US11335382B2 (en) 2014-08-07 2022-05-17 Panasonic Intellectual Property Corporation Of America Playback device, playback method, and recording medium
US10791311B2 (en) 2014-08-28 2020-09-29 Sony Corporation Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
JP2016048888A (ja) * 2014-08-28 2016-04-07 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10225539B2 (en) 2014-08-28 2019-03-05 Sony Corporation Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
US11272149B2 (en) 2014-08-28 2022-03-08 Sony Corporation Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
CN105794216B (zh) * 2014-09-08 2020-12-11 索尼公司 图像处理设备和图像处理方法
JP2016058848A (ja) * 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
CN105794216A (zh) * 2014-09-08 2016-07-20 索尼公司 图像处理设备和图像处理方法
US10192294B2 (en) 2014-09-08 2019-01-29 Sony Corporation Image processing apparatus and image processing method for display mapping
CN111899769A (zh) * 2014-09-12 2020-11-06 松下电器(美国)知识产权公司 非暂时性计算机可读介质、再现装置以及再现方法
CN111899769B (zh) * 2014-09-12 2022-07-05 松下电器(美国)知识产权公司 非暂时性计算机可读介质、再现装置以及再现方法
JP2016082498A (ja) * 2014-10-21 2016-05-16 三菱電機株式会社 デジタル放送受信装置及び方法、並びにプログラム及び記録媒体
JP2020096392A (ja) * 2014-12-03 2020-06-18 パナソニックIpマネジメント株式会社 データ生成装置
JP2020127208A (ja) * 2014-12-03 2020-08-20 パナソニックIpマネジメント株式会社 データ生成装置
JP2020096393A (ja) * 2014-12-03 2020-06-18 パナソニックIpマネジメント株式会社 データ生成装置
JP2021036713A (ja) * 2014-12-03 2021-03-04 パナソニックIpマネジメント株式会社 データ生成方法及び復号装置
JP2021036716A (ja) * 2014-12-03 2021-03-04 パナソニックIpマネジメント株式会社 データ生成方法及び復号装置
JP2021036714A (ja) * 2014-12-03 2021-03-04 パナソニックIpマネジメント株式会社 データ生成方法及び復号装置
JP2021036715A (ja) * 2014-12-03 2021-03-04 パナソニックIpマネジメント株式会社 データ生成方法及び復号装置
JP2020102884A (ja) * 2014-12-03 2020-07-02 パナソニックIpマネジメント株式会社 データ生成装置
JP2020025277A (ja) * 2014-12-03 2020-02-13 パナソニックIpマネジメント株式会社 データ符号化方法、データ復号方法、データ符号化装置及びデータ復号装置
JP2016122985A (ja) * 2014-12-25 2016-07-07 株式会社東芝 画像処理システム、画像処理装置および画像処理方法
JP7384234B2 (ja) 2014-12-29 2023-11-21 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
CN107113457A (zh) * 2014-12-29 2017-08-29 索尼公司 发送装置、发送方法、接收装置和接收方法
WO2016108268A1 (ja) * 2014-12-29 2016-07-07 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JPWO2016108268A1 (ja) * 2014-12-29 2017-10-12 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP7067652B2 (ja) 2014-12-29 2022-05-16 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US10609327B2 (en) 2014-12-29 2020-03-31 Sony Corporation Transmission device, transmission method, reception device, and reception method
JP2022097593A (ja) * 2014-12-29 2022-06-30 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP2021103898A (ja) * 2014-12-29 2021-07-15 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US11394920B2 (en) 2014-12-29 2022-07-19 Sony Corporation Transmission device, transmission method, reception device, and reception method
JP2018530281A (ja) * 2015-09-23 2018-10-11 アリス エンタープライジズ エルエルシーArris Enterprises Llc 高ダイナミックレンジ映像データの再形成および適応のためのシステムおよび方法
JP7066786B2 (ja) 2015-09-23 2022-05-13 アリス エンタープライジズ エルエルシー トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
JP2018530237A (ja) * 2015-09-23 2018-10-11 アリス エンタープライジズ エルエルシーArris Enterprises Llc トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
US11146807B2 (en) 2015-09-23 2021-10-12 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
JP2018530282A (ja) * 2015-09-23 2018-10-11 アリス エンタープライジズ エルエルシーArris Enterprises Llc 高ダイナミックレンジおよび広色域シーケンスの再形成および符号化のためのシステム
US11695947B2 (en) 2015-09-23 2023-07-04 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
US10869053B2 (en) 2015-09-23 2020-12-15 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
JP2020182233A (ja) * 2015-09-23 2020-11-05 アリス エンタープライジズ エルエルシーArris Enterprises Llc トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
US10582174B2 (en) 2015-10-30 2020-03-03 Canon Kabushiki Kaisha Video processing apparatus, video processing method, and medium
JP2017085481A (ja) * 2015-10-30 2017-05-18 キヤノン株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP2017143546A (ja) * 2017-03-21 2017-08-17 ソニー株式会社 再生装置、記録媒体、表示装置、および情報処理方法
JP2018198458A (ja) * 2018-08-28 2018-12-13 ソニー株式会社 再生装置、表示装置、情報処理方法、および記録媒体
JP2021192558A (ja) * 2020-01-16 2021-12-16 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP7205590B2 (ja) 2020-01-16 2023-01-17 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法

Also Published As

Publication number Publication date
EP3512203A1 (en) 2019-07-17
JP6580648B2 (ja) 2019-09-25
MX2014015818A (es) 2015-03-05
JP6219823B2 (ja) 2017-10-25
EP2869558A1 (en) 2015-05-06
CN108965893A (zh) 2018-12-07
KR20150024846A (ko) 2015-03-09
JP2018023154A (ja) 2018-02-08
US20150131904A1 (en) 2015-05-14
CN104380738A (zh) 2015-02-25
CN104380738B (zh) 2018-10-16
RU2014152106A (ru) 2016-07-10
TW201414312A (zh) 2014-04-01
AR091515A1 (es) 2015-02-11
EP2869558A4 (en) 2016-01-20
CA2875199A1 (en) 2014-01-03
RU2653464C2 (ru) 2018-05-08
BR112014032224A2 (pt) 2017-08-01
EP3512203B1 (en) 2023-10-25
JPWO2014002901A1 (ja) 2016-05-30
TWI586150B (zh) 2017-06-01
KR102161017B1 (ko) 2020-09-29
US20150010059A1 (en) 2015-01-08
CN108965893B (zh) 2021-10-01
BR112014032224B1 (pt) 2022-12-06
AU2013281949B2 (en) 2017-05-11
CA2875199C (en) 2021-02-16
EP2869558B1 (en) 2019-04-10
AU2013281949A2 (en) 2015-01-22
AU2013281949A1 (en) 2015-01-22
MX344551B (es) 2016-12-20

Similar Documents

Publication Publication Date Title
JP6580648B2 (ja) 画像処理装置および記録媒体
JP6358475B2 (ja) 画像復号装置および方法、並びに、画像符号化装置および方法
WO2014002896A1 (ja) 符号化装置および符号化方法、復号装置および復号方法
JP6287035B2 (ja) 復号装置および復号方法
WO2015137145A1 (ja) 画像符号化装置および方法、並びに画像復号装置および方法
WO2015053116A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
JPWO2015105003A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
JP2015005899A (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
KR102338766B1 (ko) 화상 부호화 장치 및 방법, 및 기록 매체
JP6477930B2 (ja) 符号化装置および符号化方法
WO2014050732A1 (ja) 符号化装置および符号化方法、並びに、復号装置および復号方法
JPWO2014002900A1 (ja) 画像処理装置および画像処理方法
JP6402802B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
WO2014103765A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
JP6341067B2 (ja) 画像処理装置および方法
JP2015050738A (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13809522

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2875199

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2013809522

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014522599

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2014/015818

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: IDP00201408065

Country of ref document: ID

ENP Entry into the national phase

Ref document number: 20147035887

Country of ref document: KR

Kind code of ref document: A

Ref document number: 2014152106

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2013281949

Country of ref document: AU

Date of ref document: 20130621

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014032224

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014032224

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20141222