WO2018062022A1 - 調整装置、調整方法およびプログラム - Google Patents

調整装置、調整方法およびプログラム Download PDF

Info

Publication number
WO2018062022A1
WO2018062022A1 PCT/JP2017/034235 JP2017034235W WO2018062022A1 WO 2018062022 A1 WO2018062022 A1 WO 2018062022A1 JP 2017034235 W JP2017034235 W JP 2017034235W WO 2018062022 A1 WO2018062022 A1 WO 2018062022A1
Authority
WO
WIPO (PCT)
Prior art keywords
video signal
signal
video
conversion unit
linear
Prior art date
Application number
PCT/JP2017/034235
Other languages
English (en)
French (fr)
Inventor
和彦 甲野
則竹 俊哉
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2018542509A priority Critical patent/JP6872693B2/ja
Priority to EP17855976.1A priority patent/EP3522514A1/en
Priority to US16/335,703 priority patent/US20200035198A1/en
Publication of WO2018062022A1 publication Critical patent/WO2018062022A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • the present disclosure relates to an adjustment device, an adjustment method, and a program for adjusting a video signal.
  • Patent Document 1 discloses an image signal processing device for improving a displayable luminance level.
  • the present disclosure provides an adjustment device and an adjustment method capable of effectively adjusting the luminance of an image.
  • An adjustment apparatus includes an acquisition unit that acquires a first non-linear video signal generated by using a first OETF (Opto-Electronic Transfer Function), and the first acquired by the acquisition unit.
  • the first video signal is converted into a linear signal by using an inverse characteristic of the first OETF, and (ii) an input value and an output value with respect to the linear signal;
  • the adjusted linear signal obtained by performing the adjustment process is used by the second OETF corresponding to a predetermined format.
  • a conversion unit that performs a conversion process for converting into a second non-linear video signal obtained by And an output unit which outputs the second image signal obtained by being converted.
  • the luminance of the video can be adjusted effectively.
  • FIG. 1 is a diagram schematically illustrating an example of a configuration of an AV (Audio Visual) system according to the first embodiment.
  • FIG. 2A is a diagram illustrating an example of an EOTF (Electro-Optical Transfer Function) corresponding to each of HDR (High Dynamic Range) and SDR (Standard Dynamic Range).
  • FIG. 2B is a diagram illustrating an example of an OETF (Opto-Electronic Transfer Function) corresponding to each of HDR and SDR.
  • FIG. 3 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device according to the first embodiment.
  • FIG. 4 is a schematic diagram for explaining conversion processing by the first conversion unit, the second conversion unit, and the third conversion unit of the conversion unit in the first embodiment.
  • FIG. 5 is a diagram illustrating combinations of characteristics of the HDR signal input to the adjustment apparatus and characteristics of the HDR signal output from the adjustment apparatus in the first embodiment.
  • FIG. 6 is a flowchart illustrating an example of the operation (adjustment method) of the adjustment device according to the first embodiment.
  • FIG. 7 is a flowchart illustrating an example of the conversion process according to the first embodiment.
  • FIG. 8 is a diagram for explaining the problem.
  • FIG. 9 is a diagram illustrating an example of the adjustment process according to the first embodiment.
  • FIG. 10 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device according to the second embodiment.
  • FIG. 11 is a flowchart illustrating an example of the operation (adjustment method) of the adjustment device according to the second embodiment.
  • FIG. 12 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device according to the third embodiment.
  • FIG. 13 is a flowchart illustrating an example of the conversion process according to the third embodiment.
  • FIG. 14 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device according to the fourth embodiment.
  • FIG. 15 is a flowchart illustrating an example of the operation (adjustment method) of the adjustment device according to the fourth embodiment.
  • FIG. 16 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device according to the fifth embodiment.
  • linear luminance is calculated for each pixel based on linear RGB values calculated from the pixels constituting the subject image. Then, based on the linear RGB value and the linear luminance, a corrected linear luminance value for each pixel and a corrected linear RGB value of a combined pixel obtained by combining a plurality of pixels including the pixel are calculated. Then, the display luminance and the display RGB value are calculated by performing gamma correction on the correction linear luminance and the correction linear RGB value, respectively. As described above, in the image signal processing apparatus, the luminance level that can be displayed is improved by correcting the linear luminance based on the corrected linear RGB value.
  • HDR video corresponding to HDR which has a wider dynamic range than the conventional dynamic range (SDR) as described in Patent Document 1
  • SDR conventional dynamic range
  • HDR video needs to express a vast dynamic range, high performance and new know-how are required for content production and display on a display device. For this reason, there are many problems in displaying HDR video.
  • HDR video displayed on the display device may vary widely and may look different. is there. For this reason, a playback device that plays back an HDR video is required to have a function of appropriately adjusting the display variation of the HDR video.
  • HDR video is PQ (Perceptual Quantization) or HLG (Hybrid Log-Gamma) and other newly defined EOTF (Electro-Optical Transfer Function) reverse characteristics or OETF (Opto-Frequency Production). Is done. For this reason, it is difficult to effectively adjust the brightness of the HDR video even if the image quality adjustment used for the conventional SDR video is used.
  • the PQ curve is an EOTF defined in the SMPTE 2084 standard.
  • HLG is ARIB-STD B67 standard, ITU-R BT. This is an OETF defined by the 2100 standard or the like, and is an OETF compatible with an OETF corresponding to SDR in a dark part (low luminance region).
  • FIG. 8 is a diagram for explaining the problem.
  • the luminance of the video is defined by the relative luminance reference (relative value).
  • the SDR signal is created with reference to the maximum luminance of the video of about 100 nits during video production.
  • the maximum luminance that can be displayed by an SDR display device that supports SDR video display is often more than 100 nits (for example, 400 nits).
  • the SDR display device increases the luminance of the SDR video up to the maximum luminance according to the display mode while maintaining the relative relationship. SDR video can be displayed. For example, as shown in FIG.
  • the first display mode is a display mode in which 100 nit, which is the maximum luminance of the SDR video, is displayed as 100 nit as it is, and the second display mode in which the maximum luminance of the SDR video is enlarged to 400 nit is displayed.
  • Set to display mode In the SDR display device, by switching from the first display mode to the second display mode, the SDR video to be displayed on the SDR display device can be displayed with increased brightness.
  • the SDR signal is a video signal defined on the basis of relative luminance
  • the SDR display device can display the SDR video by switching the display mode as shown in FIG. Can do. That is, in the SDR signal, it is possible to easily adjust the luminance by multiplying each luminance by a constant multiple (K times).
  • the function of switching the display mode can easily display the SDR video with the brightness increased as shown in FIG.
  • the maximum luminance value is a signal of 10,000 nits
  • the luminance of the video is an absolute luminance reference (Absolute value).
  • the brightness that can be displayed by the HDR display device is often about 1,000 nit at most, and most HDR display devices do not have the ability to display the full range of luminance up to the maximum value of 10,000 nit. That is, when displaying the HDR signal image in the full range, the HDR display device displays the image in a distorted state because the luminance is saturated in a bright region where the luminance of the image exceeds the maximum luminance that can be displayed by the HDR display device. Resulting in.
  • HDR display devices have a maximum displayable luminance of 1,000 nits, and it is difficult to display the maximum luminance value (10,000 nits) of the image of the HDR signal. It is difficult to adjust the HDR image brightly. For this reason, the HDR video displayed on the HDR display device may appear darker as shown in FIG. 8 than the SDR video displayed in the SDR signal after being adjusted to the second display mode.
  • the HDR signal has a steeper curve representing the correspondence between the code value and the luminance than the SDR signal. Therefore, when each luminance is multiplied by a coefficient in order to adjust the luminance of the HDR signal, the luminance changes greatly as ⁇ L1 shown in FIG. 2A in the bright portion (high luminance region), but the dark portion (low luminance region). ), The change in luminance is small compared to ⁇ L1 as ⁇ L2 shown in FIG. 2A (a). In FIG. 2A, ⁇ L2 is shown in an enlarged view, but it can be seen that ⁇ L2 is smaller than ⁇ L1 even if it is enlarged.
  • the HDR signal has a variation in luminance change between the dark portion and the bright portion, and the image is distorted It will end up.
  • the present disclosure discloses an adjustment device, an adjustment method, and a program that can effectively adjust an HDR video signal indicating an HDR video produced using an HDR OETF having PQ characteristics, HLG characteristics, or the like.
  • FIG. 1 is a diagram schematically illustrating an example of a configuration of an AV system 1 according to the first embodiment.
  • the AV system 1 includes an adjustment device 100 and a display device 200.
  • the adjustment device 100 and the display device 200 are connected to each other via a cable 300 compatible with a digital interface (for example, HDMI (registered trademark): High-Definition Multimedia Interface) so that they can communicate with each other.
  • a digital interface for example, HDMI (registered trademark): High-Definition Multimedia Interface) so that they can communicate with each other.
  • the adjustment device 100 and the display device 200 may be connected to each other using a digital interface, and the connection form may be wired or wireless.
  • the adjustment device 100 is a source device, for example, a playback device that plays back video data recorded on an optical disc (for example, Ultra HD (High Definition) Blu-ray (registered trademark) player).
  • the adjustment device 100 receives an HDR-compatible video data distributed through a network by a VOD (Video On Demand) and provides the received video data to the display device 200, or an Ultra HD Blu-ray (registered trademark) player. It may be STB (Set Top Box).
  • the adjusting device 100 acquires the first video data from the optical disc or the VOD, converts the first video signal included in the acquired first video data into the second video signal, and the second video signal obtained by the conversion. Is output to the display device 200 via the cable 300.
  • the display device 200 is a sink device and is, for example, a TV capable of displaying HDR video (hereinafter referred to as “HDR TV”).
  • the display device 200 acquires the second video data via the cable 300, and displays the video (HDR video) of the second video signal included in the acquired second video data.
  • FIG. 2A is a diagram showing an example of EOTF corresponding to each of HDR and SDR.
  • 2A is a diagram showing an example of EOTF (PQ curve) corresponding to HDR
  • FIG. 2A is a diagram showing an example of EOTF (gamma curve) corresponding to SDR.
  • EOTF indicates the correspondence between code values and luminance values, and converts code values into luminance values. That is, EOTF is relationship information indicating a correspondence relationship between a plurality of code values and luminance values.
  • FIG. 2B is a diagram showing an example of OETF corresponding to each of HDR and SDR.
  • 2A is a diagram showing an example of OETF corresponding to HDR (reverse characteristics of PQ curve), and
  • FIG. 2B is an example of OETF corresponding to SDR (reverse characteristics of gamma curve).
  • FIG. 1A is a diagram showing an example of OETF corresponding to HDR (reverse characteristics of PQ curve)
  • FIG. 2B is an example of OETF corresponding to SDR (reverse characteristics of gamma curve).
  • OETF indicates the correspondence between the luminance value and the code value, and, contrary to EOTF, converts the luminance value into a code value. That is, OETF is relationship information indicating a correspondence relationship between a luminance value and a plurality of code values. For example, when the luminance value of a video corresponding to HDR is expressed by a 10-bit gradation code value, the luminance values in the HDR luminance range up to 10,000 nits are quantized and 1024 from 0 to 1023 Mapped to the integer value of.
  • the luminance value is quantized based on OETF, whereby the luminance value in the luminance range up to 10,000 nits (the luminance value of the video corresponding to HDR) is converted into an HDR signal that is a 10-bit code value.
  • the In an EOTF corresponding to HDR hereinafter referred to as “HDR EOTF”) or an OETF corresponding to HDR (hereinafter referred to as “HDR OETF”)
  • an EOTF corresponding to SDR hereinafter referred to as “SDR EOTF”
  • SDR EOTF EOTF corresponding to SDR
  • the maximum value (peak) of HDR luminance (Luminance) is 10,000 nits. That is, HDR includes all SDR luminances, and the maximum HDR luminance value is larger than the maximum SDR luminance value.
  • HDR is a dynamic range obtained by expanding the maximum value of luminance from 100 nit which is the maximum value of luminance of SDR to the maximum value of luminance of HDR (for example, 10,000 nit).
  • the first video signal in the present embodiment is an HDR signal corresponding to HDR.
  • the image after grading is converted to a non-linear first video signal by using HDR OETF (see (a) of FIG. 2B), and image coding or the like is performed based on the first video signal.
  • a video stream is generated.
  • the display device 200 converts the decoding result of the stream into a linear signal (linear signal) using HDR EOTF (see (a) in FIG. 2A), and converts the signal into the signal. Display the based HDR video.
  • FIG. 3 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device 100 according to the first embodiment.
  • the adjustment device 100 includes an acquisition unit 110, a YUV-RGB conversion unit 120, a conversion unit 130, an RGB-YUV conversion unit 140, and an output unit 150.
  • the acquisition unit 110 acquires first video data including a non-linear first video signal generated by the first OETF.
  • the first video signal is an HDR video signal.
  • the acquisition unit 110 may acquire the first video data by playing back the first video data recorded on the optical disc, or may be HDR distributed via a network or broadcast wave.
  • the first video data may be acquired by receiving the first video data corresponding to.
  • the first video data may include first metadata indicating the characteristics of the first video signal. That is, the acquisition unit 110 may acquire the first metadata together with the first video signal.
  • the acquisition unit 110 may be realized by, for example, an optical disc drive that reads and reproduces data recorded on an optical disc, or is connected to a content provider via a network such as the Internet. It may be realized by a communication interface.
  • the acquisition unit 110 may be realized by a tuner or the like that receives broadcast waves.
  • the YUV-RGB converter 120 converts a video signal composed of YUV signals into RGB signals.
  • the YUV-RGB conversion unit 120 converts the first video signal from the YUV signal to the RGB signal and converts the first R signal, the first G signal, and the first B signal that constitute the first video signal. Output.
  • the YUV-RGB conversion unit 120 may be realized by a processor that executes a program and a memory in which the program is recorded, or a dedicated circuit (for example, an IC (Integrated Circuit) or an LSI (Large-Scale Integration)). May be realized by a circuit including
  • the conversion unit 130 performs conversion processing for converting the first video signal included in the first video data acquired by the acquisition unit 110 into a non-linear second video signal.
  • the second video signal is (i) the first video signal is converted into a linear signal by using the inverse characteristic of the first OETF, and (ii) an input value with respect to the linear signal.
  • an adjusted linear signal obtained by performing the adjustment process is a second signal corresponding to a predetermined format. It is a signal obtained by being converted by using OETF.
  • conversion unit 130 converts the first video signal into each of the first R signal, the first G signal, and the first B signal obtained by converting the first video signal into an RGB signal in YUV-RGB conversion unit 120. By performing the conversion process, the image is converted into a second video signal composed of the second R signal, the second G signal, and the second B signal.
  • the conversion unit 130 includes a first conversion unit 131, a second conversion unit 132, and a third conversion unit 133.
  • FIG. 4 is a schematic diagram for explaining the conversion process by the first conversion unit 131, the second conversion unit 132, and the third conversion unit 133 of the conversion unit 130 in the first embodiment.
  • the first conversion unit 131 converts the first video signal acquired by the acquisition unit 110 into a linear signal using the inverse characteristic of the first OETF.
  • the first converter 131 converts the first R signal, the first G signal, and the first B signal into linear signals using the inverse characteristics of the first OETF, respectively.
  • the first G signal converter 131G and the first B signal converter 131B are provided.
  • the second conversion unit 132 performs adjustment processing on the linear signal obtained by the first conversion unit 131, as shown in FIG.
  • the adjustment process is a process of performing a gain change that makes the relationship between the input value and the output value linear with respect to the linear signal obtained by the first conversion unit 131. That is, in the adjustment process, the gain is changed by multiplying the input value by A (A> 1) or by multiplying the input value by B (B ⁇ 1). In the adjustment process, the gain is changed for all linear signals.
  • the second conversion unit 132 adjusts the linear signal obtained by converting each of the first R signal, the first G signal, and the first B signal using the inverse characteristic of the first OETF.
  • the third conversion unit 133 uses the second OETF to convert the adjusted linear signal obtained by performing the adjustment process in the second conversion unit 132 into the second video. Convert to signal.
  • the third conversion unit 133 converts the RGB of the adjusted linear signal composed of RGB signals using the second OETF, and converts the RGB signals into a third R signal conversion unit 133R and a third G signal conversion unit. 133G and 3B signal converter 133B.
  • the third R signal conversion unit 133R outputs the second R signal
  • the third G signal conversion unit 133G outputs the second G signal
  • the third B signal conversion unit 133B outputs the second B signal.
  • the second R signal, the second G signal, and the second B signal output from the third conversion unit 133 are signals that constitute the second video signal.
  • the first video signal input to the conversion unit 130 may be an HDR signal having a PQ characteristic or an HDR signal having an HLG characteristic.
  • the first OETF has a reverse characteristic of the PQ EOTF. Therefore, the first conversion unit 131 uses the PQ EOTF as the reverse characteristic of the first OETF. Then, the non-linear first video signal is converted into a linear signal.
  • the first OETF is an OLG of the HLG. Therefore, the first conversion unit 131 uses the reverse characteristic of the HLG OETF as the reverse characteristic of the first OETF. Then, the non-linear first video signal is converted into a linear signal.
  • the second video signal output from the conversion unit 130 may be an HDR signal having a PQ characteristic or an HDR signal having an HLG characteristic.
  • the conversion unit 130 may output an HDR signal having characteristics that the display device 200 supports.
  • the third conversion unit 133 When outputting a PQ characteristic HDR signal as the second video signal, the third conversion unit 133 generates a non-linear second video signal using the inverse characteristic of the PQ EOTF as the second OETF.
  • the third converter 133 uses the OLG of the HLG as the second OETF to generate a non-linear second video signal. That is, in the present embodiment, the predetermined format may be PQ or HLG, and the second OETF corresponding to the predetermined format may be an inverse characteristic of PQ EOTF or an HLG OETF. .
  • FIG. 5 is a diagram illustrating a combination of the characteristics of the HDR signal input to the adjustment apparatus 100 and the characteristics of the HDR signal output from the adjustment apparatus 100 in the first embodiment.
  • the conversion unit 130 may be realized by, for example, a processor that executes a program and a memory in which the program is recorded, or may be realized by a dedicated circuit (for example, a circuit including an IC or an LSI).
  • the RGB-YUV converter 140 converts a video signal composed of RGB signals into a YUV signal.
  • the RGB-YUV conversion unit 140 converts the second video signal output from the third conversion unit 133 from an RGB signal to a YUV signal. Thereby, the RGB-YUV conversion unit 140 outputs a second video signal composed of the YUV signal obtained by the conversion.
  • the RGB-YUV conversion unit 140 may be realized by, for example, a processor that executes a program and a memory in which the program is recorded, or may be realized by a dedicated circuit (for example, a circuit including an IC or an LSI). Also good.
  • the output unit 150 outputs the second video signal obtained by the conversion in the RGB-YUV conversion unit 140.
  • output unit 150 outputs second video data including the second video signal and first metadata.
  • the output unit 150 may be realized by a digital interface, for example.
  • FIG. 6 is a flowchart illustrating an example of the operation (adjustment method) of the adjustment apparatus 100 according to the first embodiment.
  • the acquisition unit 110 acquires the first video signal (step S101).
  • the YUV-RGB conversion unit 120 converts the first video signal acquired by the acquisition unit 110 from a YUV signal to an RGB signal (step S102).
  • the conversion unit 130 performs adjustment processing on each of the first R signal, the first G signal, and the first B signal that constitute the first video signal, which is obtained by the conversion to the RGB signal in the YUV-RGB conversion unit 120. Thus, a conversion process is performed for converting the first video signal into a second video signal composed of the second R signal, the second G signal, and the second B signal (step S103).
  • FIG. 7 is a flowchart showing an example of the conversion process in the first embodiment.
  • the first conversion unit 131 of the conversion unit 130 converts the first video signal into a linear signal using the inverse characteristic of the first OETF (step S111).
  • the second conversion unit 132 of the conversion unit 130 performs adjustment processing on the linear signal obtained by the first conversion unit 131 (step S112).
  • the third conversion unit 133 of the conversion unit 130 converts the adjusted linear signal obtained by performing the adjustment process in the second conversion unit 132 into a non-linear second video signal using the second OETF. (Step S113).
  • the conversion unit 130 performs the conversion process in steps S111 to S113 on the first video signal composed of RGB signals, thereby obtaining the second video signal composed of RGB signals. .
  • the RGB-YUV conversion unit 140 converts the second video signal from the RGB signal to the YUV signal (step S104).
  • the output unit 150 outputs the second video signal obtained by the conversion in the RGB-YUV conversion unit 140 (step S105).
  • the adjustment device includes the acquisition unit that acquires the non-linear first video signal generated by using the first OETF, and the first video signal acquired by the acquisition unit.
  • the first video signal is converted into a linear signal by using the inverse characteristic of the first OETF, and (ii) the relationship between the input value and the output value with respect to the linear signal.
  • An adjustment process including a gain change to be linear is performed, and (iii) a second OETF corresponding to a predetermined format is used for the adjusted linear signal obtained by performing the adjustment process.
  • a conversion unit that performs conversion processing to convert to a non-linear second video signal obtained by being converted, and an output unit that outputs the second video signal obtained by conversion in the conversion unit, Preparation .
  • the adjustment method in the present embodiment is an adjustment method performed by an adjustment device that converts a non-linear first video signal generated by the first OETF into a second video signal and outputs the second video signal.
  • the first video signal is acquired, and the first video signal acquired in the acquisition is converted into a linear signal by (i) using the inverse characteristic of the first OETF.
  • an adjustment process including a gain change is performed on the linear signal so that the relationship between the input value and the output value is linear; and (iii) the adjustment process is performed.
  • the adjusted linear signal is converted by using a second OETF corresponding to a predetermined format, and is converted into a non-linear second video signal obtained by the conversion. 2 video signals are output.
  • the adjustment device 100 is an example of an adjustment device.
  • the acquisition unit 110 is an example of an acquisition unit.
  • the conversion unit 130 is an example of a conversion unit.
  • the output unit 150 is an example of an output unit.
  • the flowchart shown in FIG. 6 is an example of an adjustment method performed by the adjustment device.
  • the adjustment device 100 shown in the first embodiment includes an acquisition unit 110, a conversion unit 130, and an output unit 150.
  • the acquisition unit 110 acquires a non-linear first video signal generated by the first OETF.
  • the conversion unit 130 performs conversion processing for converting the first video signal acquired by the acquisition unit 110 into a non-linear second video signal.
  • the non-linear second video signal is (i) the first video signal is converted into a linear signal by using the inverse characteristic of the first OETF, and (ii) an input value with respect to the linear signal.
  • an adjusted linear signal obtained by performing the adjustment process is a second signal corresponding to a predetermined format. It is obtained by being converted by using OETF.
  • the output unit 150 outputs a second video signal obtained by converting the first video signal in the conversion unit 130.
  • the conversion unit is obtained by the first conversion unit that converts the first video signal acquired by the acquisition unit into a linear signal using the inverse characteristic of the first OETF, and the first conversion unit.
  • a second conversion unit that performs an adjustment process on the linear signal, and an adjusted linear signal obtained by performing the adjustment process in the second conversion unit is converted into a second video signal using the second OETF.
  • a third conversion unit A third conversion unit.
  • the first conversion unit 131 is an example of a first conversion unit.
  • the second conversion unit 132 is an example of a second conversion unit.
  • the third conversion unit 133 is an example of a third conversion unit.
  • the conversion unit 130 includes a first conversion unit 131, a second conversion unit 132, and a third conversion unit 133.
  • the first conversion unit 131 converts the first video signal acquired by the acquisition unit 110 into a linear signal using the inverse characteristic of the first OETF.
  • the second conversion unit 132 performs adjustment processing on the linear signal obtained by the first conversion unit 131.
  • the third conversion unit 133 converts the adjusted linear signal obtained by performing the adjustment process in the second conversion unit 132 into a second video signal using the second OETF.
  • the adjustment apparatus 100 configured as described above converts the first video signal into a linear signal, adjusts the luminance of the video by changing the gain of the linear signal, and converts the adjusted linear signal into a second non-linear signal. Convert to video signal and output. That is, since the adjustment device 100 adjusts the linear signal corresponding to the first video signal, the adjustment device 100 can adjust the luminance variation between the dark part and the bright part to be small. For this reason, for example, when it is difficult to visually recognize the dark part of the video in a bright viewing environment, the luminance of the video can be increased in a balanced manner, and the luminance of the video can be effectively increased.
  • the first video signal and the second video signal may be HDR video signals.
  • the first video signal and the second video signal are HDR video signals.
  • the adjustment device 100 configured as described above can output an HDR signal in which the luminance of the video is appropriately adjusted when the video signal is an HDR signal corresponding to HDR. Thereby, it is possible to easily display the HDR video whose luminance is effectively adjusted on the display device 200.
  • the adjustment apparatus further includes a YUV-RGB converter that converts a video signal composed of YUV signals into RGB signals, and an RGB-YUV converter that converts a video signal composed of RGB signals into YUV signals; , May be provided.
  • the YUV-RGB conversion unit may convert the first video signal from a YUV signal to an RGB signal.
  • the conversion unit performs the conversion process on each of the first R signal, the first G signal, and the first B signal that constitute the first video signal, which is obtained by the conversion to the RGB signal in the YUV-RGB conversion unit.
  • the first video signal may be converted into a second video signal composed of the second R signal, the second G signal, and the second B signal.
  • the RGB-YUV conversion unit may convert the second video signal obtained by converting the first video signal in the conversion unit from an RGB signal to a YUV signal.
  • the YUV-RGB conversion unit 120 is an example of a YUV-RGB conversion unit.
  • the RGB-YUV conversion unit 140 is an example of an RGB-YUV conversion unit.
  • the adjustment device 100 further includes a YUV-RGB conversion unit 120 and an RGB-YUV conversion unit 140.
  • the YUV-RGB converter 120 converts a video signal composed of YUV signals into RGB signals.
  • the RGB-YUV converter 140 converts a video signal composed of RGB signals into a YUV signal.
  • the YUV-RGB converter 120 converts the first video signal from a YUV signal to an RGB signal.
  • the conversion unit 130 performs the conversion process on each of the first R signal, the first G signal, and the first B signal constituting the first video signal obtained by converting the RGB signal into the RGB signal in the YUV-RGB conversion unit 120.
  • the first video signal is converted into a second video signal composed of the second R signal, the second G signal, and the second B signal.
  • the RGB-YUV converter 140 converts the second video signal obtained by converting the first video signal in the converter 130 from an RGB signal to a YUV signal.
  • the adjustment apparatus 100 configured as described above performs the above-described conversion processing on the RGB signal, the adjustment of the luminance of the image is performed while maintaining the color relationship (RGB ratio) of each pixel constituting the image. be able to.
  • the first video signal and the second video signal may have PQ characteristics or HLG characteristics.
  • the first video signal and the second video signal have PQ characteristics or HLG characteristics.
  • the adjustment device 100 configured as described above can easily convert the first video signal having the PQ characteristic or the HLG characteristic into the second video signal having the PQ characteristic or the HLG characteristic. Thereby, the conversion process in the conversion unit 130 can be appropriately performed according to the HDR characteristic of the video signal and the HDR characteristic supported by the display device 200.
  • the adjustment device may be connected to the display device through a digital interface.
  • the output unit may output the second video signal to the display device via a digital interface.
  • HDMI registered trademark
  • the adjustment device 100 is connected to the display device 200 by the cable 300.
  • the output unit 150 outputs the second video signal to the display device 200 via the cable 300.
  • the conversion unit 130 has shown a configuration example in which the gain change that makes the relationship between the input value and the output value of the linear signal linear is performed on the entire region of the linear signal as the adjustment process.
  • the disclosure is not limited to this configuration example.
  • FIG. 9 is a diagram illustrating an example of adjustment processing according to the first embodiment.
  • the conversion unit 130 when performing conversion to increase the gain, the conversion unit 130 inputs an input value in a range less than a predetermined threshold of the linear signal (for example, 100 nit in the example illustrated in FIG. 9).
  • the gain may be changed so that the relationship between the value and the output value is linear.
  • the conversion unit 130 may perform monotonically increasing conversion in which the relationship between the input value and the output value is monotonously increased with respect to an input value in a range equal to or greater than a predetermined threshold.
  • the monotonically increasing conversion may be, for example, a conversion in which the relationship between the input value and the output value is a straight line as shown in FIG. That is, in the adjustment process, conversion may be performed using a knee curve in which the slope is A when the threshold is less than the predetermined threshold and the slope is B smaller than A when the threshold is equal to or greater than the predetermined threshold.
  • the monotonically increasing conversion may be a conversion in which the relationship between an input value and an output value such as a logarithmic curve is a curve, for example.
  • the maximum value of the output value corresponding to the maximum value of the input value may be the peak luminance of the video (content) of the first video data, or the maximum luminance that can be displayed by the display device 200. It may be a value, or may be a predetermined luminance (for example, 500 nit, 1,000 nit, etc.).
  • the gain is set to be greater than 1 and input.
  • the phenomenon that the luminance value of the video that occurs when the adjustment process for raising the output value over the value is performed is less likely to occur. For this reason, an adjustment process for lowering the output value may be performed for all input values.
  • Embodiment 2 Next, Embodiment 2 will be described with reference to FIGS.
  • components that are substantially the same as the components described in the first embodiment are given the same reference numerals as those components, and descriptions thereof are omitted.
  • FIG. 10 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device 100a according to the second embodiment.
  • the adjustment device 100a of the second embodiment is substantially the same as the configuration of the adjusting device 100 described in the first embodiment with reference to FIG. 3, detailed description thereof is omitted.
  • the adjustment device 100a of the second embodiment is different from the adjustment device 100 of the first embodiment in that it further includes a changing unit 160.
  • the changing unit 160 changes the first metadata acquired by the acquiring unit 110 to second metadata indicating the characteristics of the second video signal obtained by converting the first video signal in the converting unit 130. . That is, the changing unit 160 changes the first metadata attached to the first video data according to the conversion content of the first video signal in the conversion unit 130.
  • the changing unit 160 outputs the second metadata obtained by changing the first metadata to the output unit 150.
  • the changing unit 160 may be realized by, for example, a processor that executes a program and a memory in which the program is recorded, or may be realized by a dedicated circuit (for example, a circuit including an IC or an LSI).
  • the first metadata may be, for example, MaxCLL (Maximum Content Light Level), or MaxFALL (Maximum Frame-Average Light Level).
  • MaxCLL is a value indicating the maximum luminance of the pixel in all frames in the content.
  • MaxFALL is a value indicating the maximum value of the average luminance in the frame in all frames in the content.
  • the first metadata includes the first maximum luminance value that is the maximum luminance value (MaxCLL) of the pixels included in the entire video of the first video signal (all frames in the content), and the video of the first video signal. It may include at least one of a first maximum frame average luminance value which is a maximum value (MaxFALL) of the average luminance of each of a plurality of frames (all frames in the content) constituting the frame.
  • MaxCLL maximum luminance value
  • MaxFALL maximum value of the average luminance of each of a plurality of frames (all frames in the content) constituting the frame.
  • the changing unit 160 when changing the first metadata to the second metadata, includes (i) the entire video of the second video signal (all frames in the content) from the first maximum luminance value. Change to the second maximum luminance value, which is the maximum luminance value of the pixel, and (ii) a plurality of frames (all frames in the content) constituting the video of the second video signal from the first maximum frame average luminance value You may perform at least 1 of the change to the 2nd largest frame average luminance value which is the maximum value of the average luminance of each flame
  • the change unit 160 changes the metadata if MaxCLL and MaxFALL are changed in the first video signal and the second video signal. If not, the change unit 160 changes the metadata. It is not necessary to perform.
  • the first metadata may be static metadata other than MaxCLL and MaxFALL.
  • the first metadata is, for example, metadata related to the luminance of the video such as the maximum luminance value of the master monitor used when the master video from which the first video data is generated is generated. There may be.
  • the output unit 150 outputs data including the second video signal and the second metadata as second video data.
  • FIG. 11 is a flowchart illustrating an example of the operation (adjustment method) of the adjustment device 100a according to the second embodiment.
  • steps that perform substantially the same operations as the steps shown in the flowchart of FIG. 6 are given the same reference numerals, and descriptions of those steps are omitted.
  • the adjustment method of the second embodiment is substantially the same as the adjustment method of the first embodiment shown in FIG. However, the adjustment method of the second embodiment is different from the adjustment method of the first embodiment in that step S104a is added after step S104. Other steps in the adjustment method are the same as those in the first embodiment.
  • step S ⁇ b> 104 the changing unit 160 indicates the characteristics of the second video signal obtained by converting the first video signal obtained by the converting unit 130 from the first metadata obtained by the obtaining unit 110. 2 metadata is changed (step S104a).
  • step S104a When step S104a is completed, step S105 in the adjustment method of the first embodiment is performed.
  • the acquisition unit may further acquire the first metadata indicating the characteristics of the first video signal.
  • the adjustment apparatus may further include a changing unit that changes the first metadata acquired by the acquiring unit to second metadata indicating characteristics of the second video signal.
  • the output unit may output the second video signal and the second metadata.
  • the adjustment device 100a is an example of an adjustment device.
  • the change unit 160 is an example of a change unit.
  • the acquisition unit 110 further acquires first metadata indicating the characteristics of the first video signal.
  • the adjusting device 100a further includes a changing unit 160.
  • the changing unit 160 changes the first metadata acquired by the acquiring unit 110 to second metadata indicating the characteristics of the second video signal obtained by converting the first video signal in the converting unit 130. To do.
  • the output unit 150 outputs second video data including the second video signal and second metadata.
  • the adjustment device 100a configured as described above changes the first metadata of the first video signal to the second metadata according to the result of the conversion process in the conversion unit 130, and the second metadata obtained by the change. Data is output to the display device 200. That is, since the adjustment device 100a can output the second metadata indicating the characteristics of the second video signal to the display device 200, the second video signal can be easily displayed on the display device 200 appropriately.
  • the first metadata includes a first maximum luminance value that is a maximum luminance value of a pixel included in the entire video of the first video signal, and a plurality of frames constituting the video of the first video signal. May include at least one of a first maximum frame average luminance value that is a maximum value of the average luminance of the first frame.
  • the changing unit (i) changes the first maximum luminance value to a second maximum luminance value that is the maximum luminance value of the pixels included in the entire video of the second video signal, and (ii) the first maximum frame average At least one of changing from the luminance value to the second maximum frame average luminance value that is the maximum value of the average luminance of each of the plurality of frames constituting the video of the second video signal may be performed.
  • the first metadata is the first maximum value that is the maximum luminance value (MaxCLL) of the pixels included in the entire video (all frames in the content) of the first video signal. At least one of the luminance value and the first maximum frame average luminance value which is the maximum value (MaxFALL) of the average luminance of each of a plurality of frames (all frames in the content) constituting the video of the first video signal. Including one.
  • the changing unit 160 (i) changing from the first maximum luminance value to a second maximum luminance value that is the maximum luminance value of pixels included in the entire video of the second video signal (all frames in the content), and (Ii) From the first maximum frame average luminance value, a second maximum frame average luminance value that is a maximum value of the average luminance of each of a plurality of frames (all frames in the content) constituting the video of the second video signal. Make at least one of the following changes.
  • the adjustment device 100a configured in this way can change at least one of MaxCLL and MaxFALL to an appropriate value in the second video signal after the conversion process. Therefore, the adjustment device 100a can easily display the second video signal on the display device 200 appropriately.
  • Embodiment 3 Next, Embodiment 3 will be described with reference to FIGS.
  • FIG. 12 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device 100b according to the third embodiment.
  • the configuration of the adjustment device 100b in the third embodiment is substantially the same as the configuration of the adjustment device 100 described in the first embodiment with reference to FIG.
  • the first metadata included in the first video data acquired by the acquisition unit 110 is output to the conversion unit 130b as compared with the adjustment device 100 according to the first embodiment.
  • the conversion unit 130b is different in that the conversion process is performed according to the first metadata.
  • the conversion unit 130b converts the first video signal into the second video signal according to the first metadata.
  • the first metadata includes the static metadata described in the second embodiment.
  • the first metadata includes the maximum luminance value of the master monitor used when the master video that is the basis for generating the video of the first video signal is generated, and the entire video of the first video signal (within the content). At least one of the first maximum luminance values which are the maximum luminance values (MaxCLL) of the pixels included in all the frames.
  • the second video signal has a second conversion unit such that the luminance of the second video signal is equal to or less than one of the maximum luminance value of the master monitor and the first maximum luminance value (MaxCLL) included in the first metadata.
  • This signal is obtained by performing adjustment processing in the second R signal conversion unit 132Rb, the second G signal conversion unit 132Gb, and the second B signal conversion unit 132Bb included in 132b. That is, when the conversion unit 130b performs conversion from the first video signal to the second video signal, the luminance of the second video signal is the maximum luminance value of the master monitor included in the first metadata. And the adjustment process may be performed in the second conversion unit 132b so as to be equal to or less than one of the first maximum luminance values.
  • the second conversion unit 132b of the conversion unit 130b has an inclination A that is less than a predetermined threshold value and a B that has an inclination greater than the predetermined threshold value that is smaller than A. Conversion using a knee curve may be performed. Then, when the conversion by the knee curve is performed, the second conversion unit 132b of the conversion unit 130b may perform the adjustment process so that the maximum luminance value included in the first metadata is maintained.
  • the first metadata is dynamic metadata, and may include the maximum luminance value of each of a plurality of scenes constituting the video of the first video signal.
  • the second video signal is adjusted by the second conversion unit 132b so that the luminance of the second video signal is equal to or lower than the maximum luminance value of the scene included in the first metadata for each of a plurality of scenes. It is a signal obtained by processing. That is, when the conversion unit 130b performs conversion from the first video signal to the second video signal for each of a plurality of scenes constituting the video of the first video signal, the luminance of the second video signal is The adjustment process may be performed so that the luminance value is equal to or less than the maximum luminance value of the scene included in the metadata.
  • the adjustment method of the third embodiment is substantially the same as the adjustment method of the first embodiment shown in FIG.
  • the adjustment method of the third embodiment is different from the adjustment method of the first embodiment in a part of the conversion process in step S103 shown in detail in FIG. Therefore, only the difference in the conversion process will be described here.
  • FIG. 13 is a flowchart showing an example of the conversion process in the third embodiment.
  • steps that perform substantially the same operations as the steps shown in the flowchart of FIG. 7 are given the same reference numerals, and descriptions of those steps are omitted.
  • step S112a is performed instead of step S112 of the conversion process of the first embodiment shown in FIG.
  • the conversion process of the third embodiment is different from the conversion process of the first embodiment in that respect.
  • Other steps of the conversion process are the same as those in the first embodiment.
  • the conversion unit 130b After step S111, the conversion unit 130b performs adjustment processing according to the first metadata (step S112a). In the conversion unit 130b according to the third embodiment, the second conversion unit 132b performs the adjustment process.
  • the acquisition unit may further acquire the first metadata indicating the characteristics of the first video signal.
  • the conversion unit may convert the first video signal into a second video signal according to the first metadata acquired by the acquisition unit.
  • the first metadata includes the maximum luminance value of the master monitor used when the master video on which the video of the first video signal is generated, and the first video signal. It may include at least one of a first maximum luminance value that is a maximum luminance value of pixels included in the entire video.
  • the second video signal is obtained by performing adjustment processing so that the luminance of the second video signal is equal to or less than one of the maximum luminance value and the first maximum luminance value of the master monitor included in the first metadata. It may be a signal.
  • the adjusting device 100b is an example of an adjusting device.
  • the conversion unit 130b is an example of a conversion unit.
  • the acquisition unit 110 further acquires first metadata indicating the characteristics of the first video signal.
  • the conversion unit 130b converts the first video signal into the second video signal according to the first metadata acquired by the acquisition unit 110.
  • the first metadata includes the maximum luminance value of the master monitor used when the master video that is the basis for generating the video of the first video signal is generated, and the entire video of the first video signal (within the content). At least one of the first maximum luminance values which are the maximum luminance values (MaxCLL) of the pixels included in all the frames.
  • the second video signal is adjusted so that the luminance of the second video signal is less than or equal to one of the maximum luminance value of the master monitor and the first maximum luminance value (MaxCLL) included in the first metadata. Is a signal obtained by
  • the adjustment device 100b configured as described above can perform knee curve conversion while maintaining the maximum luminance value of the first video signal in the second video signal, so that the luminance of the video is appropriately adjusted. Can do.
  • the first metadata may include the maximum luminance value of each of a plurality of scenes constituting the video of the first video signal.
  • the second video signal is obtained by performing adjustment processing for each of the plurality of scenes so that the luminance of the second video signal is equal to or lower than the maximum luminance value of the scene included in the first metadata. It may be a signal.
  • the first metadata includes the maximum luminance value of each of a plurality of scenes constituting the video of the first video signal.
  • the second video signal is obtained by performing adjustment processing for each of the plurality of scenes so that the luminance of the second video signal is equal to or lower than the maximum luminance value of the scene included in the first metadata. Signal.
  • the adjustment device 100b configured as described above can adjust the second video signal to an appropriate luminance for each scene.
  • Embodiment 4 will be described with reference to FIGS. 14 and 15.
  • FIG. 14 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device 100c according to the fourth embodiment.
  • the configuration of the adjustment device 100c in the fourth embodiment is substantially the same as the configuration of the adjustment device 100 described in the first embodiment with reference to FIG.
  • the adjustment device 100c according to the fourth embodiment does not include the YUV-RGB conversion unit 120 and the RGB-YUV conversion unit 140 as compared with the adjustment device 100 according to the first embodiment, and the conversion unit 130c includes the RGB signal. The difference is that it does not have a conversion unit corresponding to each of the signals.
  • the conversion unit 130c performs conversion processing on the first Y signal indicating the luminance signal in the first video signal composed of YUV signals. Specifically, in the conversion unit 130c, the first conversion unit 131c converts the first Y signal into a linear signal by the same operation as the first conversion unit 131 described in the first embodiment.
  • the second conversion unit 132c performs adjustment processing by the same operation as the second conversion unit 132 described in the first embodiment, and the third conversion unit 133c is the same as the third conversion unit 133 described in the first embodiment. Conversion to a non-linear signal is performed by operation. Thereby, the conversion unit 130c outputs the second Y signal. Note that the first U signal and the first V signal indicating the color difference signals in the first video signal acquired by the acquisition unit 110 are output to the output unit 150 without being subjected to conversion processing in the conversion unit 130c.
  • the output unit 150 outputs a second video signal composed of the second Y signal, the first U signal, and the first V signal.
  • FIG. 15 is a flowchart illustrating an example of the operation (adjustment method) of the adjustment device 100c according to the fourth embodiment.
  • steps that perform substantially the same operations as the steps shown in the flowchart of FIG. 6 are given the same reference numerals, and descriptions of those steps are omitted.
  • the adjustment method of the fourth embodiment is substantially the same as the adjustment method of the first embodiment shown in FIG. However, the adjustment method of the fourth embodiment is different from the adjustment method of the first embodiment in that step S102 and step S104 are omitted. Other steps of the adjustment method are the same as those in the first embodiment.
  • step S101, step S103, and step S105 similar to those of the first embodiment are performed.
  • step S103 in the adjustment method of Embodiment 4 is performed with respect to the 1st Y signal of the 1st video signal comprised by a YUV signal.
  • the adjustment device 100c according to the fourth embodiment performs the same conversion process as the conversion process described in the first embodiment on the first video signal configured with the YUV signal. Therefore, in the adjustment device 100c, the processing load can be reduced as compared with the configuration in which the conversion processing is performed on each of the RGB signals described in the first embodiment.
  • Embodiment 5 Next, Embodiment 5 will be described with reference to FIG.
  • FIG. 16 is a block diagram schematically illustrating an example of a functional configuration of the adjustment device 100d according to the fifth embodiment.
  • the configuration of the adjustment device 100d in the fifth embodiment is substantially the same as the configuration of the adjustment device 100 described in the first embodiment with reference to FIG.
  • the adjustment device 100d of the fifth embodiment is different from the adjustment device 100 of the first embodiment in that the conversion unit 130d includes the first conversion unit 131, the second conversion unit 132, and the third conversion unit 133.
  • the difference is that it has an R signal table conversion unit 130R, a G signal table conversion unit 130G, and a B signal table conversion unit 130B.
  • the converting unit 130d does not individually perform conversion to the linear signal, adjustment processing, and conversion to the non-linear signal described in the first embodiment, and converts the linear signal to the linear signal described in the first embodiment. Conversion using a table in which conversion, adjustment processing, and conversion to a non-linear signal are woven may be performed for each signal of the first video signal formed of RGB signals.
  • Embodiments 1 to 5 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like are appropriately performed. Also, it is possible to combine the components described in the first to fifth embodiments to form a new embodiment.
  • the adjustment devices 100 and 100a to 100d may perform the adjustment process according to the maximum luminance that can be displayed on the display device 200.
  • the adjustment devices 100 and 100a to 100d may acquire the maximum displayable luminance from the display device 200 via the cable 300.
  • the adjustment devices 100 and 100a to 100d shown in the first to fifth embodiments detect the illuminance of the surroundings (viewing environment) with the illuminance sensor, and perform adjustment processing according to the magnitude of the illuminance detected by the illuminance sensor. Also good. In this case, the adjustment devices 100 and 100a to 100d may perform conversion to increase the magnification in gain change (“A-times” in the first embodiment) in the adjustment process as the detected illuminance increases.
  • the illuminance sensor may be provided in the adjusting devices 100, 100a to 100d. Alternatively, the display device 200 may include an illuminance sensor, and the adjustment devices 100 and 100a to 100d may acquire the detection value of the illuminance sensor from the display device 200 via the cable 300.
  • the adjustment device 100b may perform adjustment processing for each scene of a video using dynamic metadata.
  • the present disclosure is not limited to this operation.
  • the adjustment device 100b according to the third embodiment may dynamically analyze the luminance of the video for each scene and perform adjustment processing according to the analysis result.
  • the conversion unit 130 of the adjustment device 100a illustrated in the second embodiment may perform the conversion process according to the first metadata acquired in the acquisition unit 110 as in the adjustment device 100b illustrated in the third embodiment. Good.
  • the changing unit 160 may change the first metadata to the second metadata according to the content of the conversion process performed according to the first metadata.
  • the conversion unit may perform the adjustment process so that the luminance of the second video signal is equal to or lower than a predetermined maximum luminance value.
  • the adjusting device may further include a changing unit that changes the first metadata acquired by the acquiring unit to second metadata indicating the characteristics of the second video signal.
  • the output unit may output the second video signal and the second metadata.
  • the conversion unit 130 of the adjustment device 100a shown in the second embodiment may perform the adjustment process so that the luminance of the second video signal is equal to or lower than a predetermined maximum luminance value.
  • the changing unit 160 of the adjustment device 100a may change the first metadata acquired by the acquiring unit 110 to second metadata indicating the characteristics of the second video signal.
  • the output unit 150 may output the second video signal and the second metadata.
  • the predetermined maximum luminance value is, for example, the peak luminance of the first video signal, the maximum luminance value that can be displayed by the display device 200, a predetermined luminance (for example, 500 nit, 1,000 nit, etc.), the first video
  • a predetermined luminance for example, 500 nit, 1,000 nit, etc.
  • the configuration in which the processing of the conversion unit 130 in the first embodiment is performed using a table is shown, but for example, the processing in the conversion unit 130c in the fourth embodiment may be performed using a table. .
  • each component may be configured by dedicated hardware (electronic circuit), or may be realized by a processor executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • a plurality of function blocks may be realized as one function block, one function block may be divided into a plurality of functions, or some functions may be transferred to another function block.
  • the functions of a plurality of functional blocks may be processed in parallel by a single hardware or software, or may be processed in a time division manner.
  • the software that realizes the adjustment method of each of the above embodiments is the following program.
  • this program is an adjustment performed by the adjustment device that adjusts the video displayed on the display device by converting the non-linear first video signal generated by the first OETF into the second video signal.
  • the adjusted linear signal is converted by using the second OETF corresponding to a predetermined format, and is converted into a non-linear second video signal, which is obtained by the conversion.
  • the adjustment method a computer program that causes a computer to execute the adjustment method, and a computer-readable recording medium that records the program are included in the scope of the present disclosure.
  • the computer-readable recording medium include a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray (registered trademark) Disc), semiconductor memory, Etc.
  • the computer program is not limited to the one recorded on the recording medium, but may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, and the like.
  • each of the above-described devices may be configured from an IC card that can be attached to and detached from each device or a single module.
  • LSI Large Scale Integration
  • each processing unit is not limited to an LSI or an IC, and may be realized by a dedicated circuit or a general-purpose processor. Alternatively, it may be realized by an FPGA (Field Programmable Gate Array) capable of programming the circuit configuration, or a reconfigurable processor capable of reconfiguring connection and setting of circuit cells inside the LSI.
  • FPGA Field Programmable Gate Array
  • the above program may be recorded on a recording medium and distributed or distributed.
  • the distributed program by installing the distributed program in the devices and causing the processors of the devices to execute the programs, it is possible to cause the devices to perform various processes.
  • the computer program or digital signal in the present disclosure may be transmitted via an electric communication line, a wireless or wired communication line, a network such as the Internet, data broadcasting, or the like.
  • the present disclosure can be implemented by another independent computer system by recording and transferring a program or digital signal on a recording medium, or by transferring a program or digital signal via a network or the like. Also good.
  • each processing may be realized by centralized processing by a single device (system), or may be realized by distributed processing by a plurality of devices. Also good.
  • the present disclosure can be applied to an adjustment device that can effectively adjust the luminance of an image.
  • the present disclosure is applicable to an Ultra HD Blu-ray (registered trademark) player, an STB (Set Top Box), and the like.
  • Adjustment device 110 Acquisition unit 120 YUV-RGB conversion unit 130, 130b, 130c, 130d Conversion unit 130R R signal table conversion unit 130G G signal table conversion unit 130B B signal table conversion unit 131, 131c First conversion unit 131R First R signal conversion unit 131G First G signal conversion unit 131B First B signal conversion unit 132, 132b, 132c Second conversion unit 132R, 132Rb Second R signal conversion unit 132G, 132Gb Second G signal conversion unit 132B, 132Bb 2B signal conversion unit 133, 133c 3rd conversion unit 133R 3R signal conversion unit 133G 3G signal conversion unit 133B 3B signal conversion unit 140 RGB-YUV conversion unit 150 output unit 160 change unit 200 display device 300 cable

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

映像の輝度を効果的に調整できる調整装置等を提供する。調整装置は、第1のOETFが用いられることで生成された非リニアな第1映像信号を取得する取得部と、取得部において取得された第1映像信号を、(i)当該第1映像信号が、第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)当該リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)当該調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる、非リニアな第2映像信号に変換する変換処理を行う変換部と、変換部において変換されることにより得られた第2映像信号を出力する出力部と、を備える。

Description

調整装置、調整方法およびプログラム
 本開示は、映像信号を調整する調整装置、調整方法およびプログラムに関する。
 特許文献1は、表示可能な輝度レベルを改善するための画像信号処理装置を開示する。
特開2008-167418号公報
 しかしながら、特許文献1に開示された技術では、表示装置に表示される映像の輝度を効果的に調整することは難しい。
 本開示は、映像の輝度を効果的に調整できる調整装置および調整方法を提供する。
 本開示における調整装置は、第1のOETF(Opto-Electronic Transfer Function)が用いられることで生成された非リニアな第1映像信号を取得する取得部と、前記取得部において取得された前記第1映像信号を、(i)前記第1映像信号が、前記第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)前記リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)前記調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる、非リニアな第2映像信号に変換する変換処理を行う変換部と、前記変換部において変換されることにより得られた前記第2映像信号を出力する出力部と、を備える。
 なお、これらの全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、またはコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示における調整装置または調整方法によれば、映像の輝度を効果的に調整できる。
図1は、実施の形態1におけるAV(Audio Visual)システムの構成の一例を模式的に示す図である。 図2Aは、HDR(High Dynamic Range)およびSDR(Standard Dynamic Range)のそれぞれに対応したEOTF(Electro-Optical Transfer Function)の例について示す図である。 図2Bは、HDRおよびSDRのそれぞれに対応したOETF(Opto-Electronic Transfer Function)の例について示す図である。 図3は、実施の形態1における調整装置の機能構成の一例を模式的に示すブロック図である。 図4は、実施の形態1における変換部の第1変換部、第2変換部および第3変換部による変換処理について説明するための模式図である。 図5は、実施の形態1における、調整装置に入力されるHDR信号の特性と調整装置から出力されるHDR信号の特性との組合せを示す図である。 図6は、実施の形態1における調整装置の動作(調整方法)の一例を示すフローチャートである。 図7は、実施の形態1における変換処理の一例を示すフローチャートである。 図8は、課題を説明するための図である。 図9は、実施の形態1における調整処理の一例を示す図である。 図10は、実施の形態2における調整装置の機能構成の一例を模式的に示すブロック図である。 図11は、実施の形態2における調整装置の動作(調整方法)の一例を示すフローチャートである。 図12は、実施の形態3における調整装置の機能構成の一例を模式的に示すブロック図である。 図13は、実施の形態3における変換処理の一例を示すフローチャートである。 図14は、実施の形態4における調整装置の機能構成の一例を模式的に示すブロック図である。 図15は、実施の形態4における調整装置の動作(調整方法)の一例を示すフローチャートである。 図16は、実施の形態5における調整装置の機能構成の一例を模式的に示すブロック図である。
 (本発明の基礎となった知見)
 本願発明者は、特許文献1に開示されている画像信号処理装置に関し、以下の問題が生じることを見出した。
 特許文献1に開示されている画像信号処理装置では、被写体像を構成する画素から算出されたリニアRGB値に基づいて画素毎にリニア輝度を算出する。そして、リニアRGB値およびリニア輝度に基づいて画素毎の補正リニア輝度および当該画素を含む複数の画素を合成した合成画素の補正リニアRGB値を算出する。そして、補正リニア輝度および補正リニアRGB値をそれぞれガンマ補正して表示用輝度および表示用RGB値を算出する。このように、その画像信号処理装置では、補正リニアRGB値に基づいてリニア輝度を補正することにより、表示可能な輝度レベルの改善を図っている。
 近年、映像技術の進化に伴い、特許文献1に記載のような従来の映像のダイナミックレンジ(SDR:Standard Dynamic Range)よりも広いダイナミックレンジであるHDR(High Dynamic Range)に対応したHDR映像をTV(Television)等の表示装置に表示させる技術が提案されている。
 しかし、HDR映像では、広大なダイナミックレンジを表現する必要があるため、コンテンツの制作や表示装置への表示等に高い性能や新しいノウハウが求められている。このため、HDR映像の表示には、課題が多い。
 例えば、周囲の明るさ等の視聴環境、ディスプレイの輝度性能、映像素材のグレーディング環境や制作側の意図等によって、表示装置に表示されるHDR映像は、大きくばらつくことがあり、異なって見えることがある。このため、HDR映像を再生する再生装置には、HDR映像の表示のばらつきを適切に調整する機能が求められる。しかし、HDR映像は、PQ(Perceptual Quantization)、または、HLG(Hybrid Log-Gamma)等の新たに定義されたEOTF(Electro-Optical Transfer Function)の逆特性またはOETF(Opto-Electronic Transfer Function)で制作される。このため、従来のSDR映像に用いられた画質調整を用いても、HDR映像の輝度を効果的に調整することは難しい。
 なお、PQカーブは、SMPTE 2084規格で定義されているEOTFである。HLGは、ARIB-STD B67規格、ITU-R BT.2100規格等で定義されているOETFであり、暗部(低輝度領域)において、SDRに対応したOETFと互換性があるOETFである。
 この理由について、図8を用いて以下に説明する。図8は、課題を説明するための図である。
 SDR映像を示すSDR信号は、映像の輝度が相対輝度基準(相対値)で定義されている。SDR信号は、映像制作時において映像の最大輝度が100nit程度を基準として、作成されることが多い。また、SDR映像の表示に対応するSDR表示装置で表示可能な最大輝度は、100nitを超える輝度(例えば、400nit、等)であることが多い。これらのことにより、SDR表示装置は、SDR映像を表示する場合、表示モードに応じた最大輝度まで、SDR映像の輝度を、その相対的な関係を維持したまま拡大することで、輝度を上げてSDR映像を表示することができる。例えば、図8に示すように、SDR映像の最大輝度である100nitをそのまま100nitで表示する表示モードを第1表示モードとし、SDR映像の最大輝度を400nitまで拡大して表示する表示モードを第2表示モードとする。SDR表示装置では、第1表示モードから第2表示モードに切り替えることで、SDR表示装置に表示させるSDR映像を、輝度を上げて表示することができる。SDR信号は、相対輝度基準で定義された映像信号であるので、SDR表示装置では、図8に示すように表示モードを切り替えることで、各輝度を例えば4倍にして、SDR映像を表示することができる。つまり、SDR信号では、各輝度を定数倍(K倍)にして輝度を調整することが容易にできる。このように、SDR表示装置では、SDR信号が入力された場合、表示モードを切り替える機能により、図8に示すように、輝度を上げてSDR映像を表示することが容易にできる。
 HDR映像を示すHDR信号は、後述する図2Aの(a)に示すように、PQ特性を有する場合、輝度の最大値が10,000nitの信号であり、かつ、映像の輝度が絶対輝度基準(絶対値)で定義されている。一方、HDR表示装置で表示可能な輝度は、最大でも1,000nit程度のものが多く、ほとんどのHDR表示装置は、最大値の10,000nitまでのフルレンジの輝度を表示する能力がない。つまり、HDR表示装置は、HDR信号の映像をフルレンジで表示させる場合、映像の輝度がHDR表示装置で表示可能な最大輝度を超える明るい領域において、輝度が飽和するため、映像を歪んだ状態で表示してしまう。
 また、明るい部屋等の明るい視聴環境下では、ユーザは、映像の暗部(低輝度領域)を視認しにくくなる。しかし、HDR表示装置は、表示可能な最大輝度が1,000nitのものが多く、HDR信号の映像の最大輝度値(10,000nit)を表示することが困難なため、暗部を視認しやすくするためにHDR映像を明るく調整することが難しい。このため、HDR表示装置で表示されるHDR映像は、SDR信号において第2表示モードに調整されて表示されたSDR映像と比較して、図8に示すように、暗く見えてしまう場合がある。
 また、HDR信号は、図8に示すように、コード値と輝度との対応を表すカーブがSDR信号よりも急峻である。そのため、HDR信号の輝度を調整するために各輝度に係数を乗算すると、明部(高輝度領域)では輝度が図2Aの(a)に示すΔL1のように大きく変わるが、暗部(低輝度領域)では輝度の変化が図2Aの(a)に示すΔL2のようにΔL1と比較して小さい。なお、図2Aでは、ΔL2を拡大図で示しているが、ΔL2は拡大してもΔL1と比較して小さいことがわかる。つまり、SDR信号に対する調整と同様の調整(各輝度を定数倍にする調整)をHDR信号に行っても、HDR信号では、暗部と明部とで輝度の変化幅にばらつきが生じ、映像が歪んでしまう。
 このように、従来技術では、HDR映像の輝度を効果的に調整することは難しく、HDR映像を破綻無く表示装置に表示させることは困難である。そこで、本開示は、PQ特性またはHLG特性等を有するHDRのOETFを用いて制作されたHDR映像を示すHDR映像信号を効果的に調整することができる調整装置、調整方法およびプログラムを開示する。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明、および実質的に同一の構成に対する重複説明等を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面および以下で説明する実施の形態は、当業者が本開示を十分に理解するために提供されるのであって、いずれも本開示の一例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序、等は、一例であり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素は、独立請求項に示された構成要素に任意に付加可能な構成要素である。
 また、各図は、必ずしも厳密に図示されたものではなく、本開示をわかりやすく示すために適宜省略等を行った模式図である。また、各図において、実質的に同じ構成要素については同じ符号を付し、説明を省略または簡略化する場合がある。
 (実施の形態1)
 以下、図1~図9を用いて、実施の形態1を説明する。
 [1-1.構成]
 図1は、実施の形態1におけるAVシステム1の構成の一例を模式的に示す図である。
 図1に示すように、AVシステム1は、調整装置100と表示装置200とを備える。調整装置100と表示装置200とは、デジタルインターフェース(例えば、HDMI(登録商標):High-Definition Multimedia Interface)に対応したケーブル300により、相互に通信可能に接続されている。なお、調整装置100と表示装置200とは、デジタルインターフェースを用いて相互に接続されていればよく、その接続形態は、有線であってもよく無線であってもよい。
 調整装置100は、ソース機器であり、例えば、光ディスクに記録されている映像データを再生する再生装置(例えば、Ultra HD(High Definition) Blu-ray(登録商標)プレーヤ)である。調整装置100は、VOD(Video On Demand)によりネットワークを通して配信される、HDRに対応した映像データを受信し、受信した映像データを表示装置200に提供するUltra HD Blu-ray(登録商標)プレーヤまたはSTB(Set Top Box)であってもよい。調整装置100は、第1映像データを光ディスクまたはVODから取得し、取得した第1映像データに含まれる第1映像信号を第2映像信号に変換し、変換することにより得られた第2映像信号を含む第2映像データを、ケーブル300を介して、表示装置200に出力する。
 表示装置200は、シンク機器であり、例えば、HDR映像を表示することが可能なTV(以下、「HDR TV」という)である。表示装置200は、ケーブル300を介して第2映像データを取得し、取得した第2映像データに含まれる第2映像信号の映像(HDR映像)を表示する。
 ここで、EOTFについて、図2Aおよび図2Bを用いて説明する。
 図2Aは、HDRおよびSDRのそれぞれに対応したEOTFの例について示す図である。図2Aの(a)は、HDRに対応したEOTFの例(PQカーブ)を示す図であり、図2Aの(b)は、SDRに対応したEOTFの例(ガンマカーブ)を示す図である。
 図2Aに示すように、EOTFは、コード値と輝度値との対応を示し、コード値を輝度値に変換するものである。つまり、EOTFは、複数のコード値と輝度値との対応関係を示す関係情報である。
 図2Bは、HDRおよびSDRのそれぞれに対応したOETFの例について示す図である。図2Bの(a)は、HDRに対応したOETFの例(PQカーブの逆特性)を示す図であり、図2Bの(b)は、SDRに対応したOETFの例(ガンマカーブの逆特性)を示す図である。
 OETFは、輝度値とコード値との対応を示し、EOTFとは逆に、輝度値をコード値に変換するものである。つまり、OETFは、輝度値と複数のコード値との対応関係を示す関係情報である。例えば、HDRに対応した映像の輝度値を10ビットの階調のコード値で表現する場合、10,000nitまでのHDRの輝度範囲における輝度値は、量子化されて、0~1023までの1024個の整数値にマッピングされる。つまり、OETFに基づいて輝度値が量子化されることで、10,000nitまでの輝度範囲の輝度値(HDRに対応した映像の輝度値)は、10ビットのコード値であるHDR信号に変換される。HDRに対応したEOTF(以下、「HDRのEOTF」という)またはHDRに対応したOETF(以下、「HDRのOETF」という)においては、SDRに対応したEOTF(以下、「SDRのEOTF」という)またはSDRに対応したOETF(以下、「SDRのOETF」という)よりも高い輝度値を表現することが可能であり、例えば、図2Aおよび図2Bに示した例では、HDRの輝度の最大値(ピーク輝度)は、10,000nitである。つまり、HDRは、SDRの輝度を全て含み、HDRの輝度の最大値は、SDRの輝度の最大値より大きい。HDRは、SDRの輝度の最大値である100nitから、HDRの輝度の最大値(例えば10,000nit)まで、輝度の最大値を拡大したダイナミックレンジである。
 本実施の形態における第1映像信号は、HDRに対応したHDR信号である。グレーディング後の画像は、HDRのOETFが用いられることで非リニアな第1映像信号に変換され(図2Bの(a)参照)、当該第1映像信号に基づいて画像符号化等が行われ、映像のストリームが生成される。例えば、表示装置200は、第1映像信号の再生時には、ストリームの復号結果を、HDRのEOTFを用いてリニアな信号(リニア信号)に変換し(図2Aの(a)参照)、その信号に基づくHDR映像を表示する。
 図3は、実施の形態1における調整装置100の機能構成の一例を模式的に示すブロック図である。
 図3に示すように、調整装置100は、取得部110と、YUV-RGB変換部120と、変換部130と、RGB-YUV変換部140と、出力部150と、を備える。
 取得部110は、第1のOETFで生成された非リニアな第1映像信号を含む第1映像データを取得する。第1映像信号は、HDR映像信号である。
 取得部110は、上述したように、例えば、光ディスクに記録されている第1映像データを再生することで第1映像データを取得してもよいし、あるいは、ネットワークまたは放送波を通して配信されるHDRに対応した第1映像データを受信することで第1映像データを取得してもよい。第1映像データは、第1映像信号の他に、当該第1映像信号の特性を示す第1メタデータを含んでいてもよい。つまり、取得部110は、第1映像信号と共に第1メタデータを取得してもよい。なお、取得部110は、例えば、光ディスクに記録されているデータを読み込んで再生する光ディスクドライブにより実現されていてもよいし、あるいは、インターネット等のネットワークを介してコンテンツ・プロバイダに接続されるための通信インターフェースにより実現されていてもよい。また、取得部110は、放送波を受信するチューナ等により実現されていてもよい。
 第1メタデータの具体例については、実施の形態2において説明する。
 YUV-RGB変換部120は、YUV信号で構成される映像信号を、RGB信号に変換する。YUV-RGB変換部120は、第1映像信号を、YUV信号からRGB信号に変換し、変換することにより得られた、第1映像信号を構成する第1R信号、第1G信号および第1B信号を出力する。なお、YUV-RGB変換部120は、プログラムを実行するプロセッサおよび当該プログラムが記録されているメモリにより実現されてもよいし、専用回路(例えば、IC(Integrated Circuit)またはLSI(Large-Scale Integration)を含む回路)により実現されてもよい。
 変換部130は、取得部110において取得された第1映像データに含まれる第1映像信号を、非リニアな第2映像信号に変換する変換処理を行う。ここで、第2映像信号は、(i)当該第1映像信号が、第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)当該リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)当該調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる信号である。変換部130は、本実施の形態では、第1映像信号を、YUV-RGB変換部120においてRGB信号に変換されることにより得られた、第1R信号、第1G信号および第1B信号のそれぞれに上記変換処理を行うことで、第2R信号、第2G信号および第2B信号により構成される第2映像信号に変換する。
 変換部130は、具体的には、第1変換部131、第2変換部132および第3変換部133を有する。
 図4は、実施の形態1における変換部130の第1変換部131、第2変換部132および第3変換部133による変換処理について説明するための模式図である。
 第1変換部131は、図4の(a)に示すように、取得部110で取得された第1映像信号を、第1のOETFの逆特性を用いてリニア信号に変換する。本実施の形態では、第1変換部131は、第1R信号、第1G信号および第1B信号を、それぞれ、第1のOETFの逆特性を用いてリニア信号に変換する、第1R信号変換部131R、第1G信号変換部131Gおよび第1B信号変換部131Bを有する。
 第2変換部132は、図4の(b)に示すように、第1変換部131で得られたリニア信号に対して調整処理を行う。調整処理は、第1変換部131で得られたリニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を行う処理である。つまり、調整処理は、入力値をA倍(A>1)する、または、入力値をB倍(B≦1)するゲイン変更を行う。調整処理は、全てのリニア信号において上記ゲイン変更を行う。本実施の形態では、第2変換部132は、第1R信号、第1G信号および第1B信号のそれぞれが第1のOETFの逆特性を用いて変換されることにより得られたリニア信号について調整処理を行う、第2R信号変換部132R、第2G信号変換部132Gおよび第2B信号変換部132Bを有する。
 第3変換部133は、図4の(c)に示すように、第2変換部132で調整処理が行われることにより得られた調整後リニア信号を、第2のOETFを用いて第2映像信号に変換する。本実施の形態では、第3変換部133は、RGB信号で構成される調整後リニア信号のRGBのそれぞれを第2のOETFを用いて変換する、第3R信号変換部133R、第3G信号変換部133Gおよび第3B信号変換部133Bを有する。第3変換部133における第2のOETFを用いた変換の結果、第3R信号変換部133Rは第2R信号を出力し、第3G信号変換部133Gは第2G信号を出力し、第3B信号変換部133Bは第2B信号を出力する。第3変換部133において出力された第2R信号、第2G信号および第2B信号は、それぞれ、第2映像信号を構成する信号である。
 なお、変換部130に入力される第1映像信号は、PQ特性のHDR信号であってもよいし、HLG特性のHDR信号であってもよい。第1映像信号が、PQ特性のHDR信号である場合、第1のOETFはPQのEOTFの逆特性となるので、第1変換部131は、第1のOETFの逆特性としてPQのEOTFを用いて、非リニアな第1映像信号をリニア信号に変換する。第1映像信号が、HLG特性のHDR信号である場合、第1のOETFはHLGのOETFとなるので、第1変換部131は、第1のOETFの逆特性としてHLGのOETFの逆特性を用いて、非リニアな第1映像信号をリニア信号に変換する。
 また、変換部130から出力される第2映像信号は、PQ特性のHDR信号であってもよいし、HLG特性のHDR信号であってもよい。変換部130は、例えば、表示装置200が対応している特性のHDR信号で出力してもよい。第2映像信号としてPQ特性のHDR信号を出力する場合、第3変換部133は、第2のOETFとしてPQのEOTFの逆特性を用いて、非リニアな第2映像信号を生成する。第2映像信号としてHLG特性のHDR信号を出力する場合、第3変換部133は、第2のOETFとしてHLGのOETFを用いて、非リニアな第2映像信号を生成する。すなわち、本実施の形態において、所定のフォーマットはPQまたはHLGであってもよく、所定のフォーマットに応じた第2のOETFは、PQのEOTFの逆特性、または、HLGのOETFであってもよい。
 このように、変換部130に入力されるHDR信号の特性と、変換部130から出力されるHDR信号の特性との組合せとして、図5に示すように4通りの組合せが考えられる。図5は、実施の形態1における、調整装置100に入力されるHDR信号の特性と調整装置100から出力されるHDR信号の特性との組合せを示す図である。
 なお、変換部130は、例えば、プログラムを実行するプロセッサおよび当該プログラムが記録されているメモリによって実現されてもよいし、専用回路(例えば、ICまたはLSIを含む回路)により実現されてもよい。
 RGB-YUV変換部140は、RGB信号で構成される映像信号を、YUV信号に変換する。RGB-YUV変換部140は、第3変換部133から出力された第2映像信号を、RGB信号からYUV信号に変換する。これにより、RGB-YUV変換部140は、変換することにより得られたYUV信号で構成される第2映像信号を出力する。なお、RGB-YUV変換部140は、例えば、プログラムを実行するプロセッサおよび当該プログラムが記録されているメモリによって実現されてもよいし、専用回路(例えば、ICまたはLSIを含む回路)により実現されてもよい。
 出力部150は、RGB-YUV変換部140において変換されることにより得られた第2映像信号を出力する。本実施の形態では、出力部150は、第2映像信号および第1メタデータを含む第2映像データを出力する。出力部150は、例えば、デジタルインターフェースによって実現されてもよい。
 [1-2.動作]
 以上のように構成された調整装置100について、その動作を以下に説明する。
 図6は、実施の形態1における調整装置100の動作(調整方法)の一例を示すフローチャートである。
 調整装置100では、取得部110が第1映像信号を取得する(ステップS101)。
 YUV-RGB変換部120は、取得部110において取得された第1映像信号を、YUV信号からRGB信号に変換する(ステップS102)。
 変換部130は、YUV-RGB変換部120においてRGB信号に変換されることにより得られた、第1映像信号を構成する第1R信号、第1G信号および第1B信号のそれぞれに調整処理を行うことで、第1映像信号を、第2R信号、第2G信号および第2B信号により構成される第2映像信号に変換する変換処理を行う(ステップS103)。
 ここで、ステップS103の変換処理の詳細について、図7を用いて説明する。
 図7は、実施の形態1における変換処理の一例を示すフローチャートである。
 変換処理では、変換部130の第1変換部131が、第1映像信号を、第1のOETFの逆特性を用いてリニア信号に変換する(ステップS111)。
 変換部130の第2変換部132は、第1変換部131で得られたリニア信号に対して調整処理を行う(ステップS112)。
 変換部130の第3変換部133は、第2変換部132で調整処理が行われることにより得られた調整後リニア信号を、第2のOETFを用いて非リニアな第2映像信号に変換する(ステップS113)。
 上述のように、変換部130において、RGB信号により構成される第1映像信号に対して、ステップS111~S113の変換処理が行われることにより、RGB信号により構成される第2映像信号が得られる。
 図6に戻り、説明を続ける。変換部130での変換処理が終わると、RGB-YUV変換部140は、第2映像信号を、RGB信号からYUV信号に変換する(ステップS104)。
 出力部150は、RGB-YUV変換部140において変換されることにより得られた第2映像信号を出力する(ステップS105)。
 [1-3.効果、等]
 以上のように、本実施の形態における調整装置は、第1のOETFが用いられることで生成された非リニアな第1映像信号を取得する取得部と、取得部において取得された第1映像信号を、(i)当該第1映像信号が、第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)当該リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)当該調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる、非リニアな第2映像信号に変換する変換処理を行う変換部と、変換部において変換されることにより得られた第2映像信号を出力する出力部と、を備える。
 本実施の形態における調整方法は、第1のOETFで生成された非リニアな第1映像信号を第2映像信号に変換し、当該第2映像信号を出力する調整装置が行う調整方法である。当該調整方法では、第1映像信号を取得し、当該取得において取得された第1映像信号を、(i)当該第1映像信号が、第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)当該リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)当該調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる、非リニアな第2映像信号に変換し、当該変換により得られた第2映像信号を出力する。
 なお、調整装置100は調整装置の一例である。取得部110は取得部の一例である。変換部130は変換部の一例である。出力部150は出力部の一例である。図6に示したフローチャートは、調整装置が行う調整方法の一例である。
 例えば、実施の形態1に示した調整装置100は、取得部110と、変換部130と、出力部150と、を備える。取得部110は、第1のOETFによって生成された非リニアな第1映像信号を取得する。変換部130は、取得部110において取得された第1映像信号を、非リニアな第2映像信号に変換する変換処理を行う。非リニアな第2映像信号は、(i)当該第1映像信号が、第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)当該リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)当該調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる。出力部150は、変換部130において第1映像信号が変換されることにより得られた第2映像信号を出力する。
 当該調整装置において、変換部は、取得部で取得された第1映像信号を、第1のOETFの逆特性を用いてリニア信号に変換する第1変換部と、第1変換部で得られたリニア信号に対して調整処理を行う第2変換部と、第2変換部で調整処理が行われることにより得られた調整後リニア信号を、第2のOETFを用いて第2映像信号に変換する第3変換部と、を有してもよい。
 なお、第1変換部131は第1変換部の一例である。第2変換部132は第2変換部の一例である。第3変換部133は第3変換部の一例である。
 例えば、実施の形態1に示した例では、調整装置100において、変換部130は、第1変換部131と、第2変換部132と、第3変換部133と、を有する。第1変換部131は、取得部110で取得された第1映像信号を、第1のOETFの逆特性を用いてリニア信号に変換する。第2変換部132は、第1変換部131で得られたリニア信号に対して調整処理を行う。第3変換部133は、第2変換部132で調整処理が行われることにより得られた調整後リニア信号を、第2のOETFを用いて第2映像信号に変換する。
 このように構成された調整装置100は、第1映像信号をリニア信号に変換し、リニア信号に対してゲイン変更を行うことで映像の輝度を調整し、調整後リニア信号を非リニアな第2映像信号に変換して出力する。つまり、調整装置100は、第1映像信号に対応するリニア信号を調整しているため、暗部と明部とにおける輝度のバラツキが少なくなるように調整することができる。このため、例えば、明るい視聴環境で映像の暗部を視認しにくい場合には、映像の輝度をバランスよくアップさせることができ、映像の輝度を効果的に明るくすることができる。
 当該調整装置において、第1映像信号および前記第2映像信号は、HDR映像信号であってもよい。
 例えば、実施の形態1に示した例では、調整装置100において、第1映像信号および第2映像信号は、HDR映像信号である。
 このように構成された調整装置100では、映像信号がHDRに対応しているHDR信号である場合に、映像の輝度を適切に調整したHDR信号を出力することができる。これにより、表示装置200に、効果的に輝度が調整されたHDR映像を表示させることが容易にできる。
 当該調整装置は、さらに、YUV信号で構成される映像信号を、RGB信号に変換するYUV-RGB変換部と、RGB信号で構成される映像信号を、YUV信号に変換するRGB-YUV変換部と、を備えてもよい。YUV-RGB変換部は、第1映像信号を、YUV信号からRGB信号に変換してもよい。変換部は、YUV-RGB変換部においてRGB信号に変換されることにより得られた、第1映像信号を構成する第1R信号、第1G信号および第1B信号のそれぞれに当該変換処理を行うことで、第1映像信号を、第2R信号、第2G信号および第2B信号により構成される第2映像信号に変換してもよい。RGB-YUV変換部は、変換部において第1映像信号が変換されることにより得られた第2映像信号を、RGB信号からYUV信号に変換してもよい。
 なお、YUV-RGB変換部120はYUV-RGB変換部の一例である。RGB-YUV変換部140はRGB-YUV変換部の一例である。
 例えば、実施の形態1に示した例では、調整装置100は、さらに、YUV-RGB変換部120と、RGB-YUV変換部140と、を備える。YUV-RGB変換部120は、YUV信号で構成される映像信号を、RGB信号に変換する。RGB-YUV変換部140は、RGB信号で構成される映像信号を、YUV信号に変換する。YUV-RGB変換部120は、第1映像信号を、YUV信号からRGB信号に変換する。変換部130は、YUV-RGB変換部120においてRGB信号に変換されることにより得られた、第1映像信号を構成する第1R信号、第1G信号および第1B信号のそれぞれに当該変換処理を行うことで、第1映像信号を、第2R信号、第2G信号および第2B信号により構成される第2映像信号に変換する。RGB-YUV変換部140は、変換部130において第1映像信号が変換されることにより得られた第2映像信号を、RGB信号からYUV信号に変換する。
 このように構成された調整装置100は、RGB信号に対して上記した変換処理を行うため、映像を構成する各画素の色の関係(RGBの比率)を維持したまま映像の輝度の調整を行うことができる。
 当該調整装置において、第1映像信号および第2映像信号は、PQ特性、または、HLG特性を有していてもよい。
 例えば、実施の形態1に示した調整装置100において、第1映像信号および第2映像信号は、PQ特性、または、HLG特性を有する。
 このように構成された調整装置100は、PQ特性、または、HLG特性を有する第1映像信号を、PQ特性、または、HLG特性を有する第2映像信号に変換することが容易にできる。これにより、映像信号のHDRの特性および表示装置200が対応しているHDRの特性に応じて、変換部130における変換処理を適切に行うことができる。
 当該調整装置は、デジタルインターフェースによって表示装置と接続されてもよい。出力部は、デジタルインターフェースを介して、表示装置に第2映像信号を出力してもよい。
 なお、HDMI(登録商標)に対応したケーブル300は、デジタルインターフェースの一例である。
 例えば、実施の形態1に示した例では、調整装置100は、ケーブル300によって表示装置200と接続されている。出力部150は、ケーブル300を介して、表示装置200に第2映像信号を出力する。
 [1-4.実施の形態1の変形例]
 実施の形態1では、変換部130が、調整処理として、リニア信号の入力値と出力値との関係がリニアとなるゲイン変更をリニア信号の全領域に対して行う構成例を示したが、本開示は何らこの構成例に限定されない。
 図9は、実施の形態1における調整処理の一例を示す図である。
 例えば、図9に示すように、調整処理において、ゲインを4倍にして輝度を上げるゲイン変更を行う場合に、全ての入力値に対して出力値が4倍となるゲイン変更を行ってしまうと、以下の問題が生じる。つまり、ゲイン変更により、映像の暗部については明るくして表示させることができるが、映像の明部については元々明るい領域であるのでゲイン変更を行うことで輝度が表示装置の表示可能な最大輝度値以上となってしまい、当該最大輝度値以上の領域の全てが同じ輝度値で表示されることになる。このため、当該領域における映像の階調を表示装置200において適切に表示することができない。
 このため、図9に示すように、ゲインを上げる変換を行う場合、変換部130は、リニア信号の所定の閾値(図9に示す例では、例えば100nit)未満の範囲の入力値に対して入力値と出力値との関係がリニアとなるゲイン変更を行ってもよい。この場合、変換部130は、所定の閾値以上の範囲の入力値に対して、入力値と出力値の関係が単調増加となる単調増加変換を行ってもよい。
 単調増加変換は、例えば、図9に示すように入力値と出力値との関係が直線となる変換であってもよい。つまり、調整処理では、所定の閾値未満において傾きがAとなり、所定の閾値以上において傾きがAよりも小さいBとなるニーカーブによる変換を行ってもよい。また、単調増加変換は、例えば、対数カーブ等の入力値と出力値との関係が曲線となる変換であってもよい。
 また、調整処理において、入力値の最大値に対応する出力値の最大値は、第1映像データの映像(コンテンツ)のピーク輝度であってもよいし、または表示装置200が表示可能な最大輝度値であってもよいし、または予め定められた輝度(例えば、500nit、1,000nit、等)であってもよい。
 また、図9示すように、調整処理において、ゲインを1より小さい値(例えば、0.5倍)にして入力値よりも出力値を下げる調整処理を行う場合、ゲインを1より大きくして入力値よりも出力値を上げる調整処理を行う場合に生じる映像の輝度値が飽和する現象が起きにくい。このため、全ての入力値に対して出力値を下げる調整処理を行ってもよい。
 (実施の形態2)
 次に、図10~図11を用いて、実施の形態2を説明する。なお、実施の形態2を含む以下の実施の形態において、実施の形態1で説明した構成要素と実質的に同じ構成要素には、その構成要素と同じ符号を付与し、説明を省略する。
 [2-1.構成]
 図10は、実施の形態2における調整装置100aの機能構成の一例を模式的に示すブロック図である。
 実施の形態2における調整装置100aの構成は、実施の形態1で図3を用いて説明した調整装置100の構成と実質的に同じであるので、詳細な説明を省略する。ただし、実施の形態2の調整装置100aは、実施の形態1の調整装置100と比較して、さらに、変更部160を備える点が異なる。
 変更部160は、取得部110で取得された第1メタデータを、変換部130において第1映像信号が変換されることにより得られた第2映像信号の特性を示す第2メタデータに変更する。つまり、変更部160は、変換部130での第1映像信号に対する変換内容に応じて、第1映像データに付随する第1メタデータを変更する。変更部160は、第1メタデータを変更することにより得られた第2メタデータを出力部150に出力する。なお、変更部160は、例えば、プログラムを実行するプロセッサおよび当該プログラムが記録されているメモリによって実現されてもよいし、専用回路(例えば、ICまたはLSIを含む回路)により実現されてもよい。
 ここで、第1メタデータは、例えば、MaxCLL(Maximum Content Light Level)であってもよいし、MaxFALL(Maximum Frame-Average Light Level)であってもよい。
 MaxCLLとは、コンテンツ内の全フレームにおける、画素の最大輝度を示す値である。また、MaxFALLとは、コンテンツ内の全フレームにおける、フレーム内の平均輝度の最大値を示す値である。
 つまり、第1メタデータは、第1映像信号の映像全体(コンテンツ内の全フレーム)に含まれる画素の最大輝度値(MaxCLL)である第1最大輝度値、および、第1映像信号の映像を構成する複数のフレーム(コンテンツ内の全フレーム)のそれぞれのフレームの平均輝度の最大値(MaxFALL)である第1最大フレーム平均輝度値、の少なくとも1つを含んでいてもよい。
 よって、変更部160は、上記の第1メタデータを第2メタデータへ変更する場合、(i)第1最大輝度値から、第2映像信号の映像全体(コンテンツ内の全フレーム)に含まれる画素の最大輝度値である第2最大輝度値への変更、および、(ii)第1最大フレーム平均輝度値から、第2映像信号の映像を構成する複数のフレーム(コンテンツ内の全フレーム)のそれぞれのフレームの平均輝度の最大値である第2最大フレーム平均輝度値への変更、の少なくとも1つを行ってもよい。なお、変更部160は、第1映像信号と第2映像信号とにおいて、MaxCLLおよびMaxFALLが変更されていれば、上記のメタデータの変更を行うが、変更されていなければ上記のメタデータの変更を行わなくてもよい。
 また、第1メタデータは、MaxCLLおよびMaxFALL以外の他の静的メタデータであってもよい。第1メタデータは、例えば、第1映像データが生成される基になったマスター映像が生成されたときに使用されたマスターモニターの最大輝度値等のような映像の輝度に関連するメタデータであってもよい。
 出力部150は、第2映像信号および第2メタデータを含むデータを第2映像データとして出力する。
 [2-2.動作]
 以上のように構成された実施の形態2の調整装置100aについて、図11を用いてその動作を以下に説明する。
 図11は、実施の形態2における調整装置100aの動作(調整方法)の一例を示すフローチャートである。図11において、図6のフローチャートに示すステップと実質的に同じ動作を実行するステップには同じ符号を付与し、そのステップの説明を省略する。
 実施の形態2の調整方法は、図6に示した実施の形態1の調整方法と実質的に同じであるので、詳細な説明を省略する。ただし、実施の形態2の調整方法は、実施の形態1の調整方法と比較して、ステップS104の後にステップS104aが追加されている点が異なる。調整方法におけるその他のステップは、実施の形態1と同様である。
 ステップS104の後で、変更部160は、取得部110で取得された第1メタデータを、変換部130において第1映像信号が変換されることにより得られた第2映像信号の特性を示す第2メタデータに変更する(ステップS104a)。
 ステップS104aが終了すると、実施の形態1の調整方法におけるステップS105が行われる。
 [2-3.効果、等]
 以上のように、本実施の形態における調整装置において、取得部は、さらに、第1映像信号の特性を示す第1メタデータを取得してもよい。当該調整装置は、さらに、取得部で取得された第1メタデータを、第2映像信号の特性を示す第2メタデータに変更する変更部を備えてもよい。出力部は、第2映像信号および第2メタデータを出力してもよい。
 なお、調整装置100aは調整装置の一例である。変更部160は変更部の一例である。
 例えば、実施の形態2に示した調整装置100aにおいて、取得部110は、さらに、第1映像信号の特性を示す第1メタデータを取得する。調整装置100aは、さらに、変更部160を備える。変更部160は、取得部110で取得された第1メタデータを、変換部130おいて第1映像信号が変換されることにより得られた第2映像信号の特性を示す第2メタデータに変更する。出力部150は、第2映像信号および第2メタデータを含む第2映像データを出力する。
 このように構成された調整装置100aは、変換部130における変換処理の結果に応じて、第1映像信号の第1メタデータを第2メタデータに変更し、その変更により得られた第2メタデータを表示装置200に出力する。つまり、調整装置100aは、第2映像信号の特性を示す第2メタデータを表示装置200に出力することができるため、第2映像信号を表示装置200に適切に表示させることが容易にできる。
 当該調整装置において、第1メタデータは、第1映像信号の映像全体に含まれる画素の最大輝度値である第1最大輝度値、および、第1映像信号の映像を構成する複数のフレームのそれぞれの平均輝度の最大値である第1最大フレーム平均輝度値、の少なくとも1つを含んでもよい。変更部は、(i)第1最大輝度値から、第2映像信号の映像全体に含まれる画素の最大輝度値である第2最大輝度値への変更、および、(ii)第1最大フレーム平均輝度値から、第2映像信号の映像を構成する複数のフレームのそれぞれの平均輝度の最大値である第2最大フレーム平均輝度値への変更、の少なくとも1つを行ってもよい。
 例えば、実施の形態2に示した調整装置100aにおいて、第1メタデータは、第1映像信号の映像全体(コンテンツ内の全フレーム)に含まれる画素の最大輝度値(MaxCLL)である第1最大輝度値、および、第1映像信号の映像を構成する複数のフレーム(コンテンツ内の全フレーム)のそれぞれのフレームの平均輝度の最大値(MaxFALL)である第1最大フレーム平均輝度値、の少なくとも1つを含む。変更部160は、(i)第1最大輝度値から、第2映像信号の映像全体(コンテンツ内の全フレーム)に含まれる画素の最大輝度値である第2最大輝度値への変更、および、(ii)第1最大フレーム平均輝度値から、第2映像信号の映像を構成する複数のフレーム(コンテンツ内の全フレーム)のそれぞれのフレームの平均輝度の最大値である第2最大フレーム平均輝度値への変更、の少なくとも1つを行う。
 このように構成された調整装置100aは、MaxCLLおよびMaxFALLの少なくとも一方の値を、変換処理後の第2映像信号において適切な値に変更できる。したがって、調整装置100aは、第2映像信号を表示装置200に適切に表示させることが容易にできる。
 (実施の形態3)
 次に、図12および図13を用いて、実施の形態3を説明する。
 [3-1.構成]
 図12は、実施の形態3における調整装置100bの機能構成の一例を模式的に示すブロック図である。
 実施の形態3における調整装置100bの構成は、実施の形態1で図3を用いて説明した調整装置100の構成と実質的に同じであるので、詳細な説明を省略する。ただし、実施の形態3の調整装置100bは、実施の形態1の調整装置100と比較して、取得部110において取得された第1映像データに含まれる第1メタデータが変換部130bに出力され、変換部130bが第1メタデータに応じて変換処理を行う点が異なる。
 変換部130bは、第1メタデータに応じて、第1映像信号を第2映像信号に変換する。ここでは、第1メタデータは、実施の形態2で説明した静的メタデータを含む。第1メタデータは、第1映像信号の映像が生成される基になったマスター映像が生成されたときに使用されたマスターモニターの最大輝度値、および、第1映像信号の映像全体(コンテンツ内の全フレーム)に含まれる画素の最大輝度値(MaxCLL)である第1最大輝度値、の少なくとも1つを含む。また、第2映像信号は、第2映像信号の輝度が、第1メタデータに含まれるマスターモニターの最大輝度値および第1最大輝度値(MaxCLL)の一方以下となるように、第2変換部132bが有する第2R信号変換部132Rb、第2G信号変換部132Gb、および第2B信号変換部132Bbにおいて調整処理が行われることにより得られる信号である。つまり、変換部130bは、具体的には、第1映像信号から第2映像信号への変換を行う際に、第2映像信号の輝度が、第1メタデータに含まれるマスターモニターの最大輝度値および第1最大輝度値の一方以下となるように、第2変換部132bにおいて調整処理を行ってもよい。例えば、変換部130bの第2変換部132bは、実施の形態1の変形例で示したように、所定の閾値未満において傾きがAとなり、所定の閾値以上において傾きがAよりも小さいBとなるニーカーブによる変換を行ってもよい。そして、変換部130bの第2変換部132bは、ニーカーブによる変換を行う場合、第1メタデータに含まれる最大輝度値が維持されるように、調整処理を行ってもよい。
 また、第1メタデータは、動的メタデータであり、第1映像信号の映像を構成する複数のシーンのそれぞれの最大輝度値を含んでいてもよい。
 この場合、第2映像信号は、複数のシーンのそれぞれについて、第2映像信号の輝度が、第1メタデータに含まれる当該シーンの最大輝度値以下となるように、第2変換部132bで調整処理が行われることにより得られる信号である。つまり、変換部130bは、第1映像信号の映像を構成する複数のシーンのそれぞれについて、第1映像信号から第2映像信号への変換を行う際に、第2映像信号の輝度が、第1メタデータに含まれる当該シーンの最大輝度値以下となるように、調整処理を行ってもよい。
 [3-2.動作]
 以上のように構成された実施の形態3の調整装置100bについて、図13を用いてその動作を以下に説明する。
 実施の形態3の調整方法は、図6に示した実施の形態1の調整方法と実質的に同じであるので、詳細な説明を省略する。ただし、実施の形態3の調整方法は、実施の形態1の調整方法と比較して、図7に詳細を示したステップS103の変換処理の一部が異なる。したがって、ここでは、その変換処理の異なる点のみを説明する。
 図13は、実施の形態3における変換処理の一例を示すフローチャートである。図13において、図7のフローチャートに示すステップと実質的に同じ動作を実行するステップには同じ符号を付与し、そのステップの説明を省略する。
 実施の形態3の変換処理は、図7に示した実施の形態1の変換処理のステップS112に代えて、ステップS112aを行う。実施の形態3の変換処理は、その点が実施の形態1の変換処理と異なる。変換処理のその他のステップは、実施の形態1と同様である。
 ステップS111の後で、変換部130bは、第1メタデータに応じて調整処理を行う(ステップS112a)。なお、実施の形態3の変換部130bでは、上記調整処理を第2変換部132bが行う。
 [3-3.効果、等]
 以上のように、本実施の形態における調整装置において、取得部は、さらに、第1映像信号の特性を示す第1メタデータを取得してもよい。変換部は、取得部で取得された第1メタデータに応じて、第1映像信号を第2映像信号に変換してもよい。
 当該調整装置において、第1メタデータは、第1映像信号の映像が生成される基になったマスター映像が生成されたときに使用されたマスターモニターの最大輝度値、および、第1映像信号の映像全体に含まれる画素の最大輝度値である第1最大輝度値、の少なくとも1つを含んでもよい。第2映像信号は、第2映像信号の輝度が、第1メタデータに含まれるマスターモニターの最大輝度値および第1最大輝度値の一方以下となるように、調整処理が行われることにより得られる信号であってもよい。
 なお、調整装置100bは調整装置の一例である。変換部130bは変換部の一例である。
 例えば、実施の形態3に示した調整装置100bでは、取得部110は、さらに、第1映像信号の特性を示す第1メタデータを取得する。変換部130bは、取得部110で取得された第1メタデータに応じて、第1映像信号を第2映像信号に変換する。
 第1メタデータは、第1映像信号の映像が生成される基になったマスター映像が生成されたときに使用されたマスターモニターの最大輝度値、および、第1映像信号の映像全体(コンテンツ内の全フレーム)に含まれる画素の最大輝度値(MaxCLL)である第1最大輝度値、の少なくとも1つを含む。第2映像信号は、第2映像信号の輝度が、第1メタデータに含まれるマスターモニターの最大輝度値および第1最大輝度値(MaxCLL)の一方以下となるように、調整処理が行われることにより得られる信号である。
 このように構成された調整装置100bは、例えば、第1映像信号の最大輝度値を第2映像信号において維持した上で、ニーカーブ変換を行うことができるため、映像の輝度を適切に調整することができる。
 当該調整装置において、第1メタデータは、第1映像信号の映像を構成する複数のシーンのそれぞれの最大輝度値を含んでいてもよい。第2映像信号は、当該複数のシーンのそれぞれについて、第2映像信号の輝度が、第1メタデータに含まれる当該シーンの最大輝度値以下となるように、調整処理が行われることにより得られる信号であってもよい。
 例えば、実施の形態3に示した調整装置100bにおいて、第1メタデータは、第1映像信号の映像を構成する複数のシーンのそれぞれの最大輝度値を含む。第2映像信号は、当該複数のシーンのそれぞれについて、第2映像信号の輝度が、第1メタデータに含まれる当該シーンの最大輝度値以下となるように、調整処理が行われることにより得られる信号である。
 このように構成された調整装置100bは、第2映像信号を、シーン毎に適切な輝度に調整することができる。
 (実施の形態4)
 次に、図14および図15を用いて、実施の形態4を説明する。
 [4-1.構成]
 図14は、実施の形態4における調整装置100cの機能構成の一例を模式的に示すブロック図である。
 実施の形態4における調整装置100cの構成は、実施の形態1で図3を用いて説明した調整装置100の構成と実質的に同じであるので、詳細な説明を省略する。ただし、実施の形態4の調整装置100cは、実施の形態1の調整装置100と比較して、YUV-RGB変換部120およびRGB-YUV変換部140を備えておらず、変換部130cがRGB信号の各信号に対応する変換部を有していない構成である点が異なる。
 変換部130cは、YUV信号で構成される第1映像信号のうちの輝度信号を示す第1Y信号に対して、変換処理を行う。具体的には、変換部130cでは、第1Y信号に対して、第1変換部131cが、実施の形態1で説明した第1変換部131と同様の動作によりリニア信号への変換を行い、第2変換部132cが、実施の形態1で説明した第2変換部132と同様の動作により調整処理を行い、第3変換部133cが、実施の形態1で説明した第3変換部133と同様の動作により非リニア信号への変換を行う。これにより、変換部130cは、第2Y信号を出力する。なお、取得部110において取得された第1映像信号のうちの色差信号を示す第1U信号および第1V信号は、変換部130cにおける変換処理が行われることなく出力部150に出力される。
 出力部150は、第2Y信号、第1U信号および第1V信号により構成される第2映像信号を出力する。
 [4-2.動作]
 以上のように構成された実施の形態4の調整装置100cについて、図15を用いてその動作を以下に説明する。
 図15は、実施の形態4における調整装置100cの動作(調整方法)の一例を示すフローチャートである。図15において、図6のフローチャートに示すステップと実質的に同じ動作を実行するステップには同じ符号を付与し、そのステップの説明を省略する。
 実施の形態4の調整方法は、図6に示した実施の形態1の調整方法と実質的に同じであるので、詳細な説明を省略する。ただし、実施の形態4の調整方法は、実施の形態1の調整方法と比較して、ステップS102およびステップS104が省略されている点が異なる。調整方法のその他のステップは、実施の形態1と同様である。
 すなわち、実施の形態4の調整方法は、実施の形態1と同様のステップS101、ステップS103およびステップS105の処理が行われる。そして、実施の形態4の調整方法におけるステップS103の処理は、YUV信号で構成される第1映像信号の第1Y信号に対して行われる。
 [4-3.効果、等]
 実施の形態4における調整装置100cは、YUV信号で構成される第1映像信号に対して、実施の形態1に示した変換処理と同様の変換処理を行う。そのため、調整装置100cでは、実施の形態1に示したRGBの各信号に対して変換処理を行う構成と比較して、処理負荷を低減できる。
 (実施の形態5)
 次に、図16を用いて、実施の形態5を説明する。
 図16は、実施の形態5における調整装置100dの機能構成の一例を模式的に示すブロック図である。
 実施の形態5における調整装置100dの構成は、実施の形態1で図3を用いて説明した調整装置100の構成と実質的に同じであるので、詳細な説明を省略する。ただし、実施の形態5の調整装置100dは、実施の形態1の調整装置100と比較して、変換部130dが、第1変換部131と、第2変換部132と、第3変換部133とを有しておらず、R信号テーブル変換部130Rと、G信号テーブル変換部130Gと、B信号テーブル変換部130Bとを有する点が異なる。
 すなわち、変換部130dは、実施の形態1等で説明したリニア信号への変換、調整処理および非リニア信号への変換をそれぞれ個別に行わずに、実施の形態1等で説明したリニア信号への変換、調整処理および非リニア信号への変換が織り込まれたテーブルを用いた変換を、RGB信号で構成される第1映像信号の各信号について行ってもよい。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1~5を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略等を行った実施の形態にも適用可能である。また、上記実施の形態1~5で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 そこで、以下、他の実施の形態を例示する。
 実施の形態1~5では、調整装置100、100a~100dは、表示装置200で表示可能な最大輝度に応じて調整処理を行ってもよいと説明した。この場合、調整装置100、100a~100dは、当該表示可能な最大輝度を、ケーブル300経由で表示装置200から取得してもよい。
 実施の形態1~5に示した調整装置100、100a~100dは、照度センサで周囲(視聴環境)の照度を検出し、照度センサにおいて検出された照度の大きさに応じた調整処理を行ってもよい。この場合、調整装置100、100a~100dは、検出された照度が大きいほど、調整処理において、ゲイン変更における倍率(実施の形態1の「A倍」)をより大きくする変換を行ってもよい。照度センサは、調整装置100、100a~100dに備えられていてもよい。あるいは、表示装置200が照度センサを備え、その照度センサにおける検出値を、ケーブル300経由で表示装置200から調整装置100、100a~100dが取得してもよい。
 実施の形態3では、調整装置100bは、動的メタデータを用いて、映像のシーン毎に調整処理を行ってもよい、と説明した。しかし、本開示は何らこの動作に限定されない。例えば、実施の形態3の調整装置100bは、シーン毎の映像の輝度を動的に分析し、分析した結果に応じて調整処理を行ってもよい。
 実施の形態2に示した調整装置100aの変換部130は、実施の形態3に示した調整装置100bのように、取得部110において取得された第1メタデータに応じて変換処理を行ってもよい。変更部160は、第1メタデータに応じて行われた変換処理の内容に応じて、第1メタデータを第2メタデータに変更してもよい。
 調整装置において、変換部は、第2映像信号の輝度が、所定の最大輝度値以下となるように、調整処理を行ってもよい。調整装置は、さらに、取得部で取得された第1メタデータを、第2映像信号の特性を示す第2メタデータに変更する変更部を備えてもよい。出力部は、第2映像信号および第2メタデータを出力してもよい。
 例えば、実施の形態2に示した調整装置100aの変換部130は、第2映像信号の輝度が、所定の最大輝度値以下となるように、調整処理を行ってもよい。調整装置100aの変更部160は、取得部110で取得された第1メタデータを、第2映像信号の特性を示す第2メタデータに変更してもよい。出力部150は、第2映像信号および第2メタデータを出力してもよい。
 なお、所定の最大輝度値は、例えば、第1映像信号のピーク輝度、表示装置200が表示可能な最大輝度値、予め定められた輝度(例えば、500nit、1,000nit、等)、第1映像信号の映像が生成される基になったマスター映像が生成されたときに使用されたマスターモニターの最大輝度値、または第1最大輝度値、等の、実施の形態において最大輝度値として説明されたいずれであってもよく、またはその他の輝度値であってもよい。
 実施の形態5では、実施の形態1の変換部130の処理をテーブルを用いて行う構成を示したが、例えば、実施の形態4の変換部130cの処理をテーブルを用いて行う構成としてもよい。
 実施の形態1~5において、各構成要素は、専用のハードウェア(電子回路)で構成されてもよく、あるいは、各構成要素に適したソフトウェアプログラムをプロセッサが実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)またはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、実施の形態で図面に示したブロック図における機能ブロックの分割は、単なる一例に過ぎない。例えば、複数の機能ブロックを1つの機能ブロックとして実現したり、あるいは、1つの機能ブロックを複数に分割したり、または、一部の機能を他の機能ブロックに移したりしてもよい。また、複数の機能ブロックの機能を、単一のハードウェアまたはソフトウェアが、並列に処理してもよく、または時分割に処理してもよい。
 ここで、上記各実施の形態の調整方法などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、第1のOETFで生成された非リニアな第1映像信号を第2映像信号に変換することで、表示装置に表示される映像を調整する調整装置が行う調整方法であって、第1映像信号を取得し、当該取得において取得された第1映像信号を、(i)当該第1映像信号が、第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)当該リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)当該調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる、非リニアな第2映像信号に変換し、当該変換により得られた第2映像信号を出力する調整方法、を実行させる。
 また、上記調整方法と、同調整方法をコンピュータに実行させるコンピュータプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本開示の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリ、等を挙げることができる。コンピュータプログラムは、上記記録媒体に記録されたものに限定されず、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、等を経由して伝送されてもよい。
 また、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されてもよい。
 また、上記の各装置を構成する構成要素の一部または全部は、1つのLSI(Large Scale Integration:大規模集積回路)で構成されてもよい。
 また、各処理部は、LSIまたはICに限定されるものではなく、専用回路または汎用プロセッサで実現されてもよい。あるいは、回路構成をプログラムすることが可能なFPGA(Field Programmable Gate Array)、または、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサで実現されてもよい。
 また、上記のプログラムを、記録媒体に記録して頒布または流通させてもよい。例えば、頒布されたプログラムを装置類にインストールして、装置類のプロセッサに実行させることで、装置類に各種処理を行わせることが可能となる。
 また、本開示におけるコンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネット等のネットワーク、データ放送、等を経由して伝送してもよい。
 また、本開示は、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号を、ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施してもよい。
 また、実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、映像の輝度を効果的に調整できる調整装置等に適用可能である。具体的には、Ultra HD Blu-ray(登録商標)プレーヤ、STB(Set Top Box)等に、本開示は適用可能である。
100,100a,100b,100c,100d  調整装置
110  取得部
120  YUV-RGB変換部
130,130b,130c,130d  変換部
130R  R信号テーブル変換部
130G  G信号テーブル変換部
130B  B信号テーブル変換部
131,131c  第1変換部
131R  第1R信号変換部
131G  第1G信号変換部
131B  第1B信号変換部
132,132b,132c  第2変換部
132R,132Rb  第2R信号変換部
132G,132Gb  第2G信号変換部
132B,132Bb  第2B信号変換部
133,133c  第3変換部
133R  第3R信号変換部
133G  第3G信号変換部
133B  第3B信号変換部
140  RGB-YUV変換部
150  出力部
160  変更部
200  表示装置
300  ケーブル

Claims (14)

  1. 第1のOETF(Opto-Electronic Transfer Function)が用いられることで生成された非リニアな第1映像信号を取得する取得部と、
    前記取得部において取得された前記第1映像信号を、(i)前記第1映像信号が、前記第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)前記リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)前記調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる、非リニアな第2映像信号に変換する変換処理を行う変換部と、
    前記変換部において変換されることにより得られた前記第2映像信号を出力する出力部と、を備える、
    調整装置。
  2. 前記第1映像信号および前記第2映像信号は、HDR(High Dynamic Range)映像信号である、
    請求項1に記載の調整装置。
  3. 前記調整装置は、さらに、
    YUV信号で構成される映像信号を、RGB信号に変換するYUV-RGB変換部と、
    RGB信号で構成される映像信号を、YUV信号に変換するRGB-YUV変換部と、を備え、
    前記YUV-RGB変換部は、前記第1映像信号を、YUV信号からRGB信号に変換し、
    前記変換部は、前記YUV-RGB変換部においてRGB信号に変換されることにより得られた、前記第1映像信号を構成する第1R信号、第1G信号および第1B信号のそれぞれに前記変換処理を行うことで、前記第1映像信号を、第2R信号、第2G信号および第2B信号により構成される前記第2映像信号に変換し、
    前記RGB-YUV変換部は、前記変換部において前記第1映像信号が変換されることにより得られた前記第2映像信号を、RGB信号からYUV信号に変換する、
    請求項1または2に記載の調整装置。
  4. 前記変換部は、
    前記取得部で取得された前記第1映像信号を、前記第1のOETFの逆特性を用いて前記リニア信号に変換する第1変換部と、
    前記第1変換部で得られた前記リニア信号に対して前記調整処理を行う第2変換部と、
    前記第2変換部で前記調整処理が行われることにより得られた前記調整後リニア信号を、前記第2のOETFを用いて前記第2映像信号に変換する第3変換部と、を有する、
    請求項1から3のいずれか1項に記載の調整装置。
  5. 前記第1映像信号および前記第2映像信号は、PQ(Perceptual Quantization)特性、または、HLG(Hybrid Log-Gamma)特性を有する、
    請求項1から4のいずれか1項に記載の調整装置。
  6. 前記取得部は、さらに、前記第1映像信号の特性を示す第1メタデータを取得し、
    前記調整装置は、さらに、
    前記取得部で取得された前記第1メタデータを、前記第2映像信号の特性を示す第2メタデータに変更する変更部、を備え、
    前記出力部は、前記第2映像信号および前記第2メタデータを出力する、
    請求項1から5のいずれか1項に記載の調整装置。
  7. 前記第1メタデータは、前記第1映像信号の映像全体に含まれる画素の最大輝度値である第1最大輝度値、および、前記第1映像信号の映像を構成する複数のフレームそれぞれの平均輝度の最大値である第1最大フレーム平均輝度値、の少なくとも1つを含み、
    前記変更部は、(i)前記第1最大輝度値から、前記第2映像信号の映像全体に含まれる画素の最大輝度値である第2最大輝度値への変更、および、(ii)前記第1最大フレーム平均輝度値から、前記第2映像信号の映像を構成する複数のフレームそれぞれの平均輝度の最大値である第2最大フレーム平均輝度値への変更、の少なくとも1つを行う、
    請求項6に記載の調整装置。
  8. 前記取得部は、さらに、前記第1映像信号の特性を示す第1メタデータを取得し、
    前記変換部は、前記取得部で取得された前記第1メタデータに応じて、前記第1映像信号を前記第2映像信号に変換する、
    請求項1から5のいずれか1項に記載の調整装置。
  9. 前記第1メタデータは、前記第1映像信号の映像が生成される基になったマスター映像が生成されたときに使用されたマスターモニターの最大輝度値、および、前記第1映像信号の映像全体に含まれる画素の最大輝度値である第1最大輝度値、の少なくとも1つを含み、
    前記第2映像信号は、前記第2映像信号の輝度が、前記第1メタデータに含まれる前記マスターモニターの前記最大輝度値および前記第1最大輝度値の一方以下となるように、前記調整処理が行われることにより得られる信号である、
    請求項8に記載の調整装置。
  10. 前記第1メタデータは、前記第1映像信号の映像を構成する複数のシーンのそれぞれの最大輝度値を含み、
    前記第2映像信号は、前記複数のシーンのそれぞれについて、前記第2映像信号の輝度が、前記第1メタデータに含まれる当該シーンの最大輝度値以下となるように、前記調整処理が行われることにより得られる信号である、
    請求項8に記載の調整装置。
  11. 前記変換部は、前記第2映像信号の輝度が、所定の最大輝度値以下となるように、前記調整処理を行い、
    前記調整装置は、さらに、
    前記取得部で取得された前記第1メタデータを、前記第2映像信号の特性を示す第2メタデータに変更する変更部を備え、
    前記出力部は、前記第2映像信号および前記第2メタデータを出力する、
    請求項8に記載の調整装置。
  12. 前記調整装置は、デジタルインターフェースによって表示装置と接続され、
    前記出力部は、前記デジタルインターフェースを介して、前記表示装置に前記第2映像信号を出力する、
    請求項1から11のいずれか1項に記載の調整装置。
  13. 第1のOETFで生成された非リニアな第1映像信号を変換し、第2映像信号を出力する調整装置が行う調整方法であって、
    前記第1映像信号を取得し、
    前記取得において取得された前記第1映像信号を、(i)前記第1映像信号が、前記第1のOETFの逆特性が用いられることでリニア信号に変換され、かつ、(ii)前記リニア信号に対して入力値と出力値との関係がリニアとなるゲイン変更を含む調整処理が行われ、かつ、(iii)前記調整処理が行われることにより得られた調整後リニア信号が、所定のフォーマットに応じた第2のOETFが用いられることで変換される、ことにより得られる、非リニアな前記第2映像信号に変換し、
    前記変換により得られた前記第2映像信号を出力する、
    調整方法。
  14. 請求項13に記載の調整方法をコンピュータに実行させるプログラム。
PCT/JP2017/034235 2016-09-28 2017-09-22 調整装置、調整方法およびプログラム WO2018062022A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018542509A JP6872693B2 (ja) 2016-09-28 2017-09-22 調整装置、調整方法およびプログラム
EP17855976.1A EP3522514A1 (en) 2016-09-28 2017-09-22 Adjusting device, adjusting method, and program
US16/335,703 US20200035198A1 (en) 2016-09-28 2017-09-22 Adjusting device, adjusting method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662400803P 2016-09-28 2016-09-28
US62/400803 2016-09-28
JP2016219296 2016-11-10
JP2016-219296 2016-11-10

Publications (1)

Publication Number Publication Date
WO2018062022A1 true WO2018062022A1 (ja) 2018-04-05

Family

ID=61763413

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034235 WO2018062022A1 (ja) 2016-09-28 2017-09-22 調整装置、調整方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2018062022A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193025A (ja) * 2018-04-20 2019-10-31 日本放送協会 映像輝度変換装置およびそのプログラム
CN113593501A (zh) * 2021-07-29 2021-11-02 昆山国显光电有限公司 一种显示面板的mura补偿方法、补偿装置及显示装置
JP7475187B2 (ja) 2020-04-15 2024-04-26 キヤノン株式会社 表示制御装置および方法、プログラム、記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008098814A (ja) * 2006-10-10 2008-04-24 Matsushita Electric Ind Co Ltd 映像信号処理装置
JP2008167418A (ja) 2006-12-05 2008-07-17 Nippon Hoso Kyokai <Nhk> 画像信号処理装置
WO2015190246A1 (ja) * 2014-06-13 2015-12-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015190045A1 (ja) * 2014-06-10 2015-12-17 パナソニックIpマネジメント株式会社 変換方法および変換装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008098814A (ja) * 2006-10-10 2008-04-24 Matsushita Electric Ind Co Ltd 映像信号処理装置
JP2008167418A (ja) 2006-12-05 2008-07-17 Nippon Hoso Kyokai <Nhk> 画像信号処理装置
WO2015190045A1 (ja) * 2014-06-10 2015-12-17 パナソニックIpマネジメント株式会社 変換方法および変換装置
WO2015190246A1 (ja) * 2014-06-13 2015-12-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IWAMURA, SHUNSUKE; ICHIGAYA, ATSURO; NISHIDA, YUKIHIRO: "Hybrid Log-Gamma Perceptual Quantizer Comparison of Coding Performance between Hybrid Log-Gamma system and Perceptual Quantization system", ITE TECHNICAL REPORT, vol. 40, no. 14, 4 March 2016 (2016-03-04), pages 9 - 12, XP009514537, ISSN: 1342-6893, DOI: 10.11485/itetr.40.14.0_9 *
See also references of EP3522514A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193025A (ja) * 2018-04-20 2019-10-31 日本放送協会 映像輝度変換装置およびそのプログラム
JP7045916B2 (ja) 2018-04-20 2022-04-01 日本放送協会 映像輝度変換装置およびそのプログラム
JP7475187B2 (ja) 2020-04-15 2024-04-26 キヤノン株式会社 表示制御装置および方法、プログラム、記憶媒体
CN113593501A (zh) * 2021-07-29 2021-11-02 昆山国显光电有限公司 一种显示面板的mura补偿方法、补偿装置及显示装置

Similar Documents

Publication Publication Date Title
JP7065376B2 (ja) 表示装置、変換装置、表示方法、および、コンピュータプログラム
JP6872693B2 (ja) 調整装置、調整方法およびプログラム
TWI734978B (zh) 用於執行高動態範圍視訊的色調映射的方法及裝置
US10992898B2 (en) Display method and display device
US10402953B2 (en) Display method and display device
CN109661806B (zh) 图像处理装置、图像处理方法和程序
KR20170129004A (ko) 영상 처리 장치 및 그의 영상 처리 방법
JP6891882B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN107533832B (zh) 图像处理装置、图像处理方法与程序
WO2016063475A1 (ja) 送信方法および再生装置
WO2018062022A1 (ja) 調整装置、調整方法およびプログラム
WO2016181584A1 (ja) 表示方法および表示装置
WO2021131209A1 (ja) 制御装置及び制御方法
WO2023095718A1 (ja) 映像処理方法、映像処理装置、及び、プログラム
TW202423104A (zh) 共享影像處理程序的影音系統及其視訊處理方法
JP2020195137A (ja) 表示方法および表示装置
JP2017220689A (ja) 送信方法および再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855976

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542509

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017855976

Country of ref document: EP

Effective date: 20190429