WO2016157838A1 - 信号処理装置、表示装置、信号処理方法、およびプログラム - Google Patents

信号処理装置、表示装置、信号処理方法、およびプログラム Download PDF

Info

Publication number
WO2016157838A1
WO2016157838A1 PCT/JP2016/001673 JP2016001673W WO2016157838A1 WO 2016157838 A1 WO2016157838 A1 WO 2016157838A1 JP 2016001673 W JP2016001673 W JP 2016001673W WO 2016157838 A1 WO2016157838 A1 WO 2016157838A1
Authority
WO
WIPO (PCT)
Prior art keywords
video signal
input video
luminance
unit
signal
Prior art date
Application number
PCT/JP2016/001673
Other languages
English (en)
French (fr)
Inventor
義明 尾脇
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP16771728.9A priority Critical patent/EP3276948A4/en
Priority to CN201680017482.9A priority patent/CN107409190B/zh
Priority to JP2017509265A priority patent/JP6757890B2/ja
Priority to US15/557,179 priority patent/US10057104B2/en
Publication of WO2016157838A1 publication Critical patent/WO2016157838A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/20Function-generator circuits, e.g. circle generators line or curve smoothing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • H04N9/7925Processing of colour television signals in connection with recording for more than one processing mode for more than one standard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial

Definitions

  • the present disclosure relates to a signal processing device, a display device, a signal processing method, and a program for processing a video signal in accordance with a standard that handles a wider range than a standard dynamic range (hereinafter referred to as a standard that handles HDR (High Dynamic Range)).
  • a standard that handles HDR High Dynamic Range
  • Patent Document 1 discloses a playback device that transmits HDR data and HDR information to the monitor in order to make use of the performance of the monitor having a wider dynamic range (luminance range) than the standard.
  • the monitor adjusts the HDR data based on the HDR information and displays a video that matches the characteristics of the monitor itself.
  • HDR data may be sent to a monitor having a standard dynamic range.
  • HDR data is a video signal that exceeds the displayable brightness of a standard monitor.
  • black floating occurs in the low-brightness area (black brightness appears to increase), and the brightness is insufficient in the high-brightness area, resulting in a decrease in contrast. There is a risk of degrading the image quality.
  • the present disclosure provides a signal processing device, a display device, a signal processing method, and a program that suppress deterioration in image quality even when a video signal exceeding the capability of the monitor is input to the monitor.
  • the signal processing device in the present disclosure is a signal processing device that outputs a video signal to a display unit.
  • the signal processing device includes a conversion unit and a selection unit.
  • the conversion unit converts the input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device.
  • the selection unit receives the input video signal and the output video signal, selects one of the input video signal and the output video signal, and outputs the selected signal to the display unit.
  • the selection unit selects the output video signal when the high luminance flag indicating that the video signal is for the high luminance display device is added to the input video signal, and the high luminance flag is added to the input video signal. If not, the input video signal is selected.
  • the signal processing method in the present disclosure is a signal processing method for outputting a video signal to the display unit.
  • the signal processing method includes the steps of converting an input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device, and the input video signal and the output video signal
  • the output video signal is output to the display unit. Is selected and the high luminance flag is not added to the input video signal, the input video signal is selected.
  • the video processing device, the display device, the signal processing method, and the program according to the present disclosure can suppress deterioration in image quality even when a video signal exceeding the monitor capability is input to the monitor.
  • FIG. 1 is a block diagram schematically illustrating a configuration example of the display device according to the first embodiment.
  • FIG. 2 is a block diagram schematically showing a configuration example of the HDR / SDR conversion unit in the first embodiment.
  • FIG. 3 is a graph showing an example of the first conversion characteristic curve in the first embodiment.
  • FIG. 4 is a graph showing an example of the second conversion characteristic curve in the first embodiment.
  • FIG. 5 is a diagram for illustrating a theory for creating the first conversion characteristic curve in the first embodiment.
  • FIG. 6 is a block diagram schematically showing a configuration example of the parameter calculation unit in the first embodiment.
  • FIG. 7 is a graph showing an example of the relationship between gain information and maximum luminance in the first embodiment.
  • FIG. 8 is a flowchart showing an example of a signal processing method executed by the tuner unit in the first embodiment.
  • FIG. 9 is a block diagram schematically illustrating a configuration example of the display device according to the second embodiment.
  • FIG. 10 is a block diagram schematically showing a configuration example of the analysis information detection unit in the second embodiment.
  • FIG. 11 is a diagram for explaining the luminance histogram in the second embodiment.
  • FIG. 12 is a graph showing an example of the relationship between gain information and maximum luminance in the second embodiment.
  • FIG. 13 is a block diagram schematically showing a configuration example of the parameter calculation unit in the second embodiment.
  • FIG. 14 is a graph showing an example of the relationship between motion vector gain information and motion vectors in the second embodiment.
  • FIG. 15 is a flowchart illustrating an example of a signal processing method executed by the tuner unit according to the second embodiment.
  • FIG. 1 is a block diagram schematically showing a configuration example of the display device 1 according to the first embodiment.
  • the display device 1 is, for example, a television set (hereinafter referred to as “TV”) that displays video by receiving broadcast waves.
  • the display device 1 includes a display unit 2 and a tuner unit 3.
  • the display unit 2 and the tuner unit 3 are connected to each other so as to communicate with each other.
  • FIG. 1 shows only the components related to the present embodiment among the plurality of components included in the display device 1, and other components are omitted.
  • Other components include components that are typically provided in televisions. Those explanations are omitted.
  • the display unit 2 receives the video signal sent from the tuner unit 3 and displays a video based on the video signal.
  • Examples of the display unit 2 include a liquid crystal display panel and an organic EL (Electro Luminescence) display panel.
  • the display unit 2 has a displayable luminance range (dynamic range). Here, the display unit 2 capable of displaying with a standard dynamic range is illustrated.
  • a dynamic range larger than the standard dynamic range is expressed as a range of 101% or more. In the case of a dynamic range conforming to a standard that handles HDR, the range is about 0 to 10,000%.
  • a video signal compliant with the HDR handling standard is used as a video signal for a high luminance display device, and a video signal corresponding to a standard dynamic range is used as a video signal for a low luminance display device.
  • the high-brightness display device is a display device that can display a dynamic range larger than the standard dynamic range.
  • the high-brightness display device is a display device that can display a video signal that conforms to a standard that handles HDR.
  • the low-brightness display device is a display device having a lower upper limit of displayable luminance than the high-brightness display device, and is a display device that can display a video signal corresponding to a standard dynamic range, for example.
  • the tuner unit 3 is a signal processing device that converts a broadcast wave input via an antenna into a video signal and outputs the video signal to the display unit 2.
  • the tuner unit 3 is realized as a one-chip semiconductor integrated circuit such as an LSI (Large Scale Integrated Circuit).
  • the tuner unit 3 includes a reception unit 31, a conversion unit 32, and a selection unit 33.
  • the receiving unit 31, the converting unit 32, and the selecting unit 33 may be realized by a plurality of integrated circuits, or may be realized by a plurality of individual circuits or discrete components.
  • the receiving unit 31 is a circuit that converts a broadcast wave input via an antenna into an input video signal.
  • the dynamic range information indicating the type of the dynamic range of the video according to the input video signal is added to the input video signal. For example, when the input video signal is a video signal for a high brightness display device, an HDR flag (high brightness flag) is added to the input video signal as dynamic range information. On the other hand, when the input video signal is a video signal for a low luminance display device, a SDR (Standard Dynamic Range) flag (low luminance flag) is added to the input video signal as dynamic range information. Further, additional information is added in advance to the input video signal.
  • an HDR flag high brightness flag
  • SDR Standard Dynamic Range
  • the additional information includes a value related to the luminance of the input video signal.
  • the value relating to the luminance of the input video signal the maximum luminance within one frame of the input video signal, the average luminance within one frame of the input video signal, and the predetermined number of frames of the input video signal. Examples include an average maximum luminance per frame calculated from the maximum luminance, a luminance histogram within one frame of the input video signal, and a motion vector per unit pixel block included in the input video signal.
  • the maximum luminance within one frame of the input video signal is added to the input video signal for each frame will be described as an example of additional information.
  • additional information may be added to the entire input video signal constituting one content.
  • at least one of the average values of the maximum luminance, average luminance, luminance histogram, and motion vector obtained from all frames constituting one content may be used as additional information.
  • the receiving unit 31 outputs the additional information added to the input video signal to the parameter calculating unit 322 of the converting unit 32. In addition, the reception unit 31 outputs the input video signal to the selection unit 33 and the HDR / SDR conversion unit 321 of the conversion unit 32. In addition, the receiving unit 31 outputs the dynamic range information added to the input video signal to the selection unit 33.
  • the conversion unit 32 converts an input video signal including a video signal for a high luminance display device into a video signal for a low luminance display device having a lower upper limit of the displayable luminance range than the high luminance display device and outputs the video signal.
  • This is a circuit for creating a video signal.
  • the conversion unit 32 includes an HDR / SDR conversion unit 321 and a parameter calculation unit 322.
  • the HDR / SDR conversion unit 321 is a circuit that generates an output video signal by performing a luminance conversion process on the input video signal using the parameter calculated by the parameter calculation unit 322.
  • FIG. 2 is a block diagram schematically showing a configuration example of the HDR / SDR conversion unit 321 in the first embodiment.
  • the HDR / SDR conversion unit 321 includes a first gradation conversion unit 37, a second gradation conversion unit 38, and a synthesis unit 39.
  • the first gradation conversion unit 37 is a circuit that converts the luminance of the input video signal using the first conversion characteristic curve C1 (see FIG. 3).
  • the first gradation converting unit 37 outputs the converted first converted video signal to the combining unit 39.
  • the second gradation conversion unit 38 is a circuit that converts the luminance of the input video signal using the second conversion characteristic curve C2 (see FIG. 4).
  • the second gradation conversion unit 38 outputs the converted second converted video signal to the synthesis unit 39.
  • FIG. 3 is a graph showing an example of the first conversion characteristic curve C1 in the first embodiment.
  • FIG. 4 is a graph showing an example of the second conversion characteristic curve C2 in the first embodiment.
  • the first conversion characteristic curve C1 and the second conversion characteristic curve C2 are examples, and can be changed within a range suitable for the purpose of luminance conversion.
  • the horizontal axis indicates the luminance of the input video signal
  • the vertical axis indicates the luminance of the output video signal after conversion.
  • the limiter position on the vertical axis is the upper limit value of the dynamic range that can be displayed on the display unit 2.
  • FIG. 5 is a diagram for illustrating a theory for creating the first conversion characteristic curve C1 in the first embodiment.
  • the horizontal axis represents the luminance of the input video signal
  • the vertical axis represents the luminance of the output video signal.
  • the input video signal has already been corrected by OETF (Optical-Electronic Transfer Function).
  • OETF Optical-Electronic Transfer Function
  • EOTF Electro-Optical Transfer Function
  • An example of this EOTF (referred to as HDR-EOTF in FIG. 5) is shown in FIG.
  • FIG. 5 (b) is an example of a supplemental graph in accordance with the upper limit value of the dynamic range that can be displayed on the display unit 2.
  • an OETF corresponding to the EOTF expected by the display unit 2 is prepared.
  • An example of this OETF (referred to as SDR-OETF in FIG. 5) is shown in FIG.
  • the first conversion characteristic curve C1 shown in FIG. 5 (d) is calculated by multiplying the graphs shown in FIGS. 5 (a) to (c).
  • FIG. 5D as a comparative example, a conversion characteristic curve C3 when an input video signal that conforms to a standard that handles HDR is displayed on a display unit that complies with the standard that handles HDR is shown.
  • the conversion characteristic curve C3 is a linear graph as a whole.
  • the first conversion characteristic curve C1 is a graph having a non-linear part and a linear part.
  • the linear portion of the first conversion table C1 is a horizontal line segment based on the value of the limiter position.
  • This linear part of the first conversion characteristic curve C1 is a signal that has a luminance exceeding the limiter position (the upper limit value of the displayable luminance range of the display unit 2) in the input video signal. This is a part to be converted into the brightness of a nearby value. As a result, the input video signal having the luminance exceeding the limiter position is converted into the upper limit value of the dynamic range that can be displayed on the display unit 2 by the linear unit. Note that the value after conversion in the linear part may not be the same value as the value of the limiter position, but may be a value in the vicinity thereof.
  • the non-linear part of the first conversion characteristic curve C1 is a part that converts the luminance of a signal that falls within the dynamic range (luminance range) that can be displayed on the display unit 2 of the input video signal based on a predetermined standard.
  • the predetermined standard is a standard based on the dynamic range of the video based on the input video signal and the dynamic range that can be displayed on the display unit 2. Specifically, as described above, the standard is obtained by synthesizing the three graphs shown in FIGS. 5A to 5C.
  • the predetermined standard is not limited to this, and a standard obtained by various experiments or simulations may be used.
  • the pseudo-contour and white crush A converted video signal that may contain a high-luminance portion in the display video is lost.
  • the second conversion characteristic curve C2 is a graph having no horizontal linear portion as shown in FIG.
  • the second conversion characteristic curve C2 only the upper limit value of the luminance range of the input video signal is converted into the limiter position value.
  • the luminance of the input video signal is reduced so as to be within the dynamic range (luminance range) that can be displayed on the display unit 2, and converted into an output video signal.
  • the combining unit 39 combines the first converted video signal input from the first gradation conversion unit 37 and the second converted video signal input from the second gradation conversion unit 38.
  • This is a circuit that synthesizes at a predetermined ratio (hereinafter also referred to as a use ratio) and outputs the combined signal to the selection unit 33 as an output video signal.
  • the synthesis unit 39 sets the parameters input from the parameter calculation unit 322 to a predetermined ratio, and creates an output video signal according to the following Expression 1.
  • Output video signal first converted video signal ⁇ (1 ⁇ parameter) + second converted video signal ⁇ parameter (Equation 1)
  • the parameter calculation unit 322 is a circuit that calculates a parameter for converting an input video signal.
  • the parameter calculation unit 322 calculates a parameter based on the additional information input from the reception unit 31.
  • the parameter is a use ratio of the first conversion characteristic curve C1 and the second conversion characteristic curve C2 used in the synthesis unit 39.
  • the parameter is a ratio between the first converted video signal based on the first conversion characteristic curve C1 and the second converted video signal based on the second conversion characteristic curve C2 when they are combined. It is.
  • FIG. 6 is a block diagram schematically showing a configuration example of the parameter calculation unit 322 in the first embodiment.
  • the parameter calculation unit 322 includes a gain calculation unit 35 and a time constant processing unit 36.
  • the gain calculation unit 35 is a circuit that calculates gain information based on the maximum luminance input as additional information from the reception unit 31. Specifically, the gain calculation unit 35 calculates gain information from the maximum luminance by using a first threshold, a second threshold larger than the first threshold, and the following graph.
  • FIG. 7 is a graph showing an example of the relationship between the gain information and the maximum luminance in the first embodiment.
  • the gain calculation unit 35 sets the gain information to “0” when the maximum luminance is equal to or less than the first threshold value T1, and sets the gain information when the maximum luminance is equal to or greater than the second threshold value T2.
  • the information is “1”.
  • the graph shown in FIG. 7 is a linear graph connecting “0” and “1” between the first threshold value T1 and the second threshold value T2. Therefore, when the maximum luminance is between the first threshold value T1 and the second threshold value T2, the gain calculation unit 35 uses the value based on the linear portion L as gain information. This value is a predetermined ratio.
  • the first threshold value T1 and the second threshold value T2 are set to appropriate values based on various experiments, simulations, and the like.
  • the first threshold value T1 may be a value that is about the upper limit value of the dynamic range that can be displayed on the display unit 2.
  • the second threshold T2 only needs to be larger than the first threshold T1.
  • the time constant processing unit 36 calculates a parameter to be used next based on the current gain information calculated by the gain calculation unit 35 and the parameter used immediately before, and calculates the calculated parameter. Is output to the HDR / SDR converter 321. Specifically, the time constant processing unit 36 calculates a parameter from the following formula 2, for example.
  • Parameter calculated gain information ⁇ ⁇ + parameter used immediately before ⁇ (1- ⁇ ) (Expression 2)
  • is a weighting coefficient and satisfies the following relationship. 0 ⁇ ⁇ ⁇ 1.
  • is set to an appropriate value based on various experiments and simulations.
  • the selection unit 33 receives an input video signal, an output video signal obtained by converting the input video signal by the conversion unit 32, and dynamic range information, and inputs video based on the dynamic range information.
  • This is a circuit that selects one of the signal and the output video signal and outputs the selected signal to the display unit 2.
  • the selection unit 33 selects and displays the output video signal. Output to part 2.
  • the selection unit 33 selects the input video signal and displays it on the display unit 2. Output. Note that when both the SDR flag and the HDR flag are not input, the selection unit 33 may operate as if the SDR flag has been input.
  • FIG. 8 is a flowchart illustrating an example of a signal processing method executed by the tuner unit 3 according to the first embodiment.
  • the receiving unit 31 When receiving a broadcast wave from the antenna, the receiving unit 31 converts the received broadcast wave into an input video signal. Then, the reception unit 31 outputs additional information added to the input video signal to the parameter calculation unit 322. In addition, the reception unit 31 outputs the input video signal to the HDR / SDR conversion unit 321 and the selection unit 33. Further, the receiving unit 31 outputs the dynamic range information added to the input video signal to the selection unit 33 (step S1).
  • the parameter calculation unit 322 calculates a parameter based on the additional information input from the reception unit 31, and outputs the calculated parameter to the HDR / SDR conversion unit 321 (step S2).
  • the HDR / SDR conversion unit 321 converts the input video signal into an output video signal by performing luminance conversion based on the parameter with respect to the input video signal input from the reception unit 31, and selects the output video signal as a selection unit. (Step S3).
  • the selection unit 33 determines whether the HDR flag is input from the reception unit 31 (step S4).
  • step S4 determines in step S4 that the HDR flag has been input (Yes in step S4), the selection unit 33 selects the output video signal and outputs it to the display unit 2 (step S5).
  • the selection unit 33 determines in step S4 that the HDR flag is not input (No in step S4), the selection unit 33 selects the input video signal and outputs it to the display unit 2 (step S6).
  • the tuner unit 3 executes processing based on this flowchart on the input video signal for each frame.
  • the parameter used immediately before one frame before
  • the tuner unit 3 can reduce the difference between the parameter used immediately before and the currently calculated parameter even when the gain information is switched from 1 to 0.
  • the tuner unit 3 can prevent the parameter used as the usage ratio from changing sharply for each frame when the output video signal is created.
  • the display apparatus 1 can suppress the occurrence of flickering for each frame in the video displayed on the display unit 2.
  • the signal processing device is a signal processing device that outputs a video signal to a display unit.
  • the signal processing device includes a conversion unit and a selection unit.
  • the conversion unit converts the input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device.
  • the selection unit receives the input video signal and the output video signal, selects one of the input video signal and the output video signal, and outputs the selected signal to the display unit.
  • the selection unit selects the output video signal when the high luminance flag indicating that the video signal is for the high luminance display device is added to the input video signal, and the high luminance flag is added to the input video signal. If not, the input video signal is selected.
  • the display device includes a signal processing device and a display unit.
  • the signal processing method is a signal processing method for outputting a video signal to the display unit.
  • the signal processing method includes the steps of converting an input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device, and the input video signal and the output video signal
  • the output video signal is output to the display unit. Is selected and the high luminance flag is not added to the input video signal, the input video signal is selected.
  • the display device 1 is an example of a display device.
  • the display unit 2 is an example of a display unit, and is also an example of a low luminance display device.
  • the tuner unit 3 is an example of a signal processing device.
  • the conversion unit 32 is an example of a conversion unit.
  • the selection unit 33 is an example of a selection unit.
  • the selection unit 33 selects and displays the output video signal. Output to part 2.
  • the output video signal is obtained by converting the luminance of the input video signal so as to correspond to the luminance range that can be displayed on the display unit 2.
  • the input video signal exceeding the display capability (dynamic range) of the display unit 2 is converted into an output video signal that matches the display capability (dynamic range) of the display unit 2.
  • the selection unit 33 selects this output video signal and outputs it to the display unit 2. Therefore, the display device 1 including the tuner unit 3 is based on the input video signal by suppressing the deterioration of image quality even when an input video signal having a luminance exceeding the upper limit of the luminance that can be displayed on the display unit 2 is input. An image can be displayed on the display unit 2.
  • the selection unit 33 selects the input video signal and outputs it to the display unit 2.
  • An input video signal without an HDR flag is a video signal conforming to a standard dynamic range. Therefore, even if the display unit 2 is a display unit 2 capable of displaying an image with a standard dynamic range, the display device 1 can display an image based on the input video signal on the display unit 2 with sufficient image quality. it can.
  • the conversion unit may convert the input video signal into an output conversion signal using at least one of at least two types of conversion characteristic curves.
  • the first conversion characteristic curve C1 and the second conversion characteristic curve C2 are examples of the conversion characteristic curve.
  • the conversion unit 32 includes at least two types of conversion characteristic curves (for example, the first conversion characteristic curve C1 and the second conversion characteristic curve C2).
  • One is used to convert an input video signal into an output conversion signal. Therefore, the tuner unit 3 can convert an input video signal into an output conversion signal by using a conversion characteristic curve giving priority to luminance or using a conversion characteristic curve giving priority to gradation.
  • the conversion unit may convert the input video signal into an output conversion signal using at least two of at least two types of conversion characteristic curves. Further, the conversion unit may determine a usage ratio of at least two types of conversion characteristic curves based on a value related to the luminance of the input video signal.
  • the synthesizing unit 39 performs a process of synthesizing the first converted video signal based on the first conversion characteristic curve C1 and the second converted video signal based on the second conversion characteristic curve C2 in accordance with the usage ratio. It is an example of the process part to perform.
  • the conversion unit 32 uses at least two types of conversion characteristic curves (for example, the first conversion characteristic curve C1) based on the value related to the luminance of the input video signal. And the usage ratio of the second conversion characteristic curve C2) is determined.
  • the tuner unit 3 uses the first conversion video signal based on the first conversion characteristic curve C1 and the second conversion based on the second conversion characteristic curve C2 at a usage ratio suitable for the luminance of the input video signal.
  • the video signal can be synthesized by the synthesis unit 39.
  • the first conversion characteristic curve is an upper limit value of a signal having a luminance exceeding the upper limit value of the displayable luminance range of the display unit in the input video signal. It may be a conversion characteristic curve that converts the luminance of a signal within the range of luminance that can be displayed on the display unit of the input video signal to be converted based on a predetermined standard.
  • the second conversion characteristic curve may be a conversion characteristic curve that reduces the luminance of the input video signal so as to be within the displayable luminance range of the display unit.
  • the first conversion characteristic curve C1 is an example of the first conversion characteristic curve.
  • the second conversion characteristic curve C2 is an example of a second conversion characteristic curve.
  • the input video signal whose maximum luminance is equal to or less than the first threshold T1 is a video signal having the maximum luminance that can be expressed within the dynamic range that can be displayed on the display unit 2. That is, this input video signal does not include a high-luminance portion that cannot be displayed on the display unit 2. If the tuner unit 3 converts the luminance of the input video signal using the first conversion characteristic curve C1, the input video signal does not generate a pseudo contour or white crushing, and the original video signal has an original characteristic. It can be converted into a video signal having brightness close to brightness.
  • an input video signal whose maximum luminance is larger than the second threshold value T2 is a video signal having a maximum luminance that cannot be displayed on the display unit 2.
  • the tuner unit 3 converts the luminance of the input video signal using the second conversion characteristic curve C2, the input video signal becomes darker than the original brightness of the input video signal.
  • the video signal can be converted into a video signal maintaining its characteristics.
  • the value relating to the luminance of the input video signal may be included in the additional information added in advance to the input video signal.
  • the value related to the luminance of the input video signal is included in the additional information added in advance to the input video signal.
  • Information about the luminance of the signal can be obtained directly.
  • the value related to the luminance of the input video signal is the maximum luminance within one frame of the input video signal, the average luminance within one frame of the input video signal, and the predetermined number of frames of the input video signal. At least one of an average maximum luminance per frame calculated from the maximum luminance, a luminance histogram within one frame of the input video signal, and a motion vector per unit pixel block included in the input video signal Good.
  • the tuner unit 3 sets the maximum luminance within one frame of the input video signal and the average luminance within one frame of the input video signal as values related to the luminance of the input video signal.
  • Average maximum luminance per frame calculated from the maximum luminance within the predetermined number of frames of the input video signal, a luminance histogram within one frame of the input video signal, and per unit pixel block included in the input video signal At least one of a motion vector may be used.
  • the conversion unit may reflect the usage rate used immediately before the usage rate currently calculated.
  • the time constant processing unit 36 is an example of a processing unit that executes a process of reflecting the usage rate used immediately before the usage rate currently calculated.
  • the tuner unit 3 reflects the parameter used immediately before the currently calculated parameter, so that a sudden change occurs in the luminance conversion result for each frame. Can be suppressed. Therefore, the display device 1 including the tuner unit 3 can suppress occurrence of flicker for each frame in the video displayed on the display unit 2.
  • the conversion unit sets the usage ratio of the first conversion characteristic curve to 100% and the value related to the luminance of the input video signal is equal to the first value. If the second conversion characteristic curve is greater than or equal to the second threshold, the usage rate of the second conversion characteristic curve is 100%, and the value related to the luminance of the input video signal is between the first threshold and the second threshold. In some cases, the usage ratio between the first conversion characteristic curve and the second conversion characteristic curve may be a predetermined ratio.
  • the first converted video signal is an example of a video signal converted using the first conversion characteristic curve.
  • the second converted video signal is an example of a video signal converted using the second conversion characteristic curve.
  • the first threshold T1 is an example of a first threshold.
  • the second threshold T2 is an example of a second threshold.
  • the linear portion L is an example of a function for determining a predetermined ratio.
  • the maximum luminance is an example of a value related to the luminance of the input video signal.
  • the conversion unit 32 uses 100% of the second converted video signal as the output video signal based on Equation 1.
  • the gain information is “0” and the parameter is “0” in the conversion unit 32.
  • the conversion unit 32 uses 100% of the first converted video signal as the output video signal based on Equation 1.
  • the gain information has a predetermined ratio based on the relationship of the linear part L, and the parameter also has a predetermined ratio. Become. For this reason, in the conversion unit 32, a signal obtained by combining the first converted video signal and the second converted video signal at a predetermined ratio based on Equation 1 becomes an output video signal.
  • the parameter is not only “0” or “1”, but a value between “0” and “1” is also used for the parameter.
  • the gain information when the gain information is assigned to either “0” or “1” with one threshold value, the gain information changes sharply when the maximum luminance exceeds or falls below the threshold value.
  • two threshold values are used to determine gain information, “0”, “1”, and a value between “0” and “1” are used as gain information.
  • the conversion unit when the value related to the luminance of the input video signal is equal to or less than the first threshold, the conversion unit sets the usage ratio of the first conversion characteristic curve to 100% and the value related to the luminance of the input video signal is the first value. When it is larger than the threshold, the usage rate of the second conversion characteristic curve may be set to 100%.
  • the conversion unit 32 sets the usage rate of the first converted video signal based on the first conversion characteristic curve C1 to 100% when the maximum luminance is equal to or lower than the first threshold.
  • the usage rate of the second converted video signal based on the second conversion characteristic curve C2 may be set to 100%.
  • the parameter calculation unit 322 may use the gain information as it is without providing the time constant processing unit 36.
  • the converter 32 of the tuner unit 3 combines the first converted video signal and the second converted video signal at a predetermined ratio, thereby converting the input video signal into the output video signal.
  • the operation example to be described was explained. However, the present disclosure is not limited to this operation example.
  • the conversion unit 32 combines the first conversion characteristic curve C1 and the second conversion characteristic curve C2 at a predetermined ratio, and uses the converted conversion characteristic curve to convert the input video signal into the output video signal. It may be converted. That is, in the tuner unit 3, the conversion characteristic curve is not limited to the two types described above, and three or more types may be used.
  • the input video signal is displayed regardless of whether the HDR flag, which is a high luminance flag, is added to the input video signal or the HDR flag is not added to the input video signal.
  • the operation example converted into the output video signal by the conversion unit 32 has been described. However, the present disclosure is not limited to this operation example.
  • the conversion unit 32 may not convert the input video signal into the output video signal when the HDR flag is not added to the input video signal. That is, the converter 32 may convert the input video signal and create an output video signal when detecting that the HDR flag is added to the input video signal.
  • FIG. 9 is a block diagram schematically showing a configuration example of the display device 1A in the second embodiment.
  • the display device 1A includes a display unit 2 and a tuner unit 3A.
  • the display unit 2 and the tuner unit 3A are connected to each other so as to communicate with each other.
  • the display device 1A is, for example, a television.
  • FIG. 9 shows only the components related to the present embodiment among the plurality of components included in the display device 1A, and other components are omitted.
  • Other components include components that are generally included in a television set, but a description thereof is omitted.
  • tuner unit 3A in the second embodiment has substantially the same configuration as tuner unit 3 described in the first embodiment.
  • the tuner unit 3A further includes an analysis information detection unit 41 in addition to the configuration. That is, the tuner unit 3A included in the display device 1A according to the present embodiment includes a reception unit 31A, an analysis information detection unit 41, a conversion unit 32A, and a selection unit 33.
  • the receiving unit 31A is a circuit that converts a broadcast wave input via an antenna into an input video signal.
  • the reception unit 31A outputs additional information added to the input video signal to the parameter calculation unit 322A of the conversion unit 32A. In addition, the reception unit 31A outputs the input video signal to the analysis information detection unit 41, the HDR / SDR conversion unit 321A, and the selection unit 33. In addition, the reception unit 31A outputs the dynamic range information added to the input video signal to the selection unit 33. Furthermore, the receiving unit 31A outputs the motion vector calculated from the input video signal to the converting unit 32A.
  • the receiving unit 31A outputs the sum of absolute values of motion vectors (vector quantities) of one frame as a motion vector (scalar quantity). Therefore, the motion vector output from the receiving unit 31A has a relatively small value in an image with relatively slow motion (or an image with relatively little motion), and an image with relatively fast motion (or In the case of a video with relatively much movement), the value becomes relatively large.
  • the receiving unit 31A may output, for example, the maximum absolute value of a motion vector (vector amount) of one frame as a motion vector (scalar amount).
  • the reception unit 31A may output the sum of one frame of absolute values of motion vectors (vector amounts) whose absolute values are equal to or greater than a predetermined value as motion vectors (scalar amounts).
  • FIG. 10 is a block diagram schematically showing a configuration example of the analysis information detection unit 41 in the second embodiment.
  • the analysis information detection unit 41 includes an average luminance calculation unit 411, a maximum luminance calculation unit 412, a luminance histogram calculation unit 413, a first gain calculation unit 414, and a second gain calculation unit 415. , A third gain calculation unit 416, and a synthesis unit 417.
  • the average luminance calculation unit 411 is a circuit that calculates the average luminance within one frame of the input video signal. Specifically, the average luminance calculation unit 411 calculates an average value of the luminance of all pixels (substantially all pixels) for one frame based on the input video signal, and sets the calculated result as the average luminance.
  • the maximum luminance calculation unit 412 is a circuit that calculates the maximum luminance within one frame of the input video signal. Specifically, the average luminance calculation unit 411 calculates the maximum (substantially maximum) luminance value from the luminance of all pixels (substantially all pixels) for one frame based on the input video signal, and the calculation result Is the maximum luminance.
  • the luminance histogram calculation unit 413 is a circuit that calculates a luminance histogram within one frame of the input video signal. Specifically, the luminance histogram calculation unit 413 calculates a luminance histogram of all pixels for one frame based on the input video signal.
  • FIG. 11 is a diagram for explaining the luminance histogram in the second embodiment.
  • the luminance frequency is constant as a whole ((b) in FIG. 11). (See the figure).
  • an image based on the input video signal has a dark portion with a constant luminance and a bright portion with a constant luminance within one frame, and the dark portion has a larger area. In the case of a large image, the frequency is higher in the luminance of the dark part (see FIG. 11D).
  • the luminance histogram calculation unit 413 uses the luminance frequency in the high luminance part larger than the predetermined threshold as the luminance histogram. To do.
  • the predetermined threshold here may be set arbitrarily between 0 and the maximum value of the luminance of the input video signal.
  • the first gain calculation unit 414 is a circuit that calculates first gain information based on the average luminance calculated by the average luminance calculation unit 411. Specifically, the gain calculation unit 35 calculates the first gain information from the maximum luminance, using the first threshold, the second threshold larger than the first threshold, and the following graph.
  • FIG. 12 is a graph showing an example of the relationship between gain information and maximum brightness in the second embodiment.
  • the first gain calculation unit 414 sets the first gain information to “0” when the maximum luminance is not more than the first threshold T3, and the maximum luminance is not less than the second threshold T4. In some cases, the first gain information is set to “1”. Further, the graph shown in FIG. 12 is a linear graph connecting “0” and “1” between the first threshold T3 and the second threshold T4. Therefore, when the maximum luminance is between the first threshold value T3 and the second threshold value T4, the first gain calculation unit 414 uses the value based on the linear portion L1 as the first gain information. This value is a predetermined ratio.
  • the second gain calculation unit 415 is a circuit that calculates the second gain information based on the maximum luminance calculated by the maximum luminance calculation unit 412.
  • the third gain calculation unit 416 is a circuit that calculates third gain information based on the luminance histogram calculated by the luminance histogram calculation unit 413.
  • the second gain calculation unit 415 and the third gain calculation unit 416 also calculate each gain information using a graph similar to the graph shown in FIG.
  • the first threshold value T3 and the second threshold value T4 may be set to different values in the first gain calculation unit 414, the second gain calculation unit 415, and the third gain calculation unit 416, respectively.
  • the first threshold T3 and the second threshold T4 are set to appropriate values based on various experiments, simulations, and the like.
  • the combining unit 417 calculates analysis information by combining the first gain information, the second gain information, and the third gain information at a predetermined ratio, and calculates the analysis information as a parameter.
  • This is a circuit for outputting to the unit 322A.
  • the synthesis unit 417 calculates analysis information according to the following expression 3.
  • Analysis information first gain information ⁇ ⁇ 1 + second gain information ⁇ ⁇ 2 + third gain information ⁇ (1- ⁇ 1- ⁇ 2) (Equation 3)
  • ⁇ 1 and ⁇ 2 are weighting coefficients and satisfy the following relationship. 0 ⁇ ⁇ 1 ⁇ 1, 0 ⁇ ⁇ 2 ⁇ 1, ⁇ 1 + ⁇ 2 ⁇ 1.
  • ⁇ 1 and ⁇ 2 are set to appropriate values based on various experiments, simulations, and the like.
  • the parameter calculation unit 322A is a circuit that calculates parameters for converting the input video signal.
  • the parameter calculation unit 322 calculates parameters based on the additional information input from the reception unit 31A, the analysis information input from the analysis information detection unit 41, and the motion vector input from the reception unit 31A.
  • FIG. 13 is a block diagram schematically illustrating a configuration example of the parameter calculation unit 322A according to the second embodiment.
  • the parameter calculation unit 322A includes a gain calculation unit 35A, a synthesis unit 42, a time constant processing unit 36A, a motion vector gain calculation unit 43, and an integration unit 44.
  • the gain calculation unit 35A is a circuit that calculates gain information based on the maximum luminance input as additional information from the reception unit 31A. Specifically, the gain calculation unit 35A calculates gain information from the maximum luminance by using the first threshold T1, the second threshold T2 that is larger than the first threshold, and the graph of FIG. . Since the gain calculation unit 35A is substantially the same as the gain calculation unit 35 shown in the first embodiment, detailed description thereof is omitted.
  • the synthesizing unit 42 synthesizes the gain information input from the gain calculating unit 35A and the analysis information input from the analysis information detecting unit 41 at a predetermined ratio to generate synthesized information, and the synthesized information is converted into a time constant. It is a circuit that outputs to the processing unit 36A. Specifically, the synthesis unit 42 creates synthesis information according to the following Equation 4.
  • Synthesis information calculated gain information ⁇ ⁇ + analysis information ⁇ (1- ⁇ ) (Formula 4)
  • is a weighting coefficient and satisfies the following relationship. 0 ⁇ ⁇ ⁇ 1.
  • is set to an appropriate value based on various experiments and simulations.
  • the time constant processing unit 36A calculates the next parameter based on the current synthesis information calculated by the synthesis unit 42 and the parameter calculated immediately before by the time constant processing unit 36A, and the calculated parameter is added to the integration unit. 44 is a circuit to output to 44. Specifically, the time constant processing unit 36A calculates a parameter from the following formula 5, for example.
  • Parameter calculated synthesis information ⁇ ⁇ + parameter calculated immediately before by the time constant processing unit 36A ⁇ (1- ⁇ ) (Expression 5)
  • is a weighting coefficient and satisfies the following relationship. 0 ⁇ ⁇ ⁇ 1.
  • is set to an appropriate value based on various experiments and simulations.
  • the motion vector gain calculation unit 43 is a circuit that calculates motion vector gain information based on the motion vector input from the reception unit 31A and outputs the calculated motion vector gain information to the integration unit 44. Specifically, the motion vector gain calculation unit 43 calculates the motion vector gain information from the motion vector using the first threshold, the second threshold larger than the first threshold, and the following graph. To do.
  • FIG. 14 is a graph showing an example of the relationship between the motion vector gain information and the motion vector in the second embodiment.
  • the motion vector gain calculation unit 43 sets the motion vector gain information to “1” when the motion vector is equal to or less than the first threshold T5, and the motion vector is equal to or greater than the second threshold T6.
  • the motion vector gain information is “Gmin”.
  • Gmin is a value that satisfies the following relationship. 0 ⁇ Gmin ⁇ 1.
  • the graph shown in FIG. 14 is a linear graph connecting “1” and “Gmin” between the first threshold value T5 and the second threshold value T6. Therefore, when the motion vector is between the first threshold value T5 and the second threshold value T6, the motion vector gain calculation unit 43 sets a value based on the linear portion L2 as motion vector gain information.
  • the motion vector gain information output from the motion vector gain calculation unit 43 has a relatively large value in an image with relatively slow motion (or an image with relatively little motion), and the motion is relatively A fast image (or an image with relatively much motion) has a relatively small value.
  • the integrating unit 44 integrates the motion vector gain calculated by the motion vector gain calculating unit 43 to the parameter calculated by the time constant processing unit 36A, and sets the parameter calculated by the integration to the HDR.
  • This is a circuit that outputs to the / SDR converter 321A.
  • the parameter output from the integration unit 44 has a relatively large value for an image with relatively slow motion (or an image with relatively little motion) and an image with fast motion (or motion). In the case of a video having a relatively large number, the value is relatively small.
  • the HDR / SDR conversion unit 321A is a circuit that generates an output video signal by performing a luminance conversion process on the input video signal using the parameter calculated by the parameter calculation unit 322A. .
  • the HDR / SDR conversion unit 321A is substantially the same as the HDR / SDR conversion unit 321 shown in FIG. 2 in the first embodiment, detailed description thereof is omitted.
  • the HDR / SDR conversion unit 321A as in the HDR / SDR conversion unit 321, when the parameter value is relatively small, the ratio of the first converted video signal is relatively large and the parameter value is relatively large. Sometimes the ratio of the second converted video signal is relatively high.
  • the video signal output from the HDR / SDR converter 321A has a relatively high ratio of the second converted video signal in a video with relatively slow motion (or video with relatively little motion), In a video with a relatively fast movement (or a video with a relatively large amount of motion), the ratio of the first converted video signal is relatively high.
  • the selector 33 receives the input video signal and the output video signal obtained by converting the input video signal by the converter 32A, selects one of the input video signal and the output video signal, and selects the selected signal. It is a circuit that outputs to the display unit 2. Specifically, when there is an HDR flag, that is, when the input video signal is a video signal for a high-luminance display device, the selection unit 33 selects the output video signal and outputs it to the display unit 2. In addition, when there is an SDR flag, that is, when there is no HDR flag, the selection unit 33 selects an input video signal and outputs it to the display unit 2.
  • FIG. 15 is a flowchart illustrating an example of a signal processing method executed by the tuner unit 3A according to the second embodiment.
  • the receiving unit 31A When receiving the broadcast wave from the antenna, the receiving unit 31A converts the received broadcast wave into an input video signal. Then, the reception unit 31A outputs additional information added to the input video signal and a motion vector calculated from the input video signal to the parameter calculation unit 322A. In addition, the reception unit 31A outputs the input video signal to the HDR / SDR conversion unit 321A, the selection unit 33, and the analysis information detection unit 41. In addition, the receiving unit 31A outputs the dynamic range information added to the input video signal to the selection unit 33 (step S11).
  • the analysis information detection unit 41 calculates the average luminance, the maximum luminance, and the luminance histogram per frame of the input video signal, and detects the analysis information based on these. To do. Then, the analysis information detection unit 41 outputs the analysis information to the parameter calculation unit 322A (step S12).
  • the parameter calculation unit 322A calculates a parameter based on the additional information input from the reception unit 31A, the analysis information input from the analysis information detection unit 41, and the motion vector input from the reception unit 31A.
  • the processed parameters are output to the HDR / SDR converter 321A (step S13).
  • the HDR / SDR conversion unit 321A converts the input video signal into an output video signal by performing luminance conversion based on the parameter with respect to the input video signal input from the reception unit 31A, and selects the output video signal. (Step S14).
  • the selection unit 33 determines whether or not the HDR flag is input from the reception unit 31A (step S15).
  • the selection unit 33 determines in step S15 that the HDR flag is not input (No in step S15)
  • the selection unit 33 selects the input video signal and outputs it to the display unit 2 (step S16).
  • the selection unit 33 determines in step S15 that the HDR flag has been input (Yes in step S15)
  • the selection unit 33 selects the output video signal and outputs it to the display unit 2 (step S17).
  • the tuner unit 3A executes processing based on this flowchart on the input video signal for each frame.
  • the signal processing apparatus further includes an analysis information detection unit that analyzes input video signals and detects analysis information.
  • the value relating to the luminance of the input video signal is included in the analysis information detected by analyzing the input video signal in the analysis information detection unit.
  • the display device 1A is an example of a display device.
  • the tuner unit 3A is an example of a signal processing device.
  • the conversion unit 32A is an example of a conversion unit.
  • the parameter calculated by the parameter calculation unit 322A is an example of a usage ratio.
  • the time constant processing unit 36A is an example of a processing unit that executes a process of reflecting the usage rate used immediately before the usage rate currently calculated.
  • the analysis information detection unit 41 is an example of an analysis information detection unit.
  • the tuner unit 3A further includes an analysis information detection unit 41 that analyzes input video signals and detects analysis information.
  • the value relating to the luminance of the input video signal is included in the analysis information detected by analyzing the input video signal in the analysis information detection unit.
  • the tuner unit 3A can calculate the value related to the luminance even if the value related to the luminance is not added to the input video signal.
  • the tuner unit 3A calculates parameters using a combination of analysis information and additional information, and therefore can calculate parameters more appropriate for the input video signal.
  • Embodiments 1 and 2 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like are performed. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1, 2 and it can also be set as a new embodiment.
  • the tuner unit 3 (3A) mounted on the display device 1 (1A) is a signal processing device
  • the signal processing device may be separate from the display device 1 (1A).
  • a signal processing device separate from the display device 1 (1A) for example, a tuner device, an optical disk reproducing device, a game machine, a personal computer, a smartphone, a mobile phone, a tablet device, and the like can be applied.
  • information indicating the dynamic range that can be displayed on the display device can be output from the display device to the signal processing device by allowing the signal processing device and the display device to communicate with each other by wire or wirelessly. .
  • a distribution using a recording medium in addition to the broadcast wave distribution as described above, a distribution using a recording medium, a distribution using the Internet, and the like can be given.
  • the recording medium include optical media such as BLU-RAY (registered trademark) DISC, flash memory such as an SD card, and the like.
  • each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component by a processor.
  • Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the present disclosure may be the above-described program, or a non-transitory computer-readable recording medium on which the above-described program is recorded.
  • the present disclosure is applicable to a signal processing device, a display device, a signal processing method, and a program that process a video signal in accordance with a standard that handles HDR. Specifically, the present disclosure is applicable to a video receiving device such as a television.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Picture Signal Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 高輝度表示装置向けの映像信号を、画質の低下を抑制して、低輝度表示装置向けの出力映像信号に変換する信号処理装置を提供する。信号処理装置は、変換部と、選択部とを備える。変換部は、入力映像信号を、低輝度表示装置向けの出力映像信号に変換する。選択部は、入力映像信号と出力映像信号との一方を選択して表示部に出力する。選択部は、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されている場合には出力映像信号を選択し、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号を選択する。

Description

信号処理装置、表示装置、信号処理方法、およびプログラム
 本開示は、標準のダイナミックレンジよりも広いレンジを扱う規格(以下、HDR(High Dynamic Range)を扱う規格という)に準じた映像信号を処理する信号処理装置、表示装置、信号処理方法、およびプログラムに関する。
 特許文献1は、標準よりも広いダイナミックレンジ(輝度の範囲)を有するモニタの性能を活かすために、当該モニタに対してHDRデータとHDR情報とを送信する再生装置を開示している。この再生装置によってHDRデータとHDR情報とが送られてくると、モニタは、HDR情報に基づいてHDRデータを調整し、モニタ自身の特性に合わせた映像を表示する。
特開2015-8024号公報
 標準のダイナミックレンジを有するモニタに対してHDRデータが送られる場合がある。HDRデータは、標準のモニタの表示可能な輝度を超えた映像信号である。また、標準のモニタでは、そのような映像信号が入力されることは想定されておらず、HDRデータを調整することはできない。このため、標準のモニタでHDRデータを未調整で表示すると、低輝度部分では黒浮き(黒の輝度が上がって見えること)が生じ、高輝度部分では明るさ不足となるため、コントラストが低下し、画質を低下させるおそれがある。
 本開示は、モニタの能力を超える映像信号を当該モニタに入力する場合であっても、画質の低下を抑制する信号処理装置、表示装置、信号処理方法、およびプログラムを提供する。
 本開示における信号処理装置は、映像信号を表示部に出力する信号処理装置である。信号処理装置は、変換部と、選択部とを備える。変換部は、入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換する。選択部は、入力映像信号と出力映像信号とが入力され、入力映像信号と出力映像信号との一方を選択して表示部に出力する。選択部は、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されている場合には出力映像信号を選択し、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号を選択する。
 本開示における信号処理方法は、映像信号を表示部に出力する信号処理方法である。信号処理方法は、入力映像信号が、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換されるステップと、入力映像信号と出力映像信号との一方が選択されて表示部に出力されるステップと、を含み、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されている場合には出力映像信号が選択され、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号が選択される。
 本開示における映像処理装置、表示装置、信号処理方法、およびプログラムは、モニタの能力を超える映像信号が当該モニタに入力される場合であっても、画質の低下を抑制することができる。
図1は、実施の形態1における表示装置の一構成例を模式的に示すブロック図である。 図2は、実施の形態1におけるHDR/SDR変換部の一構成例を模式的に示すブロック図である。 図3は、実施の形態1における第1の変換特性カーブの一例を示すグラフである。 図4は、実施の形態1における第2の変換特性カーブの一例を示すグラフである。 図5は、実施の形態1における第1の変換特性カーブを作成する際の理論を示すための図である。 図6は、実施の形態1におけるパラメータ算出部の一構成例を模式的に示すブロック図である。 図7は、実施の形態1におけるゲイン情報と最大輝度との関係の一例を示すグラフである。 図8は、実施の形態1におけるチューナー部で実行される信号処理方法の一例を示すフローチャートである。 図9は、実施の形態2における表示装置の一構成例を模式的に示すブロック図である。 図10は、実施の形態2における分析情報検出部の一構成例を模式的に示すブロック図である。 図11は、実施の形態2における輝度ヒストグラムについて説明するための図である。 図12は、実施の形態2におけるゲイン情報と最大輝度との関係の一例を示すグラフである。 図13は、実施の形態2におけるパラメータ算出部の一構成例を模式的に示すブロック図である。 図14は、実施の形態2における動きベクトルゲイン情報と動きベクトルとの関係の一例を示すグラフである。 図15は、実施の形態2におけるチューナー部で実行される信号処理方法の一例を示すフローチャートである。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明、および実質的に同一の構成に対する重複説明等を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同じ構成要素については同じ符号を付し、説明を省略または簡略化する場合がある。
 (実施の形態1)
 以下、図1~図8を用いて、実施の形態1を説明する。
 [1-1.構成]
 [1-1-1.表示装置]
 図1は、実施の形態1における表示装置1の一構成例を模式的に示すブロック図である。
 実施の形態1において、表示装置1は、例えば、放送波を受信することにより映像を表示するテレビジョンセット(以下、「テレビ」という)である。図1に示すように、表示装置1は、表示部2と、チューナー部3と、を備える。表示部2とチューナー部3とは、通信可能に互いに接続されている。
 なお、図1には、表示装置1が備える複数の構成要素のうち、本実施の形態に関連のある構成要素のみを示し、他の構成要素は省略している。他の構成要素には、テレビが一般的に備えている構成要素が含まれる。それらの説明は省略する。
 表示部2は、チューナー部3から送られてきた映像信号を受信し、当該映像信号に基づいて映像を表示する。表示部2としては、例えば液晶表示パネル、有機EL(Electro Luminescence)表示パネルなどが挙げられる。表示部2は、表示可能な輝度の範囲(ダイナミックレンジ)が決まっている。ここでは、標準のダイナミックレンジで表示が可能な表示部2を例示する。
 なお、本実施の形態では、標準のダイナミックレンジの上限値を、例えば100cd/m(=100nit)とし、その0~100%の範囲を標準のダイナミックレンジとする。標準のダイナミックレンジよりも大きいダイナミックレンジは、101%以上の範囲として表される。HDRを扱う規格に準じているダイナミックレンジの場合には、0~10000%程度の範囲となる。
 本実施の形態では、HDRを扱う規格に準拠している映像信号を高輝度表示装置向けの映像信号とし、標準のダイナミックレンジに対応した映像信号を低輝度表示装置向けの映像信号とする場合を例示する。高輝度表示装置は、標準のダイナミックレンジよりも大きいダイナミックレンジを表示可能な表示装置であり、例えばHDRを扱う規格に準拠している映像信号を表示可能な表示装置である。低輝度表示装置は、高輝度表示装置よりも表示可能な輝度の上限値が小さい表示装置であり、例えば、標準のダイナミックレンジに対応した映像信号を表示可能な表示装置である。
 [1-1-3.チューナー部]
 チューナー部3は、アンテナを介して入力された放送波を映像信号に変換して、その映像信号を表示部2に出力する信号処理装置である。
 チューナー部3は、例えばLSI(Large Scale Integrated Circuit)等の1チップの半導体集積回路として実現されている。チューナー部3は、受信部31と、変換部32と、選択部33と、を備える。なお、受信部31と、変換部32と、選択部33とは、複数の集積回路で実現されてもよいし、複数の個別回路やディスクリート部品で実現されてもよい。
 受信部31は、アンテナを介して入力された放送波を入力映像信号に変換する回路である。
 入力映像信号には、当該入力映像信号による映像のダイナミックレンジの種類を示すダイナミックレンジ情報が付加されている。例えば、入力映像信号が高輝度表示装置向けの映像信号である場合、ダイナミックレンジ情報としてHDRフラグ(高輝度フラグ)が入力映像信号に付加されている。一方、入力映像信号が低輝度表示装置向けの映像信号である場合、ダイナミックレンジ情報としてSDR(Standard Dynamic Range)フラグ(低輝度フラグ)が入力映像信号に付加されている。また、入力映像信号には、あらかじめ付加情報が付加されている。
 付加情報には、入力映像信号の輝度に関する値が含まれている。具体的には、入力映像信号の輝度に関する値として、入力映像信号の1フレーム内での最大輝度と、入力映像信号の1フレーム内での平均輝度と、入力映像信号の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、入力映像信号の1フレーム内での輝度ヒストグラムと、入力映像信号に含まれる単位画素ブロックあたりの動きベクトルと、が挙げられる。
 本実施の形態では、付加情報として、入力映像信号の1フレーム内での最大輝度がフレーム毎の入力映像信号に付加されている場合を例示して説明する。なお、1コンテンツをなす入力映像信号の全体に対して同じ付加情報が付加されてもよい。この場合、例えば、1コンテンツをなす全てのフレームから得られた最大輝度、平均輝度、輝度ヒストグラム、動きベクトル、のそれぞれの平均値の少なくとも1つを付加情報としてもよい。
 受信部31は、入力映像信号に付加された付加情報を変換部32のパラメータ算出部322に出力する。また、受信部31は、入力映像信号を選択部33と変換部32のHDR/SDR変換部321とに出力する。また、受信部31は、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する。
 変換部32は、高輝度表示装置向けの映像信号を含む入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの映像信号に変換して出力映像信号を作成する回路である。具体的には、変換部32は、HDR/SDR変換部321と、パラメータ算出部322と、を備える。
 HDR/SDR変換部321は、パラメータ算出部322により算出されたパラメータを用いて、入力映像信号に対して輝度の変換処理を施して出力映像信号を作成する回路である。
 図2は、実施の形態1におけるHDR/SDR変換部321の一構成例を模式的に示すブロック図である。
 HDR/SDR変換部321は、第1階調変換部37と、第2階調変換部38と、合成部39と、を備える。
 第1階調変換部37は、第1の変換特性カーブC1(図3参照)を用いて、入力映像信号の輝度を変換する回路である。第1階調変換部37は、変換後の第1の変換映像信号を合成部39に出力する。
 第2階調変換部38は、第2の変換特性カーブC2(図4参照)を用いて、入力映像信号の輝度を変換する回路である。第2階調変換部38は、変換後の第2の変換映像信号を合成部39に出力する。
 ここで、第1の変換特性カーブC1と第2の変換特性カーブC2とについて説明する。
 図3は、実施の形態1における第1の変換特性カーブC1の一例を示すグラフである。
 図4は、実施の形態1における第2の変換特性カーブC2の一例を示すグラフである。
 第1の変換特性カーブC1および第2の変換特性カーブC2は一例であり、輝度変換の目的にあった範囲であれば変更可能である。また、図3および図4のいずれにおいても、横軸は入力映像信号の輝度を示し、縦軸は変換後の出力映像信号の輝度を示している。また、縦軸のリミッタ位置とは、表示部2の表示可能なダイナミックレンジの上限値である。
 図5は、実施の形態1における第1の変換特性カーブC1を作成する際の理論を示すための図である。なお、図5において、いずれのグラフも横軸は入力映像信号の輝度を示し、縦軸は出力映像信号の輝度を示している。
 入力映像信号には、すでにOETF(光電気変換関数:Optical-Electro Transfer Function)による補正が行われている。そのOETFに対応するEOTF(電気光変換関数:Electro-Optical Transfer Function)を準備する。このEOTF(図5には、HDR-EOTFと記す)の一例を図5の(a)図に示す。
 図5の(b)図は、表示部2における表示可能なダイナミックレンジの上限値に合わせた補完グラフの一例である。
 また、表示部2が期待するEOTFに対応するOETFを準備する。このOETF(図5には、SDR-OETFと記す)の一例を図5の(c)図に示す。
 図5の(a)図~(c)図に示す各グラフを掛け合わせることにより、図5の(d)図に示す第1の変換特性カーブC1が算出される。
 なお、図5の(d)図では、比較例として、HDRを扱う規格に準拠した入力映像信号を、HDRを扱う規格に対応した表示部に表示する場合の変換特性カーブC3を示している。変換特性カーブC3は、全体として線形のグラフとなっている。一方、第1の変換特性カーブC1は、非線形部と線形部とを有するグラフとなっている。第1の変換テーブC1の線形部は、リミッタ位置の値を基準にした水平な線分である。
 第1の変換特性カーブC1のこの線形部は、入力映像信号のうち、リミッタ位置(表示部2の表示可能な輝度の範囲の上限値)を超える輝度となる信号をリミッタ位置の値(またはその近傍の値)の輝度に変換させる部分である。これにより、リミッタ位置を超える輝度である入力映像信号は、線形部によって表示部2の表示可能なダイナミックレンジの上限値に変換されることになる。なお、線形部における変換後の値は、リミッタ位置の値と同値でなくてもよく、その近傍の値であってもよい。
 第1の変換特性カーブC1の非線形部は、入力映像信号のうち表示部2の表示可能なダイナミックレンジ(輝度の範囲)に収まる信号の輝度を所定の規格に基づくように変換させる部分である。所定の規格とは、入力映像信号による映像のダイナミックレンジと、表示部2の表示可能なダイナミックレンジと、に基づく規格である。具体的には、上述したように、図5の(a)図~(c)図に示す3つのグラフを合成することにより得られた規格である。なお、所定の規格は、これに限定されるものではなく、種々の実験やシミュレーション等によって得られた規格が用いられてもよい。
 この第1の変換特性カーブC1に基づいて入力映像信号の輝度が変換されると、入力映像信号が持つ本来の明るさに近い明るさを有するものの、高輝度部分においては擬似輪郭、白潰れ(表示映像における高輝度部分の階調性が失われること)等を含んだ可能性のある変換映像信号が作成される。
 第2の変換特性カーブC2は、図4に示すように、水平な線形部分のないグラフとなっている。そして、第2の変換特性カーブC2では、入力映像信号の輝度の範囲の上限値だけが、リミッタ位置の値に変換されるようになっている。この第2の変換特性カーブC2を用いることにより、入力映像信号の輝度は、表示部2の表示可能なダイナミックレンジ(輝度の範囲)に収まるように縮小され、出力映像信号に変換される。
 なお、第2の変換特性カーブC2としては、例えば図5の(d)図に示した変換特性カーブC3のような、全体として線形なグラフを用いることもできる。
 この第2の変換特性カーブC2に基づいて入力映像信号の輝度が変換されると、入力映像信号が持つ本来の明るさよりも暗くなるが、階調性が維持された変換映像信号が作成される。
 図2に示すように、合成部39は、第1階調変換部37から入力された第1の変換映像信号と、第2階調変換部38から入力された第2の変換映像信号とを所定の割合(以下、使用割合ともいう)で合成し、合成後の信号を出力映像信号として選択部33に出力する回路である。具体的には、合成部39は、パラメータ算出部322から入力されたパラメータを所定の割合とし、以下の式1によって出力映像信号を作成している。
 出力映像信号=第1の変換映像信号×(1-パラメータ)+第2の変換映像信号×パラメータ・・・(式1)
 図1に示すように、パラメータ算出部322は、入力映像信号を変換するためのパラメータを算出する回路である。パラメータ算出部322は、受信部31から入力された付加情報に基づいてパラメータを算出する。ここで、パラメータとは、合成部39で用いられる第1の変換特性カーブC1と第2の変換特性カーブC2との使用割合のことである。具体的には、パラメータは、第1の変換特性カーブC1に基づく第1の変換映像信号と、第2の変換特性カーブC2に基づく第2の変換映像信号とを合成する際の、両者の割合である。
 図6は、実施の形態1におけるパラメータ算出部322の一構成例を模式的に示すブロック図である。
 図6に示すように、パラメータ算出部322は、ゲイン算出部35と、時定数処理部36と、を備える。
 ゲイン算出部35は、受信部31から付加情報として入力された最大輝度に基づいてゲイン情報を算出する回路である。具体的には、ゲイン算出部35は、第1の閾値と、第1の閾値よりも大きな第2の閾値と、以下のグラフと、を用いて、最大輝度からゲイン情報を算出する。
 図7は、実施の形態1におけるゲイン情報と最大輝度との関係の一例を示すグラフである。
 図7に示すように、ゲイン算出部35は、最大輝度が第1の閾値T1以下である場合にはゲイン情報を「0」とし、最大輝度が第2の閾値T2以上である場合にはゲイン情報を「1」とする。また、図7に示すグラフは、第1の閾値T1から第2の閾値T2までの間は、「0」と「1」とを結んだ線形のグラフとなっている。そのため、ゲイン算出部35は、最大輝度が第1の閾値T1と第2の閾値T2との間にある場合には、この線形部分Lに基づく値をゲイン情報とする。この値が所定の比率である。
 なお、第1の閾値T1および第2の閾値T2は、種々の実験、シミュレーション等に基づき適切な値に設定されている。具体的には、第1の閾値T1は、表示部2の表示可能なダイナミックレンジの上限値程度の値であればよい。また、第2の閾値T2は、第1の閾値T1よりも大きければよい。
 図6に示すように、時定数処理部36は、ゲイン算出部35により算出された現在のゲイン情報と、直前に用いられたパラメータと、に基づいて次に用いるパラメータを算出し、算出したパラメータをHDR/SDR変換部321に出力する回路である。具体的には、時定数処理部36は、例えば以下の式2からパラメータを算出する。
 パラメータ=算出されたゲイン情報×α+直前に用いられたパラメータ×(1-α)・・・(式2)
 αは重み付け係数であり、次の関係を満たす値である。0≦α≦1。αは、種々の実験、シミュレーションに基づき適切な値に設定されている。
 図1に示すように、選択部33は、入力映像信号と、当該入力映像信号が変換部32によって変換された出力映像信号と、ダイナミックレンジ情報と、が入力され、ダイナミックレンジ情報に基づき入力映像信号と出力映像信号との一方を選択し、選択した方の信号を表示部2に出力する回路である。具体的には、選択部33は、ダイナミックレンジ情報としてHDRフラグが入力された場合、つまり、入力映像信号が高輝度表示装置向けの映像信号である場合には、出力映像信号を選択して表示部2に出力する。また、選択部33は、ダイナミックレンジ情報としてSDRフラグが入力された場合、つまり、入力映像信号が低輝度表示装置向けの映像信号である場合には、入力映像信号を選択して表示部2に出力する。なお、選択部33は、SDRフラグおよびHDRフラグの双方が入力されない場合は、SDRフラグが入力されたものとして動作してもよい。
 [1-2.動作]
 以上のように構成されたチューナー部3について、その動作を以下に説明する。
 図8は、実施の形態1におけるチューナー部3で実行される信号処理方法の一例を示すフローチャートである。
 受信部31は、アンテナから放送波を受信すると、受信した放送波を入力映像信号に変換する。そして、受信部31は、当該入力映像信号に付加された付加情報をパラメータ算出部322に出力する。また、受信部31は、入力映像信号を、HDR/SDR変換部321と選択部33とに出力する。また、受信部31は、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する(ステップS1)。
 パラメータ算出部322は、受信部31から入力された付加情報に基づいてパラメータを算出し、算出したパラメータをHDR/SDR変換部321に出力する(ステップS2)。
 HDR/SDR変換部321は、受信部31から入力された入力映像信号に対してパラメータに基づく輝度変換を行うことで、その入力映像信号を出力映像信号に変換し、当該出力映像信号を選択部33に出力する(ステップS3)。
 選択部33は、受信部31からHDRフラグが入力されたか否かを判定する(ステップS4)。
 選択部33は、ステップS4で、HDRフラグが入力されたと判定した場合は(ステップS4でYes)、出力映像信号を選択して表示部2に出力する(ステップS5)。
 選択部33は、ステップS4で、HDRフラグは入力されていないと判定した場合は(ステップS4でNo)、入力映像信号を選択して表示部2に出力する(ステップS6)。
 チューナー部3は、このフローチャートに基づく処理をフレーム毎の入力映像信号に対して実行する。パラメータの算出時では、上述した式2により、現在算出するパラメータに対して直前(1フレーム前)に用いたパラメータが反映されることになる。このため、チューナー部3は、ゲイン情報が1から0に切り替わったタイミングであったとしても、直前に用いたパラメータと現在算出するパラメータとの差を小さくすることができる。つまり、チューナー部3では、出力映像信号の作成時に、使用割合として用いられるパラメータがフレーム毎に急峻に切り替わることを防止することができる。これにより、表示装置1は、表示部2で表示する映像にフレーム毎のチラツキが生じるのを抑制することができる。
 [1-3.効果等]
 以上のように、本実施の形態において、信号処理装置は、映像信号を表示部に出力する信号処理装置である。信号処理装置は、変換部と、選択部と、を備える。変換部は、入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換する。選択部は、入力映像信号と出力映像信号とが入力され、入力映像信号と出力映像信号との一方を選択して表示部に出力する。選択部は、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されている場合には出力映像信号を選択し、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号を選択する。
 また、本実施の形態において、表示装置は、信号処理装置と、表示部と、を備える。
 また、本実施の形態において、信号処理方法は、映像信号を表示部に出力する信号処理方法である。信号処理方法は、入力映像信号が、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換されるステップと、入力映像信号と出力映像信号との一方が選択されて表示部に出力されるステップと、を含み、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されている場合には出力映像信号が選択され、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号が選択される。
 なお、表示装置1は表示装置の一例である。表示部2は、表示部の一例であり、低輝度表示装置の一例でもある。チューナー部3は信号処理装置の一例である。変換部32は変換部の一例である。選択部33は選択部の一例である。
 例えば、実施の形態1に示した例では、チューナー部3において、入力映像信号に高輝度フラグ(HDRフラグ)が付加されている場合には、選択部33は、出力映像信号を選択して表示部2に出力する。出力映像信号は、表示部2で表示可能な輝度の範囲に対応するように、入力映像信号の輝度が変換されたものである。
 このように、チューナー部3では、表示部2の表示能力(ダイナミックレンジ)を超えた入力映像信号は、表示部2の表示能力(ダイナミックレンジ)に合わせた出力映像信号に変換される。選択部33は、この出力映像信号を選択して表示部2に出力する。したがって、チューナー部3を備えた表示装置1は、表示部2で表示できる輝度の上限を超える輝度を有する入力映像信号が入力された場合でも、画質の低下を抑制して、入力映像信号に基づく映像を表示部2に表示することができる。
 また、入力映像信号にHDRフラグが付加されていない場合、選択部33は、入力映像信号を選択して表示部2に出力する。HDRフラグが付加されていない入力映像信号は標準のダイナミックレンジに準じた映像信号である。したがって、表示部2が、標準のダイナミックレンジで映像を表示可能な表示部2であっても、表示装置1は、入力映像信号に基づく映像を、十分な画質で表示部2に表示することができる。
 信号処理装置において、変換部は、少なくとも2種類の変換特性カーブの少なくとも1つを用いて、入力映像信号を出力変換信号に変換してもよい。
 なお、第1の変換特性カーブC1、第2の変換特性カーブC2は、変換特性カーブの一例である。
 例えば、実施の形態1に示した例では、チューナー部3において、変換部32は、少なくとも2種類の変換特性カーブ(例えば、第1の変換特性カーブC1および第2の変換特性カーブC2)の少なくとも1つを用いて、入力映像信号を出力変換信号に変換する。したがって、チューナー部3は、輝度を優先した変換特性カーブを用いたり、階調性を優先した変換特性カーブを用いたりして、入力映像信号を出力変換信号に変換することができる。
 信号処理装置において、変換部は、少なくとも2種類の変換特性カーブのうちの少なくとも2つを用いて入力映像信号を出力変換信号に変換してもよい。また、変換部は、入力映像信号の輝度に関する値に基づいて、少なくとも2種類の変換特性カーブの使用割合を決定してもよい。
 なお、パラメータ算出部322で算出されるパラメータは、使用割合の一例である。合成部39は、第1の変換特性カーブC1に基づく第1の変換映像信号と、第2の変換特性カーブC2に基づく第2の変換映像信号と、を使用割合に応じて合成する処理を実行する処理部の一例である。
 例えば、実施の形態1に示した例では、チューナー部3において、変換部32は、入力映像信号の輝度に関する値に基づいて、少なくとも2種類の変換特性カーブ(例えば、第1の変換特性カーブC1および第2の変換特性カーブC2)の使用割合を決定する。これにより、チューナー部3は、入力映像信号の輝度に適した使用割合で、第1の変換特性カーブC1に基づく第1の変換映像信号と、第2の変換特性カーブC2に基づく第2の変換映像信号と、を合成部39で合成することができる。
 信号処理装置において、少なくとも2種類の変換特性カーブのうち、第1の変換特性カーブは、入力映像信号のうち、表示部の表示可能な輝度の範囲の上限値を超える輝度となる信号を上限値近傍の輝度に変換させ、かつ入力映像信号のうち表示部の表示可能な輝度の範囲に収まる信号の輝度を所定の規格に基づくように変換させる変換特性カーブであってもよい。また、少なくとも2種類の変換特性カーブのうち、第2の変換特性カーブは、表示部の表示可能な輝度の範囲に収まるように入力映像信号の輝度を縮小させる変換特性カーブであってもよい。
 なお、第1の変換特性カーブC1は第1の変換特性カーブの一例である。第2の変換特性カーブC2は第2の変換特性カーブの一例である。
 例えば、実施の形態1に示した例では、最大輝度が第1の閾値T1以下である入力映像信号は、表示部2で表示可能なダイナミックレンジ内で表現できる最大輝度を有する映像信号である。つまり、この入力映像信号は、表示部2で表示できない高輝度部分を含んでいない。チューナー部3は、この入力映像信号に対して第1の変換特性カーブC1を用いて輝度を変換すれば、入力映像信号を、擬似輪郭、白潰れは発生せず、入力映像信号が持つ本来の明るさに近い明るさを有する映像信号に変換することができる。
 一方、最大輝度が第2の閾値T2よりも大きい入力映像信号は、表示部2で表示できない最大輝度を有する映像信号である。チューナー部3は、この入力映像信号に対して第2の変換特性カーブC2を用いて輝度を変換すれば、入力映像信号が持つ本来の明るさよりも暗くはなるが、入力映像信号を、階調性の維持された映像信号に変換することができる。
 入力映像信号の輝度に関する値は、入力映像信号にあらかじめ付加された付加情報に含まれていてもよい。
 例えば、実施の形態1に示した例では、入力映像信号の輝度に関する値は、当該入力映像信号にあらかじめ付加された付加情報に含まれているので、チューナー部3は、付加情報から、入力映像信号の輝度に関する情報を、直接取得することができる。
 信号処理装置において、入力映像信号の輝度に関する値は、入力映像信号の1フレーム内での最大輝度と、入力映像信号の1フレーム内での平均輝度と、入力映像信号の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、入力映像信号の1フレーム内での輝度ヒストグラムと、入力映像信号に含まれる単位画素ブロックあたりの動きベクトルと、の少なくとも1つであってもよい。
 例えば、実施の形態1に示した例では、チューナー部3は、入力映像信号の輝度に関する値に、入力映像信号の1フレーム内での最大輝度と、入力映像信号の1フレーム内での平均輝度と、入力映像信号の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、入力映像信号の1フレーム内での輝度ヒストグラムと、入力映像信号に含まれる単位画素ブロックあたりの動きベクトルと、の少なくとも1つを用いてもよい。
 信号処理装置において、変換部は、現在算出する使用割合に対して、直前に用いた使用割合を反映させてもよい。
 なお、時定数処理部36は、現在算出する使用割合に対して、直前に用いた使用割合を反映させる処理を実行する処理部の一例である。
 例えば、実施の形態1に示した例において、チューナー部3では、現在算出するパラメータに対して、直前に用いたパラメータが反映されるので、フレーム毎の輝度の変換結果に急激な変動が生じることを抑制できる。したがって、チューナー部3を備えた表示装置1は、表示部2で表示する映像にフレーム毎のチラツキが生じるのを抑制することができる。
 信号処理装置において、変換部は、入力映像信号の輝度に関する値が第1の閾値以下の場合、第1の変換特性カーブの使用割合を100%とし、入力映像信号の輝度に関する値が、第1の閾値よりも大きい第2の閾値以上である場合、第2の変換特性カーブの使用割合を100%とし、入力映像信号の輝度に関する値が、第1の閾値と第2の閾値との間にある場合、第1の変換特性カーブと第2の変換特性カーブとの使用割合を所定の比率としてもよい。
 なお、第1の変換映像信号は、第1の変換特性カーブを使用して変換された映像信号の一例である。第2の変換映像信号は、第2の変換特性カーブを使用して変換された映像信号の一例である。第1の閾値T1は第1の閾値の一例である。第2の閾値T2は第2の閾値の一例である。線形部分Lは、所定の比率を決定するための関数の一例である。最大輝度は、入力映像信号の輝度に関する値の一例である。
 例えば、実施の形態1に示した例では、最大輝度が第2の閾値T2以上の場合、変換部32において、ゲイン情報は「1」となり、パラメータも「1」となる。このため、変換部32では、式1に基づき、出力映像信号に第2の変換映像信号が100%用いられる。また、最大輝度が第1の閾値T1以下の場合、変換部32において、ゲイン情報は「0」となり、パラメータも「0」となる。このため、変換部32では、式1に基づき、出力映像信号に第1の変換映像信号が100%用いられる。そして、最大輝度が第1の閾値T1と第2の閾値T2との間の場合、変換部32において、ゲイン情報は線形部分Lの関係に基づいた所定の比率になり、パラメータも所定の比率となる。このため、変換部32では、式1に基づき、第1の変換映像信号と第2の変換映像信号とが所定の比率で合成された信号が出力映像信号となる。
 これにより、チューナー部3では、パラメータが「0」か「1」のどちらかだけにはならず、「0」と「1」の間の値もパラメータに用いられる。例えば、1つの閾値でゲイン情報を「0」か「1」のいずれかに割り振った場合、最大輝度が閾値を超えたり下回ったりすると、ゲイン情報が急峻に切り替わる。しかし、ゲイン情報を決定するために2つの閾値が用いられていれば、「0」と、「1」と、「0」と「1」との間の値と、がゲイン情報として用いられる。これにより、チューナー部3では、最大輝度が閾値付近で変動したときに、ゲイン情報が急峻に切り替わることを抑制でき、パラメータの急峻な変化を抑制することができる。
 信号処理装置において、変換部は、入力映像信号の輝度に関する値が第1の閾値以下の場合、第1の変換特性カーブの使用割合を100%とし、入力映像信号の輝度に関する値が第1の閾値よりも大きい場合、第2の変換特性カーブの使用割合を100%としてもよい。
 例えば、実施の形態1に示した例では、変換部32は、最大輝度が第1の閾値以下の場合は、第1の変換特性カーブC1に基づく第1の変換映像信号の使用割合を100%とし、最大輝度が第1の閾値よりも大きい場合は、第2の変換特性カーブC2に基づく第2の変換映像信号の使用割合を100%としてもよい。
 なお、パラメータ算出部322において、時定数処理部36を設けずに、ゲイン情報をそのままパラメータとして用いてもよい。
 なお、実施の形態1では、チューナー部3の変換部32が、第1の変換映像信号と第2の変換映像信号とを所定の割合で合成することで、入力映像信号を出力映像信号に変換する動作例を説明した。しかし、本開示はこの動作例に限定されない。例えば、変換部32は、第1の変換特性カーブC1と第2の変換特性カーブC2とを所定の割合で合成し、その合成後の変換特性カーブを用いて、入力映像信号を出力映像信号に変換してもよい。つまり、チューナー部3において、変換特性カーブは、上述した2種類に限定されず、3種類以上が用いられてもよい。
 なお、実施の形態1では、高輝度フラグであるHDRフラグが入力映像信号に付加されている場合と、HDRフラグが入力映像信号に付加されていない場合とのいずれの場合でも、入力映像信号が変換部32によって出力映像信号に変換される動作例を説明した。しかし、本開示はこの動作例に限定されない。例えば、変換部32は、HDRフラグが入力映像信号に付加されていない場合には、入力映像信号を出力映像信号に変換しなくともよい。つまり、変換部32は、HDRフラグが入力映像信号に付加されていることを検出したときに、入力映像信号を変換して出力映像信号を作成してもよい。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 (実施の形態2)
 以下、図9~図15を用いて、実施の形態2を説明する。
 なお、実施の形態2に示す表示装置1Aでは、実施の形態1に示した表示装置1が備える構成要素と実質的に同じ動作をする構成要素に関しては、その構成要素と同じ符号を付与し、説明を省略する。以下、実施の形態1に示した表示装置1と異なる点を中心に説明を行い、実施の形態1に示した表示装置1と実質的に同一となる動作についての説明は省略される場合がある。
 [2-1.構成]
 図9は、実施の形態2における表示装置1Aの一構成例を模式的に示すブロック図である。
 図9に示すように、表示装置1Aは、表示部2と、チューナー部3Aと、を備える。表示部2とチューナー部3Aとは、通信可能に互いに接続されている。表示装置1Aは、例えば、テレビである。
 なお、図9には、表示装置1Aが備える複数の構成要素のうち、本実施の形態に関連のある構成要素のみを示し、他の構成要素は省略している。他の構成要素には、テレビが一般的に備えている構成要素が含まれるが、それらの説明は省略する。
 [2-1-1.チューナー部]
 図9に示すように、実施の形態2におけるチューナー部3Aは、実施の形態1で説明したチューナー部3と実質的に同じ構成を備える。チューナー部3Aは、その構成に加えて、さらに、分析情報検出部41を備える。すなわち、本実施の形態の表示装置1Aに備わるチューナー部3Aは、受信部31Aと、分析情報検出部41と、変換部32Aと、選択部33と、を備える。
 受信部31Aは、アンテナを介して入力された放送波を入力映像信号に変換する回路である。
 受信部31Aは、入力映像信号に付加された付加情報を変換部32Aのパラメータ算出部322Aに出力する。また、受信部31Aは、入力映像信号を、分析情報検出部41と、HDR/SDR変換部321Aと、選択部33と、に出力する。また、受信部31Aは、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する。さらに、受信部31Aは、入力映像信号から算出した動きベクトルを変換部32Aに出力する。
 なお、動きベクトルの算出には、一般的に用いられている動きベクトルの算出方法を適用できるので、詳細な説明は省略する。また、受信部31Aでは、1フレームの動きベクトル(ベクトル量)の絶対値の総和を動きベクトル(スカラー量)として出力する。したがって、受信部31Aから出力される動きベクトルは、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では値が相対的に小さくなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では値が相対的に大きくなる。なお、受信部31Aは、例えば1フレームの動きベクトル(ベクトル量)の絶対値の最大値を動きベクトル(スカラー量)として出力してもよい。あるいは、受信部31Aは、絶対値が所定の値以上となる動きベクトル(ベクトル量)の絶対値の1フレームの総和を動きベクトル(スカラー量)として出力してもよい。
 図10は、実施の形態2における分析情報検出部41の一構成例を模式的に示すブロック図である。
 図10に示すように、分析情報検出部41は、平均輝度算出部411と、最大輝度算出部412と、輝度ヒストグラム算出部413と、第1ゲイン算出部414と、第2ゲイン算出部415と、第3ゲイン算出部416と、合成部417と、を備えている。
 平均輝度算出部411は、入力映像信号の1フレーム内での平均輝度を算出する回路である。具体的には、平均輝度算出部411は、入力映像信号による1フレーム分の全画素(実質的に全画素)の輝度の平均値を算出し、その算出した結果を平均輝度とする。
 最大輝度算出部412は、入力映像信号の1フレーム内での最大輝度を算出する回路である。具体的には、平均輝度算出部411は、入力映像信号による1フレーム分の全画素(実質的に全画素)の輝度から最大(実質的に最大)の輝度値を算出し、その算出した結果を最大輝度とする。
 輝度ヒストグラム算出部413は、入力映像信号の1フレーム内での輝度ヒストグラムを算出する回路である。具体的には、輝度ヒストグラム算出部413は、入力映像信号による1フレーム分の全画素の輝度のヒストグラムを算出する。
 図11は、実施の形態2における輝度ヒストグラムについて説明するための図である。
 図11の(a)図に示すように、入力映像信号による画像が、1フレーム内において一様にグラデーションのかかった画像である場合、輝度の頻度は全体として一定となる(図11の(b)図参照)。また、図11の(c)図に示すように、入力映像信号による画像が、1フレーム内に一定の輝度で暗い部分と、一定の輝度で明るい部分とがあり、暗い部分の方が面積の大きい画像である場合には、頻度は暗い部分の輝度の方が大きくなる(図11の(d)図参照)。輝度ヒストグラムを基にしたゲイン情報の算出には、高輝度部分の輝度の頻度が必要なため、輝度ヒストグラム算出部413は、所定の閾値よりも大きい高輝度部分での輝度の頻度を輝度ヒストグラムとする。ここでの所定の閾値は、0~入力映像信号の輝度の最大値、の間で、任意に設定されればよい。
 図10に示すように、第1ゲイン算出部414は、平均輝度算出部411で算出された平均輝度を基に第1ゲイン情報を算出する回路である。具体的には、ゲイン算出部35は、第1の閾値と、第1の閾値よりも大きな第2の閾値と、以下のグラフと、を用いて、最大輝度から第1ゲイン情報を算出する。
 図12は、実施の形態2におけるゲイン情報と最大輝度との関係の一例を示すグラフである。
 図12に示すように、第1ゲイン算出部414は、最大輝度が第1の閾値T3以下である場合には、第1ゲイン情報を「0」とし、最大輝度が第2の閾値T4以上である場合には第1ゲイン情報を「1」とする。また、図12に示すグラフは、第1の閾値T3から第2の閾値T4までの間は、「0」と「1」とを結んだ線形のグラフとなっている。そのため、第1ゲイン算出部414は、最大輝度が第1の閾値T3と第2の閾値T4との間にある場合には、この線形部分L1に基づく値を第1ゲイン情報とする。この値が所定の比率である。
 第2ゲイン算出部415は、最大輝度算出部412で算出された最大輝度を基に第2ゲイン情報を算出する回路である。
 第3ゲイン算出部416は、輝度ヒストグラム算出部413で算出された輝度ヒストグラムを基に第3ゲイン情報を算出する回路である。
 なお、第2ゲイン算出部415および第3ゲイン算出部416においても、図12に示すグラフと同様のグラフを用いて各ゲイン情報を算出する。ただし、第1の閾値T3および第2の閾値T4は、第1ゲイン算出部414、第2ゲイン算出部415、および第3ゲイン算出部416のそれぞれで互いに異なる値が設定されてもよい。第1の閾値T3および第2の閾値T4は、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 図10に示すように、合成部417は、第1ゲイン情報と、第2ゲイン情報と、第3ゲイン情報と、を所定の割合で合成して分析情報を算出し、当該分析情報をパラメータ算出部322Aに出力する回路である。具体的には、合成部417は、以下の式3によって分析情報を算出している。
 分析情報=第1ゲイン情報×β1+第2ゲイン情報×β2+第3ゲイン情報×(1-β1-β2)・・・(式3)
 β1およびβ2は、重み付け係数であり、次の関係を満たす値である。0≦β1≦1、0≦β2≦1、β1+β2≦1。β1およびβ2は、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 パラメータ算出部322Aは、入力映像信号を変換するためのパラメータを算出する回路である。パラメータ算出部322は、受信部31Aから入力された付加情報と、分析情報検出部41から入力された分析情報と、受信部31Aから入力された動きベクトルと、に基づいてパラメータを算出する。
 図13は、実施の形態2におけるパラメータ算出部322Aの一構成例を模式的に示すブロック図である。
 図13に示すように、パラメータ算出部322Aは、ゲイン算出部35Aと、合成部42と、時定数処理部36Aと、動きベクトルゲイン算出部43と、積算部44と、を備える。
 ゲイン算出部35Aは、受信部31Aから付加情報として入力された最大輝度を基にゲイン情報を算出する回路である。具体的には、ゲイン算出部35Aは、第1の閾値T1と、第1の閾値よりも大きな第2の閾値T2と、図7のグラフと、を用いて、最大輝度からゲイン情報を算出する。ゲイン算出部35Aは、実施の形態1に示したゲイン算出部35と実質的に同じであるので、詳細な説明を省略する。
 合成部42は、ゲイン算出部35Aから入力されたゲイン情報と、分析情報検出部41から入力された分析情報と、を所定の割合で合成して合成情報を作成し、その合成情報を時定数処理部36Aに出力する回路である。具体的には、合成部42は、以下の式4によって合成情報を作成する。
 合成情報=算出されたゲイン情報×δ+分析情報×(1-δ)・・・(式4)
 δは重み付け係数であり、次の関係を満たす値である。0≦δ≦1。δは、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 時定数処理部36Aは、合成部42により算出された現在の合成情報と、時定数処理部36Aにより直前に算出されたパラメータと、に基づいて次のパラメータを算出し、算出したパラメータを積算部44に出力する回路である。具体的には、時定数処理部36Aは、例えば以下の式5からパラメータを算出する。
 パラメータ=算出された合成情報×γ+直前に時定数処理部36Aで算出されたパラメータ×(1-γ)・・・(式5)
 γは重み付け係数であり、次の関係を満たす値である。0≦γ≦1。γは、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 動きベクトルゲイン算出部43は、受信部31Aから入力された動きベクトルに基づき動きベクトルゲイン情報を算出し、算出した動きベクトルゲイン情報を積算部44に出力する回路である。具体的には、動きベクトルゲイン算出部43は、第1の閾値と、第1の閾値よりも大きな第2の閾値と、以下のグラフと、を用いて、動きベクトルから動きベクトルゲイン情報を算出する。
 図14は、実施の形態2における動きベクトルゲイン情報と動きベクトルとの関係の一例を示すグラフである。
 図14に示すように、動きベクトルゲイン算出部43は、動きベクトルが第1の閾値T5以下である場合には動きベクトルゲイン情報を「1」とし、動きベクトルが第2の閾値T6以上である場合には動きベクトルゲイン情報を「Gmin」とする。Gminは、次の関係を満たす値である。0<Gmin<1。
 また、図14に示すグラフは、第1の閾値T5から第2の閾値T6までの間は、「1」と「Gmin」とを結んだ線形のグラフとなっている。そのため、動きベクトルゲイン算出部43は、動きベクトルが第1の閾値T5と第2の閾値T6との間にある場合には、この線形部分L2に基づく値を動きベクトルゲイン情報とする。
 したがって、動きベクトルゲイン算出部43から出力される動きベクトルゲイン情報は、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では値が相対的に大きくなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では値が相対的に小さくなる。
 図13に示すように、積算部44は、時定数処理部36Aで算出されたパラメータに、動きベクトルゲイン算出部43で算出された動きベクトルゲインを積算し、その積算により算出されたパラメータをHDR/SDR変換部321Aに出力する回路である。
 したがって、積算部44から出力されるパラメータは、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では値が相対的に大きくなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では値が相対的に小さくなる。
 図9に示すように、HDR/SDR変換部321Aは、パラメータ算出部322Aにより算出されたパラメータを用いて、入力映像信号に対して輝度の変換処理を施して出力映像信号を作成する回路である。
 HDR/SDR変換部321Aは、実施の形態1で図2に示したHDR/SDR変換部321と実質的に同じであるので、詳細な説明を省略する。HDR/SDR変換部321Aでは、HDR/SDR変換部321と同様に、パラメータの値が相対的に小さいときには第1の変換映像信号の割合が相対的に多くなり、パラメータの値が相対的に大きいときには第2の変換映像信号の割合が相対的に多くなる。したがって、HDR/SDR変換部321Aから出力される映像信号は、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では第2の変換映像信号の割合が相対的に多くなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では第1の変換映像信号の割合が相対的に多くなる。
 選択部33は、入力映像信号と、当該入力映像信号が変換部32Aによって変換された出力映像信号とが入力され、入力映像信号と出力映像信号との一方を選択し、選択した方の信号を表示部2に出力する回路である。具体的には、選択部33は、HDRフラグがある場合、つまり、入力映像信号が高輝度表示装置向けの映像信号である場合には、出力映像信号を選択して表示部2に出力する。また、選択部33は、SDRフラグがある場合、つまりHDRフラグがない場合には、入力映像信号を選択して表示部2に出力する。
 [2-2.動作]
 以上のように構成されたチューナー部3Aについて、その動作を以下に説明する。
 図15は、実施の形態2におけるチューナー部3Aで実行される信号処理方法の一例を示すフローチャートである。
 受信部31Aは、アンテナから放送波を受信すると、受信した放送波を入力映像信号に変換する。そして、受信部31Aは、当該入力映像信号に付加された付加情報および当該入力映像信号から算出した動きベクトルをパラメータ算出部322Aに出力する。また、受信部31Aは、入力映像信号を、HDR/SDR変換部321Aと、選択部33と、分析情報検出部41と、に出力する。また、受信部31Aは、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する(ステップS11)。
 分析情報検出部41は、受信部31Aから入力映像信号が入力されると、当該入力映像信号の1フレームあたりの平均輝度、最大輝度、および輝度ヒストグラムを算出し、これらに基づいて分析情報を検出する。そして、分析情報検出部41は、その分析情報をパラメータ算出部322Aに出力する(ステップS12)。
 パラメータ算出部322Aは、受信部31Aから入力された付加情報と、分析情報検出部41から入力された分析情報と、受信部31Aから入力された動きベクトルと、に基づいてパラメータを算出し、算出したパラメータをHDR/SDR変換部321Aに出力する(ステップS13)。
 HDR/SDR変換部321Aは、受信部31Aから入力された入力映像信号に対してパラメータに基づく輝度変換を行うことで、その入力映像信号を出力映像信号に変換し、当該出力映像信号を選択部33に出力する(ステップS14)。
 選択部33は、受信部31AからHDRフラグが入力されたか否かを判定する(ステップS15)。
 選択部33は、ステップS15で、HDRフラグは入力されていないと判定した場合は(ステップS15でNo)、入力映像信号を選択して表示部2に出力する(ステップS16)。
 選択部33は、ステップS15で、HDRフラグが入力されたと判定した場合は(ステップS15でYes)、出力映像信号を選択して表示部2に出力する(ステップS17)。
 チューナー部3Aは、このフローチャートに基づく処理をフレーム毎の入力映像信号に対して実行する。
 [2-3.効果等]
 以上のように、本実施の形態において、信号処理装置は、入力映像信号を分析して分析情報を検出する分析情報検出部をさらに備える。そして、入力映像信号の輝度に関する値は、分析情報検出部において入力映像信号を分析して検出した分析情報に含まれる。
 なお、表示装置1Aは表示装置の一例である。チューナー部3Aは信号処理装置の一例である。変換部32Aは変換部の一例である。パラメータ算出部322Aで算出されるパラメータは、使用割合の一例である。時定数処理部36Aは、現在算出する使用割合に対して、直前に用いた使用割合を反映させる処理を実行する処理部の一例である。分析情報検出部41は分析情報検出部の一例である。
 例えば、実施の形態2に示した例では、チューナー部3Aは、入力映像信号を分析して分析情報を検出する分析情報検出部41をさらに備える。そして、入力映像信号の輝度に関する値は、分析情報検出部において入力映像信号を分析して検出した分析情報に含まれる。
 したがって、チューナー部3Aは、入力映像信号に、輝度に関する値が付加されていなくとも、当該輝度に関する値を算出することができる。
 特に、本実施の形態では、チューナー部3Aは、分析情報と付加情報とを複合的に用いてパラメータを算出しているので、入力映像信号にとってより適切なパラメータを算出することが可能である。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1、2を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略等を行った実施の形態にも適用できる。また、上記実施の形態1、2で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 そこで、以下、他の実施の形態を例示する。
 実施の形態1、2では、表示装置1(1A)に搭載されたチューナー部3(3A)が信号処理装置である場合を例示して説明した。しかし、信号処理装置は表示装置1(1A)と別体であってもよい。表示装置1(1A)と別体の信号処理装置として、例えば、チューナー装置、光ディスク再生装置、ゲーム機、パーソナルコンピュータ、スマートフォン、携帯電話、タブレット機器、等を適用することができる。なお、この場合、信号処理装置と表示装置とを、有線あるいは無線で通信可能としておくことで、表示装置で表示可能なダイナミックレンジを示す情報を、表示装置から信号処理装置に出力することができる。
 また、映像信号の配信方式としては、上述したように放送波による配信以外にも、記録メディアによる配信、インターネットを用いた配信などが挙げられる。記録メディアには、BLU-RAY(登録商標) DISCなどの光メディアや、SDカード等のフラッシュメモリ等が挙げられる。
 なお、上記実施の形態1、2において、各構成要素は、専用のハードウェアで構成されてもよく、または、各構成要素に適したソフトウェアプログラムをプロセッサで実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)またはプロセッサ等のプログラム実行部が、ハードディスクまたは半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 さらに、本開示は上記プログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、HDRを扱う規格に準じた映像信号を処理する信号処理装置、表示装置、信号処理方法、およびプログラムに適用可能である。具体的には、テレビ等の映像受信装置等に、本開示は適用可能である。
1,1A  表示装置
2  表示部
3,3A  チューナー部
31,31A  受信部
32,32A  変換部
33  選択部
35,35A  ゲイン算出部
36,36A  時定数処理部
37  第1階調変換部
38  第2階調変換部
39,42,417  合成部
41  分析情報検出部
43  動きベクトルゲイン算出部
321,321A  HDR/SDR変換部
322,322A  パラメータ算出部
411  平均輝度算出部
412  最大輝度算出部
413  輝度ヒストグラム算出部
414  第1ゲイン算出部
415  第2ゲイン算出部
416  第3ゲイン算出部

Claims (13)

  1. 映像信号を表示部に出力する信号処理装置であって、
    入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換する変換部と、
    前記入力映像信号と前記出力映像信号とが入力され、前記入力映像信号と前記出力映像信号との一方を選択して前記表示部に出力する選択部と、を備え、
    前記選択部は、前記高輝度表示装置向けの映像信号である旨を示す高輝度フラグが前記入力映像信号に付加されている場合には前記出力映像信号を選択し、前記高輝度フラグが前記入力映像信号に付加されていない場合には前記入力映像信号を選択する、
    信号処理装置。
  2. 前記変換部は、少なくとも2種類の変換特性カーブの少なくとも1つを用いて、前記入力映像信号を前記出力変換信号に変換する、
    請求項1に記載の信号処理装置。
  3. 前記変換部は、前記少なくとも2種類の変換特性カーブのうちの少なくとも2つを用いて前記入力映像信号を前記出力変換信号に変換し、前記入力映像信号の輝度に関する値に基づいて、前記少なくとも2種類の変換特性カーブの使用割合を決定する、
    請求項2に記載の信号処理装置。
  4. 前記少なくとも2種類の変換特性カーブのうち、第1の変換特性カーブは、前記入力映像信号のうち、前記表示部の表示可能な輝度の範囲の上限値を超える輝度となる信号を前記上限値近傍の輝度に変換させ、かつ前記入力映像信号のうち前記表示部の表示可能な輝度の範囲に収まる信号の輝度を所定の規格に基づくように変換させる変換特性カーブであり、
    前記少なくとも2種類の変換特性カーブのうち、第2の変換特性カーブは、前記表示部の表示可能な輝度の範囲に収まるように前記入力映像信号の輝度を縮小させる変換特性カーブである、
    請求項3に記載の信号処理装置。
  5. 前記変換部は、前記入力映像信号の輝度に関する値が第1の閾値以下の場合、前記第1の変換特性カーブの前記使用割合を100%とし、前記入力映像信号の輝度に関する値が第1の閾値よりも大きい場合、前記第2の変換特性カーブの前記使用割合を100%とする、
    請求項4に記載の信号処理装置。
  6. 前記変換部は、
    前記入力映像信号の輝度に関する値が第1の閾値以下の場合、前記第1の変換特性カーブの前記使用割合を100%とし、
    前記入力映像信号の輝度に関する値が、第1の閾値よりも大きい第2の閾値以上である場合、前記第2の変換特性カーブの前記使用割合を100%とし、
    前記入力映像信号の輝度に関する値が、前記第1の閾値と前記第2の閾値との間にある場合、前記第1の変換特性カーブと前記第2の変換特性カーブとの前記使用割合を所定の比率とする、
    請求項4に記載の信号処理装置。
  7. 前記変換部は、現在算出する前記使用割合に対して、直前に用いた前記使用割合を反映させる、
    請求項3に記載の信号処理装置。
  8. 前記入力映像信号の輝度に関する値は、前記入力映像信号にあらかじめ付加された付加情報に含まれる、
    請求項3に記載の信号処理装置。
  9. 前記入力映像信号を分析して分析情報を検出する分析情報検出部をさらに備え、
    前記入力映像信号の輝度に関する値は、前記分析情報検出部において前記入力映像信号を分析して検出した前記分析情報に含まれる、
    請求項3に記載の信号処理装置。
  10. 前記入力映像信号の輝度に関する値は、前記入力映像信号の1フレーム内での最大輝度と、前記入力映像信号の1フレーム内での平均輝度と、前記入力映像信号の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、前記入力映像信号の1フレーム内での輝度ヒストグラムと、前記入力映像信号に含まれる単位画素ブロックあたりの動きベクトルと、の少なくとも1つである、
    請求項3に記載の信号処理装置。
  11. 請求項1に記載の信号処理装置と、
    表示部と、を備える、
    表示装置。
  12. 映像信号を表示部に出力する信号処理方法であって、
    入力映像信号が、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換されるステップと、
    前記入力映像信号と前記出力映像信号との一方が選択されて前記表示部に出力されるステップと、を含み、
    前記高輝度表示装置向けの映像信号である旨を示す高輝度フラグが前記入力映像信号に付加されている場合には前記出力映像信号が選択され、前記高輝度フラグが前記入力映像信号に付加されていない場合には前記入力映像信号が選択される、
    信号処理方法。
  13. 映像信号を表示部に出力するためのプログラムであって、
    入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換し、
    前記高輝度表示装置向けの映像信号である旨を示す高輝度フラグが前記入力映像信号に付加されている場合には前記出力映像信号を選択して前記表示部に出力し、前記高輝度フラグが前記入力映像信号に付加されていない場合には前記入力映像信号を選択して前記表示部に出力する、
    ことをコンピュータに実行させるプログラム。
PCT/JP2016/001673 2015-03-27 2016-03-23 信号処理装置、表示装置、信号処理方法、およびプログラム WO2016157838A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16771728.9A EP3276948A4 (en) 2015-03-27 2016-03-23 Signal processing device, display device, signal processing method, and program
CN201680017482.9A CN107409190B (zh) 2015-03-27 2016-03-23 信号处理装置、显示装置、信号处理方法以及存储介质
JP2017509265A JP6757890B2 (ja) 2015-03-27 2016-03-23 信号処理装置、表示装置、信号処理方法、およびプログラム
US15/557,179 US10057104B2 (en) 2015-03-27 2016-03-23 Signal processing device, display device, signal processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015067536 2015-03-27
JP2015-067536 2015-03-27

Publications (1)

Publication Number Publication Date
WO2016157838A1 true WO2016157838A1 (ja) 2016-10-06

Family

ID=57005489

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2016/001673 WO2016157838A1 (ja) 2015-03-27 2016-03-23 信号処理装置、表示装置、信号処理方法、およびプログラム
PCT/JP2016/001674 WO2016157839A1 (ja) 2015-03-27 2016-03-23 信号処理装置、録画再生装置、信号処理方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/001674 WO2016157839A1 (ja) 2015-03-27 2016-03-23 信号処理装置、録画再生装置、信号処理方法、およびプログラム

Country Status (5)

Country Link
US (2) US10057104B2 (ja)
EP (2) EP3276949A4 (ja)
JP (2) JP6757890B2 (ja)
CN (2) CN107409190B (ja)
WO (2) WO2016157838A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019213119A (ja) * 2018-06-07 2019-12-12 日本電気株式会社 映像スイッチャおよび切替方法
JP7498586B2 (ja) 2020-04-01 2024-06-12 シャープ株式会社 映像処理装置、テレビ受信機、及びプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013696A (ja) * 2016-07-22 2018-01-25 キヤノン株式会社 画像処理装置および表示装置
JP6819208B2 (ja) * 2016-10-25 2021-01-27 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP2018180266A (ja) * 2017-04-13 2018-11-15 キヤノン株式会社 表示装置およびその制御方法
JP2019140430A (ja) * 2018-02-06 2019-08-22 船井電機株式会社 再生装置
TW201946445A (zh) * 2018-04-30 2019-12-01 圓剛科技股份有限公司 影像處理方法
TW201946474A (zh) * 2018-04-30 2019-12-01 圓剛科技股份有限公司 影像錄製設定方法
CN108881758B (zh) * 2018-05-29 2020-11-13 联发科技股份有限公司 电子设备及其处理图像的方法
KR20230074355A (ko) * 2021-11-19 2023-05-30 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 표시 패널의 구동 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233265A (ja) * 1988-07-22 1990-02-02 Matsushita Electric Ind Co Ltd 映像信号の白圧縮装置
JP2002118752A (ja) * 2000-10-05 2002-04-19 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2003046859A (ja) * 2001-08-01 2003-02-14 Sony Corp 画像撮像装置及び方法
JP2003087785A (ja) * 2001-06-29 2003-03-20 Toshiba Corp 動画像符号化データの形式変換方法及び装置
JP2013527996A (ja) * 2010-02-22 2013-07-04 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
JP2014519620A (ja) * 2011-05-10 2014-08-14 コーニンクレッカ フィリップス エヌ ヴェ ハイダイナミックレンジ画像信号生成及び処理
JP2015032966A (ja) * 2013-08-01 2015-02-16 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5598053B2 (ja) * 2010-03-30 2014-10-01 ソニー株式会社 信号処理装置、表示装置、電子機器、信号処理方法およびプログラム
EP2745507A1 (en) * 2011-09-27 2014-06-25 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
WO2014102876A1 (ja) * 2012-12-27 2014-07-03 パナソニック株式会社 画像処理装置、および、画像処理方法
WO2014203746A1 (ja) * 2013-06-20 2014-12-24 ソニー株式会社 再生装置、再生方法、および記録媒体
JP2015008024A (ja) 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
TWI632810B (zh) * 2013-07-19 2018-08-11 新力股份有限公司 Data generating device, data generating method, data reproducing device, and data reproducing method
KR101867828B1 (ko) * 2013-11-21 2018-06-18 엘지전자 주식회사 비디오 처리 방법 및 비디오 처리 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233265A (ja) * 1988-07-22 1990-02-02 Matsushita Electric Ind Co Ltd 映像信号の白圧縮装置
JP2002118752A (ja) * 2000-10-05 2002-04-19 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2003087785A (ja) * 2001-06-29 2003-03-20 Toshiba Corp 動画像符号化データの形式変換方法及び装置
JP2003046859A (ja) * 2001-08-01 2003-02-14 Sony Corp 画像撮像装置及び方法
JP2013527996A (ja) * 2010-02-22 2013-07-04 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
JP2014519620A (ja) * 2011-05-10 2014-08-14 コーニンクレッカ フィリップス エヌ ヴェ ハイダイナミックレンジ画像信号生成及び処理
JP2015032966A (ja) * 2013-08-01 2015-02-16 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3276948A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019213119A (ja) * 2018-06-07 2019-12-12 日本電気株式会社 映像スイッチャおよび切替方法
JP7110740B2 (ja) 2018-06-07 2022-08-02 日本電気株式会社 映像スイッチャおよび切替方法
JP7498586B2 (ja) 2020-04-01 2024-06-12 シャープ株式会社 映像処理装置、テレビ受信機、及びプログラム

Also Published As

Publication number Publication date
JPWO2016157839A1 (ja) 2018-03-01
CN107409191B (zh) 2020-03-27
EP3276948A4 (en) 2018-04-25
JP6757890B2 (ja) 2020-09-23
CN107409191A (zh) 2017-11-28
EP3276949A1 (en) 2018-01-31
US10057104B2 (en) 2018-08-21
US20180041801A1 (en) 2018-02-08
JPWO2016157838A1 (ja) 2018-01-18
EP3276949A4 (en) 2018-04-25
CN107409190A (zh) 2017-11-28
EP3276948A1 (en) 2018-01-31
CN107409190B (zh) 2020-04-03
US10097886B2 (en) 2018-10-09
WO2016157839A1 (ja) 2016-10-06
US20180041373A1 (en) 2018-02-08
JP6767629B2 (ja) 2020-10-14

Similar Documents

Publication Publication Date Title
WO2016157838A1 (ja) 信号処理装置、表示装置、信号処理方法、およびプログラム
CN110545413B (zh) 用于执行高动态范围视频的色调映射的方法及装置
US9990704B2 (en) Image processing apparatus and image processing method
US9672603B2 (en) Image processing apparatus, image processing method, display apparatus, and control method for display apparatus for generating and displaying a combined image of a high-dynamic-range image and a low-dynamic-range image
US20190340734A1 (en) Display method and display device
JP6709986B2 (ja) 輝度特性生成方法
EP3694217A1 (en) Image display device and image display method
US10019786B2 (en) Image-processing apparatus and image-processing method
US20180025700A1 (en) Image processing apparatus and display apparatus
US20180084180A1 (en) Display apparatus and method of processing image thereof
US20080123984A1 (en) System and method for efficiently enhancing videos and images
US10380725B2 (en) Image processing apparatus, image processing method, and storage medium
WO2017159182A1 (ja) 表示制御装置、表示装置、テレビジョン受像機、表示制御装置の制御方法、制御プログラム、及び記録媒体
US20220188994A1 (en) Image processing apparatus and image processing method
JP7394407B2 (ja) 制御装置及び制御方法
US20130258199A1 (en) Video processor and video processing method
US11037527B2 (en) Display apparatus and display method
US11341622B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16771728

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2016771728

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017509265

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15557179

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE