WO2016157839A1 - 信号処理装置、録画再生装置、信号処理方法、およびプログラム - Google Patents

信号処理装置、録画再生装置、信号処理方法、およびプログラム Download PDF

Info

Publication number
WO2016157839A1
WO2016157839A1 PCT/JP2016/001674 JP2016001674W WO2016157839A1 WO 2016157839 A1 WO2016157839 A1 WO 2016157839A1 JP 2016001674 W JP2016001674 W JP 2016001674W WO 2016157839 A1 WO2016157839 A1 WO 2016157839A1
Authority
WO
WIPO (PCT)
Prior art keywords
video signal
display device
input video
luminance
unit
Prior art date
Application number
PCT/JP2016/001674
Other languages
English (en)
French (fr)
Inventor
義明 尾脇
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN201680017753.0A priority Critical patent/CN107409191B/zh
Priority to EP16771729.7A priority patent/EP3276949A4/en
Priority to US15/557,185 priority patent/US10097886B2/en
Priority to JP2017509266A priority patent/JP6767629B2/ja
Publication of WO2016157839A1 publication Critical patent/WO2016157839A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • G06T5/92
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/20Function-generator circuits, e.g. circle generators line or curve smoothing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • H04N9/7925Processing of colour television signals in connection with recording for more than one processing mode for more than one standard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial

Definitions

  • the present disclosure relates to a signal processing device, a video recording / playback device, a signal processing method, and a video signal processing device that comply with a standard that handles a wider range than the standard dynamic range (hereinafter referred to as a standard that handles HDR (High Dynamic Range)). Regarding the program.
  • a standard that handles HDR High Dynamic Range
  • Patent Document 1 discloses a playback device that transmits HDR data and HDR information to the monitor in order to make use of the performance of the monitor having a wider dynamic range (luminance range) than the standard.
  • the monitor adjusts the HDR data based on the HDR information and displays a video that matches the characteristics of the monitor itself.
  • HDR data may be sent to a monitor having a standard dynamic range.
  • HDR data is a video signal that exceeds the displayable brightness of a standard monitor.
  • black floating occurs in the low-brightness area (black brightness appears to increase), and the brightness is insufficient in the high-brightness area, resulting in a decrease in contrast. There is a risk of degrading the image quality.
  • the present disclosure provides a signal processing device, a recording / playback device, a signal processing method, and a program that suppress deterioration in image quality even when a video signal exceeding the capability of the monitor is input to the monitor.
  • the signal processing device in the present disclosure is a signal processing device that outputs a video signal to a display device.
  • the signal processing device includes a conversion unit and a selection unit.
  • the conversion unit converts the input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device.
  • the selection unit receives the input video signal and the output video signal, selects one of the input video signal and the output video signal, and outputs the selected signal to the display device.
  • the high luminance flag indicating that the selection unit is a video signal for a high luminance display device is added to the input video signal and information indicating that the display device is a low luminance display device is acquired, or When information indicating that the display device is a high brightness display device is not acquired, the output video signal is selected, and when the high brightness flag is not added to the input video signal, the input video signal is selected.
  • the signal processing method in the present disclosure is a signal processing method for outputting a video signal to a display device.
  • the signal processing method includes the steps of converting an input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device, A high luminance flag indicating that the video signal is for a high luminance display device is added to the input video signal, and the display device is low.
  • an output video signal is selected and a high luminance flag is added to the input video signal. If not, the input video signal is selected.
  • the video processing device, the recording / playback device, the signal processing method, and the program according to the present disclosure can suppress deterioration in image quality even when a video signal exceeding the monitor capability is input to the monitor.
  • FIG. 1 is a block diagram schematically showing a configuration example of the display system in the first embodiment.
  • FIG. 2 is a block diagram schematically showing a configuration example of the HDR / SDR conversion unit in the first embodiment.
  • FIG. 3 is a graph showing an example of the first conversion characteristic curve in the first embodiment.
  • FIG. 4 is a graph showing an example of the second conversion characteristic curve in the first embodiment.
  • FIG. 5 is a diagram for illustrating a theory for creating the first conversion characteristic curve in the first embodiment.
  • FIG. 6 is a block diagram schematically showing a configuration example of the parameter calculation unit in the first embodiment.
  • FIG. 7 is a graph showing an example of the relationship between gain information and maximum luminance in the first embodiment.
  • FIG. 8 is a flowchart showing an example of a signal processing method executed by the tuner unit in the first embodiment.
  • FIG. 9 is a block diagram schematically showing a configuration example of the display system in the second embodiment.
  • FIG. 10 is a block diagram schematically showing a configuration example of the analysis information detection unit in the second embodiment.
  • FIG. 11 is a diagram for explaining the luminance histogram in the second embodiment.
  • FIG. 12 is a graph showing an example of the relationship between gain information and maximum luminance in the second embodiment.
  • FIG. 13 is a block diagram schematically showing a configuration example of the parameter calculation unit in the second embodiment.
  • FIG. 14 is a graph showing an example of the relationship between motion vector gain information and motion vectors in the second embodiment.
  • FIG. 15 is a flowchart illustrating an example of a signal processing method executed by the tuner unit according to the second embodiment.
  • FIG. 1 is a block diagram schematically illustrating a configuration example of the display system 1 according to the first embodiment.
  • the display system 1 includes a display device 2 and a recording / playback device 100.
  • the display device 2 is, for example, a television set (hereinafter referred to as “TV”) that displays video on the display unit 103 (display panel) by receiving broadcast waves.
  • the display device 2 includes a display unit 103, an EDID (Extended display identification data) ROM (Read Only Memory) 102.
  • the recording / playback apparatus 100 is, for example, a video recorder that can record a video signal obtained by receiving a broadcast wave on an HDD (Hard Disk Drive), an optical disk, a semiconductor memory, or the like.
  • the recording / playback apparatus 100 transmits a video signal (reception video signal) obtained by receiving a playback signal (playback video signal) of a recorded video signal or a broadcast wave to the display device 2, thereby the video.
  • An image based on the signal can be displayed on the display unit 103 of the display device 2.
  • the recording / playback apparatus 100 includes a recording / playback unit 101 and a tuner unit 3.
  • the recording / playback unit 101 can record a video signal obtained by receiving a broadcast wave in the tuner unit 3.
  • the recording / playback unit 101 can output a playback video signal obtained by playing back a recorded video signal.
  • the transmission path of the playback video signal output from the recording / playback unit 101 is omitted. Since the function of the recording / playback unit 101 is substantially the same as the recording / playback function of a general video recorder, detailed description thereof is omitted.
  • the recording / playback apparatus 100 and the display apparatus 2 are connected to each other by, for example, an HDMI (High-Definition Multimedia Interface) (registered trademark) cable.
  • the recording / reproducing apparatus 100 can transmit the video signal to the display apparatus 2 via the HDMI cable.
  • the cable for connecting the recording / playback apparatus 100 and the display apparatus 2 to each other is not limited to the HDMI cable.
  • the recording / playback apparatus 100 and the display apparatus 2 may be connected to each other by, for example, a commonly used video cable or another cable.
  • the recording / playback apparatus 100 and the display apparatus 2 may be connected to each other wirelessly such as Bluetooth (registered trademark).
  • the recording / playback apparatus 100 transmits a video signal (received video signal) obtained by receiving a broadcast wave to the display apparatus 2 .
  • Description of the operation of the recording / playback apparatus 100 for transmitting the playback video signal to the display apparatus 2 is omitted. In the present embodiment, these two operations are substantially the same except for the difference between the reproduced video signal and the received video signal.
  • FIG. 1 shows only the components related to the present embodiment among the plurality of components included in the recording / playback apparatus 100, and other components are omitted. Other components include the components that video recorders typically have. Those explanations are omitted. FIG. 1 shows only the components related to the present embodiment among the plurality of components included in the display device 2, and omits other components. Other components include components that are typically provided in televisions. Those explanations are omitted.
  • the display device 2 receives the video signal sent from the tuner unit 3 of the recording / playback device 100 and displays the video on the display unit 103 based on the video signal.
  • Examples of the display unit 103 included in the display device 2 include a liquid crystal display panel and an organic EL (Electro Luminescence) display panel.
  • the display unit 103 has a displayable luminance range (dynamic range).
  • a configuration example will be described in which the display device 2 includes a display unit 103 capable of displaying in a standard dynamic range.
  • the EDID ROM 102 included in the display device 2 indicates whether the display unit 103 included in the display device 2 is a panel that can display a standard dynamic range or a panel that can display a dynamic range larger than the standard dynamic range.
  • Information is stored.
  • information indicating that the panel can be displayed in the standard dynamic range is “SDR (Standard Dynamic Range) information”, and the panel can display in a dynamic range larger than the standard dynamic range.
  • the display device 2 transmits SDR information or HDR information as display unit information to the recording / playback device 100 at a predetermined timing.
  • the display unit information may be, for example, bit data representing “0” representing SDR information and “1” representing HDR information.
  • the predetermined timing is, for example, when the display device 2 is turned on, but may be another timing.
  • the predetermined timing may be, for example, when a display unit information acquisition request is transmitted from the recording / playback apparatus 100 to the display apparatus 2.
  • the display unit information is transmitted from the display device 2 to the recording / playback device 100 through, for example, a DDC (Display Data Channel) line of an HDMI cable that connects the recording / playback device 100 and the display device 2 to each other.
  • DDC Display Data Channel
  • the recording / playback apparatus 100 uses the display unit information transmitted from the display device 2 so that the display unit 103 included in the display device 2 can display a panel with a standard dynamic range or a dynamic range larger than the standard dynamic range. You can find out if the panel can be displayed.
  • a dynamic range larger than the standard dynamic range is expressed as a range of 101% or more. In the case of a dynamic range conforming to a standard that handles HDR, the range is about 0 to 10,000%.
  • a video signal compliant with the HDR handling standard is used as a video signal for a high luminance display device, and a video signal corresponding to a standard dynamic range is used as a video signal for a low luminance display device.
  • the high-brightness display device is a display device that can display a dynamic range larger than the standard dynamic range.
  • the high-brightness display device is a display device that can display a video signal that conforms to a standard that handles HDR.
  • the low-brightness display device is a display device having a lower upper limit of displayable luminance than the high-brightness display device, and is a display device that can display a video signal corresponding to a standard dynamic range, for example.
  • the display device 2 is a low-luminance display device. Therefore, in the present embodiment, an operation example in which the display device 2 transmits SDR information as display unit information to the recording / playback device 100 will be described.
  • the display device 2 may be a high brightness display device. In that case, the display device 2 transmits the HDR information to the recording / playback device 100 as display unit information.
  • the recording / playback apparatus 100 may determine that the display apparatus 2 is a low-luminance display apparatus when both the SDR information and the HDR information are not transmitted from the display apparatus 2.
  • the tuner unit 3 is a signal processing device that converts a broadcast wave input via an antenna into a video signal and outputs the video signal.
  • the tuner unit 3 is realized as a one-chip semiconductor integrated circuit such as an LSI (Large Scale Integrated Circuit).
  • the tuner unit 3 includes a reception unit 31, a conversion unit 32, and a selection unit 33.
  • the receiving unit 31, the converting unit 32, and the selecting unit 33 may be realized by a plurality of integrated circuits, or may be realized by a plurality of individual circuits or discrete components.
  • the receiving unit 31 is a circuit that converts a broadcast wave input via an antenna into an input video signal.
  • the dynamic range information indicating the type of the dynamic range of the video according to the input video signal is added to the input video signal. For example, when the input video signal is a video signal for a high brightness display device, an HDR flag (high brightness flag) is added to the input video signal as dynamic range information. On the other hand, when the input video signal is a video signal for a low luminance display device, a SDR (Standard Dynamic Range) flag (low luminance flag) is added to the input video signal as dynamic range information. Further, additional information is added in advance to the input video signal.
  • an HDR flag high brightness flag
  • SDR Standard Dynamic Range
  • the additional information includes a value related to the luminance of the input video signal.
  • the value relating to the luminance of the input video signal the maximum luminance within one frame of the input video signal, the average luminance within one frame of the input video signal, and the predetermined number of frames of the input video signal. Examples include an average maximum luminance per frame calculated from the maximum luminance, a luminance histogram within one frame of the input video signal, and a motion vector per unit pixel block included in the input video signal.
  • the maximum luminance within one frame of the input video signal is added to the input video signal for each frame will be described as an example of additional information.
  • additional information may be added to the entire input video signal constituting one content.
  • at least one of the average values of the maximum luminance, average luminance, luminance histogram, and motion vector obtained from all frames constituting one content may be used as additional information.
  • the recording / playback unit 101 may also store dynamic range information and additional information related to the input video signal when recording the input video signal. Further, when playing back a recorded video signal, the recording / playback unit 101 may output dynamic range information and additional information related to the playback video signal together with the playback video signal.
  • the receiving unit 31 outputs the additional information added to the input video signal to the parameter calculating unit 322 of the converting unit 32. In addition, the reception unit 31 outputs the input video signal to the selection unit 33 and the HDR / SDR conversion unit 321 of the conversion unit 32. In addition, the receiving unit 31 outputs the dynamic range information added to the input video signal to the selection unit 33.
  • the recording / playback unit 101 may output the playback video signal to the selection unit 33 and the HDR / SDR conversion unit 321 of the conversion unit 32 when playing back the recorded video signal. Further, when playing back a recorded video signal, the recording / playback unit 101 outputs additional information regarding the playback video signal to the parameter calculation unit 322 of the conversion unit 32, and selects dynamic range information regarding the playback video signal as a selection unit. 33 may be output. In FIG. 1, those signal paths are omitted.
  • the tuner unit 3 operates based on the input video signal output from the receiving unit 31.
  • the following input video signal is What is necessary is just to replace with the reproduction
  • the conversion unit 32 converts an input video signal including a video signal for a high luminance display device into a video signal for a low luminance display device having a lower upper limit of the displayable luminance range than the high luminance display device and outputs the video signal.
  • This is a circuit for creating a video signal.
  • the conversion unit 32 includes an HDR / SDR conversion unit 321 and a parameter calculation unit 322.
  • the HDR / SDR conversion unit 321 is a circuit that generates an output video signal by performing a luminance conversion process on the input video signal using the parameter calculated by the parameter calculation unit 322.
  • FIG. 2 is a block diagram schematically showing a configuration example of the HDR / SDR conversion unit 321 in the first embodiment.
  • the HDR / SDR conversion unit 321 includes a first gradation conversion unit 37, a second gradation conversion unit 38, and a synthesis unit 39.
  • the first gradation conversion unit 37 is a circuit that converts the luminance of the input video signal using the first conversion characteristic curve C1 (see FIG. 3).
  • the first gradation converting unit 37 outputs the converted first converted video signal to the combining unit 39.
  • the second gradation conversion unit 38 is a circuit that converts the luminance of the input video signal using the second conversion characteristic curve C2 (see FIG. 4).
  • the second gradation conversion unit 38 outputs the converted second converted video signal to the synthesis unit 39.
  • FIG. 3 is a graph showing an example of the first conversion characteristic curve C1 in the first embodiment.
  • FIG. 4 is a graph showing an example of the second conversion characteristic curve C2 in the first embodiment.
  • the first conversion characteristic curve C1 and the second conversion characteristic curve C2 are examples, and can be changed within a range suitable for the purpose of luminance conversion.
  • the horizontal axis indicates the luminance of the input video signal
  • the vertical axis indicates the luminance of the output video signal after conversion.
  • the limiter position on the vertical axis is the upper limit value of the dynamic range that can be displayed on the display unit 103 included in the display device 2.
  • FIG. 5 is a diagram for illustrating a theory for creating the first conversion characteristic curve C1 in the first embodiment.
  • the horizontal axis represents the luminance of the input video signal
  • the vertical axis represents the luminance of the output video signal.
  • the input video signal has already been corrected by OETF (Optical-Electronic Transfer Function).
  • OETF Optical-Electronic Transfer Function
  • EOTF Electro-Optical Transfer Function
  • An example of this EOTF (referred to as HDR-EOTF in FIG. 5) is shown in FIG.
  • FIG. 5B is an example of a supplemental graph that matches the upper limit value of the dynamic range that can be displayed on the display unit 103 of the display device 2.
  • an OETF corresponding to the EOTF expected by the display unit 103 of the display device 2 is prepared.
  • An example of this OETF (referred to as SDR-OETF in FIG. 5) is shown in FIG.
  • the first conversion characteristic curve C1 shown in FIG. 5 (d) is calculated by multiplying the graphs shown in FIGS. 5 (a) to (c).
  • FIG. 5D as a comparative example, a conversion characteristic curve C3 when an input video signal that conforms to a standard that handles HDR is displayed on a display unit that complies with the standard that handles HDR is shown.
  • the conversion characteristic curve C3 is a linear graph as a whole.
  • the first conversion characteristic curve C1 is a graph having a non-linear part and a linear part.
  • the linear portion of the first conversion table C1 is a horizontal line segment based on the value of the limiter position.
  • This linear portion of the first conversion characteristic curve C1 is a signal having a luminance exceeding the limiter position (the upper limit value of the displayable luminance range of the display unit 103) in the input video signal. This is a part to be converted into the brightness of a nearby value. As a result, the input video signal having a luminance exceeding the limiter position is converted into an upper limit value of the dynamic range that can be displayed on the display unit 103 by the linear unit. Note that the value after conversion in the linear part may not be the same value as the value of the limiter position, but may be a value in the vicinity thereof.
  • the display device 2 may transmit information indicating the dynamic range that can be displayed on the display unit 103 or the upper limit value of the dynamic range that can be displayed on the display unit 103 to the recording / playback device 100 together with the display unit information. Thereby, the recording / reproducing apparatus 100 can know the upper limit value of the dynamic range that can be displayed on the display unit 103.
  • the non-linear part of the first conversion characteristic curve C1 is set so that the luminance of a signal that falls within the dynamic range (luminance range) that can be displayed on the display unit 103 included in the display device 2 out of the input video signal is based on a predetermined standard. It is a part to convert to.
  • the predetermined standard is a standard based on the dynamic range of the video based on the input video signal and the dynamic range that can be displayed on the display unit 103. Specifically, as described above, the standard is obtained by synthesizing the three graphs shown in FIGS. 5A to 5C.
  • the predetermined standard is not limited to this, and a standard obtained by various experiments or simulations may be used.
  • the pseudo-contour and white crush A converted video signal that may contain a high-luminance portion in the display video is lost.
  • the second conversion characteristic curve C2 is a graph having no horizontal linear portion as shown in FIG.
  • the second conversion characteristic curve C2 only the upper limit value of the luminance range of the input video signal is converted into the limiter position value.
  • the luminance of the input video signal is reduced so as to be within the dynamic range (luminance range) that can be displayed on the display unit 103 included in the display device 2, and the output video signal is output. Converted.
  • the combining unit 39 combines the first converted video signal input from the first gradation conversion unit 37 and the second converted video signal input from the second gradation conversion unit 38.
  • This is a circuit that synthesizes at a predetermined ratio (hereinafter also referred to as a use ratio) and outputs the combined signal to the selection unit 33 as an output video signal.
  • the synthesis unit 39 sets the parameters input from the parameter calculation unit 322 to a predetermined ratio, and creates an output video signal according to the following Expression 1.
  • Output video signal first converted video signal ⁇ (1 ⁇ parameter) + second converted video signal ⁇ parameter (Equation 1)
  • the parameter calculation unit 322 is a circuit that calculates a parameter for converting an input video signal.
  • the parameter calculation unit 322 calculates a parameter based on the additional information input from the reception unit 31.
  • the parameter is a use ratio of the first conversion characteristic curve C1 and the second conversion characteristic curve C2 used in the synthesis unit 39.
  • the parameter is a ratio between the first converted video signal based on the first conversion characteristic curve C1 and the second converted video signal based on the second conversion characteristic curve C2 when they are combined. It is.
  • FIG. 6 is a block diagram schematically showing a configuration example of the parameter calculation unit 322 in the first embodiment.
  • the parameter calculation unit 322 includes a gain calculation unit 35 and a time constant processing unit 36.
  • the gain calculation unit 35 is a circuit that calculates gain information based on the maximum luminance input as additional information from the reception unit 31. Specifically, the gain calculation unit 35 calculates gain information from the maximum luminance by using a first threshold, a second threshold larger than the first threshold, and the following graph.
  • FIG. 7 is a graph showing an example of the relationship between the gain information and the maximum luminance in the first embodiment.
  • the gain calculation unit 35 sets the gain information to “0” when the maximum luminance is equal to or less than the first threshold value T1, and sets the gain information when the maximum luminance is equal to or greater than the second threshold value T2.
  • the information is “1”.
  • the graph shown in FIG. 7 is a linear graph connecting “0” and “1” between the first threshold value T1 and the second threshold value T2. Therefore, when the maximum luminance is between the first threshold value T1 and the second threshold value T2, the gain calculation unit 35 uses the value based on the linear portion L as gain information. This value is a predetermined ratio.
  • the first threshold value T1 and the second threshold value T2 are set to appropriate values based on various experiments, simulations, and the like.
  • the first threshold value T1 may be a value that is about the upper limit value of the dynamic range that can be displayed on the display unit 103 included in the display device 2.
  • the second threshold T2 only needs to be larger than the first threshold T1.
  • the time constant processing unit 36 calculates a parameter to be used next based on the current gain information calculated by the gain calculation unit 35 and the parameter used immediately before, and calculates the calculated parameter. Is output to the HDR / SDR converter 321. Specifically, the time constant processing unit 36 calculates a parameter from the following formula 2, for example.
  • Parameter calculated gain information ⁇ ⁇ + parameter used immediately before ⁇ (1- ⁇ ) (Expression 2)
  • is a weighting coefficient and satisfies the following relationship. 0 ⁇ ⁇ ⁇ 1.
  • is set to an appropriate value based on various experiments and simulations.
  • the selection unit 33 receives an input video signal, an output video signal obtained by converting the input video signal by the conversion unit 32, dynamic range information, and display unit information. This is a circuit that selects one of the input video signal and the output video signal based on the information and the display unit information, and outputs the selected signal to the display device 2.
  • the selection unit 33 selects the output video signal and outputs it to the display device 2. .
  • the selection unit 33 selects the output video signal and sends it to the display device 2.
  • the selection unit 33 selects the input video signal and outputs it to the display device 2.
  • the selection unit 33 selects the input video signal and sends it to the display device 2.
  • the selection part 33 may select an input video signal and output to the display apparatus 2 irrespective of dynamic range information, when HDR information is acquired from the display apparatus 2 as display part information.
  • the selection unit 33 may select the input video signal and output it to the display device 2 regardless of the display unit information.
  • the selection unit 33 may operate as if the SDR flag has been input.
  • the selection unit 33 may operate as having acquired the SDR information as the display unit information.
  • FIG. 8 is a flowchart illustrating an example of a signal processing method executed by the tuner unit 3 according to the first embodiment.
  • the receiving unit 31 When receiving a broadcast wave from the antenna, the receiving unit 31 converts the received broadcast wave into an input video signal. Then, the reception unit 31 outputs additional information added to the input video signal to the parameter calculation unit 322. In addition, the reception unit 31 outputs the input video signal to the HDR / SDR conversion unit 321 and the selection unit 33. Further, the receiving unit 31 outputs the dynamic range information added to the input video signal to the selection unit 33 (step S1).
  • the recording / playback unit 101 plays back the recorded video signal
  • the playback / playback signal is output to the HDR / SDR conversion unit 321 and the selection unit 33. Further, the recording / playback unit 101 outputs additional information related to the playback video signal to the parameter calculation unit 322, and outputs dynamic range information related to the playback video signal to the selection unit 33.
  • the parameter calculation unit 322 calculates parameters based on the additional information input from the reception unit 31 (or the recording / playback unit 101), and outputs the calculated parameters to the HDR / SDR conversion unit 321 (step S2).
  • the HDR / SDR conversion unit 321 performs luminance conversion based on parameters on the input video signal input from the reception unit 31 (or the playback video signal from the recording / playback unit 101), so that the input video signal (or , Reproduced video signal) is converted into an output video signal, and the output video signal is output to the selector 33 (step S3).
  • the selection unit 33 determines whether an HDR flag is input from the reception unit 31 (or the recording / playback unit 101). Moreover, the selection part 33 confirms the display part information acquired from the display apparatus 2 (step S4).
  • step S4 determines in step S4 that the HDR flag has been input and determines that the SDR information has been acquired as the display unit information (Yes in step S4), the selection unit 33 selects the output video signal and displays it. 2 (step S5).
  • the selection unit 33 determines in step S4 that the HDR flag is not input and determines that the SDR information is acquired as the display unit information (No in step S4), the selection unit 33 selects the input video signal. It outputs to the display apparatus 2 (step S6).
  • step S4 if the selection unit 33 determines that the HDR information is acquired as the display unit information, the selection unit 33 may advance the process to step S6.
  • the tuner unit 3 executes processing based on this flowchart on the input video signal (or playback video signal) for each frame.
  • the parameter used immediately before one frame before
  • the tuner unit 3 can reduce the difference between the parameter used immediately before and the currently calculated parameter even when the gain information is switched from 1 to 0.
  • the tuner unit 3 can prevent the parameter used as the usage ratio from changing sharply for each frame when the output video signal is created. Thereby, in the display apparatus 2, it can suppress that the flicker for every flame
  • the signal processing device is a signal processing device that outputs a video signal to a display device.
  • the signal processing device includes a conversion unit and a selection unit.
  • the conversion unit converts the input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device.
  • the selection unit receives the input video signal and the output video signal, selects one of the input video signal and the output video signal, and outputs the selected signal to the display device.
  • the high luminance flag indicating that the selection unit is a video signal for a high luminance display device is added to the input video signal and information indicating that the display device is a low luminance display device is acquired, or When information indicating that the display device is a high brightness display device is not acquired, the output video signal is selected, and when the high brightness flag is not added to the input video signal, the input video signal is selected.
  • the recording / playback apparatus includes a signal processing device and a recording / playback unit.
  • the signal processing method is a signal processing method for outputting a video signal to a display device.
  • the signal processing method includes the steps of converting an input video signal into an output video signal for a low-brightness display device having a lower upper limit of the displayable luminance range than the high-brightness display device, and the input video signal and the output video signal A high luminance flag indicating that the video signal is for a high luminance display device is added to the input video signal, and the display device is low.
  • An output video signal is selected when information indicating that it is a luminance display device is acquired, and an input video signal is selected when a high luminance flag is not added to the input video signal.
  • the display device 2 is an example of a display device and also an example of a low-luminance display device.
  • the tuner unit 3 is an example of a signal processing device.
  • the conversion unit 32 is an example of a conversion unit.
  • the selection unit 33 is an example of a selection unit.
  • the SDR information is an example of information indicating that the display device is a low luminance display device.
  • the recording / playback apparatus 100 is an example of a recording / playback apparatus.
  • the recording / playback unit 101 is an example of a recording / playback unit.
  • the tuner unit 3 displays the SDR information indicating that the high luminance flag (HDR flag) is added to the input video signal and that the display device 2 is a low luminance display device.
  • the selection unit 33 selects the output video signal and displays it on the display device 2.
  • the output video signal is obtained by converting the luminance of the input video signal (or the reproduced video signal) so as to correspond to the luminance range that can be displayed on the display unit 103 of the display device 2.
  • an input video signal (or a reproduced video signal) that exceeds the display capability (dynamic range) of the display unit 103 included in the display device 2 becomes the display capability (dynamic range) of the display unit 103. It is converted into a combined output video signal.
  • the selection unit 33 selects this output video signal and outputs it to the display device 2. Accordingly, the recording / reproducing apparatus 100 including the tuner unit 3 outputs an input video signal (or a reproduced video signal) having a luminance exceeding the upper limit of luminance that can be displayed on the display unit 103 of the display device 2 to the display device 2.
  • the selection unit 33 selects the input video signal and outputs it to the display device 2.
  • An input video signal without an HDR flag is a video signal conforming to a standard dynamic range. Therefore, even if the display device 2 is a display device capable of displaying a video in a standard dynamic range, the recording / playback device 100 displays a video based on the input video signal (or the playback video signal) with sufficient image quality. It can be displayed on the display unit 103 of the device 2.
  • the conversion unit may convert the input video signal (or reproduction video signal) into an output conversion signal using at least one of at least two types of conversion characteristic curves.
  • the first conversion characteristic curve C1 and the second conversion characteristic curve C2 are examples of the conversion characteristic curve.
  • the conversion unit 32 includes at least two types of conversion characteristic curves (for example, the first conversion characteristic curve C1 and the second conversion characteristic curve C2).
  • One is used to convert an input video signal (or a reproduced video signal) into an output conversion signal. Therefore, the tuner unit 3 converts an input video signal (or a reproduced video signal) into an output conversion signal using a conversion characteristic curve that prioritizes luminance or a conversion characteristic curve that prioritizes gradation. be able to.
  • the conversion unit may convert the input video signal (or reproduction video signal) into an output conversion signal using at least two of at least two types of conversion characteristic curves. Further, the conversion unit may determine a usage ratio of at least two types of conversion characteristic curves based on a value related to the luminance of the input video signal (or the reproduced video signal).
  • the synthesizing unit 39 performs a process of synthesizing the first converted video signal based on the first conversion characteristic curve C1 and the second converted video signal based on the second conversion characteristic curve C2 in accordance with the usage ratio. It is an example of the process part to perform.
  • the conversion unit 32 has at least two types of conversion characteristic curves (for example, based on the value related to the luminance of the input video signal (or playback video signal)).
  • the usage ratio of the first conversion characteristic curve C1 and the second conversion characteristic curve C2) is determined.
  • the tuner unit 3 uses the first conversion video signal based on the first conversion characteristic curve C1 and the second conversion characteristic curve at a usage ratio suitable for the luminance of the input video signal (or reproduction video signal).
  • the synthesis unit 39 can synthesize the second converted video signal based on C2.
  • the first conversion characteristic curve exceeds the upper limit value of the displayable luminance range of the display device of the input video signal (or playback video signal).
  • the luminance signal is converted to a luminance value near the upper limit value, and the luminance of the input video signal (or playback video signal) within the displayable luminance range of the display device is converted based on the specified standard.
  • It may be a conversion characteristic curve.
  • the second conversion characteristic curve is a conversion characteristic that reduces the luminance of the input video signal (or reproduction video signal) so as to be within the displayable luminance range of the display device. It may be a curve.
  • the first conversion characteristic curve C1 is an example of the first conversion characteristic curve.
  • the second conversion characteristic curve C2 is an example of a second conversion characteristic curve.
  • an input video signal (or a reproduced video signal) whose maximum luminance is equal to or less than the first threshold T1 is within a dynamic range that can be displayed on the display unit 103 of the display device 2.
  • the tuner unit 3 converts the input video signal (or playback video signal) into a pseudo contour, by converting the luminance of the input video signal (or playback video signal) using the first conversion characteristic curve C1. White crushing does not occur, and it can be converted into a video signal having brightness close to the original brightness of the input video signal (or playback video signal).
  • an input video signal (or a reproduced video signal) having a maximum luminance greater than the second threshold value T2 is a video signal having a maximum luminance that cannot be displayed on the display unit 103 of the display device 2. If the tuner unit 3 converts the luminance of the input video signal (or playback video signal) using the second conversion characteristic curve C2, the original brightness of the input video signal (or playback video signal) is obtained. Although it is darker than this, an input video signal (or a reproduced video signal) can be converted into a video signal in which gradation is maintained.
  • the value relating to the luminance of the input video signal (or playback video signal) may be included in the additional information added in advance to the input video signal.
  • the value relating to the luminance of the input video signal is included in the additional information added in advance to the input video signal. From the additional information, information on the luminance of the input video signal can be directly obtained.
  • the recording / playback unit 101 can store the additional information together with the input video signal.
  • the value related to the luminance of the input video signal (or the reproduced video signal) is the maximum luminance within one frame of the input video signal (or the reproduced video signal) and the input video signal (or the reproduced video signal).
  • Average luminance within one frame, average maximum luminance per frame calculated from the maximum luminance within a predetermined number of frames of the input video signal (or playback video signal), and input video signal (or playback video) Signal) and a motion vector per unit pixel block included in the input video signal (or playback video signal) may be at least one.
  • the tuner unit 3 sets the maximum luminance within one frame of the input video signal and the average luminance within one frame of the input video signal as values related to the luminance of the input video signal.
  • Average maximum luminance per frame calculated from the maximum luminance within the predetermined number of frames of the input video signal, a luminance histogram within one frame of the input video signal, and per unit pixel block included in the input video signal At least one of a motion vector may be used.
  • the conversion unit may reflect the usage rate used immediately before the usage rate currently calculated.
  • the time constant processing unit 36 is an example of a processing unit that executes a process of reflecting the usage rate used immediately before the usage rate currently calculated.
  • the tuner unit 3 reflects the parameter used immediately before the currently calculated parameter, so that a sudden change occurs in the luminance conversion result for each frame. Can be suppressed. Therefore, the recording / playback apparatus 100 including the tuner unit 3 can suppress the occurrence of flicker for each frame in the video displayed on the display unit 103 of the display device 2.
  • the conversion unit sets the usage rate of the first conversion characteristic curve to 100% and sets the input video signal ( Alternatively, when the value relating to the luminance of the reproduced video signal) is equal to or greater than the second threshold value that is larger than the first threshold value, the usage rate of the second conversion characteristic curve is set to 100%, and the input video signal (or reproduced video signal)
  • the usage ratio of the first conversion characteristic curve and the second conversion characteristic curve may be set as a predetermined ratio.
  • the first converted video signal is an example of a video signal converted using the first conversion characteristic curve.
  • the second converted video signal is an example of a video signal converted using the second conversion characteristic curve.
  • the first threshold T1 is an example of a first threshold.
  • the second threshold T2 is an example of a second threshold.
  • the linear portion L is an example of a function for determining a predetermined ratio.
  • the maximum luminance is an example of a value related to the luminance of the input video signal (or playback video signal).
  • the conversion unit 32 uses 100% of the second converted video signal as the output video signal based on Equation 1.
  • the gain information is “0” and the parameter is “0” in the conversion unit 32.
  • the conversion unit 32 uses 100% of the first converted video signal as the output video signal based on Equation 1.
  • the gain information has a predetermined ratio based on the relationship of the linear part L, and the parameter also has a predetermined ratio. Become. For this reason, in the conversion unit 32, a signal obtained by combining the first converted video signal and the second converted video signal at a predetermined ratio based on Equation 1 becomes an output video signal.
  • the parameter is not only “0” or “1”, but a value between “0” and “1” is also used for the parameter.
  • the gain information when the gain information is assigned to either “0” or “1” with one threshold value, the gain information changes sharply when the maximum luminance exceeds or falls below the threshold value.
  • two threshold values are used to determine gain information, “0”, “1”, and a value between “0” and “1” are used as gain information.
  • the conversion unit when the value related to the luminance of the input video signal (or the reproduced video signal) is equal to or less than the first threshold, sets the usage rate of the first conversion characteristic curve to 100% and sets the input video signal ( Alternatively, when the value relating to the luminance of the reproduced video signal) is larger than the first threshold, the usage ratio of the second conversion characteristic curve may be set to 100%.
  • the conversion unit 32 sets the usage rate of the first converted video signal based on the first conversion characteristic curve C1 to 100% when the maximum luminance is equal to or lower than the first threshold.
  • the usage rate of the second converted video signal based on the second conversion characteristic curve C2 may be set to 100%.
  • the parameter calculation unit 322 may use the gain information as it is without providing the time constant processing unit 36.
  • the conversion unit 32 of the tuner unit 3 combines the first converted video signal and the second converted video signal at a predetermined ratio, so that the input video signal (or the reproduced video signal) is synthesized.
  • the conversion unit 32 combines the first conversion characteristic curve C1 and the second conversion characteristic curve C2 at a predetermined ratio, and uses the combined conversion characteristic curve to input video signal (or reproduced video). Signal) may be converted into an output video signal. That is, in the tuner unit 3, the conversion characteristic curve is not limited to the two types described above, and three or more types may be used.
  • the HDR flag which is a high luminance flag, is added to the input video signal (or playback video signal), and the HDR flag is added to the input video signal (or playback video signal).
  • the operation example in which the input video signal (or the reproduced video signal) is converted into the output video signal by the conversion unit 32 has been described.
  • the present disclosure is not limited to this operation example.
  • the conversion unit 32 may not convert the input video signal (or playback video signal) into an output video signal.
  • the conversion unit 32 converts the input video signal (or playback video signal) to convert the output video signal. You may create it.
  • FIG. 9 is a block diagram schematically showing a configuration example of the display system 1A in the second embodiment.
  • the display system 1A includes a display device 2 and a recording / playback device 100A.
  • the recording / reproducing apparatus 100A is, for example, a video recorder that can record a video signal obtained by receiving a broadcast wave on an HDD, an optical disk, a semiconductor memory, or the like.
  • the recording / reproducing apparatus 100A transmits a reproduced signal (reproduced video signal) of a recorded video signal or a video signal (received video signal) obtained by receiving a broadcast wave to the display device 2 so that the video is reproduced.
  • An image based on the signal can be displayed on the display unit 103 of the display device 2.
  • the recording / reproducing apparatus 100A includes a recording / reproducing unit 101A and a tuner unit 3A.
  • the recording / playback unit 101A can record a video signal obtained by receiving a broadcast wave in the tuner unit 3A, and output a playback video signal obtained by playing back the recorded video signal.
  • the transmission path of the playback video signal output from the recording / playback unit 101A is omitted. Since the function of the recording / playback unit 101A is substantially the same as the recording / playback function of a general video recorder, detailed description thereof is omitted.
  • the recording / reproducing apparatus 100A and the display apparatus 2 are connected to each other by, for example, an HDMI cable.
  • the recording / reproducing apparatus 100A can transmit the video signal to the display apparatus 2 via the HDMI cable.
  • the cable for connecting the recording / reproducing apparatus 100A and the display apparatus 2 to each other is not limited to the HDMI cable.
  • the recording / reproducing apparatus 100A and the display apparatus 2 may be connected to each other by, for example, a commonly used video cable or another cable.
  • the recording / reproducing apparatus 100A and the display apparatus 2 may be connected to each other wirelessly such as Bluetooth (registered trademark).
  • the recording / reproducing apparatus 100A transmits a video signal (received video signal) obtained by receiving a broadcast wave to the display apparatus 2
  • Description of the operation of the recording / reproducing apparatus 100A for transmitting the reproduced video signal to the display apparatus 2 is omitted. In the present embodiment, these two operations are substantially the same except for the difference between the reproduced video signal and the received video signal.
  • FIG. 9 shows only the components related to the present embodiment among the plurality of components included in the recording / playback apparatus 100A, and omits the other components.
  • Other components include the components that video recorders typically have. Those explanations are omitted.
  • the display device 2 is a low-luminance display device. Therefore, in the present embodiment, an operation example in which the display device 2 transmits SDR information as display unit information to the recording / playback device 100A will be described.
  • the display device 2 may be a high brightness display device. In that case, the display device 2 transmits the HDR information as the display unit information to the recording / reproducing device 100A.
  • the recording / reproducing apparatus 100 ⁇ / b> A may determine that the display apparatus 2 is a low-luminance display apparatus when both the SDR information and the HDR information are not transmitted from the display apparatus 2.
  • tuner unit 3A in the second embodiment has substantially the same configuration as tuner unit 3 described in the first embodiment.
  • the tuner unit 3A further includes an analysis information detection unit 41 in addition to the configuration. That is, the tuner unit 3A provided in the recording / reproducing apparatus 100A of the present embodiment includes a receiving unit 31A, an analysis information detecting unit 41, a converting unit 32A, and a selecting unit 33.
  • the receiving unit 31A is a circuit that converts a broadcast wave input via an antenna into an input video signal.
  • the reception unit 31A outputs additional information added to the input video signal to the parameter calculation unit 322A of the conversion unit 32A. In addition, the reception unit 31A outputs the input video signal to the analysis information detection unit 41, the HDR / SDR conversion unit 321A, and the selection unit 33. In addition, the reception unit 31A outputs the dynamic range information added to the input video signal to the selection unit 33. Furthermore, the receiving unit 31A outputs the motion vector calculated from the input video signal to the converting unit 32A.
  • the recording / playback unit 101A may store dynamic range information, additional information, and motion vectors related to the input video signal when recording the input video signal. Further, when reproducing the recorded video signal, the recording / playback unit 101A may output dynamic range information, additional information, and a motion vector regarding the reproduced video signal together with the reproduced video signal.
  • the recording / playback unit 101A when playing back the recorded video signal, outputs the playback video signal to the analysis information detection unit 41, the selection unit 33, and the HDR / SDR conversion unit 321A of the conversion unit 32A. May be.
  • the recording / playback unit 101A when reproducing the recorded video signal, outputs additional information and motion vectors regarding the playback video signal to the parameter calculation unit 322A of the conversion unit 32A, and dynamic range information regarding the playback video signal May be output to the selector 33. In FIG. 9, those signal paths are omitted.
  • the recording / playback unit 101A when playing back the recorded video signal, calculates a motion vector from the playback video signal in the same manner as performed by the reception unit 31A, and outputs the motion vector to the conversion unit 32A. May be.
  • the tuner unit 3A operates based on the input video signal output from the receiving unit 31A.
  • the following input video signal is What is necessary is just to replace with the reproduction
  • the receiving unit 31A outputs the sum of absolute values of motion vectors (vector quantities) of one frame as a motion vector (scalar quantity). Therefore, the motion vector output from the receiving unit 31A has a relatively small value in an image with relatively slow motion (or an image with relatively little motion), and an image with relatively fast motion (or In the case of a video with relatively much movement), the value becomes relatively large.
  • the receiving unit 31A may output, for example, the maximum absolute value of a motion vector (vector amount) of one frame as a motion vector (scalar amount).
  • the reception unit 31A may output the sum of one frame of absolute values of motion vectors (vector amounts) whose absolute values are equal to or greater than a predetermined value as motion vectors (scalar amounts).
  • FIG. 10 is a block diagram schematically showing a configuration example of the analysis information detection unit 41 in the second embodiment.
  • the analysis information detection unit 41 includes an average luminance calculation unit 411, a maximum luminance calculation unit 412, a luminance histogram calculation unit 413, a first gain calculation unit 414, and a second gain calculation unit 415. , A third gain calculation unit 416, and a synthesis unit 417.
  • the average luminance calculation unit 411 is a circuit that calculates the average luminance within one frame of the input video signal. Specifically, the average luminance calculation unit 411 calculates an average value of the luminance of all pixels (substantially all pixels) for one frame based on the input video signal, and sets the calculated result as the average luminance.
  • the maximum luminance calculation unit 412 is a circuit that calculates the maximum luminance within one frame of the input video signal. Specifically, the average luminance calculation unit 411 calculates the maximum (substantially maximum) luminance value from the luminance of all pixels (substantially all pixels) for one frame based on the input video signal, and the calculation result Is the maximum luminance.
  • the luminance histogram calculation unit 413 is a circuit that calculates a luminance histogram within one frame of the input video signal. Specifically, the luminance histogram calculation unit 413 calculates a luminance histogram of all pixels for one frame based on the input video signal.
  • FIG. 11 is a diagram for explaining the luminance histogram in the second embodiment.
  • the luminance frequency is constant as a whole ((b) in FIG. 11). (See the figure).
  • an image based on the input video signal has a dark portion with a constant luminance and a bright portion with a constant luminance within one frame, and the dark portion has a larger area. In the case of a large image, the frequency is higher in the luminance of the dark part (see FIG. 11D).
  • the luminance histogram calculation unit 413 uses the luminance frequency in the high luminance part larger than the predetermined threshold as the luminance histogram. To do.
  • the predetermined threshold here may be set arbitrarily between 0 and the maximum value of the luminance of the input video signal.
  • the first gain calculation unit 414 is a circuit that calculates first gain information based on the average luminance calculated by the average luminance calculation unit 411. Specifically, the gain calculation unit 35 calculates the first gain information from the maximum luminance, using the first threshold, the second threshold larger than the first threshold, and the following graph.
  • FIG. 12 is a graph showing an example of the relationship between gain information and maximum brightness in the second embodiment.
  • the first gain calculation unit 414 sets the first gain information to “0” when the maximum luminance is not more than the first threshold T3, and the maximum luminance is not less than the second threshold T4. In some cases, the first gain information is set to “1”. Further, the graph shown in FIG. 12 is a linear graph connecting “0” and “1” between the first threshold T3 and the second threshold T4. Therefore, when the maximum luminance is between the first threshold value T3 and the second threshold value T4, the first gain calculation unit 414 uses the value based on the linear portion L1 as the first gain information. This value is a predetermined ratio.
  • the second gain calculation unit 415 is a circuit that calculates the second gain information based on the maximum luminance calculated by the maximum luminance calculation unit 412.
  • the third gain calculation unit 416 is a circuit that calculates third gain information based on the luminance histogram calculated by the luminance histogram calculation unit 413.
  • the second gain calculation unit 415 and the third gain calculation unit 416 also calculate each gain information using a graph similar to the graph shown in FIG.
  • the first threshold value T3 and the second threshold value T4 may be set to different values in the first gain calculation unit 414, the second gain calculation unit 415, and the third gain calculation unit 416, respectively.
  • the first threshold T3 and the second threshold T4 are set to appropriate values based on various experiments, simulations, and the like.
  • the combining unit 417 calculates analysis information by combining the first gain information, the second gain information, and the third gain information at a predetermined ratio, and calculates the analysis information as a parameter.
  • This is a circuit for outputting to the unit 322A.
  • the synthesis unit 417 calculates analysis information according to the following expression 3.
  • Analysis information first gain information ⁇ ⁇ 1 + second gain information ⁇ ⁇ 2 + third gain information ⁇ (1- ⁇ 1- ⁇ 2) (Equation 3)
  • ⁇ 1 and ⁇ 2 are weighting coefficients and satisfy the following relationship. 0 ⁇ ⁇ 1 ⁇ 1, 0 ⁇ ⁇ 2 ⁇ 1, ⁇ 1 + ⁇ 2 ⁇ 1.
  • ⁇ 1 and ⁇ 2 are set to appropriate values based on various experiments, simulations, and the like.
  • the parameter calculation unit 322A is a circuit that calculates parameters for converting the input video signal.
  • the parameter calculation unit 322 includes additional information input from the reception unit 31A (or recording / playback unit 101A), analysis information input from the analysis information detection unit 41, and reception unit 31A (or recording / playback unit 101A).
  • the parameter is calculated based on the input motion vector.
  • FIG. 13 is a block diagram schematically illustrating a configuration example of the parameter calculation unit 322A according to the second embodiment.
  • the parameter calculation unit 322A includes a gain calculation unit 35A, a synthesis unit 42, a time constant processing unit 36A, a motion vector gain calculation unit 43, and an integration unit 44.
  • the gain calculation unit 35A is a circuit that calculates gain information based on the maximum luminance input as additional information from the reception unit 31A (or the recording / playback unit 101A). Specifically, the gain calculation unit 35A calculates gain information from the maximum luminance by using the first threshold T1, the second threshold T2 that is larger than the first threshold, and the graph of FIG. . Since the gain calculation unit 35A is substantially the same as the gain calculation unit 35 shown in the first embodiment, detailed description thereof is omitted.
  • the synthesizing unit 42 synthesizes the gain information input from the gain calculating unit 35A and the analysis information input from the analysis information detecting unit 41 at a predetermined ratio to generate synthesized information, and the synthesized information is converted into a time constant. It is a circuit that outputs to the processing unit 36A. Specifically, the synthesis unit 42 creates synthesis information according to the following Equation 4.
  • Synthesis information calculated gain information ⁇ ⁇ + analysis information ⁇ (1- ⁇ ) (Formula 4)
  • is a weighting coefficient and satisfies the following relationship. 0 ⁇ ⁇ ⁇ 1.
  • is set to an appropriate value based on various experiments and simulations.
  • the time constant processing unit 36A calculates the next parameter based on the current synthesis information calculated by the synthesis unit 42 and the parameter calculated immediately before by the time constant processing unit 36A, and the calculated parameter is added to the integration unit. 44 is a circuit to output to 44. Specifically, the time constant processing unit 36A calculates a parameter from the following formula 5, for example.
  • Parameter calculated synthesis information ⁇ ⁇ + parameter calculated immediately before by the time constant processing unit 36A ⁇ (1- ⁇ ) (Expression 5)
  • is a weighting coefficient and satisfies the following relationship. 0 ⁇ ⁇ ⁇ 1.
  • is set to an appropriate value based on various experiments and simulations.
  • the motion vector gain calculation unit 43 is a circuit that calculates motion vector gain information based on the motion vector input from the reception unit 31A (or the recording / playback unit 101A) and outputs the calculated motion vector gain information to the integration unit 44. is there. Specifically, the motion vector gain calculation unit 43 calculates the motion vector gain information from the motion vector using the first threshold, the second threshold larger than the first threshold, and the following graph. To do.
  • FIG. 14 is a graph showing an example of the relationship between the motion vector gain information and the motion vector in the second embodiment.
  • the motion vector gain calculation unit 43 sets the motion vector gain information to “1” when the motion vector is equal to or less than the first threshold T5, and the motion vector is equal to or greater than the second threshold T6.
  • the motion vector gain information is “Gmin”.
  • Gmin is a value that satisfies the following relationship. 0 ⁇ Gmin ⁇ 1.
  • the graph shown in FIG. 14 is a linear graph connecting “1” and “Gmin” between the first threshold value T5 and the second threshold value T6. Therefore, when the motion vector is between the first threshold value T5 and the second threshold value T6, the motion vector gain calculation unit 43 sets a value based on the linear portion L2 as motion vector gain information.
  • the motion vector gain information output from the motion vector gain calculation unit 43 has a relatively large value in an image with relatively slow motion (or an image with relatively little motion), and the motion is relatively A fast image (or an image with relatively much motion) has a relatively small value.
  • the integrating unit 44 integrates the motion vector gain calculated by the motion vector gain calculating unit 43 to the parameter calculated by the time constant processing unit 36A, and sets the parameter calculated by the integration to the HDR.
  • This is a circuit that outputs to the / SDR converter 321A.
  • the parameter output from the integration unit 44 has a relatively large value for an image with relatively slow motion (or an image with relatively little motion) and an image with fast motion (or motion). In the case of a video having a relatively large number, the value is relatively small.
  • the HDR / SDR conversion unit 321A is a circuit that generates an output video signal by performing a luminance conversion process on the input video signal using the parameter calculated by the parameter calculation unit 322A. .
  • the HDR / SDR conversion unit 321A is substantially the same as the HDR / SDR conversion unit 321 shown in FIG. 2 in the first embodiment, detailed description thereof is omitted.
  • the HDR / SDR conversion unit 321A as in the HDR / SDR conversion unit 321, when the parameter value is relatively small, the ratio of the first converted video signal is relatively large and the parameter value is relatively large. Sometimes the ratio of the second converted video signal is relatively high.
  • the video signal output from the HDR / SDR converter 321A has a relatively high ratio of the second converted video signal in a video with relatively slow motion (or video with relatively little motion), In a video with a relatively fast movement (or a video with a relatively large amount of motion), the ratio of the first converted video signal is relatively high.
  • the selection unit 33 receives an input video signal, an output video signal obtained by converting the input video signal by the conversion unit 32A, dynamic range information, and display unit information. This is a circuit that selects one of the input video signal and the output video signal based on the information and the display unit information, and outputs the selected signal to the display device 2.
  • the selection unit 33 selects the output video signal and outputs it to the display device 2. .
  • the selection unit 33 selects the output video signal and sends it to the display device 2.
  • the selection unit 33 selects the input video signal and outputs it to the display device 2.
  • the selection unit 33 selects the input video signal and sends it to the display device 2.
  • the selection part 33 may select an input video signal and output to the display apparatus 2 irrespective of dynamic range information, when HDR information is acquired from the display apparatus 2 as display part information.
  • the selection unit 33 may select the input video signal and output it to the display device 2 regardless of the display unit information.
  • the selection unit 33 may operate as if the SDR flag has been input.
  • the selection unit 33 may operate as having acquired the SDR information as the display unit information.
  • FIG. 15 is a flowchart illustrating an example of a signal processing method executed by the tuner unit 3A according to the second embodiment.
  • the receiving unit 31A When receiving the broadcast wave from the antenna, the receiving unit 31A converts the received broadcast wave into an input video signal. Then, the reception unit 31A outputs additional information added to the input video signal and a motion vector calculated from the input video signal to the parameter calculation unit 322A. In addition, the reception unit 31A outputs the input video signal to the HDR / SDR conversion unit 321A, the selection unit 33, and the analysis information detection unit 41. In addition, the receiving unit 31A outputs the dynamic range information added to the input video signal to the selection unit 33 (step S11).
  • the recording / playback unit 101A plays back the recorded video signal
  • the playback video signal is output to the HDR / SDR conversion unit 321A, the selection unit 33, and the analysis information detection unit 41.
  • the recording / playback unit 101A outputs additional information and motion vectors regarding the playback video signal to the parameter calculation unit 322A, and outputs dynamic range information about the playback video signal to the selection unit 33.
  • the analysis information detection unit 41 When the input video signal (or the playback video signal from the recording / playback unit 101A) is input from the reception unit 31A, the analysis information detection unit 41 has an average luminance per frame of the input video signal (or playback video signal). The maximum brightness and the brightness histogram are calculated, and the analysis information is detected based on these. Then, the analysis information detection unit 41 outputs the analysis information to the parameter calculation unit 322A (step S12).
  • the parameter calculation unit 322A receives additional information input from the reception unit 31A (or recording / playback unit 101A), analysis information input from the analysis information detection unit 41, and reception unit 31A (or recording / playback unit 101A). A parameter is calculated based on the input motion vector, and the calculated parameter is output to the HDR / SDR conversion unit 321A (step S13).
  • the HDR / SDR conversion unit 321A performs luminance conversion based on parameters on the input video signal (or the playback video signal from the recording / playback unit 101A) input from the reception unit 31A, so that the input video signal (or , The reproduced video signal) is converted into an output video signal, and the output video signal is output to the selection unit 33 (step S14).
  • the selection unit 33 determines whether the HDR flag is input from the reception unit 31A. Moreover, the selection part 33 confirms the display part information acquired from the display apparatus 2 (step S15).
  • the selection unit 33 determines in step S15 that the HDR flag is not input and determines that the SDR information is acquired as the display unit information (No in step S15). If the selection unit 33 selects the input video signal. It outputs to the display apparatus 2 (step S16).
  • step S15 when the selection unit 33 determines that the HDR information is acquired as the display unit information, the selection unit 33 may advance the process to step S16.
  • step S15 If the selection unit 33 determines in step S15 that the HDR flag has been input and determines that the SDR information has been acquired as the display unit information (Yes in step S15), the selection unit 33 selects the output video signal and displays it. 2 (step S17).
  • the tuner unit 3A executes processing based on this flowchart on the input video signal (or playback video signal) for each frame.
  • the signal processing apparatus further includes an analysis information detection unit that analyzes input video signals (or playback video signals) and detects analysis information.
  • the value relating to the luminance of the input video signal (or playback video signal) is included in the analysis information detected by analyzing the input video signal (or playback video signal) in the analysis information detection unit.
  • the display device 2 is an example of a display device.
  • the tuner unit 3A is an example of a signal processing device.
  • the conversion unit 32A is an example of a conversion unit.
  • the parameter calculated by the parameter calculation unit 322A is an example of a usage ratio.
  • the time constant processing unit 36A is an example of a processing unit that executes a process of reflecting the usage rate used immediately before the usage rate currently calculated.
  • the analysis information detection unit 41 is an example of an analysis information detection unit.
  • the SDR information is an example of information indicating that the display device is a low luminance display device.
  • the recording / reproducing apparatus 100A is an example of a recording / reproducing apparatus.
  • the recording / playback unit 101A is an example of a recording / playback unit.
  • the tuner unit 3A further includes an analysis information detection unit 41 that analyzes input video signals (or playback video signals) and detects analysis information.
  • the value relating to the luminance of the input video signal (or playback video signal) is included in the analysis information detected by analyzing the input video signal (or playback video signal) in the analysis information detection unit.
  • the tuner unit 3A can calculate the value related to the luminance even if the value related to the luminance is not added to the input video signal (or the reproduced video signal).
  • the tuner unit 3A calculates parameters using a combination of analysis information and additional information, and therefore calculates parameters more appropriate for the input video signal (or playback video signal). Is possible.
  • Embodiments 1 and 2 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like are performed. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1, 2 and it can also be set as a new embodiment.
  • the tuner unit 3 (3A) mounted on the recording / playback apparatus 100 (100A) is a signal processing apparatus
  • the signal processing apparatus may be separate from the recording / reproducing apparatus 100 (100A).
  • a signal processing device separate from the recording / playback device 100 (100A) for example, a tuner device, an optical disk playback device, a game machine, a personal computer, a smartphone, a mobile phone, a tablet device, and the like can be applied.
  • information indicating the dynamic range that can be displayed on the display unit 103 of the display device 2 is signal-processed from the recording / playback device by enabling the signal processing device and the recording / playback device to communicate with each other by wire or wirelessly. Can be output to the device.
  • a distribution using a recording medium in addition to the broadcast wave distribution as described above, a distribution using a recording medium, a distribution using the Internet, and the like can be given.
  • the recording medium include optical media such as BLU-RAY (registered trademark) DISC, flash memory such as an SD card, and the like.
  • the tuner unit 3 (3A) may be provided in a set top box, for example, or may be provided in a computer or the like having a function of receiving a broadcast wave and outputting a video signal.
  • the recording / playback apparatus 100 (100A) may be configured to accept input of display unit information by the user. This configuration is useful when there is no path for transmitting display unit information from the display apparatus 2 to the recording / playback apparatus 100 (100A) (for example, cable disconnection).
  • each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component by a processor.
  • Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the present disclosure may be the above-described program, or a non-transitory computer-readable recording medium on which the above-described program is recorded.
  • the present disclosure is applicable to a signal processing device, a recording / playback device, a signal processing method, and a program that process a video signal in accordance with a standard that handles HDR.
  • the present disclosure is applicable to a recording / playback apparatus such as a video recorder.

Abstract

 高輝度表示装置向けの映像信号を、画質の低下を抑制して、低輝度表示装置向けの出力映像信号に変換する信号処理装置を提供する。信号処理装置は、変換部と、選択部とを備える。変換部は、入力映像信号を、低輝度表示装置向けの出力映像信号に変換する。選択部は、入力映像信号と出力映像信号との一方を選択して表示装置に出力する。選択部は、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されており、かつ表示装置が低輝度表示装置であることを示す情報が取得された場合または表示装置が高輝度表示装置であることを示す情報が取得されない場合には出力映像信号を選択し、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号を選択する。

Description

信号処理装置、録画再生装置、信号処理方法、およびプログラム
 本開示は、標準のダイナミックレンジよりも広いレンジを扱う規格(以下、HDR(High Dynamic Range)を扱う規格という)に準じた映像信号を処理する信号処理装置、録画再生装置、信号処理方法、およびプログラムに関する。
 特許文献1は、標準よりも広いダイナミックレンジ(輝度の範囲)を有するモニタの性能を活かすために、当該モニタに対してHDRデータとHDR情報とを送信する再生装置を開示している。この再生装置によってHDRデータとHDR情報とが送られてくると、モニタは、HDR情報に基づいてHDRデータを調整し、モニタ自身の特性に合わせた映像を表示する。
特開2015-8024号公報
 標準のダイナミックレンジを有するモニタに対してHDRデータが送られる場合がある。HDRデータは、標準のモニタの表示可能な輝度を超えた映像信号である。また、標準のモニタでは、そのような映像信号が入力されることは想定されておらず、HDRデータを調整することはできない。このため、標準のモニタでHDRデータを未調整で表示すると、低輝度部分では黒浮き(黒の輝度が上がって見えること)が生じ、高輝度部分では明るさ不足となるため、コントラストが低下し、画質を低下させるおそれがある。
 本開示は、モニタの能力を超える映像信号を当該モニタに入力する場合であっても、画質の低下を抑制する信号処理装置、録画再生装置、信号処理方法、およびプログラムを提供する。
 本開示における信号処理装置は、映像信号を表示装置に出力する信号処理装置である。信号処理装置は、変換部と、選択部とを備える。変換部は、入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換する。選択部は、入力映像信号と出力映像信号とが入力され、入力映像信号と出力映像信号との一方を選択して表示装置に出力する。選択部は、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されており、かつ表示装置が低輝度表示装置であることを示す情報が取得された場合または表示装置が高輝度表示装置であることを示す情報が取得されない場合には出力映像信号を選択し、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号を選択する。
 本開示における信号処理方法は、映像信号を表示装置に出力する信号処理方法である。信号処理方法は、入力映像信号が、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換されるステップと、入力映像信号と出力映像信号との一方が選択されて表示装置に出力されるステップと、を含み、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されており、かつ表示装置が低輝度表示装置であることを示す情報が取得された場合または表示装置が高輝度表示装置であることを示す情報が取得されない場合には出力映像信号が選択され、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号が選択される。
 本開示における映像処理装置、録画再生装置、信号処理方法、およびプログラムは、モニタの能力を超える映像信号が当該モニタに入力される場合であっても、画質の低下を抑制することができる。
図1は、実施の形態1における表示システムの一構成例を模式的に示すブロック図である。 図2は、実施の形態1におけるHDR/SDR変換部の一構成例を模式的に示すブロック図である。 図3は、実施の形態1における第1の変換特性カーブの一例を示すグラフである。 図4は、実施の形態1における第2の変換特性カーブの一例を示すグラフである。 図5は、実施の形態1における第1の変換特性カーブを作成する際の理論を示すための図である。 図6は、実施の形態1におけるパラメータ算出部の一構成例を模式的に示すブロック図である。 図7は、実施の形態1におけるゲイン情報と最大輝度との関係の一例を示すグラフである。 図8は、実施の形態1におけるチューナー部で実行される信号処理方法の一例を示すフローチャートである。 図9は、実施の形態2における表示システムの一構成例を模式的に示すブロック図である。 図10は、実施の形態2における分析情報検出部の一構成例を模式的に示すブロック図である。 図11は、実施の形態2における輝度ヒストグラムについて説明するための図である。 図12は、実施の形態2におけるゲイン情報と最大輝度との関係の一例を示すグラフである。 図13は、実施の形態2におけるパラメータ算出部の一構成例を模式的に示すブロック図である。 図14は、実施の形態2における動きベクトルゲイン情報と動きベクトルとの関係の一例を示すグラフである。 図15は、実施の形態2におけるチューナー部で実行される信号処理方法の一例を示すフローチャートである。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明、および実質的に同一の構成に対する重複説明等を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同じ構成要素については同じ符号を付し、説明を省略または簡略化する場合がある。
 (実施の形態1)
 以下、図1~図8を用いて、実施の形態1を説明する。
 [1-1.構成]
 [1-1-1.表示装置]
 図1は、実施の形態1における表示システム1の一構成例を模式的に示すブロック図である。
 実施の形態1において、表示システム1は、表示装置2と、録画再生装置100と、を備える。
 表示装置2は、例えば、放送波を受信することにより表示部103(表示パネル)に映像を表示するテレビジョンセット(以下、「テレビ」という)である。表示装置2は、表示部103と、EDID(Extended display identification data) ROM(Read Only Memory)102と、を備える。
 録画再生装置100は、例えば、放送波を受信することにより得られる映像信号を、HDD(Hard Disk Drive)または光ディスクまたは半導体メモリ等に録画することができるビデオレコーダである。録画再生装置100は、録画された映像信号の再生信号(再生映像信号)や、放送波を受信することにより得られる映像信号(受信映像信号)を、表示装置2に送信することで、その映像信号による映像を表示装置2の表示部103に表示することができる。
 録画再生装置100は、録画再生部101と、チューナー部3と、を備える。録画再生部101では、チューナー部3において放送波を受信することにより得られる映像信号を録画することができる。また、録画再生部101は、録画した映像信号を再生した再生映像信号を出力することができる。なお、図1では、録画再生部101から出力される再生映像信号の送信経路は省略している。録画再生部101が有する機能は、一般的なビデオレコーダが備える録画再生機能と実質的に同じであるので、詳細な説明は省略する。
 録画再生装置100と表示装置2とは、例えば、HDMI(High-Definition Multimedia Interface)(登録商標)ケーブルにより互いに接続されている。録画再生装置100は、映像信号を、このHDMIケーブルを介して表示装置2に送信することができる。
 なお、録画再生装置100と表示装置2とを互いに接続するケーブルはHDMIケーブルに限定されない。録画再生装置100と表示装置2とは、例えば、一般的に使用されるビデオケーブルまたは他のケーブルにより互いに接続されてもよい。あるいは、録画再生装置100と表示装置2とは、Bluetooth(登録商標)等の無線によって互いに接続されてもよい。
 なお、本実施の形態では、録画再生装置100が、放送波を受信することにより得られる映像信号(受信映像信号)を表示装置2に送信する動作例を説明する。録画再生装置100が再生映像信号を表示装置2に送信する動作についての説明は省略する。本実施の形態において、それら2つの動作は、再生映像信号か受信映像信号かの違いを除き、実質的に互いに同じである。
 なお、図1には、録画再生装置100が備える複数の構成要素のうち、本実施の形態に関連のある構成要素のみを示し、他の構成要素は省略している。他の構成要素には、ビデオレコーダが一般的に備えている構成要素が含まれる。それらの説明は省略する。また、図1には、表示装置2が備える複数の構成要素のうち、本実施の形態に関連のある構成要素のみを示し、他の構成要素は省略している。他の構成要素には、テレビが一般的に備えている構成要素が含まれる。それらの説明は省略する。
 表示装置2は、録画再生装置100のチューナー部3から送られてきた映像信号を受信し、当該映像信号に基づいて表示部103に映像を表示する。表示装置2が備える表示部103としては、例えば液晶表示パネル、有機EL(Electro Luminescence)表示パネルなどが挙げられる。表示部103は、表示可能な輝度の範囲(ダイナミックレンジ)が決まっている。ここでは、表示装置2が、標準のダイナミックレンジで表示が可能な表示部103を備える構成例を説明する。
 表示装置2が備えるEDID ROM102には、表示装置2が備える表示部103が、標準のダイナミックレンジで表示が可能なパネルか、標準のダイナミックレンジよりも大きいダイナミックレンジで表示が可能なパネルかを示す情報が記憶されている。本実施の形態では、標準のダイナミックレンジで表示が可能なパネルであることを示す情報を「SDR(Standard Dynamic Range)情報」とし、標準のダイナミックレンジよりも大きいダイナミックレンジで表示が可能なパネルであることを示す情報を「HDR情報」とする。すなわち、SDR情報は、表示装置2が低輝度表示装置であることを示す情報の一例であり、HDR情報は、表示装置2が高輝度表示装置であることを示す情報の一例である。
 表示装置2は、表示部情報としてSDR情報またはHDR情報を、所定のタイミングで、録画再生装置100に送信する。表示部情報は、例えば、「0」はSDR情報を表し、「1」はHDR情報を表すビットデータであってもよい。所定のタイミングは、例えば、表示装置2に電源が投入されたときであるが、他のタイミングであってもよい。所定のタイミングは、例えば、録画再生装置100から表示装置2に対して表示部情報の取得要求が送信されたとき、であってもよい。表示部情報は、例えば、録画再生装置100と表示装置2とを互いに接続するHDMIケーブルのDDC(Display Data Channel)ラインを通して、表示装置2から録画再生装置100に送信される。録画再生装置100は、表示装置2から送信されてくる表示部情報により、表示装置2が備える表示部103が、標準のダイナミックレンジで表示が可能なパネルか、標準のダイナミックレンジよりも大きいダイナミックレンジで表示が可能なパネルかを知ることができる。
 なお、本実施の形態では、標準のダイナミックレンジの上限値を、例えば100cd/m(=100nit)とし、その0~100%の範囲を標準のダイナミックレンジとする。標準のダイナミックレンジよりも大きいダイナミックレンジは、101%以上の範囲として表される。HDRを扱う規格に準じているダイナミックレンジの場合には、0~10000%程度の範囲となる。
 本実施の形態では、HDRを扱う規格に準拠している映像信号を高輝度表示装置向けの映像信号とし、標準のダイナミックレンジに対応した映像信号を低輝度表示装置向けの映像信号とする場合を例示する。高輝度表示装置は、標準のダイナミックレンジよりも大きいダイナミックレンジを表示可能な表示装置であり、例えばHDRを扱う規格に準拠している映像信号を表示可能な表示装置である。低輝度表示装置は、高輝度表示装置よりも表示可能な輝度の上限値が小さい表示装置であり、例えば、標準のダイナミックレンジに対応した映像信号を表示可能な表示装置である。
 上述したように、本実施の形態では、表示装置2が低輝度表示装置である構成例を説明する。したがって、本実施の形態では、表示装置2が、表示部情報としてSDR情報を録画再生装置100に送信する動作例を説明する。なお、表示装置2は高輝度表示装置であってもよい。その場合、表示装置2は、表示部情報としてHDR情報を録画再生装置100に送信する。なお、録画再生装置100は、表示装置2からSDR情報およびHDR情報の双方が送信されてこない場合は、表示装置2を低輝度表示装置と判断してもよい。
 [1-1-3.チューナー部]
 チューナー部3は、アンテナを介して入力された放送波を映像信号に変換して、その映像信号を出力する信号処理装置である。
 チューナー部3は、例えばLSI(Large Scale Integrated Circuit)等の1チップの半導体集積回路として実現されている。チューナー部3は、受信部31と、変換部32と、選択部33と、を備える。なお、受信部31と、変換部32と、選択部33とは、複数の集積回路で実現されてもよいし、複数の個別回路やディスクリート部品で実現されてもよい。
 受信部31は、アンテナを介して入力された放送波を入力映像信号に変換する回路である。
 入力映像信号には、当該入力映像信号による映像のダイナミックレンジの種類を示すダイナミックレンジ情報が付加されている。例えば、入力映像信号が高輝度表示装置向けの映像信号である場合、ダイナミックレンジ情報としてHDRフラグ(高輝度フラグ)が入力映像信号に付加されている。一方、入力映像信号が低輝度表示装置向けの映像信号である場合、ダイナミックレンジ情報としてSDR(Standard Dynamic Range)フラグ(低輝度フラグ)が入力映像信号に付加されている。また、入力映像信号には、あらかじめ付加情報が付加されている。
 付加情報には、入力映像信号の輝度に関する値が含まれている。具体的には、入力映像信号の輝度に関する値として、入力映像信号の1フレーム内での最大輝度と、入力映像信号の1フレーム内での平均輝度と、入力映像信号の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、入力映像信号の1フレーム内での輝度ヒストグラムと、入力映像信号に含まれる単位画素ブロックあたりの動きベクトルと、が挙げられる。
 本実施の形態では、付加情報として、入力映像信号の1フレーム内での最大輝度がフレーム毎の入力映像信号に付加されている場合を例示して説明する。なお、1コンテンツをなす入力映像信号の全体に対して同じ付加情報が付加されてもよい。この場合、例えば、1コンテンツをなす全てのフレームから得られた最大輝度、平均輝度、輝度ヒストグラム、動きベクトル、のそれぞれの平均値の少なくとも1つを付加情報としてもよい。
 なお、録画再生部101は、入力映像信号を録画するときに、あわせて、その入力映像信号に関するダイナミックレンジ情報および付加情報を記憶してもよい。また、録画再生部101は、録画された映像信号を再生するときに、その再生映像信号とともに、その再生映像信号に関するダイナミックレンジ情報および付加情報を出力してもよい。
 受信部31は、入力映像信号に付加された付加情報を変換部32のパラメータ算出部322に出力する。また、受信部31は、入力映像信号を選択部33と変換部32のHDR/SDR変換部321とに出力する。また、受信部31は、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する。
 なお、録画再生部101は、録画された映像信号を再生するときに、その再生映像信号を、選択部33と変換部32のHDR/SDR変換部321とに出力してもよい。また、録画再生部101は、録画された映像信号を再生するときに、その再生映像信号に関する付加情報を変換部32のパラメータ算出部322に出力し、その再生映像信号に関するダイナミックレンジ情報を選択部33に出力してもよい。なお、図1ではそれらの信号経路は省略する。
 以下、受信部31から出力される入力映像信号に基づきチューナー部3が動作する動作例を説明するが、録画された映像信号が録画再生部101で再生される場合は、以下の入力映像信号を再生映像信号に読み替えればよい。
 変換部32は、高輝度表示装置向けの映像信号を含む入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの映像信号に変換して出力映像信号を作成する回路である。具体的には、変換部32は、HDR/SDR変換部321と、パラメータ算出部322と、を備える。
 HDR/SDR変換部321は、パラメータ算出部322により算出されたパラメータを用いて、入力映像信号に対して輝度の変換処理を施して出力映像信号を作成する回路である。
 図2は、実施の形態1におけるHDR/SDR変換部321の一構成例を模式的に示すブロック図である。
 HDR/SDR変換部321は、第1階調変換部37と、第2階調変換部38と、合成部39と、を備える。
 第1階調変換部37は、第1の変換特性カーブC1(図3参照)を用いて、入力映像信号の輝度を変換する回路である。第1階調変換部37は、変換後の第1の変換映像信号を合成部39に出力する。
 第2階調変換部38は、第2の変換特性カーブC2(図4参照)を用いて、入力映像信号の輝度を変換する回路である。第2階調変換部38は、変換後の第2の変換映像信号を合成部39に出力する。
 ここで、第1の変換特性カーブC1と第2の変換特性カーブC2とについて説明する。
 図3は、実施の形態1における第1の変換特性カーブC1の一例を示すグラフである。
 図4は、実施の形態1における第2の変換特性カーブC2の一例を示すグラフである。
 第1の変換特性カーブC1および第2の変換特性カーブC2は一例であり、輝度変換の目的にあった範囲であれば変更可能である。また、図3および図4のいずれにおいても、横軸は入力映像信号の輝度を示し、縦軸は変換後の出力映像信号の輝度を示している。また、縦軸のリミッタ位置とは、表示装置2が備える表示部103の表示可能なダイナミックレンジの上限値である。
 図5は、実施の形態1における第1の変換特性カーブC1を作成する際の理論を示すための図である。なお、図5において、いずれのグラフも横軸は入力映像信号の輝度を示し、縦軸は出力映像信号の輝度を示している。
 入力映像信号には、すでにOETF(光電気変換関数:Optical-Electro Transfer Function)による補正が行われている。そのOETFに対応するEOTF(電気光変換関数:Electro-Optical Transfer Function)を準備する。このEOTF(図5には、HDR-EOTFと記す)の一例を図5の(a)図に示す。
 図5の(b)図は、表示装置2の表示部103における表示可能なダイナミックレンジの上限値に合わせた補完グラフの一例である。
 また、表示装置2の表示部103が期待するEOTFに対応するOETFを準備する。このOETF(図5には、SDR-OETFと記す)の一例を図5の(c)図に示す。
 図5の(a)図~(c)図に示す各グラフを掛け合わせることにより、図5の(d)図に示す第1の変換特性カーブC1が算出される。
 なお、図5の(d)図では、比較例として、HDRを扱う規格に準拠した入力映像信号を、HDRを扱う規格に対応した表示部に表示する場合の変換特性カーブC3を示している。変換特性カーブC3は、全体として線形のグラフとなっている。一方、第1の変換特性カーブC1は、非線形部と線形部とを有するグラフとなっている。第1の変換テーブC1の線形部は、リミッタ位置の値を基準にした水平な線分である。
 第1の変換特性カーブC1のこの線形部は、入力映像信号のうち、リミッタ位置(表示部103の表示可能な輝度の範囲の上限値)を超える輝度となる信号をリミッタ位置の値(またはその近傍の値)の輝度に変換させる部分である。これにより、リミッタ位置を超える輝度である入力映像信号は、線形部によって表示部103の表示可能なダイナミックレンジの上限値に変換されることになる。なお、線形部における変換後の値は、リミッタ位置の値と同値でなくてもよく、その近傍の値であってもよい。
 なお、表示装置2は、表示部103の表示可能なダイナミックレンジ、または表示部103の表示可能なダイナミックレンジの上限値を示す情報を、表示部情報とともに録画再生装置100に送信してもよい。これにより、録画再生装置100は、表示部103の表示可能なダイナミックレンジの上限値を知ることができる。
 第1の変換特性カーブC1の非線形部は、入力映像信号のうち、表示装置2が備える表示部103の表示可能なダイナミックレンジ(輝度の範囲)に収まる信号の輝度を、所定の規格に基づくように変換させる部分である。所定の規格とは、入力映像信号による映像のダイナミックレンジと、表示部103の表示可能なダイナミックレンジと、に基づく規格である。具体的には、上述したように、図5の(a)図~(c)図に示す3つのグラフを合成することにより得られた規格である。なお、所定の規格は、これに限定されるものではなく、種々の実験やシミュレーション等によって得られた規格が用いられてもよい。
 この第1の変換特性カーブC1に基づいて入力映像信号の輝度が変換されると、入力映像信号が持つ本来の明るさに近い明るさを有するものの、高輝度部分においては擬似輪郭、白潰れ(表示映像における高輝度部分の階調性が失われること)等を含んだ可能性のある変換映像信号が作成される。
 第2の変換特性カーブC2は、図4に示すように、水平な線形部分のないグラフとなっている。そして、第2の変換特性カーブC2では、入力映像信号の輝度の範囲の上限値だけが、リミッタ位置の値に変換されるようになっている。この第2の変換特性カーブC2を用いることにより、入力映像信号の輝度は、表示装置2が備える表示部103の表示可能なダイナミックレンジ(輝度の範囲)に収まるように縮小され、出力映像信号に変換される。
 なお、第2の変換特性カーブC2としては、例えば図5の(d)図に示した変換特性カーブC3のような、全体として線形なグラフを用いることもできる。
 この第2の変換特性カーブC2に基づいて入力映像信号の輝度が変換されると、入力映像信号が持つ本来の明るさよりも暗くなるが、階調性が維持された変換映像信号が作成される。
 図2に示すように、合成部39は、第1階調変換部37から入力された第1の変換映像信号と、第2階調変換部38から入力された第2の変換映像信号とを所定の割合(以下、使用割合ともいう)で合成し、合成後の信号を出力映像信号として選択部33に出力する回路である。具体的には、合成部39は、パラメータ算出部322から入力されたパラメータを所定の割合とし、以下の式1によって出力映像信号を作成している。
 出力映像信号=第1の変換映像信号×(1-パラメータ)+第2の変換映像信号×パラメータ・・・(式1)
 図1に示すように、パラメータ算出部322は、入力映像信号を変換するためのパラメータを算出する回路である。パラメータ算出部322は、受信部31から入力された付加情報に基づいてパラメータを算出する。ここで、パラメータとは、合成部39で用いられる第1の変換特性カーブC1と第2の変換特性カーブC2との使用割合のことである。具体的には、パラメータは、第1の変換特性カーブC1に基づく第1の変換映像信号と、第2の変換特性カーブC2に基づく第2の変換映像信号とを合成する際の、両者の割合である。
 図6は、実施の形態1におけるパラメータ算出部322の一構成例を模式的に示すブロック図である。
 図6に示すように、パラメータ算出部322は、ゲイン算出部35と、時定数処理部36と、を備える。
 ゲイン算出部35は、受信部31から付加情報として入力された最大輝度に基づいてゲイン情報を算出する回路である。具体的には、ゲイン算出部35は、第1の閾値と、第1の閾値よりも大きな第2の閾値と、以下のグラフと、を用いて、最大輝度からゲイン情報を算出する。
 図7は、実施の形態1におけるゲイン情報と最大輝度との関係の一例を示すグラフである。
 図7に示すように、ゲイン算出部35は、最大輝度が第1の閾値T1以下である場合にはゲイン情報を「0」とし、最大輝度が第2の閾値T2以上である場合にはゲイン情報を「1」とする。また、図7に示すグラフは、第1の閾値T1から第2の閾値T2までの間は、「0」と「1」とを結んだ線形のグラフとなっている。そのため、ゲイン算出部35は、最大輝度が第1の閾値T1と第2の閾値T2との間にある場合には、この線形部分Lに基づく値をゲイン情報とする。この値が所定の比率である。
 なお、第1の閾値T1および第2の閾値T2は、種々の実験、シミュレーション等に基づき適切な値に設定されている。具体的には、第1の閾値T1は、表示装置2が備える表示部103の表示可能なダイナミックレンジの上限値程度の値であればよい。また、第2の閾値T2は、第1の閾値T1よりも大きければよい。
 図6に示すように、時定数処理部36は、ゲイン算出部35により算出された現在のゲイン情報と、直前に用いられたパラメータと、に基づいて次に用いるパラメータを算出し、算出したパラメータをHDR/SDR変換部321に出力する回路である。具体的には、時定数処理部36は、例えば以下の式2からパラメータを算出する。
 パラメータ=算出されたゲイン情報×α+直前に用いられたパラメータ×(1-α)・・・(式2)
 αは重み付け係数であり、次の関係を満たす値である。0≦α≦1。αは、種々の実験、シミュレーションに基づき適切な値に設定されている。
 図1に示すように、選択部33は、入力映像信号と、当該入力映像信号が変換部32によって変換された出力映像信号と、ダイナミックレンジ情報と、表示部情報と、が入力され、ダイナミックレンジ情報と表示部情報とに基づき入力映像信号と出力映像信号との一方を選択し、選択した方の信号を表示装置2に出力する回路である。
 具体的には、選択部33は、ダイナミックレンジ情報としてHDRフラグが入力され、かつ、表示部情報としてSDR情報を表示装置2から取得した場合、出力映像信号を選択して表示装置2に出力する。言い換えると、選択部33は、入力映像信号が高輝度表示装置向けの映像信号であり、かつ、表示装置2が低輝度表示装置である場合には、出力映像信号を選択して表示装置2に出力する。また、選択部33は、ダイナミックレンジ情報としてSDRフラグが入力され、かつ、表示部情報としてSDR情報を表示装置2から取得した場合、入力映像信号を選択して表示装置2に出力する。言い換えると、選択部33は、入力映像信号が低輝度表示装置向けの映像信号であり、かつ、表示装置2が低輝度表示装置である場合には、入力映像信号を選択して表示装置2に出力する。
 なお、選択部33は、表示部情報としてHDR情報を表示装置2から取得した場合は、ダイナミックレンジ情報にかかわらず、入力映像信号を選択して表示装置2に出力してもよい。また、選択部33は、SDRフラグが入力された場合もしくはHDRフラグが入力されない場合は、表示部情報にかかわらず、入力映像信号を選択して表示装置2に出力してもよい。また、選択部33は、SDRフラグおよびHDRフラグの双方が入力されない場合は、SDRフラグが入力されたものとして動作してもよい。また、選択部33は、表示装置2からSDR情報およびHDR情報の双方が送信されてこない場合は、表示部情報としてSDR情報を取得したものとして動作してもよい。
 [1-2.動作]
 以上のように構成されたチューナー部3について、その動作を以下に説明する。
 図8は、実施の形態1におけるチューナー部3で実行される信号処理方法の一例を示すフローチャートである。
 受信部31は、アンテナから放送波を受信すると、受信した放送波を入力映像信号に変換する。そして、受信部31は、当該入力映像信号に付加された付加情報をパラメータ算出部322に出力する。また、受信部31は、入力映像信号を、HDR/SDR変換部321と選択部33とに出力する。また、受信部31は、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する(ステップS1)。
 なお、録画再生部101が、録画された映像信号を再生するときには、その再生映像信号を、HDR/SDR変換部321と選択部33とに出力する。また、録画再生部101は、その再生映像信号に関する付加情報をパラメータ算出部322に出力し、その再生映像信号に関するダイナミックレンジ情報を選択部33に出力する。
 パラメータ算出部322は、受信部31(または、録画再生部101)から入力された付加情報に基づいてパラメータを算出し、算出したパラメータをHDR/SDR変換部321に出力する(ステップS2)。
 HDR/SDR変換部321は、受信部31から入力された入力映像信号(または、録画再生部101からの再生映像信号)に対してパラメータに基づく輝度変換を行うことで、その入力映像信号(または、再生映像信号)を出力映像信号に変換し、当該出力映像信号を選択部33に出力する(ステップS3)。
 選択部33は、受信部31(または、録画再生部101)からHDRフラグが入力されたか否かを判定する。また、選択部33は、表示装置2から取得した表示部情報を確認する(ステップS4)。
 選択部33は、ステップS4で、HDRフラグが入力されたと判定し、かつ、表示部情報としてSDR情報を取得したと判定した場合は(ステップS4でYes)、出力映像信号を選択して表示装置2に出力する(ステップS5)。
 選択部33は、ステップS4で、HDRフラグは入力されていないと判定し、かつ、表示部情報としてSDR情報を取得したと判定した場合は(ステップS4でNo)、入力映像信号を選択して表示装置2に出力する(ステップS6)。
 なお、ステップS4において、選択部33は、表示部情報としてHDR情報を取得したと判定した場合は、処理をステップS6に進めてもよい。
 チューナー部3は、このフローチャートに基づく処理をフレーム毎の入力映像信号(または、再生映像信号)に対して実行する。パラメータの算出時では、上述した式2により、現在算出するパラメータに対して直前(1フレーム前)に用いたパラメータが反映されることになる。このため、チューナー部3は、ゲイン情報が1から0に切り替わったタイミングであったとしても、直前に用いたパラメータと現在算出するパラメータとの差を小さくすることができる。つまり、チューナー部3では、出力映像信号の作成時に、使用割合として用いられるパラメータがフレーム毎に急峻に切り替わることを防止することができる。これにより、表示装置2においては、表示部103で表示する映像にフレーム毎のチラツキが生じるのを抑制することができる。
 [1-3.効果等]
 以上のように、本実施の形態において、信号処理装置は、映像信号を表示装置に出力する信号処理装置である。信号処理装置は、変換部と、選択部と、を備える。変換部は、入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換する。選択部は、入力映像信号と出力映像信号とが入力され、入力映像信号と出力映像信号との一方を選択して表示装置に出力する。選択部は、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されており、かつ表示装置が低輝度表示装置であることを示す情報が取得された場合または表示装置が高輝度表示装置であることを示す情報が取得されない場合には出力映像信号を選択し、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号を選択する。
 また、本実施の形態において、録画再生装置は、信号処理装置と、録画再生部と、を備える。
 また、本実施の形態において、信号処理方法は、映像信号を表示装置に出力する信号処理方法である。信号処理方法は、入力映像信号が、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換されるステップと、入力映像信号と出力映像信号との一方が選択されて表示装置に出力されるステップと、を含み、高輝度表示装置向けの映像信号である旨を示す高輝度フラグが入力映像信号に付加されており、かつ表示装置が低輝度表示装置であることを示す情報が取得された場合には出力映像信号が選択され、高輝度フラグが入力映像信号に付加されていない場合には入力映像信号が選択される。
 なお、表示装置2は表示装置の一例であり、低輝度表示装置の一例でもある。チューナー部3は信号処理装置の一例である。変換部32は変換部の一例である。選択部33は選択部の一例である。SDR情報は、表示装置が低輝度表示装置であることを示す情報の一例である。録画再生装置100は録画再生装置の一例である。録画再生部101は録画再生部の一例である。
 例えば、実施の形態1に示した例では、チューナー部3において、入力映像信号に高輝度フラグ(HDRフラグ)が付加され、かつ表示装置2が低輝度表示装置であることを示すSDR情報が表示装置2から取得された場合または表示装置2が高輝度表示装置であることを示すHDR情報が表示装置2から取得されない場合には、選択部33は、出力映像信号を選択して表示装置2に出力する。出力映像信号は、表示装置2の表示部103で表示可能な輝度の範囲に対応するように、入力映像信号(または、再生映像信号)の輝度が変換されたものである。
 このように、チューナー部3では、表示装置2が備える表示部103の表示能力(ダイナミックレンジ)を超えた入力映像信号(または、再生映像信号)は、表示部103の表示能力(ダイナミックレンジ)に合わせた出力映像信号に変換される。選択部33は、この出力映像信号を選択して表示装置2に出力する。したがって、チューナー部3を備えた録画再生装置100は、表示装置2の表示部103で表示できる輝度の上限を超える輝度を有する入力映像信号(または、再生映像信号)を表示装置2に出力する場合に、画質の低下を抑制して、入力映像信号(または、再生映像信号)に基づく映像を表示装置2の表示部103に表示させることができる。
 また、入力映像信号にHDRフラグが付加されていない場合、選択部33は、入力映像信号を選択して表示装置2に出力する。HDRフラグが付加されていない入力映像信号は標準のダイナミックレンジに準じた映像信号である。したがって、表示装置2が、標準のダイナミックレンジで映像を表示可能な表示装置であっても、録画再生装置100は、入力映像信号(または、再生映像信号)に基づく映像を、十分な画質で表示装置2の表示部103に表示することができる。
 信号処理装置において、変換部は、少なくとも2種類の変換特性カーブの少なくとも1つを用いて、入力映像信号(または、再生映像信号)を出力変換信号に変換してもよい。
 なお、第1の変換特性カーブC1、第2の変換特性カーブC2は、変換特性カーブの一例である。
 例えば、実施の形態1に示した例では、チューナー部3において、変換部32は、少なくとも2種類の変換特性カーブ(例えば、第1の変換特性カーブC1および第2の変換特性カーブC2)の少なくとも1つを用いて、入力映像信号(または、再生映像信号)を出力変換信号に変換する。したがって、チューナー部3は、輝度を優先した変換特性カーブを用いたり、階調性を優先した変換特性カーブを用いたりして、入力映像信号(または、再生映像信号)を出力変換信号に変換することができる。
 信号処理装置において、変換部は、少なくとも2種類の変換特性カーブのうちの少なくとも2つを用いて入力映像信号(または、再生映像信号)を出力変換信号に変換してもよい。また、変換部は、入力映像信号(または、再生映像信号)の輝度に関する値に基づいて、少なくとも2種類の変換特性カーブの使用割合を決定してもよい。
 なお、パラメータ算出部322で算出されるパラメータは、使用割合の一例である。合成部39は、第1の変換特性カーブC1に基づく第1の変換映像信号と、第2の変換特性カーブC2に基づく第2の変換映像信号と、を使用割合に応じて合成する処理を実行する処理部の一例である。
 例えば、実施の形態1に示した例では、チューナー部3において、変換部32は、入力映像信号(または、再生映像信号)の輝度に関する値に基づいて、少なくとも2種類の変換特性カーブ(例えば、第1の変換特性カーブC1および第2の変換特性カーブC2)の使用割合を決定する。これにより、チューナー部3は、入力映像信号(または、再生映像信号)の輝度に適した使用割合で、第1の変換特性カーブC1に基づく第1の変換映像信号と、第2の変換特性カーブC2に基づく第2の変換映像信号と、を合成部39で合成することができる。
 信号処理装置において、少なくとも2種類の変換特性カーブのうち、第1の変換特性カーブは、入力映像信号(または、再生映像信号)のうち、表示装置の表示可能な輝度の範囲の上限値を超える輝度となる信号を上限値近傍の輝度に変換させ、かつ入力映像信号(または、再生映像信号)のうち表示装置の表示可能な輝度の範囲に収まる信号の輝度を所定の規格に基づくように変換させる変換特性カーブであってもよい。また、少なくとも2種類の変換特性カーブのうち、第2の変換特性カーブは、表示装置の表示可能な輝度の範囲に収まるように入力映像信号(または、再生映像信号)の輝度を縮小させる変換特性カーブであってもよい。
 なお、第1の変換特性カーブC1は第1の変換特性カーブの一例である。第2の変換特性カーブC2は第2の変換特性カーブの一例である。
 例えば、実施の形態1に示した例では、最大輝度が第1の閾値T1以下である入力映像信号(または、再生映像信号)は、表示装置2の表示部103で表示可能なダイナミックレンジ内で表現できる最大輝度を有する映像信号である。つまり、この入力映像信号は、表示装置2の表示部103で表示できない高輝度部分を含んでいない。チューナー部3は、この入力映像信号(または、再生映像信号)に対して第1の変換特性カーブC1を用いて輝度を変換すれば、入力映像信号(または、再生映像信号)を、擬似輪郭、白潰れは発生せず、入力映像信号(または、再生映像信号)が持つ本来の明るさに近い明るさを有する映像信号に変換することができる。
 一方、最大輝度が第2の閾値T2よりも大きい入力映像信号(または、再生映像信号)は、表示装置2の表示部103で表示できない最大輝度を有する映像信号である。チューナー部3は、この入力映像信号(または、再生映像信号)に対して第2の変換特性カーブC2を用いて輝度を変換すれば、入力映像信号(または、再生映像信号)が持つ本来の明るさよりも暗くはなるが、入力映像信号(または、再生映像信号)を、階調性の維持された映像信号に変換することができる。
 入力映像信号(または、再生映像信号)の輝度に関する値は、入力映像信号にあらかじめ付加された付加情報に含まれていてもよい。
 例えば、実施の形態1に示した例では、入力映像信号(または、再生映像信号)の輝度に関する値は、当該入力映像信号にあらかじめ付加された付加情報に含まれているので、チューナー部3は、付加情報から、入力映像信号の輝度に関する情報を、直接取得することができる。また、録画再生部101は、その付加情報を、入力映像信号とともに記憶することができる。
 信号処理装置において、入力映像信号(または、再生映像信号)の輝度に関する値は、入力映像信号(または、再生映像信号)の1フレーム内での最大輝度と、入力映像信号(または、再生映像信号)の1フレーム内での平均輝度と、入力映像信号(または、再生映像信号)の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、入力映像信号(または、再生映像信号)の1フレーム内での輝度ヒストグラムと、入力映像信号(または、再生映像信号)に含まれる単位画素ブロックあたりの動きベクトルと、の少なくとも1つであってもよい。
 例えば、実施の形態1に示した例では、チューナー部3は、入力映像信号の輝度に関する値に、入力映像信号の1フレーム内での最大輝度と、入力映像信号の1フレーム内での平均輝度と、入力映像信号の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、入力映像信号の1フレーム内での輝度ヒストグラムと、入力映像信号に含まれる単位画素ブロックあたりの動きベクトルと、の少なくとも1つを用いてもよい。
 信号処理装置において、変換部は、現在算出する使用割合に対して、直前に用いた使用割合を反映させてもよい。
 なお、時定数処理部36は、現在算出する使用割合に対して、直前に用いた使用割合を反映させる処理を実行する処理部の一例である。
 例えば、実施の形態1に示した例において、チューナー部3では、現在算出するパラメータに対して、直前に用いたパラメータが反映されるので、フレーム毎の輝度の変換結果に急激な変動が生じることを抑制できる。したがって、チューナー部3を備えた録画再生装置100は、表示装置2の表示部103で表示する映像にフレーム毎のチラツキが生じるのを抑制することができる。
 信号処理装置において、変換部は、入力映像信号(または、再生映像信号)の輝度に関する値が第1の閾値以下の場合、第1の変換特性カーブの使用割合を100%とし、入力映像信号(または、再生映像信号)の輝度に関する値が、第1の閾値よりも大きい第2の閾値以上である場合、第2の変換特性カーブの使用割合を100%とし、入力映像信号(または、再生映像信号)の輝度に関する値が、第1の閾値と第2の閾値との間にある場合、第1の変換特性カーブと第2の変換特性カーブとの使用割合を所定の比率としてもよい。
 なお、第1の変換映像信号は、第1の変換特性カーブを使用して変換された映像信号の一例である。第2の変換映像信号は、第2の変換特性カーブを使用して変換された映像信号の一例である。第1の閾値T1は第1の閾値の一例である。第2の閾値T2は第2の閾値の一例である。線形部分Lは、所定の比率を決定するための関数の一例である。最大輝度は、入力映像信号(または、再生映像信号)の輝度に関する値の一例である。
 例えば、実施の形態1に示した例では、最大輝度が第2の閾値T2以上の場合、変換部32において、ゲイン情報は「1」となり、パラメータも「1」となる。このため、変換部32では、式1に基づき、出力映像信号に第2の変換映像信号が100%用いられる。また、最大輝度が第1の閾値T1以下の場合、変換部32において、ゲイン情報は「0」となり、パラメータも「0」となる。このため、変換部32では、式1に基づき、出力映像信号に第1の変換映像信号が100%用いられる。そして、最大輝度が第1の閾値T1と第2の閾値T2との間の場合、変換部32において、ゲイン情報は線形部分Lの関係に基づいた所定の比率になり、パラメータも所定の比率となる。このため、変換部32では、式1に基づき、第1の変換映像信号と第2の変換映像信号とが所定の比率で合成された信号が出力映像信号となる。
 これにより、チューナー部3では、パラメータが「0」か「1」のどちらかだけにはならず、「0」と「1」の間の値もパラメータに用いられる。例えば、1つの閾値でゲイン情報を「0」か「1」のいずれかに割り振った場合、最大輝度が閾値を超えたり下回ったりすると、ゲイン情報が急峻に切り替わる。しかし、ゲイン情報を決定するために2つの閾値が用いられていれば、「0」と、「1」と、「0」と「1」との間の値と、がゲイン情報として用いられる。これにより、チューナー部3では、最大輝度が閾値付近で変動したときに、ゲイン情報が急峻に切り替わることを抑制でき、パラメータの急峻な変化を抑制することができる。
 信号処理装置において、変換部は、入力映像信号(または、再生映像信号)の輝度に関する値が第1の閾値以下の場合、第1の変換特性カーブの使用割合を100%とし、入力映像信号(または、再生映像信号)の輝度に関する値が第1の閾値よりも大きい場合、第2の変換特性カーブの使用割合を100%としてもよい。
 例えば、実施の形態1に示した例では、変換部32は、最大輝度が第1の閾値以下の場合は、第1の変換特性カーブC1に基づく第1の変換映像信号の使用割合を100%とし、最大輝度が第1の閾値よりも大きい場合は、第2の変換特性カーブC2に基づく第2の変換映像信号の使用割合を100%としてもよい。
 なお、パラメータ算出部322において、時定数処理部36を設けずに、ゲイン情報をそのままパラメータとして用いてもよい。
 なお、実施の形態1では、チューナー部3の変換部32が、第1の変換映像信号と第2の変換映像信号とを所定の割合で合成することで、入力映像信号(または、再生映像信号)を出力映像信号に変換する動作例を説明した。しかし、本開示はこの動作例に限定されない。例えば、変換部32は、第1の変換特性カーブC1と第2の変換特性カーブC2とを所定の割合で合成し、その合成後の変換特性カーブを用いて、入力映像信号(または、再生映像信号)を出力映像信号に変換してもよい。つまり、チューナー部3において、変換特性カーブは、上述した2種類に限定されず、3種類以上が用いられてもよい。
 なお、実施の形態1では、高輝度フラグであるHDRフラグが入力映像信号(または、再生映像信号)に付加されている場合と、HDRフラグが入力映像信号(または、再生映像信号)に付加されていない場合とのいずれの場合でも、入力映像信号(または、再生映像信号)が変換部32によって出力映像信号に変換される動作例を説明した。しかし、本開示はこの動作例に限定されない。例えば、変換部32は、HDRフラグが入力映像信号(または、再生映像信号)に付加されていない場合には、入力映像信号(または、再生映像信号)を出力映像信号に変換しなくともよい。つまり、変換部32は、HDRフラグが入力映像信号(または、再生映像信号)に付加されていることを検出したときに、入力映像信号(または、再生映像信号)を変換して出力映像信号を作成してもよい。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 (実施の形態2)
 以下、図9~図15を用いて、実施の形態2を説明する。
 なお、実施の形態2に示す表示システム1Aでは、実施の形態1に示した表示システム1が備える構成要素と実質的に同じ動作をする構成要素に関しては、その構成要素と同じ符号を付与し、説明を省略する。以下、実施の形態1に示した表示システム1と異なる点を中心に説明を行い、実施の形態1に示した表示システム1と実質的に同一となる動作についての説明は省略される場合がある。
 [2-1.構成]
 図9は、実施の形態2における表示システム1Aの一構成例を模式的に示すブロック図である。
 図9に示すように、表示システム1Aは、表示装置2と、録画再生装置100Aと、を備える。
 録画再生装置100Aは、例えば、放送波を受信することにより得られる映像信号を、HDDまたは光ディスクまたは半導体メモリ等に録画することができるビデオレコーダである。録画再生装置100Aは、録画された映像信号の再生信号(再生映像信号)や、放送波を受信することにより得られる映像信号(受信映像信号)を、表示装置2に送信することで、その映像信号による映像を表示装置2の表示部103に表示することができる。
 録画再生装置100Aは、録画再生部101Aと、チューナー部3Aと、を備える。録画再生部101Aでは、チューナー部3Aにおいて放送波を受信することにより得られる映像信号を録画し、録画した映像信号を再生した再生映像信号を出力することができる。なお、図9では、録画再生部101Aから出力される再生映像信号の送信経路は省略している。録画再生部101Aが有する機能は、一般的なビデオレコーダが備える録画再生機能と実質的に同じであるので、詳細な説明は省略する。
 録画再生装置100Aと表示装置2とは、例えば、HDMIケーブルにより互いに接続されている。録画再生装置100Aは、映像信号を、このHDMIケーブルを介して表示装置2に送信することができる。
 なお、録画再生装置100Aと表示装置2とを互いに接続するケーブルはHDMIケーブルに限定されない。録画再生装置100Aと表示装置2とは、例えば、一般的に使用されるビデオケーブルまたは他のケーブルにより互いに接続されてもよい。あるいは、録画再生装置100Aと表示装置2とは、Bluetooth(登録商標)等の無線によって互いに接続されてもよい。
 なお、本実施の形態では、録画再生装置100Aが、放送波を受信することにより得られる映像信号(受信映像信号)を表示装置2に送信する動作例を説明する。録画再生装置100Aが再生映像信号を表示装置2に送信する動作についての説明は省略する。本実施の形態において、それら2つの動作は、再生映像信号か受信映像信号かの違いを除き、実質的に互いに同じである。
 なお、図9には、録画再生装置100Aが備える複数の構成要素のうち、本実施の形態に関連のある構成要素のみを示し、他の構成要素は省略している。他の構成要素には、ビデオレコーダが一般的に備えている構成要素が含まれる。それらの説明は省略する。
 本実施の形態では、表示装置2が低輝度表示装置である構成例を説明する。したがって、本実施の形態では、表示装置2が、表示部情報としてSDR情報を録画再生装置100Aに送信する動作例を説明する。なお、表示装置2は高輝度表示装置であってもよい。その場合、表示装置2は、表示部情報としてHDR情報を録画再生装置100Aに送信する。なお、録画再生装置100Aは、表示装置2からSDR情報およびHDR情報の双方が送信されてこない場合は、表示装置2を低輝度表示装置と判断してもよい。
 [2-1-1.チューナー部]
 図9に示すように、実施の形態2におけるチューナー部3Aは、実施の形態1で説明したチューナー部3と実質的に同じ構成を備える。チューナー部3Aは、その構成に加えて、さらに、分析情報検出部41を備える。すなわち、本実施の形態の録画再生装置100Aに備わるチューナー部3Aは、受信部31Aと、分析情報検出部41と、変換部32Aと、選択部33と、を備える。
 受信部31Aは、アンテナを介して入力された放送波を入力映像信号に変換する回路である。
 受信部31Aは、入力映像信号に付加された付加情報を変換部32Aのパラメータ算出部322Aに出力する。また、受信部31Aは、入力映像信号を、分析情報検出部41と、HDR/SDR変換部321Aと、選択部33と、に出力する。また、受信部31Aは、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する。さらに、受信部31Aは、入力映像信号から算出した動きベクトルを変換部32Aに出力する。
 なお、録画再生部101Aは、入力映像信号を録画するときに、あわせて、その入力映像信号に関するダイナミックレンジ情報、付加情報、および動きベクトルを記憶してもよい。また、録画再生部101Aは、録画された映像信号を再生するときに、その再生映像信号とともに、その再生映像信号に関するダイナミックレンジ情報、付加情報、および動きベクトルを出力してもよい。
 すなわち、録画再生部101Aは、録画された映像信号を再生するときに、その再生映像信号を、分析情報検出部41と、選択部33と、変換部32AのHDR/SDR変換部321Aとに出力してもよい。また、録画再生部101Aは、録画された映像信号を再生するときに、その再生映像信号に関する付加情報および動きベクトルを変換部32Aのパラメータ算出部322Aに出力し、その再生映像信号に関するダイナミックレンジ情報を選択部33に出力してもよい。なお、図9ではそれらの信号経路は省略する。
 なお、録画再生部101Aは、録画された映像信号を再生するときに、受信部31Aで行うのと同様の手法で再生映像信号から動きベクトルを算出し、その動きベクトルを変換部32Aに出力してもよい。
 以下、受信部31Aから出力される入力映像信号に基づきチューナー部3Aが動作する動作例を説明するが、録画された映像信号が録画再生部101Aで再生される場合は、以下の入力映像信号を再生映像信号に読み替えればよい。
 なお、動きベクトルの算出には、一般的に用いられている動きベクトルの算出方法を適用できるので、詳細な説明は省略する。また、受信部31Aでは、1フレームの動きベクトル(ベクトル量)の絶対値の総和を動きベクトル(スカラー量)として出力する。したがって、受信部31Aから出力される動きベクトルは、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では値が相対的に小さくなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では値が相対的に大きくなる。なお、受信部31Aは、例えば1フレームの動きベクトル(ベクトル量)の絶対値の最大値を動きベクトル(スカラー量)として出力してもよい。あるいは、受信部31Aは、絶対値が所定の値以上となる動きベクトル(ベクトル量)の絶対値の1フレームの総和を動きベクトル(スカラー量)として出力してもよい。
 図10は、実施の形態2における分析情報検出部41の一構成例を模式的に示すブロック図である。
 図10に示すように、分析情報検出部41は、平均輝度算出部411と、最大輝度算出部412と、輝度ヒストグラム算出部413と、第1ゲイン算出部414と、第2ゲイン算出部415と、第3ゲイン算出部416と、合成部417と、を備えている。
 平均輝度算出部411は、入力映像信号の1フレーム内での平均輝度を算出する回路である。具体的には、平均輝度算出部411は、入力映像信号による1フレーム分の全画素(実質的に全画素)の輝度の平均値を算出し、その算出した結果を平均輝度とする。
 最大輝度算出部412は、入力映像信号の1フレーム内での最大輝度を算出する回路である。具体的には、平均輝度算出部411は、入力映像信号による1フレーム分の全画素(実質的に全画素)の輝度から最大(実質的に最大)の輝度値を算出し、その算出した結果を最大輝度とする。
 輝度ヒストグラム算出部413は、入力映像信号の1フレーム内での輝度ヒストグラムを算出する回路である。具体的には、輝度ヒストグラム算出部413は、入力映像信号による1フレーム分の全画素の輝度のヒストグラムを算出する。
 図11は、実施の形態2における輝度ヒストグラムについて説明するための図である。
 図11の(a)図に示すように、入力映像信号による画像が、1フレーム内において一様にグラデーションのかかった画像である場合、輝度の頻度は全体として一定となる(図11の(b)図参照)。また、図11の(c)図に示すように、入力映像信号による画像が、1フレーム内に一定の輝度で暗い部分と、一定の輝度で明るい部分とがあり、暗い部分の方が面積の大きい画像である場合には、頻度は暗い部分の輝度の方が大きくなる(図11の(d)図参照)。輝度ヒストグラムを基にしたゲイン情報の算出には、高輝度部分の輝度の頻度が必要なため、輝度ヒストグラム算出部413は、所定の閾値よりも大きい高輝度部分での輝度の頻度を輝度ヒストグラムとする。ここでの所定の閾値は、0~入力映像信号の輝度の最大値、の間で、任意に設定されればよい。
 図10に示すように、第1ゲイン算出部414は、平均輝度算出部411で算出された平均輝度を基に第1ゲイン情報を算出する回路である。具体的には、ゲイン算出部35は、第1の閾値と、第1の閾値よりも大きな第2の閾値と、以下のグラフと、を用いて、最大輝度から第1ゲイン情報を算出する。
 図12は、実施の形態2におけるゲイン情報と最大輝度との関係の一例を示すグラフである。
 図12に示すように、第1ゲイン算出部414は、最大輝度が第1の閾値T3以下である場合には、第1ゲイン情報を「0」とし、最大輝度が第2の閾値T4以上である場合には第1ゲイン情報を「1」とする。また、図12に示すグラフは、第1の閾値T3から第2の閾値T4までの間は、「0」と「1」とを結んだ線形のグラフとなっている。そのため、第1ゲイン算出部414は、最大輝度が第1の閾値T3と第2の閾値T4との間にある場合には、この線形部分L1に基づく値を第1ゲイン情報とする。この値が所定の比率である。
 第2ゲイン算出部415は、最大輝度算出部412で算出された最大輝度を基に第2ゲイン情報を算出する回路である。
 第3ゲイン算出部416は、輝度ヒストグラム算出部413で算出された輝度ヒストグラムを基に第3ゲイン情報を算出する回路である。
 なお、第2ゲイン算出部415および第3ゲイン算出部416においても、図12に示すグラフと同様のグラフを用いて各ゲイン情報を算出する。ただし、第1の閾値T3および第2の閾値T4は、第1ゲイン算出部414、第2ゲイン算出部415、および第3ゲイン算出部416のそれぞれで互いに異なる値が設定されてもよい。第1の閾値T3および第2の閾値T4は、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 図10に示すように、合成部417は、第1ゲイン情報と、第2ゲイン情報と、第3ゲイン情報と、を所定の割合で合成して分析情報を算出し、当該分析情報をパラメータ算出部322Aに出力する回路である。具体的には、合成部417は、以下の式3によって分析情報を算出している。
 分析情報=第1ゲイン情報×β1+第2ゲイン情報×β2+第3ゲイン情報×(1-β1-β2)・・・(式3)
 β1およびβ2は、重み付け係数であり、次の関係を満たす値である。0≦β1≦1、0≦β2≦1、β1+β2≦1。β1およびβ2は、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 パラメータ算出部322Aは、入力映像信号を変換するためのパラメータを算出する回路である。パラメータ算出部322は、受信部31A(または、録画再生部101A)から入力された付加情報と、分析情報検出部41から入力された分析情報と、受信部31A(または、録画再生部101A)から入力された動きベクトルと、に基づいてパラメータを算出する。
 図13は、実施の形態2におけるパラメータ算出部322Aの一構成例を模式的に示すブロック図である。
 図13に示すように、パラメータ算出部322Aは、ゲイン算出部35Aと、合成部42と、時定数処理部36Aと、動きベクトルゲイン算出部43と、積算部44と、を備える。
 ゲイン算出部35Aは、受信部31A(または、録画再生部101A)から付加情報として入力された最大輝度を基にゲイン情報を算出する回路である。具体的には、ゲイン算出部35Aは、第1の閾値T1と、第1の閾値よりも大きな第2の閾値T2と、図7のグラフと、を用いて、最大輝度からゲイン情報を算出する。ゲイン算出部35Aは、実施の形態1に示したゲイン算出部35と実質的に同じであるので、詳細な説明を省略する。
 合成部42は、ゲイン算出部35Aから入力されたゲイン情報と、分析情報検出部41から入力された分析情報と、を所定の割合で合成して合成情報を作成し、その合成情報を時定数処理部36Aに出力する回路である。具体的には、合成部42は、以下の式4によって合成情報を作成する。
 合成情報=算出されたゲイン情報×δ+分析情報×(1-δ)・・・(式4)
 δは重み付け係数であり、次の関係を満たす値である。0≦δ≦1。δは、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 時定数処理部36Aは、合成部42により算出された現在の合成情報と、時定数処理部36Aにより直前に算出されたパラメータと、に基づいて次のパラメータを算出し、算出したパラメータを積算部44に出力する回路である。具体的には、時定数処理部36Aは、例えば以下の式5からパラメータを算出する。
 パラメータ=算出された合成情報×γ+直前に時定数処理部36Aで算出されたパラメータ×(1-γ)・・・(式5)
 γは重み付け係数であり、次の関係を満たす値である。0≦γ≦1。γは、種々の実験、シミュレーション等に基づき適切な値に設定されている。
 動きベクトルゲイン算出部43は、受信部31A(または、録画再生部101A)から入力された動きベクトルに基づき動きベクトルゲイン情報を算出し、算出した動きベクトルゲイン情報を積算部44に出力する回路である。具体的には、動きベクトルゲイン算出部43は、第1の閾値と、第1の閾値よりも大きな第2の閾値と、以下のグラフと、を用いて、動きベクトルから動きベクトルゲイン情報を算出する。
 図14は、実施の形態2における動きベクトルゲイン情報と動きベクトルとの関係の一例を示すグラフである。
 図14に示すように、動きベクトルゲイン算出部43は、動きベクトルが第1の閾値T5以下である場合には動きベクトルゲイン情報を「1」とし、動きベクトルが第2の閾値T6以上である場合には動きベクトルゲイン情報を「Gmin」とする。Gminは、次の関係を満たす値である。0<Gmin<1。
 また、図14に示すグラフは、第1の閾値T5から第2の閾値T6までの間は、「1」と「Gmin」とを結んだ線形のグラフとなっている。そのため、動きベクトルゲイン算出部43は、動きベクトルが第1の閾値T5と第2の閾値T6との間にある場合には、この線形部分L2に基づく値を動きベクトルゲイン情報とする。
 したがって、動きベクトルゲイン算出部43から出力される動きベクトルゲイン情報は、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では値が相対的に大きくなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では値が相対的に小さくなる。
 図13に示すように、積算部44は、時定数処理部36Aで算出されたパラメータに、動きベクトルゲイン算出部43で算出された動きベクトルゲインを積算し、その積算により算出されたパラメータをHDR/SDR変換部321Aに出力する回路である。
 したがって、積算部44から出力されるパラメータは、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では値が相対的に大きくなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では値が相対的に小さくなる。
 図9に示すように、HDR/SDR変換部321Aは、パラメータ算出部322Aにより算出されたパラメータを用いて、入力映像信号に対して輝度の変換処理を施して出力映像信号を作成する回路である。
 HDR/SDR変換部321Aは、実施の形態1で図2に示したHDR/SDR変換部321と実質的に同じであるので、詳細な説明を省略する。HDR/SDR変換部321Aでは、HDR/SDR変換部321と同様に、パラメータの値が相対的に小さいときには第1の変換映像信号の割合が相対的に多くなり、パラメータの値が相対的に大きいときには第2の変換映像信号の割合が相対的に多くなる。したがって、HDR/SDR変換部321Aから出力される映像信号は、動きが相対的に遅い映像(または、動きが相対的に少ない映像)では第2の変換映像信号の割合が相対的に多くなり、動きが相対的に速い映像(または、動きが相対的に多い映像)では第1の変換映像信号の割合が相対的に多くなる。
 図9に示すように、選択部33は、入力映像信号と、当該入力映像信号が変換部32Aによって変換された出力映像信号と、ダイナミックレンジ情報と、表示部情報と、が入力され、ダイナミックレンジ情報と表示部情報とに基づき入力映像信号と出力映像信号との一方を選択し、選択した方の信号を表示装置2に出力する回路である。
 具体的には、選択部33は、ダイナミックレンジ情報としてHDRフラグが入力され、かつ、表示部情報としてSDR情報を表示装置2から取得した場合、出力映像信号を選択して表示装置2に出力する。言い換えると、選択部33は、入力映像信号が高輝度表示装置向けの映像信号であり、かつ、表示装置2が低輝度表示装置である場合には、出力映像信号を選択して表示装置2に出力する。また、選択部33は、ダイナミックレンジ情報としてSDRフラグが入力され、かつ、表示部情報としてSDR情報を表示装置2から取得した場合、入力映像信号を選択して表示装置2に出力する。言い換えると、選択部33は、入力映像信号が低輝度表示装置向けの映像信号であり、かつ、表示装置2が低輝度表示装置である場合には、入力映像信号を選択して表示装置2に出力する。
 なお、選択部33は、表示部情報としてHDR情報を表示装置2から取得した場合は、ダイナミックレンジ情報にかかわらず、入力映像信号を選択して表示装置2に出力してもよい。また、選択部33は、SDRフラグが入力された場合もしくはHDRフラグが入力されない場合は、表示部情報にかかわらず、入力映像信号を選択して表示装置2に出力してもよい。また、選択部33は、SDRフラグおよびHDRフラグの双方が入力されない場合は、SDRフラグが入力されたものとして動作してもよい。また、選択部33は、表示装置2からSDR情報およびHDR情報の双方が送信されてこない場合は、表示部情報としてSDR情報を取得したものとして動作してもよい。
 [2-2.動作]
 以上のように構成されたチューナー部3Aについて、その動作を以下に説明する。
 図15は、実施の形態2におけるチューナー部3Aで実行される信号処理方法の一例を示すフローチャートである。
 受信部31Aは、アンテナから放送波を受信すると、受信した放送波を入力映像信号に変換する。そして、受信部31Aは、当該入力映像信号に付加された付加情報および当該入力映像信号から算出した動きベクトルをパラメータ算出部322Aに出力する。また、受信部31Aは、入力映像信号を、HDR/SDR変換部321Aと、選択部33と、分析情報検出部41と、に出力する。また、受信部31Aは、入力映像信号に付加されたダイナミックレンジ情報を選択部33に出力する(ステップS11)。
 なお、録画再生部101Aが、録画された映像信号を再生するときには、その再生映像信号を、HDR/SDR変換部321Aと、選択部33と、分析情報検出部41と、に出力する。また、録画再生部101Aは、その再生映像信号に関する付加情報および動きベクトルをパラメータ算出部322Aに出力し、その再生映像信号に関するダイナミックレンジ情報を選択部33に出力する。
 分析情報検出部41は、受信部31Aから入力映像信号(または、録画再生部101Aから再生映像信号)が入力されると、当該入力映像信号(または、再生映像信号)の1フレームあたりの平均輝度、最大輝度、および輝度ヒストグラムを算出し、これらに基づいて分析情報を検出する。そして、分析情報検出部41は、その分析情報をパラメータ算出部322Aに出力する(ステップS12)。
 パラメータ算出部322Aは、受信部31A(または、録画再生部101A)から入力された付加情報と、分析情報検出部41から入力された分析情報と、受信部31A(または、録画再生部101A)から入力された動きベクトルと、に基づいてパラメータを算出し、算出したパラメータをHDR/SDR変換部321Aに出力する(ステップS13)。
 HDR/SDR変換部321Aは、受信部31Aから入力された入力映像信号(または、録画再生部101Aからの再生映像信号)に対してパラメータに基づく輝度変換を行うことで、その入力映像信号(または、再生映像信号)を出力映像信号に変換し、当該出力映像信号を選択部33に出力する(ステップS14)。
 選択部33は、受信部31AからHDRフラグが入力されたか否かを判定する。また、選択部33は、表示装置2から取得した表示部情報を確認する(ステップS15)。
 選択部33は、ステップS15で、HDRフラグは入力されていないと判定し、かつ、表示部情報としてSDR情報を取得したと判定した場合は(ステップS15でNo)、入力映像信号を選択して表示装置2に出力する(ステップS16)。
 なお、ステップS15において、選択部33は、表示部情報としてHDR情報を取得したと判定した場合は、処理をステップS16に進めてもよい。
 選択部33は、ステップS15で、HDRフラグが入力されたと判定し、かつ、表示部情報としてSDR情報を取得したと判定した場合は(ステップS15でYes)、出力映像信号を選択して表示装置2に出力する(ステップS17)。
 チューナー部3Aは、このフローチャートに基づく処理をフレーム毎の入力映像信号(または、再生映像信号)に対して実行する。
 [2-3.効果等]
 以上のように、本実施の形態において、信号処理装置は、入力映像信号(または、再生映像信号)を分析して分析情報を検出する分析情報検出部をさらに備える。そして、入力映像信号(または、再生映像信号)の輝度に関する値は、分析情報検出部において入力映像信号(または、再生映像信号)を分析して検出した分析情報に含まれる。
 なお、表示装置2は表示装置の一例である。チューナー部3Aは信号処理装置の一例である。変換部32Aは変換部の一例である。パラメータ算出部322Aで算出されるパラメータは、使用割合の一例である。時定数処理部36Aは、現在算出する使用割合に対して、直前に用いた使用割合を反映させる処理を実行する処理部の一例である。分析情報検出部41は分析情報検出部の一例である。SDR情報は、表示装置が低輝度表示装置であることを示す情報の一例である。録画再生装置100Aは録画再生装置の一例である。録画再生部101Aは録画再生部の一例である。
 例えば、実施の形態2に示した例では、チューナー部3Aは、入力映像信号(または、再生映像信号)を分析して分析情報を検出する分析情報検出部41をさらに備える。そして、入力映像信号(または、再生映像信号)の輝度に関する値は、分析情報検出部において入力映像信号(または、再生映像信号)を分析して検出した分析情報に含まれる。
 したがって、チューナー部3Aは、入力映像信号(または、再生映像信号)に、輝度に関する値が付加されていなくとも、当該輝度に関する値を算出することができる。
 特に、本実施の形態では、チューナー部3Aは、分析情報と付加情報とを複合的に用いてパラメータを算出しているので、入力映像信号(または、再生映像信号)にとってより適切なパラメータを算出することが可能である。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1、2を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略等を行った実施の形態にも適用できる。また、上記実施の形態1、2で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 そこで、以下、他の実施の形態を例示する。
 実施の形態1、2では、録画再生装置100(100A)に搭載されたチューナー部3(3A)が信号処理装置である場合を例示して説明した。しかし、信号処理装置は録画再生装置100(100A)と別体であってもよい。録画再生装置100(100A)と別体の信号処理装置として、例えば、チューナー装置、光ディスク再生装置、ゲーム機、パーソナルコンピュータ、スマートフォン、携帯電話、タブレット機器、等を適用することができる。なお、この場合、信号処理装置と録画再生装置とを、有線あるいは無線で通信可能としておくことで、表示装置2の表示部103で表示可能なダイナミックレンジを示す情報を、録画再生装置から信号処理装置に出力することができる。
 また、映像信号の配信方式としては、上述したように放送波による配信以外にも、記録メディアによる配信、インターネットを用いた配信などが挙げられる。記録メディアには、BLU-RAY(登録商標) DISCなどの光メディアや、SDカード等のフラッシュメモリ等が挙げられる。
 実施の形態1、2では、チューナー部3(3A)が録画再生装置100(100A)に備えられた構成を説明したが、本開示はこの構成に限定されない。チューナー部3(3A)は、例えばセットトップボックスに備えられてもよく、あるいは、放送波を受信して映像信号を出力する機能を有するコンピュータ等に備えられてもよい。
 録画再生装置100(100A)は、ユーザによる表示部情報の入力を受け付けるように構成されてもよい。この構成は、表示装置2から録画再生装置100(100A)に表示部情報を送信する経路が無い場合(例えば、ケーブルの断線等)に有用である。
 なお、上記実施の形態1、2において、各構成要素は、専用のハードウェアで構成されてもよく、または、各構成要素に適したソフトウェアプログラムをプロセッサで実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)またはプロセッサ等のプログラム実行部が、ハードディスクまたは半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 さらに、本開示は上記プログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、HDRを扱う規格に準じた映像信号を処理する信号処理装置、録画再生装置、信号処理方法、およびプログラムに適用可能である。具体的には、ビデオレコーダ等の録画再生装置等に、本開示は適用可能である。
1,1A  表示システム
2  表示装置
3,3A  チューナー部
31,31A  受信部
32,32A  変換部
33  選択部
35,35A  ゲイン算出部
36,36A  時定数処理部
37  第1階調変換部
38  第2階調変換部
39,42,417  合成部
41  分析情報検出部
43  動きベクトルゲイン算出部
100,100A  録画再生装置
101,101A  録画再生部
102  EDID ROM
103  表示部
321,321A  HDR/SDR変換部
322,322A  パラメータ算出部
411  平均輝度算出部
412  最大輝度算出部
413  輝度ヒストグラム算出部
414  第1ゲイン算出部
415  第2ゲイン算出部
416  第3ゲイン算出部

Claims (13)

  1. 映像信号を表示装置に出力する信号処理装置であって、
    入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換する変換部と、
    前記入力映像信号と前記出力映像信号とが入力され、前記入力映像信号と前記出力映像信号との一方を選択して前記表示装置に出力する選択部と、を備え、
    前記選択部は、前記高輝度表示装置向けの映像信号である旨を示す高輝度フラグが前記入力映像信号に付加されており、かつ前記表示装置が前記低輝度表示装置であることを示す情報が取得された場合または前記表示装置が前記高輝度表示装置であることを示す情報が取得されない場合には前記出力映像信号を選択し、前記高輝度フラグが前記入力映像信号に付加されていない場合には前記入力映像信号を選択する、
    信号処理装置。
  2. 前記変換部は、少なくとも2種類の変換特性カーブの少なくとも1つを用いて、前記入力映像信号を前記出力変換信号に変換する、
    請求項1に記載の信号処理装置。
  3. 前記変換部は、前記少なくとも2種類の変換特性カーブのうちの少なくとも2つを用いて前記入力映像信号を前記出力変換信号に変換し、前記入力映像信号の輝度に関する値に基づいて、前記少なくとも2種類の変換特性カーブの使用割合を決定する、
    請求項2に記載の信号処理装置。
  4. 前記少なくとも2種類の変換特性カーブのうち、第1の変換特性カーブは、前記入力映像信号のうち、前記表示装置の表示可能な輝度の範囲の上限値を超える輝度となる信号を前記上限値近傍の輝度に変換させ、かつ前記入力映像信号のうち前記表示装置の表示可能な輝度の範囲に収まる信号の輝度を所定の規格に基づくように変換させる変換特性カーブであり、
    前記少なくとも2種類の変換特性カーブのうち、第2の変換特性カーブは、前記表示装置の表示可能な輝度の範囲に収まるように前記入力映像信号の輝度を縮小させる変換特性カーブである、
    請求項3に記載の信号処理装置。
  5. 前記変換部は、前記入力映像信号の輝度に関する値が第1の閾値以下の場合、前記第1の変換特性カーブの前記使用割合を100%とし、前記入力映像信号の輝度に関する値が第1の閾値よりも大きい場合、前記第2の変換特性カーブの前記使用割合を100%とする、
    請求項4に記載の信号処理装置。
  6. 前記変換部は、
    前記入力映像信号の輝度に関する値が第1の閾値以下の場合、前記第1の変換特性カーブの前記使用割合を100%とし、
    前記入力映像信号の輝度に関する値が、第1の閾値よりも大きい第2の閾値以上である場合、前記第2の変換特性カーブの前記使用割合を100%とし、
    前記入力映像信号の輝度に関する値が、前記第1の閾値と前記第2の閾値との間にある場合、前記第1の変換特性カーブと前記第2の変換特性カーブとの前記使用割合を所定の比率とする、
    請求項4に記載の信号処理装置。
  7. 前記変換部は、現在算出する前記使用割合に対して、直前に用いた前記使用割合を反映させる、
    請求項3に記載の信号処理装置。
  8. 前記入力映像信号の輝度に関する値は、前記入力映像信号にあらかじめ付加された付加情報に含まれる、
    請求項3に記載の信号処理装置。
  9. 前記入力映像信号を分析して分析情報を検出する分析情報検出部をさらに備え、
    前記入力映像信号の輝度に関する値は、前記分析情報検出部において前記入力映像信号を分析して検出した前記分析情報に含まれる、
    請求項3に記載の信号処理装置。
  10. 前記入力映像信号の輝度に関する値は、前記入力映像信号の1フレーム内での最大輝度と、前記入力映像信号の1フレーム内での平均輝度と、前記入力映像信号の所定フレーム数内での最大輝度から算出した1フレームあたりの平均最大輝度と、前記入力映像信号の1フレーム内での輝度ヒストグラムと、前記入力映像信号に含まれる単位画素ブロックあたりの動きベクトルと、の少なくとも1つである、
    請求項3に記載の信号処理装置。
  11. 請求項1に記載の信号処理装置と、
    録画再生部と、を備える、
    録画再生装置。
  12. 映像信号を表示装置に出力する信号処理方法であって、
    入力映像信号が、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換されるステップと、
    前記入力映像信号と前記出力映像信号との一方が選択されて前記表示装置に出力されるステップと、を含み、
    前記高輝度表示装置向けの映像信号である旨を示す高輝度フラグが前記入力映像信号に付加されており、かつ前記表示装置が前記低輝度表示装置であることを示す情報が取得された場合または前記表示装置が前記高輝度表示装置であることを示す情報が取得されない場合には前記出力映像信号が選択され、前記高輝度フラグが前記入力映像信号に付加されていない場合には前記入力映像信号が選択される、
    信号処理方法。
  13. 映像信号を表示装置に出力するためのプログラムであって、
    入力映像信号を、高輝度表示装置よりも表示可能な輝度の範囲の上限値が小さい低輝度表示装置向けの出力映像信号に変換し、
    前記高輝度表示装置向けの映像信号である旨を示す高輝度フラグが前記入力映像信号に付加されており、かつ前記表示装置が前記低輝度表示装置であることを示す情報が取得された場合または前記表示装置が前記高輝度表示装置であることを示す情報が取得されない場合には前記出力映像信号を選択して前記表示装置に出力し、前記高輝度フラグが前記入力映像信号に付加されていない場合には前記入力映像信号を選択して前記表示装置に出力する、
    ことをコンピュータに実行させるプログラム。
PCT/JP2016/001674 2015-03-27 2016-03-23 信号処理装置、録画再生装置、信号処理方法、およびプログラム WO2016157839A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680017753.0A CN107409191B (zh) 2015-03-27 2016-03-23 信号处理装置、录像再生装置、信号处理方法以及存储介质
EP16771729.7A EP3276949A4 (en) 2015-03-27 2016-03-23 Signal processing device, record/replay device, signal processing method, and program
US15/557,185 US10097886B2 (en) 2015-03-27 2016-03-23 Signal processing device, record/replay device, signal processing method, and program
JP2017509266A JP6767629B2 (ja) 2015-03-27 2016-03-23 信号処理装置、録画再生装置、信号処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015067536 2015-03-27
JP2015-067536 2015-03-27

Publications (1)

Publication Number Publication Date
WO2016157839A1 true WO2016157839A1 (ja) 2016-10-06

Family

ID=57005489

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2016/001673 WO2016157838A1 (ja) 2015-03-27 2016-03-23 信号処理装置、表示装置、信号処理方法、およびプログラム
PCT/JP2016/001674 WO2016157839A1 (ja) 2015-03-27 2016-03-23 信号処理装置、録画再生装置、信号処理方法、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/001673 WO2016157838A1 (ja) 2015-03-27 2016-03-23 信号処理装置、表示装置、信号処理方法、およびプログラム

Country Status (5)

Country Link
US (2) US10057104B2 (ja)
EP (2) EP3276949A4 (ja)
JP (2) JP6757890B2 (ja)
CN (2) CN107409191B (ja)
WO (2) WO2016157838A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108735181A (zh) * 2017-04-13 2018-11-02 佳能株式会社 显示设备及其控制方法和图像处理设备
EP3534620B1 (en) * 2016-10-25 2022-06-15 Sony Group Corporation Signal processing device and method, and program

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013696A (ja) * 2016-07-22 2018-01-25 キヤノン株式会社 画像処理装置および表示装置
JP2019140430A (ja) * 2018-02-06 2019-08-22 船井電機株式会社 再生装置
TW201946445A (zh) 2018-04-30 2019-12-01 圓剛科技股份有限公司 影像處理方法
TW201946474A (zh) * 2018-04-30 2019-12-01 圓剛科技股份有限公司 影像錄製設定方法
CN108881758B (zh) * 2018-05-29 2020-11-13 联发科技股份有限公司 电子设备及其处理图像的方法
JP7110740B2 (ja) * 2018-06-07 2022-08-02 日本電気株式会社 映像スイッチャおよび切替方法
KR20230074355A (ko) * 2021-11-19 2023-05-30 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 표시 패널의 구동 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233265A (ja) * 1988-07-22 1990-02-02 Matsushita Electric Ind Co Ltd 映像信号の白圧縮装置
JP2002118752A (ja) * 2000-10-05 2002-04-19 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2003046859A (ja) * 2001-08-01 2003-02-14 Sony Corp 画像撮像装置及び方法
JP2003087785A (ja) * 2001-06-29 2003-03-20 Toshiba Corp 動画像符号化データの形式変換方法及び装置
JP2013527996A (ja) * 2010-02-22 2013-07-04 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
JP2014519620A (ja) * 2011-05-10 2014-08-14 コーニンクレッカ フィリップス エヌ ヴェ ハイダイナミックレンジ画像信号生成及び処理
WO2015008685A1 (ja) * 2013-07-19 2015-01-22 ソニー株式会社 データ生成装置、データ生成方法、データ再生装置、及び、データ再生方法
JP2015032966A (ja) * 2013-08-01 2015-02-16 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5598053B2 (ja) * 2010-03-30 2014-10-01 ソニー株式会社 信号処理装置、表示装置、電子機器、信号処理方法およびプログラム
EP2745290A1 (en) * 2011-09-27 2014-06-25 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
JPWO2014102876A1 (ja) * 2012-12-27 2017-01-12 パナソニックIpマネジメント株式会社 画像処理装置、および、画像処理方法
CN110867198B (zh) * 2013-06-20 2022-02-25 索尼公司 显示装置
JP2015008024A (ja) 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
JP2017503379A (ja) 2013-11-21 2017-01-26 エルジー エレクトロニクス インコーポレイティド ビデオ処理方法及びビデオ処理装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233265A (ja) * 1988-07-22 1990-02-02 Matsushita Electric Ind Co Ltd 映像信号の白圧縮装置
JP2002118752A (ja) * 2000-10-05 2002-04-19 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2003087785A (ja) * 2001-06-29 2003-03-20 Toshiba Corp 動画像符号化データの形式変換方法及び装置
JP2003046859A (ja) * 2001-08-01 2003-02-14 Sony Corp 画像撮像装置及び方法
JP2013527996A (ja) * 2010-02-22 2013-07-04 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
JP2014519620A (ja) * 2011-05-10 2014-08-14 コーニンクレッカ フィリップス エヌ ヴェ ハイダイナミックレンジ画像信号生成及び処理
WO2015008685A1 (ja) * 2013-07-19 2015-01-22 ソニー株式会社 データ生成装置、データ生成方法、データ再生装置、及び、データ再生方法
JP2015032966A (ja) * 2013-08-01 2015-02-16 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3276949A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3534620B1 (en) * 2016-10-25 2022-06-15 Sony Group Corporation Signal processing device and method, and program
CN108735181A (zh) * 2017-04-13 2018-11-02 佳能株式会社 显示设备及其控制方法和图像处理设备

Also Published As

Publication number Publication date
CN107409190A (zh) 2017-11-28
JP6767629B2 (ja) 2020-10-14
JPWO2016157838A1 (ja) 2018-01-18
WO2016157838A1 (ja) 2016-10-06
CN107409191B (zh) 2020-03-27
CN107409191A (zh) 2017-11-28
US20180041801A1 (en) 2018-02-08
US20180041373A1 (en) 2018-02-08
EP3276949A1 (en) 2018-01-31
US10097886B2 (en) 2018-10-09
JPWO2016157839A1 (ja) 2018-03-01
US10057104B2 (en) 2018-08-21
CN107409190B (zh) 2020-04-03
EP3276948A4 (en) 2018-04-25
EP3276948A1 (en) 2018-01-31
JP6757890B2 (ja) 2020-09-23
EP3276949A4 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
WO2016157839A1 (ja) 信号処理装置、録画再生装置、信号処理方法、およびプログラム
US10891722B2 (en) Display method and display device
JP6709986B2 (ja) 輝度特性生成方法
US10992877B2 (en) Video display apparatus and video display method
CN110489073B (zh) 变换方法及变换装置
US11032448B2 (en) Video display system and video display method
US10984510B2 (en) Video display apparatus and video display method for luminance conversion

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16771729

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017509266

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15557185

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE