WO2016080233A1 - 送信装置、ハイダイナミックレンジ画像データ送信方法、受信装置、ハイダイナミックレンジ画像データ受信方法およびプログラム - Google Patents

送信装置、ハイダイナミックレンジ画像データ送信方法、受信装置、ハイダイナミックレンジ画像データ受信方法およびプログラム Download PDF

Info

Publication number
WO2016080233A1
WO2016080233A1 PCT/JP2015/081516 JP2015081516W WO2016080233A1 WO 2016080233 A1 WO2016080233 A1 WO 2016080233A1 JP 2015081516 W JP2015081516 W JP 2015081516W WO 2016080233 A1 WO2016080233 A1 WO 2016080233A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
information
image data
dynamic range
high dynamic
Prior art date
Application number
PCT/JP2015/081516
Other languages
English (en)
French (fr)
Inventor
中嶋 康久
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2016560154A priority Critical patent/JP6724788B2/ja
Priority to US15/523,398 priority patent/US10623805B2/en
Publication of WO2016080233A1 publication Critical patent/WO2016080233A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Definitions

  • the present invention relates to a transmission device, a high dynamic range image data transmission method, a reception device, a high dynamic range image data reception method, and a program, and more specifically, transmission for transmitting high dynamic range image data for displaying a high dynamic range image. It relates to devices.
  • Non-Patent Document 1 describes details of the HDMI standard.
  • an AV system in which a disk player as a source device and a television receiver as a sink device are HDMI-connected can be considered.
  • the brightness of the image data recorded on the disc player is adjusted on the assumption that the image data is displayed on a display device having a maximum brightness of 100 cd / m 2 .
  • the maximum brightness of the display device is of the order of 1000 cd / m 2 beyond the conventional 100 cd / m 2 have been put into practical use, not harnessed high luminance output capabilities of the display device.
  • Patent Document 1 proposes a recording method and processing for HDR image data.
  • the purpose of this technology is to be able to satisfactorily transmit high dynamic range image data between devices.
  • the concept of this technology is A data transmission unit for transmitting high dynamic range image data to an external device;
  • the transmission apparatus includes: an information transmission unit that transmits transmission method information and / or gamma correction information of the high dynamic range image data transmitted by the data transmission unit to the external device.
  • the high dynamic range image data is transmitted to the external device by the data transmission unit.
  • the data transmission unit may be configured to transmit high dynamic range image data to an external device using a differential signal.
  • the high dynamic range image data includes first data and second data
  • the data transmission unit configures the first data and the second data in a video format defined for a stereoscopic image, and externally You may be made to transmit to an apparatus.
  • the high dynamic range image data includes first data and second data
  • the data transmission unit transmits the first data as a first frame image to the external device, and the second data is transmitted.
  • the second frame image may be transmitted to the external device.
  • the high dynamic range image data includes first data and second data.
  • the first data is lower 8-bit data of the high dynamic range image data
  • the second data is the high dynamic range image data.
  • the first data is the upper 8 bit data of the high dynamic range image data and the second data is the lower bit data of the high dynamic range image data. Also good.
  • the information transmission unit transmits the transmission method information and / or gamma correction information of the high dynamic range image data transmitted by the data transmission unit to the external device.
  • the information transmitting unit inserts the transmission method information and / or gamma correction information of the high dynamic range image data transmitted by the data transmitting unit into the blanking period of the high dynamic range image data, thereby allowing the external device to It may be made to transmit.
  • the transmission method information and gamma correction information of the high dynamic range image data transmitted by the data transmission unit include maximum white level information exceeding 100% of the high dynamic range image data, a bit value when expressing the black level, 100 % White level expression bit value, flag indicating whether high dynamic range processing is performed, receiver device brightness level assumed at 100% white level, luminance input level required for high dynamic range image luminance expansion, high It may be arranged to include at least one of the extended luminance output levels necessary for luminance expansion of the dynamic range image.
  • the high dynamic range image data is transmitted to the external device, and the transmission method information and / or gamma correction information of the high dynamic range image data is transmitted to the external device. For this reason, an external device can easily grasp, for example, what transmission method the transmitted high dynamic range image data is based on, and what gamma correction method is used. It can be carried out.
  • an information reception unit that receives transmission method information and / or gamma correction method information of high dynamic range image data that can be supported by the external device, and the information reception unit. Based on the transmission method information and / or gamma correction method information received by the unit, a high dynamic range image data transmission method and / or gamma correction method that can be supported by an external device is changed to a predetermined transmission method and / or gamma correction method. And a data transmission unit configured to transmit the high dynamic range image data of the transmission method and / or gamma correction method selected by the method selection unit to an external device. Also good.
  • the transmission method and / or gamma correction method of high dynamic range image data transmitted to the external device is always compatible with the external device. Therefore, high dynamic range image data can be transmitted satisfactorily.
  • the information reception unit further receives transmission method information of high dynamic range image data and / or transmission method information of gamma correction information sent from an external device, and the information transmission unit receives the received transmission method information.
  • the transmission method information and / or gamma correction information of the high dynamic range image data can be satisfactorily transmitted by a transmission method that can be supported by the external device.
  • a data receiver for receiving high dynamic range image data for displaying a high dynamic range image from an external device;
  • An information receiving unit for receiving transmission method information and / or gamma correction information of high dynamic range image data received by the data receiving unit from the external device;
  • a data processing unit that processes the high dynamic range image data received by the data receiving unit based on transmission method information and / or gamma correction information received by the information receiving unit.
  • the data receiving unit receives high dynamic range image data for displaying a high dynamic range image from an external device.
  • the data receiving unit may receive high dynamic range image data from an external device using a differential signal.
  • the information receiving unit receives transmission method information and / or gamma correction information of high dynamic range image data received by the data receiving unit from an external device. Then, the high dynamic range image data received by the data receiver is processed by the data processor based on the transmission method information and / or gamma correction information received by the information receiver.
  • the information receiving unit may extract transmission method information and / or gamma correction information of the high dynamic range image data from the blanking period of the high dynamic range image data received by the data receiving unit. Good.
  • high dynamic range image data sent from the transmission side is processed based on transmission method information and / or gamma correction information sent from the transmission side in the same manner.
  • an information storage unit that stores transmission method information and / or gamma correction method information of high dynamic range image data that can be handled by itself, and a transmission method that is stored in the information storage unit
  • An information transmission unit that transmits information and / or gamma correction method information to an external device may be further included.
  • Dynamic range image data can be sent.
  • the information storage unit may further store at least one of displayable maximum brightness information, maximum decompression brightness level information capable of high dynamic range processing, and decompression processing prohibition flag.
  • the information storage unit further stores transmission method information of high dynamic range image data and / or transmission method information of gamma correction information
  • the information transmission unit stores the high dynamic range image data stored in the information storage unit.
  • the transmission method information of the range image data and / or the transmission method information of the gamma correction information may be further transmitted to the external device.
  • high dynamic range image data can be satisfactorily transmitted between devices. Note that the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • FIG. 3 is a diagram illustrating an example of a data structure of an HDMI Auxiliary Video InfoFrame packet.
  • FIG. 3 is a diagram illustrating an example of a data structure of an HDMI Dynamic Range InfoFrame packet. It is a figure which shows an example of the data structure of the gamma correction information set with an integer and a logarithm. It is a flowchart which shows the selection processing example of the HDR transmission system in a source device (disc player).
  • FIG. 1 shows a configuration example of an AV (Audio Visual) system 10 as an embodiment.
  • the AV system 10 includes a disc player 11 as a source device and a television receiver 12 as a sink device.
  • the disc player 11 and the television receiver 12 are connected via an HDMI cable 13 as a transmission path.
  • the disc player 11 is provided with an HDMI terminal 11a to which an HDMI transmission unit (HDMITX) 11b and a high-speed bus interface (high-speed bus I / F) 11c are connected.
  • the television receiver 12 is provided with an HDMI terminal 12a to which an HDMI receiving unit (HDMI RX) 12b and a high-speed bus interface (high-speed bus I / F) 12c are connected.
  • HDMI cable 13 is connected to the HDMI terminal 11 a of the disc player 11, and the other end of the HDMI cable 13 is connected to the HDMI terminal 12 a of the television receiver 12.
  • uncompressed image data obtained by being reproduced by the disc player 11 is transmitted to the television receiver 12 via the HDMI cable 13, and is transmitted from the disc player 11 by the television receiver 12. An image based on the processed image data is displayed.
  • uncompressed audio data obtained by being reproduced by the disc player 11 is transmitted to the television receiver 12 via the HDMI cable 13, and the audio by the audio data transmitted from the disc player 11 is received by the television receiver 12. Is output.
  • FIG. 2 shows a configuration example of the HDMI transmitting unit 11b of the disc player 11 and the HDMI receiving unit 12b of the television receiver 12 in the AV system 10 of FIG.
  • the HDMI transmission unit 11b is an effective image section 14 (hereinafter referred to as active video as appropriate) that is a section obtained by removing the horizontal blanking section 15 and the vertical blanking section 16 from the section from one vertical synchronization signal to the next vertical synchronization signal. (Also referred to as a section) (see FIG. 3), a differential signal corresponding to pixel data of an uncompressed image for one screen is transmitted to the HDMI receiving unit 12b in one direction through a plurality of channels.
  • active video an effective image section 14
  • the HDMI transmission unit 11b transmits, in a plurality of channels, differential signals corresponding to at least audio data, control data, and other auxiliary data associated with an image in the horizontal blanking interval 15 or the vertical blanking interval 16. It transmits to the HDMI receiving unit 12b in one direction.
  • the HDMI transmission unit 11 b includes the HDMI transmitter 21.
  • the transmitter 21 converts pixel data of an uncompressed image into a corresponding differential signal, and receives HDMI signals on three TMDS (Transition Minimized Differential Signaling) channels # 0, # 1, and # 2. Serial transmission is performed in one direction to the unit 12b.
  • TMDS Transition Minimized Differential Signaling
  • the transmitter 21 converts audio data accompanying uncompressed images, further necessary control data and other auxiliary data, etc. into corresponding differential signals, and converts them into three TMDS channels # 0, # 1, #. 2, serially transmits to the HDMI receiving unit 12 b in one direction. Further, the transmitter 21 transmits a pixel clock synchronized with the pixel data transmitted through the three TMDS channels # 0, # 1, and # 2 to the HDMI receiving unit 12b through the TMDS clock channel.
  • the HDMI receiving unit 12b receives a differential signal corresponding to pixel data transmitted in one direction from the HDMI transmitting unit 11b through a plurality of channels in the active video section 14 (see FIG. 3). Further, the HDMI receiving unit 12b transmits audio signals transmitted in one direction from the HDMI transmitting unit 11b through a plurality of channels in the horizontal blanking interval 15 (see FIG. 3) or the vertical blanking interval 16 (see FIG. 3). A differential signal corresponding to data and control data is received.
  • the HDMI receiving unit 12 b includes the HDMI receiver 22.
  • the receiver 22 uses TMDS channels # 0, # 1, and # 2 to transmit a differential signal corresponding to pixel data and audio transmitted in one direction from the HDMI transmission unit 11b connected via the HDMI cable 13.
  • a differential signal corresponding to data and control data is received.
  • the signal is received in synchronism with the pixel clock transmitted from the HDMI transmitting unit 11b through the TMDS clock channel.
  • the transmission channel of the HDMI system including the HDMI source transmission unit 11b and the HDMI reception unit 12b transmits three TMDS channels # 0 to # 2 as transmission channels for transmitting pixel data and audio data, and a pixel clock.
  • TMDS clock channel As a transmission channel, there are transmission channels called DDC (Display Data Channel) 23 and CEC (Consumer Electronics Control) line 24.
  • the DDC 23 includes two signal lines included in the HDMI cable 13, and the HDMI transmission unit 11 b reads E-EDID (EnhancedEnhanceExtended Display Identification Data) from the HDMI receiving unit 12 b connected via the HDMI cable 13. Used for. That is, in addition to the HDMI receiver 22, the HDMI receiving unit 12b has an EDID ROM (Read Only Memory) that stores E-EDID, which is performance information related to its performance (Configuration / Capability).
  • E-EDID EnhancedEnhanceExtended Display Identification Data
  • the HDMI transmitting unit 11b reads the E-EDID of the HDMI receiving unit 12b from the HDMI receiving unit 12b connected through the HDMI cable 13 through the DDC 23. The HDMI transmitting unit 11b then sets the performance of the HDMI receiving unit 12b based on the E-EDID, that is, for example, the image format (profile) supported by the electronic device having the HDMI receiving unit 12b, for example, It recognizes RGB, YCbCr4: 4: 4, YCbCr4: 2: 2, and the like.
  • the CEC line 24 includes one signal line included in the HDMI cable 13 and is used for bidirectional communication of control data between the HDMI transmission unit 11b and the HDMI reception unit 12b. Further, the HDMI cable 13 includes a line (HPD line) 25 connected to a pin called HPD (Hot Plug Detect).
  • HPD line line
  • HPD Hot Plug Detect
  • the source device can detect the connection of the sink device by using the line 25 by the DC bias potential.
  • the HPD line when viewed from the source device side, has a function of receiving a connection state notification from the sink device by a DC bias potential.
  • the HPD line when viewed from the sink device side, has a function of notifying the source device of the connection state by a DC bias potential.
  • the HDMI cable 13 includes a line (power line) 26 used for supplying power from the source device to the sink device. Further, the HDMI cable 13 includes a reserved line 27. A pair of differential transmission paths may be configured using the HPD line 25 and the reserved line 27 and used as a bidirectional communication path.
  • FIG. 3 shows sections of various transmission data when image data of horizontal ⁇ vertical 1920 pixels ⁇ 1080 lines is transmitted in TMDS channels # 0, # 1, and # 2.
  • the video field (Video Field) in which transmission data is transmitted through the three TMDS channels # 0, # 1, and # 2 of HDMI includes a video data section 17 (Video Data Period), a data island, according to the type of transmission data. There are three types of sections, section 18 (Data Island Period) and control section 19 (Control Period).
  • the video field period is a period from a rising edge (Active Edge) of a certain vertical synchronizing signal to a rising edge of the next vertical synchronizing signal, and includes a horizontal blanking period 15 (Horizontal Blanking) and a vertical blanking period 16 ( Vertical Blanking) and an effective pixel section 14 (Active Video) that is a section obtained by removing the horizontal blanking period and the vertical blanking period from the video field section.
  • the video data section 17 is assigned to the effective pixel section 14.
  • 1920 pixels (pixels) ⁇ 1080 lines of effective pixel (Active Pixel) data constituting uncompressed image data for one screen is transmitted.
  • the data island section 18 and the control section 19 are assigned to the horizontal blanking period 15 and the vertical blanking period 16.
  • auxiliary data (Auxiliary Data) is transmitted.
  • the data island section 18 is allocated to a part of the horizontal blanking period 15 and the vertical blanking period 16.
  • audio data packets which are data not related to control, of auxiliary data
  • the control section 19 is assigned to other portions of the horizontal blanking period 15 and the vertical blanking period 16.
  • vertical synchronization signals, horizontal synchronization signals, control packets, and the like which are data related to control, of auxiliary data are transmitted.
  • the disk player 11 receives from the television receiver 12 the transmission method information and gamma correction method information of high dynamic range image data that can be supported by the television receiver 12 via the HDMI cable 13. .
  • the high dynamic range is abbreviated as “HDR” as appropriate.
  • the television receiver 12 stores the HDR image data transmission method information and gamma correction method information corresponding to the television receiver 12 in the storage unit, and the transmission method information and gamma correction method information are transmitted via the HDMI cable 13.
  • the disc player 11 In the past, there was no HDR image transmission specification, and there was no compatibility between manufacturers.
  • the disc player 11 selects a predetermined transmission method and gamma correction method from the HDR image data transmission methods that can be supported by the television receiver, based on the transmission method information and gamma correction method information received from the television receiver 12.
  • a predetermined transmission method and gamma correction method from the HDR image data transmission methods that can be supported by the television receiver, based on the transmission method information and gamma correction method information received from the television receiver 12.
  • the transmission method with the least image quality degradation and the gamma correction with the easiest approximation are possible. Select a method.
  • the disc player 11 transmits the selected transmission method and gamma correction method HDR image data to the television receiver 12 via the HDMI cable 13. At this time, the disc player 11 transmits the transmission method information and gamma correction information of the HDR image data to be transmitted to the television receiver 12 via the HDMI cable 13.
  • the television receiver 12 receives the HDR image data from the disc player 11 via the HDMI cable 13 and also receives the transmission method information and the gamma correction information.
  • the television receiver 12 processes the received HDR image data based on the received transmission method information and gamma correction information, and generates HDR image data for display.
  • the maximum brightness of natural objects reaches 2000 cd / m 2 or more.
  • image data recorded in a disc player has been adjusted in luminance assuming that it is displayed on a display device having a specification of a maximum luminance of 100 cd / m 2 . That is, conventionally, the luminance of image data is greatly compressed as compared with the luminance value in the natural world.
  • the maximum brightness of the display device is of the order of 1000 cd / m 2 beyond the conventional 100 cd / m 2 has been put into practical use.
  • HDR images have been proposed to express high brightness images with a white level brightness of 100% or higher.
  • a normal white level luminance of 100% is represented by a bit value of 235 or 255 in an 8-bit system.
  • the number of bits of gradation of 8 bits or more is required. That is, HDR image data is image data of 10 bits, 12 bits, 16 bits, or the like.
  • FIG. 4 shows a conceptual diagram of a conventional 8-bit transmission system.
  • FIG. 4A shows an example of the luminance level of the original 10-bit HDR image data and the bit value at that time.
  • FIG. 4B shows an example of the luminance level of 8-bit image data converted to transmit 10-bit HDR image data by the 8-bit transmission method and the bit value at that time.
  • the luminance level 100% is assigned to the 8-bit value “235”
  • the luminance 200% becomes “255”, which is the maximum value of the 8-bit value, and luminance compression is performed, and information exceeding the luminance 108% is lost. Is called.
  • FIG. 5 shows a configuration example of the disc player 11.
  • the disc player 11 includes an HDMI terminal 11a, an HDMI transmission unit 11b, and a high-speed bus interface 11c.
  • the disc player 11 includes a CPU (Central Processing Unit) 104, an internal bus 105, a flash ROM (Read Only Memory) 106, an SDRAM (Synchronous Random Access Memory) 107, a remote control receiving unit 108, and remote control transmission.
  • Machine 109 Central Processing Unit
  • the disc player 11 has a SATA (Serial Advanced Technology Attachment) interface 110, a BD (Blu-Ray Disc) drive 111, an Ethernet interface (Ethernet I / F) 112, and a network terminal 113.
  • the disc player 11 includes an MPEG (Moving Picture Expert Group) decoder 115, a graphic generation circuit 116, a video output terminal 117, an audio output terminal 118, and an HDR processing circuit 114.
  • MPEG Motion Picture Expert Group
  • the disc player 11 may include a display control unit 121, a panel drive circuit 122, a display panel 123, and a power supply unit 124.
  • “Ethernet” and “Ethernet” are registered trademarks.
  • the high-speed bus interface 11 c, the CPU 104, the flash ROM 106, the SDRAM 107, the remote control receiving unit 108, the SATA interface 110, the Ethernet interface 112, and the MPEG decoder 115 are connected to the internal bus 105.
  • the CPU 104 controls the operation of each part of the disc player 11.
  • the flash ROM 106 stores control software and data.
  • the SDRAM 107 constitutes a work area for the CPU 104.
  • the CPU 104 develops software and data read from the flash ROM 106 on the SDRAM 107 and activates the software to control each unit of the disc player 11.
  • the remote control receiving unit 108 receives a remote control signal (remote control code) transmitted from the remote control transmitter 109 and supplies it to the CPU 104.
  • the CPU 104 controls each part of the disc player 11 according to the remote control code.
  • the remote control unit is shown as the user instruction input unit.
  • the user instruction input unit has other configurations, for example, a switch, a wheel, a touch panel unit for inputting an instruction by proximity / touch, a mouse It may be a keyboard, a gesture input unit for detecting an instruction input with a camera, a voice input unit for inputting an instruction by voice, or the like.
  • the BD drive 111 records content data on a BD disc (not shown) as a disc-shaped recording medium, or reproduces content data from the BD disc.
  • the BD drive 111 is connected to the internal bus 105 via the SATA interface 110.
  • the MPEG decoder 115 performs decoding processing on the MPEG2 stream reproduced by the BD drive 111 to obtain image and audio data.
  • the graphic generation circuit 116 performs graphics data superimposition processing on the image data obtained by the MPEG decoder 115 as necessary.
  • the video output terminal 117 outputs the image data output from the graphic generation circuit 116.
  • the audio output terminal 118 outputs the audio data obtained by the MPEG decoder 115.
  • the panel drive circuit 122 drives the display panel 123 based on the video (image) data output from the graphic generation circuit 260.
  • the display control unit 121 controls the display on the display panel 123 by controlling the graphics generation circuit 116 and the panel drive circuit 122.
  • the display panel 123 includes, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel) organic EL (Organic Electro-Luminescence) panel, or the like.
  • the display control unit 121 may directly control the display on the display panel 123.
  • the CPU 104 and the display control unit 121 may be a single chip or a plurality of cores.
  • the power supply unit 124 supplies power to each unit of the disc player 11.
  • the power supply unit 124 may be an AC power supply or a battery (storage battery, dry battery).
  • the HDMI transmission unit (HDMI source) 11b transmits baseband image (video) and audio data from the HDMI terminal 11a by communication conforming to HDMI.
  • the high-speed bus-in interface 11c is an interface of a bidirectional communication path configured using a predetermined line (in this embodiment, a reserved line and an HPD line) constituting the HDMI cable 13.
  • the high-speed bus interface 11c is inserted between the Ethernet interface 112 and the HDMI terminal 101.
  • the high-speed bus interface 11 c transmits the transmission data supplied from the CPU 104 from the HDMI terminal 101 to the counterpart device via the HDMI cable 13.
  • the high-speed bus interface 11c supplies the CPU 104 with received data received from the counterpart device from the HDMI cable 13 via the HDMI terminal 11a.
  • the HDR processing circuit 114 transmits the HDR image data for displaying the HDR image through the HDMI TMDS channel among the image data obtained by the MPEG decoder 115, the HDR processing data is in a state corresponding to the transmission method.
  • the HDR image data is configured according to, for example, a deep color (Deep Color) image format, configured according to a stereoscopic image data format, or configured according to a high frame rate image format. Is done.
  • the HDR processing circuit 114 and the HDMI transmission unit 11b may be a single chip or a plurality of cores. Details of the type of transmission method of HDR image data, selection of the transmission method, packing format of each method, and the like will be described later.
  • content data to be recorded is acquired via a digital tuner (not shown), from the network terminal 113 via the Ethernet interface 112, or from the HDMI terminal 11a via the high-speed bus interface 11c.
  • This content data is input to the SATA interface 110 and recorded on the BD disc by the BD drive 111.
  • the content data may be recorded in an HDD (hard disk drive) (not shown) connected to the SATA interface 110.
  • content data (MPEG stream) reproduced from the BD disc by the BD drive 111 is supplied to the MPEG decoder 115 via the SATA interface 110.
  • the MPEG decoder 115 decodes the reproduced content data to obtain baseband image and audio data.
  • the image data is output to the video output terminal 117 through the graphic generation circuit 116.
  • the audio data is output to the audio output terminal 118.
  • the image data obtained by the MPEG decoder 115 is supplied to the panel drive circuit 122 through the graphic generation circuit 116 in accordance with a user operation, and the reproduced image is displayed on the display panel 123. Also, audio data obtained by the MPEG decoder 115 is supplied to a speaker (not shown) according to a user operation, and audio corresponding to the reproduced image is output.
  • the image and audio data obtained by the MPEG decoder 115 are transmitted through the HDMI TMDS channel during the reproduction, the image and audio data are supplied to the HDMI transmission unit 11b and packed. The data is output from the HDMI transmission unit 11b to the HDMI terminal 11a.
  • the HDR image data is processed by the HDR processing circuit 114 into a state corresponding to the selected transmission method, and then supplied to the HDMI transmission unit 11b.
  • the content data reproduced by the BD drive 111 is transmitted to the network during reproduction, the content data is output to the network terminal 113 via the Ethernet interface 112.
  • the content data reproduced by the BD drive 111 is sent to the bidirectional communication path of the HDMI cable 13 during reproduction, the content data is output to the HDMI terminal 11a via the high-speed bus interface 11c.
  • before outputting the image data it may be transmitted after being encrypted using a copyright protection technology such as HDCP, DTCP, DTCP +, or the like.
  • FIG. 6 shows a configuration example of the television receiver 12.
  • the television receiver 12 includes an HDMI terminal 12a, an HDMI receiving unit 12b, a high-speed bus interface 12c, and an HDR processing circuit 204.
  • the television receiver 12 includes an antenna terminal 205, a digital tuner 206, an MPEG decoder 207, a video signal processing circuit 208, a graphic generation circuit 209, a panel drive circuit 210, and a display panel 211. Yes.
  • the television receiver 12 includes an audio signal processing circuit 212, an audio amplification circuit 213, a speaker 214, an internal bus 220, a CPU 221, a flash ROM 222, and an SDRAM (Synchronous Random Access Memory) 223. Yes.
  • the television receiver 12 includes an Ethernet interface (Ethernet I / F) 224, a network terminal 225, a remote control receiving unit 226, and a remote control transmitter 227.
  • the television receiver 12 includes a display control unit 231 and a power supply unit 232. “Ethernet” and “Ethernet” are registered trademarks.
  • the antenna terminal 205 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown).
  • the digital tuner 206 processes a television broadcast signal input to the antenna terminal 205 and generates a partial TS (Transport Stream) (TS packet of video data, audio data) from a predetermined transport stream corresponding to the user's selected channel. TS packet) is extracted.
  • TS Transport Stream
  • the digital tuner 206 extracts PSI / SI (Program Specific Information / Service Information) from the obtained transport stream and outputs it to the CPU 221.
  • PSI / SI Program Specific Information / Service Information
  • the process of extracting a partial TS of an arbitrary channel from a plurality of transport streams obtained by the digital tuner 206 is performed by obtaining packet ID (PID) information of the arbitrary channel from PSI / SI (PAT / PMT). It becomes possible.
  • PID packet ID
  • the MPEG decoder 207 decodes a video PES (Packetized Elementary Stream) packet composed of TS packets of video data obtained by the digital tuner 206 to obtain image data. Also, the MPEG decoder 207 performs a decoding process on an audio PES packet configured by an audio data TS packet obtained by the digital tuner 206 to obtain audio data.
  • a video PES Packetized Elementary Stream
  • the video signal processing circuit 208 and the graphic generation circuit 209 perform scaling processing (resolution conversion processing) and graphic processing on image data obtained by the MPEG decoder 207 or image data received by the HDMI receiving unit 12b as necessary. Data superimposition processing, gamma correction of HDR image data, and the like.
  • the panel drive circuit 210 drives the display panel 211 based on the video (image) data output from the graphic generation circuit 209.
  • the display control unit 231 controls display on the display panel 211 by controlling the graphics generation circuit 209 and the panel drive circuit 210.
  • the display panel 211 includes, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Organic Electro-Luminescence) panel, and the like.
  • the power supply unit 232 supplies power to each unit of the television receiver 12.
  • the power supply unit 232 may be an AC power supply or a battery (storage battery, dry battery).
  • the audio signal processing circuit 212 performs necessary processing such as D / A conversion on the audio data obtained by the MPEG decoder 207.
  • the audio amplifier circuit 213 amplifies the audio signal output from the audio signal processing circuit 212 and supplies the amplified audio signal to the speaker 214.
  • the speaker 214 may be monaural or stereo. Further, the number of speakers 214 may be one, or two or more.
  • the speaker 214 may be an earphone or a headphone.
  • the speaker 214 may be compatible with 2.1 channel, 5.1 channel, or the like.
  • the speaker 214 may be connected to the television receiver 12 wirelessly.
  • the speaker 214 may be another device.
  • the CPU 221 controls the operation of each unit of the television receiver 12.
  • the flash ROM 222 stores control software and data.
  • the DRAM 223 constitutes a work area for the CPU 221.
  • the CPU 221 develops software and data read from the flash ROM 222 on the SDRAM 223 to activate the software, and controls each unit of the television receiver 12.
  • the remote control receiving unit 226 receives the remote control signal (remote control code) transmitted from the remote control transmitter 227 and supplies it to the CPU 221.
  • the CPU 221 controls each part of the television receiver 12 based on this remote control code.
  • a remote control unit is shown as the user instruction input unit.
  • the user instruction input unit has other configurations, for example, a touch panel unit that inputs an instruction by proximity / touch, a mouse, a keyboard, a camera It may be a gesture input unit that detects an instruction input, a voice input unit that inputs an instruction by voice, and the like.
  • the network terminal 225 is a terminal connected to the network, and is connected to the Ethernet interface 224.
  • the high-speed bus interface 12 c, the CPU 221, the flash ROM 222, the SDRAM 223, the Ethernet interface 224, the MPEG decoder 207, and the display control unit 231 are connected to the internal bus 220.
  • the HDMI receiving unit (HDMI sink) 12b receives baseband image (video) and audio data supplied to the HDMI terminal 12a via the HDMI cable 13 by communication conforming to HDMI. Similar to the high-speed bus interface 11c of the disc player 11 described above, the high-speed bus interface 12c is a bidirectional configuration that uses predetermined lines (reserved line and HPD line in this embodiment) that constitute the HDMI cable 13. It is a communication path interface.
  • the high-speed bus interface 12c is inserted between the Ethernet interface 224 and the HDMI terminal 201.
  • the high-speed bus interface 12c transmits the transmission data supplied from the CPU 221 to the counterpart device from the HDMI terminal 12a via the HDMI cable 13.
  • the high-speed bus interface 12c supplies the CPU 221 with received data received from the counterpart device from the HDMI cable 13 via the HDMI terminal 12a.
  • the HDR processing circuit 204 When the image data received by the HDMI receiving unit 202 is HDR image data, the HDR processing circuit 204 performs processing (decoding processing) corresponding to the transmission method on the HDR image data, and thereby performs HDR. Generate image data. That is, the HDR processing circuit 204 performs a process reverse to that of the above-described HDR processing circuit 114 of the disc player 11 to acquire data constituting the HDR image data.
  • the HDR processing circuit 204 and the HDMI receiving unit 202 or the HDR processing circuit 204 and the video signal processing circuit 208 may be a single chip or a plurality of cores.
  • the HDR processing circuit 204 also includes first data composed of lower 8 bits of image data of the HDR image and second data composed of image data of the upper bits of the HDR image, or the upper portion of the HDR image.
  • An operation for generating HDR image data is performed from first data composed of 8-bit image data and second data composed of lower-order bit image data of the HDR image.
  • the received content data when the received content data is sent to the network, the content data is output to the network terminal 225 via the Ethernet interface 224.
  • the received content data when the received content data is sent out to the bidirectional communication path of the HDMI cable 13, the content data is output to the HDMI terminal 12a via the high-speed bus interface 12c.
  • a copyright protection technology such as HDCP, DTCP, DTCP +, or the like.
  • a television broadcast signal input to the antenna terminal 205 is supplied to the digital tuner 206.
  • the digital tuner 206 processes a television broadcast signal and outputs a predetermined transport stream corresponding to a user's selected channel. From the transport stream, a partial TS (TS packet of video data, TS packet of audio data) is output. Are extracted, and the partial TS is supplied to the MPEG decoder 207.
  • video data is obtained by performing a decoding process on a video PES packet composed of TS packets of video data.
  • This video data is supplied to the panel drive circuit 210 after being subjected to scaling processing (resolution conversion processing), graphics data superimposition processing, and the like in the video signal processing circuit 208 and the graphic generation circuit 209 as necessary.
  • scaling processing resolution conversion processing
  • graphics data superimposition processing and the like in the video signal processing circuit 208 and the graphic generation circuit 209 as necessary.
  • the display panel 211 displays an image corresponding to the user's selected channel.
  • audio data is obtained by performing a decoding process on the audio PES packet configured by the TS packet of the audio data.
  • the audio data is subjected to necessary processing such as D / A conversion in the audio signal processing circuit 212, further amplified by the audio amplification circuit 213, and then supplied to the speaker 214. Therefore, sound corresponding to the user's selected channel is output from the speaker 214.
  • content data (image data, audio data) supplied from the network terminal 225 to the Ethernet interface 224 or supplied from the HDMI terminal 12 a via the high-speed bus interface 12 c is supplied to the MPEG decoder 207. Thereafter, the operation is the same as when the above-described television broadcast signal is received, an image is displayed on the display panel 211, and sound is output from the speaker 214.
  • the HDMI receiving unit 12b acquires image data and audio data transmitted from the disc player 11 connected to the HDMI terminal 12a via the HDMI cable 13.
  • the image data is supplied to the video signal processing circuit 208 via the HDR processing circuit 204.
  • the audio data is directly supplied to the audio signal processing circuit 212. Thereafter, the operation is the same as when the above-described television broadcast signal is received, an image is displayed on the display panel 211, and sound is output from the speaker 214.
  • the HDR processing circuit 204 When the image data received by the HDMI receiving unit 12b is HDR image data, the HDR processing circuit 204 performs processing (decoding processing) corresponding to the transmission method on the HDR image data, and HDR is performed. Image data is generated. Then, HDR image data is supplied from the HDR processing circuit 204 to the video signal processing unit 208. Also, in the video signal processing circuit 208, when HDR image data is supplied, image data for displaying an HDR image is generated based on the HDR image data, and the gamma correction information received by the HDMI receiving unit 12b. The gamma correction is performed based on the above. Therefore, the HDR image is displayed on the display panel 211.
  • HDR image data transmission method Next, a method for transmitting HDR image data will be described. First, the case where the HDR image data of the original signal is composed of image data of 8 bits or more will be described. Here, as shown in FIG. 7 to FIG. 9, a case where the HDR image data is image data of a pixel format of 1920 ⁇ 1080p will be described as an example.
  • the following three transmission methods are conceivable. These systems are the most desirable because they can be transmitted without degrading the quality of the original signal.
  • the transmission band is required to be 1.2 times or more of the image data of the 1920 ⁇ 1080p 8-bit pixel format, this is possible when there is a margin in the transmission band.
  • the transmission method (1) is a method of transmitting using a deep color transmission format.
  • the pixel format of 1920 ⁇ 1080p is selected as the image format, and the number of bits per pixel of any one of “DC-48 bit”, “DC-36 bit”, and “DC-30 bit” described later is designated.
  • the newly defined HDR transmission method information since all pixel data cannot be transmitted with one pixel clock, pixel mapping processing is required in the HDR processing circuit 114 or the HDMI transmission unit 11b.
  • the lower 8 bits of the HDR image data are arranged in the left eye image data area of the stereoscopic video format, and the remaining upper bits of the HDR image data are placed in the stereoscopic video format.
  • This is a method of arranging and transmitting in the right eye image data area.
  • a video format called 1920 ⁇ 1080p frame packing is specified as the video format, and the stereoscopic video format is not specified, but is transmitted together with the newly defined HDR transmission method information.
  • the HDR processing circuit 114 needs to perform the slice processing of the lower 8 bit image data and the upper bit image data and the bit mapping processing to a predetermined stereoscopic video format.
  • the remaining upper bits of the HDR image data are arranged and transmitted in the right-eye image data area of the stereoscopic video format. That is, the remaining upper bits of the HD image data are 2 bits, 4 bits, and 8 bits, respectively, when the HDR image data is 10-bit, 12-bit, and 16-bit image data. Instead of the remaining high-order bits, it is also conceivable that the high-order 8 bits of the HDR image data are arranged and transmitted in the right eye image data area of the stereoscopic video format.
  • the lower 8 bits of the HDR image data are arranged in the left eye image data area of the stereoscopic video format, and the remaining upper bits of the HDR image data are arranged in the right eye image data area of the stereoscopic video format.
  • the lower 8 bits of the HDR image data are arranged in the right-eye image data area of the stereoscopic video format, and the remaining upper bits of the HDR image data are arranged and transmitted in the left-eye image data area of the stereoscopic video format. Is also possible.
  • the lower 8 bits of the HDR image data are arranged in the left eye image data area of the stereoscopic video format, and the remaining upper bits of the HDR image data are arranged in the right eye image data area of the stereoscopic video format.
  • the upper 8 bits of the HDR image data are arranged in the left eye image data area of the stereoscopic video format, and the remaining lower bits of the HDR image data are arranged and transmitted in the right eye image data area of the stereoscopic video format. Is also possible.
  • the lower 8 bits of the HDR image data are arranged in the first frame image data area of the high frame rate, and the remaining upper bits of the HDR image data are placed in the second frame.
  • This is a method of arranging and transmitting in the image data area.
  • the normal 1920 ⁇ 1080p high frame rate video format is designated as the video format, and is transmitted together with the newly defined HDR transmission method information.
  • the HDR processing circuit 114 needs to perform slice processing of lower 8 bits of image data and upper bits of image data and bit mapping to a predetermined high frame rate video format.
  • the remaining upper bits of the HDR image data are arranged and transmitted in the second frame image data area. That is, the remaining upper bits of the HD image data are 2 bits, 4 bits, and 8 bits, respectively, when the HDR image data is 10-bit, 12-bit, and 16-bit image data. Instead of the remaining upper bits, it may be considered that the upper 8 bits of the HDR image data are arranged and transmitted in the second frame image data area.
  • the lower 8 bits of the HDR image data are arranged in the first frame image data area of the high frame rate, and the remaining upper bits of the HDR image data are arranged and transmitted in the second frame image data area.
  • the lower 8 bits of the DR image data may be arranged in the second frame image data area of the high frame rate, and the remaining upper bits of the HDR image data may be arranged in the first frame image data area for transmission. It is done.
  • the lower 8 bits of the HDR image data are arranged in the first frame image data area of the high frame rate, and the remaining upper bits of the HDR image data are arranged and transmitted in the second frame image data area.
  • the upper 8 bits of the HDR image data are arranged in the first frame image data area of the high frame rate and the remaining lower bits of the HDR image data are arranged in the second frame image data area for transmission. It is done.
  • the above-described HDR processing circuit 204 of the television receiver 12 uses lower 8 bits and upper bits of the HDR image data from the stereoscopic video format or the high frame rate video format, Alternatively, a process of separating and extracting the upper 8 bits and the lower bits is performed.
  • a gamma correction curve can be approximated by specifying a bit value, a bit value of image data representing 100% luminance, and a bit value of image data representing the maximum white level represented by an HDR image.
  • the gamma correction method (2) includes an assumed output luminance level of the display panel 211 at a designated luminance input level, a luminance dynamic range value of the transmitted HDR image, and a maximum luminance level. By designating, it is possible to approximate the gamma correction curve, and by performing image correction based on this approximate curve, an assumed HDR image can be displayed.
  • the gamma correction method (3) is ITU-R BT.
  • a gamma correction curve can be approximated by designating a luminance level at 100% luminance defined in 1886, a luminance level at 0% luminance, and a gamma value, and image correction is performed based on this approximate curve.
  • an assumed HDR image can be displayed.
  • gamma correction method (4) as shown in FIG. 13, by specifying a plurality of output luminance levels of the display panel 211 at the luminance input level specified in the gamma correction method (2), gamma correction is performed. A curve can be approximated, and an assumed HDR image can be displayed by performing image correction based on the approximate curve.
  • FIG. 14 shows an example of the data structure of E-EDID.
  • This E-EDID is composed of a basic block and an extended block.
  • data defined by the E-EDID1.3 standard represented by “E-EDID1.3 Basic Structure” is arranged, and then the conventional EDID represented by “Preferred timing” and Timing information for maintaining the compatibility of the EDID and timing information different from “Preferred timing” for maintaining the compatibility with the conventional EDID represented by “2nd timing” are arranged.
  • the basic block includes information indicating the name of the display device represented by “Monitor NAME” following “2nd timing” and an aspect ratio of 4: 3 and 16 represented by “Monitor Range Limits”. : Information indicating the number of displayable pixels in the case of 9 is arranged in order.
  • Short Video Descriptor information such as displayable image size (resolution), frame rate, interlaced / progressive information, aspect ratio, etc.
  • Data data describing information such as reproducible audio codec system, sampling frequency, cutoff band, codec bit number, etc., represented by “Short Audio Descriptor”, and left and right speakers represented by “Speaker Allocation” Information about is arranged in order.
  • extension block maintains compatibility with the conventional EDID represented by “3rd timing”, the data uniquely defined for each manufacturer represented by “Vender Specific” following “Speaker Allocation”. Timing information for maintaining compatibility with a conventional EDID represented by “4th timing” and flag information that can be displayed by a sink device represented by “Video Capability” (hereinafter referred to as VCDB) Is arranged.
  • VCDB Video Capability
  • FIG. 15 shows an example of the data structure of the VSDB area.
  • a 0th block to an Nth block which are 1-byte blocks, are provided.
  • the sink device (the television receiver 12 in this embodiment) should store the fourth bit of the eighth byte and the already defined 0th byte to M + 3th byte following the 0th byte to the M + 3th byte.
  • a data area of HDR image information is defined.
  • the sixth byte is a flag indicating a function supported by the sink device represented by “Supports-AI”, “DC-48 bit”, “DC-36 bit”, and “DC-30 bit”.
  • information indicating the maximum frequency of the TMDS pixel clock represented by “Max-TMDS-Clock” is arranged in the seventh byte.
  • information specifying the presence of the Latency field, information specifying the presence of the Interlace-Latency field, information specifying the presence of the extension of the 3D video format, and information specifying the correspondence of the content type (CNC) function The flags are arranged.
  • a flag indicating whether or not HDR information corresponding to the sink device exists is newly arranged. When this flag is True, it indicates that information related to HDR exists from the 15th + M byte to the 18th + M byte.
  • the seventh bit of the 15th + M byte indicates whether or not the source device is prohibited from processing related to the HDR function.
  • data indicating the three video formats (the transmission methods (1) to (3) described above) of the HDR image supported by the sink device is written.
  • the 3rd to 0th bits of the 15th + M bytes can be allocated when a method other than this is proposed.
  • data indicating four methods of gamma correction of the HDR image supported by the sink device is written.
  • the 3rd to 0th bits of the 16 + M byte can be assigned when a gamma correction method other than this is proposed.
  • the source device prohibits processing such as luminance expansion and bit compression of the HDR image.
  • the maximum luminance value of the display panel 211 of the sink device is specified in units of cd / m 2 .
  • the maximum luminance expansion level that can be processed by the video signal processing circuit 208 of the sink device is specified in units of%.
  • a method of storing HDR transmission information using the VSDB area is proposed, but the VSDB area has a data structure unique to HDMI, and thus is compatible between HDMI devices, but based on other specifications. Compatibility with the device cannot be maintained. Therefore, in the data structure of E-EDID, for example, a method of storing HDR transmission information for the purpose of maintaining compatibility beyond the transmission standard in other data areas, such as VCDB, can be realized.
  • FIG. 16 shows an example of the data structure of the VCDB area. In this VCDB area, the 0th byte to the Nth byte are provided.
  • display range QY / QS and scan information S_PT1 to S_CE0 are arranged.
  • the same information as the 15th + Mth byte to the 21st + Mth byte of the VSDB area is arranged from the 3rd byte to the 8th byte. In this way, compatibility between different transmission standards can be maintained by using the VCDB area.
  • HDR image information may be stored by defining a new packet by specifying “0x06” representing “Video Related Code” in “Extended Tag Code”.
  • the CPU 104 of the disc player (source device) 11 confirms the connection of the television receiver (sink device) 12 through the HPD line 25 (see FIG. 2). Thereafter, the CPU 104 of the disc player 11 uses the DDC 23 (see FIG. 2) to read the E-EDID, and thus the HDR image information, from the television receiver 12, and the HDR image transmission method and gamma correction corresponding to the television receiver 12. Recognizes the transmission method and gamma correction information transmission method.
  • the television receiver 12 uses the HDR image information read from the television receiver 12 as described above. Any one of the applicable HDR image data transmission method, gamma correction method, and gamma correction information transmission method is selected and transmitted. At that time, the disc player 11 transmits information related to the currently transmitted HDR image format to the television receiver 12.
  • the disc player 11 transmits the information to the television receiver 12 by inserting the information in the blanking period of the HDR image data (video signal) to be transmitted to the television receiver 12.
  • the disc player 11 is, for example, an HDMI Vendor Specific InfoFrame (hereinafter referred to as “VSIF”) packet, an Auxiliary Video InfoFrame (hereinafter referred to as “AIFF”), or a newly defined Dynamic Range Info “Follow”.
  • Information on the currently transmitted image format is inserted into the blanking period of the HDR image data.
  • the VSIF packet, the AVIF packet, and the DRIF packet are arranged in the data island section 18 (see FIG. 3).
  • FIG. 17 shows an example of the data structure of a VSIF packet.
  • the VSIF packet enables transmission of incidental information about an image from a source device to a sink device.
  • PacketType (0x81) indicating a VSIF packet is defined.
  • the first byte defines the version of the VSIF packet.
  • the data length excluding the header part of the VSIF packet is defined in the 4th to 0th bits of the second byte.
  • a data checksum is defined.
  • Information indicating the number “0x000C03” registered for HDMI (R) represented by “24-bit IEEE Registration Identifier (0x000C03) LSB first” is arranged in the fourth to fifth bytes.
  • an “HDR” flag indicating whether transmission information of HDR image data exists after the 8th + N bytes is designated.
  • the “HDR” flag is False, it indicates that the HDR image data is not transmitted.
  • the “HDR” flag is True, incidental information regarding the HDR image is designated from the 9th byte to the Mth byte.
  • the seventh bit of the eighth byte information indicating whether the HDR image to be transmitted is subjected to processing such as luminance expansion or luminance compression in the source device is specified.
  • processing such as luminance expansion or luminance compression in the source device.
  • the sixth to fourth bits are set to 0b001 for the transmission method (1), 0b010 for the transmission method (2), and 0b011 for the transmission method (3).
  • the 6th to 4th bits 0b100 to 0b111 and the 3rd to 0th bits can be assigned when other methods are proposed.
  • the seventh to fourth bits of the ninth byte information indicating whether one of the four HDR image gamma correction methods (the above-described gamma correction methods (1) to (4)) is selected is designated. Is done.
  • the 7th to 4th bits are set to 0b0001 for the gamma correction method (1), 0b0010 for the gamma correction method (2), and 0b0011 for the gamma correction method (3).
  • method (4) it is set to 0b0100.
  • the 7th to 5th bits 0b0101 to 0b1111 and the 4th to 0th bits can be assigned when other methods are proposed. From the 10th byte to the Mth byte, data of the gamma correction method specified by the 7th to 4th bits of the 9th byte is specified.
  • FIG. 18 shows the data structure of gamma correction in the gamma correction method (1) (see FIG. 10).
  • the 0th byte specifies the data length 9 of the gamma correction method (1).
  • the assumed luminance level “Reference_Screen_Luminance_White” of the display panel 211 when the luminance is 100% is specified in units of cd / m 2 .
  • the maximum brightness level “Extended_Range_White_Level” of the transmitted HDR image is specified in units of%.
  • a bit value “Nominal_Black_Level_Code_Value” of image data representing a luminance level of 0% is designated. Usually, it is 1 byte length to specify a value from 0 to 64.
  • a bit value “Nominal_White_Level_Code_Value” of image data representing a luminance level of 100% is designated in the sixth to seventh bytes.
  • a bit value “Extended_White_Level_Code_Value” of image data representing the maximum white level expressed by the HDR image is designated.
  • FIG. 10 described above shows an example of the HDR information (1) transmitted in the AVIF, VSIF, and DRIF packets, that is, values of “Extended_Range_White_Level”, “Nominal_Black_Level_Code_Value”, “Nominal_White_Level_Code_Value”, and “Extended_White_Level_Code_Value” described above.
  • “Extended_Range_White_Level” is “400” and the bit length is 10 bits.
  • FIG. 19 shows the data structure of gamma correction in the gamma correction method (2).
  • the data length 13 of the gamma method (2) is designated.
  • the input luminance level “Input_Knee_Point” of method (2) is specified in units of 0.1%.
  • the output luminance level “Output_Knee_Point” is specified in units of 0.1%.
  • the dynamic range “Dynamic_Range” of the transmitted HDR image is specified in units of 0.1%.
  • the luminance level “Dynamic_Range_Luminance” in the maximum dynamic range is specified in units of cd / m 2 .
  • FIG. 11 described above shows an example of the HDR information (2) transmitted by the AVF / VSIF / DRIF packet, that is, the values of “Input_Knee_Point”, “Output_Knee_Point”, “Dynamic_Range”, and “Dynamic_Range_Luminance” described above.
  • FIG. 20 shows the data structure of the gamma correction of the gamma method (3).
  • the 0th byte specifies the data length 4 of the gamma correction method (3).
  • the luminance level “Screen_Luminance_White_Level” at a luminance of 100% is specified in units of cd / m 2 .
  • a luminance level “Screen_Luminance_Black_Level” having a luminance level of 0% is specified in units of cd / m 2 .
  • it is 1 byte length to specify a value from 0 to 64.
  • a gamma value “Gamat_Value” is designated.
  • FIG. 12 described above shows an example of a calculation formula using the HDR information (3) transmitted by the AVF / VSIF / DRIF packet, that is, the above-described “Screen_Luminance_White_Level”, “Screen_Luminance_Black_Level”, and “Gamat_Value”.
  • FIG. 21 shows the data structure of gamma correction in the gamma correction method (4).
  • the 0th byte specifies the data length (variable length) of the gamma method (4).
  • Input image dynamic range information (input_d_range) is specified in the first to fourth bytes.
  • Input image display display maximum luminance information (input_disp_luminance) is specified in the fifth to eighth bytes.
  • Output image dynamic range information (output_d_range) is designated in the ninth to twelfth bytes.
  • Output display maximum luminance information (output_disp_luminace) is specified in the 13th to 16th bytes.
  • the number of knee position information transmitted by the gamma correction method (4) is specified in the 17th byte. After the 18th byte, position information before conversion (input_knee_point) and position information after conversion (output_knee_point) are set every 3 bytes.
  • the knee position is a luminance other than 0 at the start point of the luminance range to be knee-converted at the same conversion rate of the luminance dynamic range of the encoding target image, and the pre-conversion position information is the pre-conversion position information in the dynamic range conversion. Is the information representing the knee position of the image to be encoded, and is the thousandth of the knee position when the maximum luminance value of the image to be encoded is 1000 per mil.
  • the converted position information is dynamic range conversion.
  • the post-conversion position information (output_knee_point) is a percentage of the luminance of the image after conversion corresponding to the knee point when the maximum value of the luminance of the image after conversion is 1000 per mil.
  • FIG. 13 described above shows an example of the HDR information (4) transmitted by the AVF / VSIF / DRIF packet, that is, the values of “input_knee_point (i)” and “output_knee_point (i)” described above.
  • the values of “input_knee_point (i)” and “output_knee_point (i)” are “100, 600”, “250, 800”, “450, 900”, respectively. ing.
  • the sink device (the television receiver 12 in this embodiment) transmits HDR image data when any of the sixth to fourth bits of the eighth byte is set to True. Can be determined. Further, the sink device can determine the transmission method (video format) based on the values of the sixth bit to the fourth bit.
  • the gamma correction method of the HDR image can be determined by the values of the seventh bit to the fourth bit of the ninth byte. That is, when the 7th to 4th bits are set to 0b0001, it can be seen that the gamma correction method (1) is used to transmit the HDR image data (see FIG. 10). Further, when the 7th to 4th bits are set to 0b0010, it can be seen that the HDR image data is transmitted using the gamma correction method (2) (see FIG. 11). Also, when the 7th to 4th bits are set to 0b0011, it can be seen that HDR image data is transmitted using the gamma correction method (3) (see FIG. 12). Further, when the 7th to 4th bits are set to 0b0100, it can be seen that the HDR image data is transmitted using the gamma correction method (4) (see FIG. 13).
  • FIG. 22 shows an example of the data structure of an AIFF packet.
  • HDMI it is possible to transmit incidental information related to an image from a source device to a sink device using this AVF packet.
  • PacketType (0x82) indicating an AVF packet is defined.
  • the version of the AIFF packet is defined in the first byte.
  • the data length (0x0D) excluding the header portion of the AIFF packet is defined in the 4th to 0th bits of the second byte.
  • a data checksum is defined.
  • Data defined by CEA-861-D is arranged from the 4th byte to the 16th byte.
  • an “HDR” flag indicating whether or not it exists after the 18th byte is designated.
  • the “HDR” flag is False, it indicates that the HDR image data is not transmitted.
  • the “HDR” flag is True, incidental information regarding the HDR image is designated from the 17th byte to the 27th byte.
  • a “VSIF_EXT” flag indicating whether or not incidental information regarding the HDR image is simultaneously transmitted even in the VSIF packet is designated.
  • VSIF_EXT When the “VSIF_EXT” flag is False, it indicates that there is no transmission of supplementary information regarding the HDR image in the VSIF packet. When the “VSIF_EXT” flag is True, it indicates that there is transmission of supplementary information regarding the HDR image in a VSIF packet.
  • a plurality of AVIF packets are used to transmit the 0th byte to the 20th byte in FIG.
  • a method is conceivable in which the bytes and subsequent bytes are transmitted using the VSIF packet structure shown in FIG. By transmitting the minimum necessary knee position information in an AIFF packet, compatibility can be maintained even in transmission standards other than HDMI.
  • the sixth to fourth bits are set to 0b001 for the transmission method (1), 0b010 for the transmission method (2), and 0b011 for the transmission method (3).
  • the 6th to 4th bits 0b100 to 0b111 and the 3rd to 0th bits can be assigned when other methods are proposed.
  • the seventh to fourth bits are set to 0b0001 for the gamma correction method (1), 0b0010 for the gamma correction method (2), and 0b0011 for the gamma correction method (3). .
  • 0b0100 is set.
  • the 7th to 4th bits 0b0101 to 0b1111 and the 4th to 0th bits can be assigned when other methods are proposed.
  • gamma correction data specified by the 7th to 4th bits of the 19th byte is specified.
  • the data formats described in FIGS. 18 to 21 are used for the data of the gamma correction method (1) to the gamma correction method (4), respectively.
  • the gamma correction method data may handle data exceeding the AIFF packet length of 27 bytes.
  • the first byte version is designated as 0x02, and continuous AIFF Indicates that a packet exists. Also, when the last data is transmitted, the first byte version is designated as 0x01 and the end of the continuous AIFF packet is declared, so that it is possible to transmit gamma correction data exceeding 27 bytes. .
  • FIG. 23 shows an example of the data structure of a newly defined DRIF packet.
  • HDMI it is possible to transmit incidental information about an image from a source device to a sink device using this DRIF packet.
  • PacketType (0x86) indicating a DRIF packet is defined.
  • the version of the DRIF packet is defined.
  • the data length excluding the header portion of the DRIF packet is defined in the 4th to 0th bits of the second byte.
  • a data checksum is defined.
  • an “HDR” flag indicating whether or not it exists after the fifth byte is designated.
  • the “HDR” flag is False, it indicates that the HDR image data is not transmitted.
  • the “HDR” flag is True, incidental information related to the HDR image is designated from the 5th byte to the Mth byte.
  • the seventh bit of the fifth byte information indicating whether the HDR image to be transmitted is subjected to processing such as luminance expansion and luminance compression in the source device is specified.
  • processing such as luminance expansion and luminance compression in the source device.
  • the sixth to fourth bits are set to 0b001 for the transmission method (1), 0b010 for the transmission method (2), and 0b011 for the transmission method (3).
  • the 6th to 4th bits 0b100 to 0b111 and the 3rd to 0th bits can be assigned when other methods are proposed.
  • the seventh to fourth bits are set to 0b0001 for the gamma correction method (1), 0b0010 for the gamma correction method (2), and 0b0011 for the gamma correction method (3).
  • 0b0100 is set.
  • the 7th to 4th bits 0b0101 to 0b1111 and the 4th to 0th bits can be assigned when other methods are proposed.
  • the method which transmits HDR transmission information using a VSIF packet, an AVIF packet, and a DRIF packet since it is realizable also with other data packets, it is not limited to this method.
  • the data structures of the VSIF packet, the AVIF packet, and the DRIF packet are shown by way of example, and other information can be added and transmitted, so the data structure is not limited.
  • FIG. 24A shows the data structure of “Dynamic_Range” in the gamma correction method (2) shown in FIG. Since the dynamic range “Dynamic_Range” of the transmitted HDR image is specified in units of 0.1%, it is necessary to secure 4 bytes in the case of specification by an integer. However, in the case of specification by logarithm, as shown in FIG. 24B, even if the dynamic range exceeds 1000%, it can be expressed by a total of 13 bits including an integer of 3 bits and a fraction of 10 bits. Becomes 2 bytes, and the data length can be shortened.
  • the disc player 11 starts processing in step ST1, and then proceeds to processing in step ST2.
  • the disc player 11 determines whether or not the fourth bit of the eighth byte of the VSDB area of the television receiver (sink device) 12 is at a high level “H”.
  • the disc player 11 sets data indicating non-transmission of the HDR image in the VSIF packet, the AIFF packet, or the DRIF packet in step ST3, and then Proceeding to step ST10, the process is terminated.
  • the setting of data indicating non-transmission of the HDR image means that the sixth bit of the seventh byte of the VSIF packet (see FIG.
  • step ST4 the disc player 11 determines whether or not the seventh bit of the 15th + M bytes in the VSDB area of the television receiver 12 is at the high level “H”.
  • step ST3 sets data indicating non-transmission of the HDR image, and then In step ST10, the process ends.
  • step ST4 When the seventh bit of the 15th + M bytes is at the high level “L” in step ST4, the disc player 11 proceeds to the next step ST5.
  • step ST5 the disc player 11 reads the 19 + M bytes from the 15 + M bytes in the VSDB area of the television receiver 12, and proceeds to the next step ST6.
  • step ST6 the disc player 11 determines the HDR image transmission method based on the HDR image transmission method information read in step ST5, and proceeds to the next step ST7.
  • step ST7 the disc player 11 reads out the gamma correction method for the HDR image of the 16th + Mth byte from the 7th + 5th bit of the VSDB area of the television receiver (sink device) 12 read in step ST5 and the 17th + Mth byte Based on the transmission method of gamma correction information from 7 bits to the fifth bit, the gamma correction method and the transmission method of gamma correction information are determined, and the process proceeds to the next step ST8.
  • step ST8 the disc player 11 sets the data corresponding to the HDR image transmission method determined in step ST6 and the gamma correction method and gamma correction information transmission method determined in step ST7 in the corresponding packet. Proceed to step ST9.
  • step ST9 the disc player 11 transmits the HDR based on the data of the maximum luminance (cd / m 2 ) of the 18 + M byte display panel 211 and the maximum luminance expansion level (%) of the 19 + M byte read out in step ST5.
  • Image luminance compression processing is performed, and transmission is started. Thereafter, the process proceeds to step ST10, and the processing ends.
  • the disc player 11 starts processing in step ST21, and then proceeds to processing in step ST22.
  • the disc player 11 determines whether or not the 17th + M-byte fifth bit of the VSDB area of the television receiver (sink device) 12 is at the high level “H”.
  • the disc player 11 sets the gamma correction information of the HDR image in the DRIF packet in step ST23, and then proceeds to step ST29 to end the processing.
  • setting the gamma correction information of the HDR image means setting predetermined data in the DRIF packet (see FIG. 23).
  • step ST24 the disc player 11 determines whether or not the 17th + M-byte 7th bit of the VSDB area of the television receiver 12 is at the high level “H”.
  • the disc player 11 proceeds to the next step ST25, sets the gamma correction information of the HDR image in the AIFF packet in step ST25, and then performs the step Proceeding to ST29, the process ends.
  • the setting of HDR image gamma correction information means setting predetermined data in the AVIF packet (see FIG. 22).
  • step ST26 the disc player 11 determines whether or not the sixth bit of the 17 + M bytes in the VSDB area of the television receiver 12 is at the high level “H”.
  • the disc player 11 proceeds to the next step ST27, sets the gamma correction information of the HDR image in the VSIF packet in step ST27, and then performs the step Proceeding to ST29, the process ends.
  • setting the gamma correction information of the HDR image means setting predetermined data in the VSIF packet (see FIG. 17).
  • step ST28 the disc player 11 sets the gamma correction information of the HDR image in the AIFF packet and the VSIF packet, and then proceeds to step ST29 and ends the process.
  • setting the gamma correction information of the HDR image means setting predetermined data in the AVIF packet (see FIG. 22) and the VSIF packet (see FIG. 17).
  • the HDR image data is transmitted from the disc player 11 to the television receiver 12 via the HDMI cable 13, and the transmission method information of the HDR image data and The gamma correction information is transmitted via the same HDMI cable 13, and the HDR image data can be transmitted satisfactorily.
  • the television receiver 12 can appropriately process the received HDR image data based on the received transmission method information and gamma correction information.
  • the disc player 11 selects a method that can be supported by the television receiver 12 as the HDR image data transmission method and the gamma correction method. Therefore, the television receiver 12 can reliably perform decoding processing and gamma correction processing of received HDR image data. That is, HDR image data can be satisfactorily transmitted between the disc player 11 and the television receiver 12.
  • the disc player 11 uses the VSIF packet, the AVIF packet, the DRIF packet, or the like for the HDR image data transmission method information and the gamma correction information, and the blanking period of the image data (video signal). Is transmitted to the television receiver 12.
  • the disc player 11 may transmit HDR image data transmission method information and gamma correction information to the television receiver 12 via the CEC line 24 which is a control data line of the HDMI cable 13. Further, for example, the disc player 11 sends the HDR image data transmission method information and gamma correction information to the television receiver 12 via the bidirectional communication path constituted by the reserve line 27 and the HPD line 25 of the HDMI cable 13. You may make it transmit.
  • the E-EDID of the television receiver 12 includes transmission method information of HDR image data, gamma correction method information, and transmission method information of gamma correction information corresponding to the television receiver 12.
  • the disc player 11 reads the E-EDID through the DDC 23 of the HDMI cable 13 to transmit the transmission method information, the gamma correction method information, and the gamma correction information of the HDR image data corresponding to the television receiver 12. Method information is acquired.
  • the disc player 11 transmits the HDR image data transmission method information, gamma correction method information, and gamma correction information transmission method information supported by the television receiver 12 from the television receiver 12 to the control data line of the HDMI cable 13. You may make it receive via the CEC line 24 or the bidirectional
  • the disc player 11 shows an example in which transmission method information of HDR image data, gamma correction information, and transmission method information of gamma correction information are transmitted to the television receiver 12.
  • a configuration for transmitting either one is also conceivable.
  • an HDMI transmission path is used.
  • baseband digital interface in addition to HDMI, MHL (Mobile High-definition Link), DVI (Digital Visual Interface) interface, DP (Display Port) interface, optical interface, wireless interface using 60 GHz millimeter wave, etc.
  • MHL Mobile High-definition Link
  • DVI Digital Visual Interface
  • DP Display Port
  • optical interface wireless interface using 60 GHz millimeter wave, etc.
  • HDR image data is transmitted using these digital interfaces.
  • FIG. 27 shows a configuration example of a DP system 300 using a DP interface.
  • a DP transmission device 301 and a DP reception device 307 are connected by a DP cable 303.
  • the DP transmission device 301 includes a DP transmission unit 302
  • the DP reception device 307 includes a DP reception unit 308 and a storage unit 309.
  • the DP cable 303 includes a main link 304, an AUX channel 305, and a hot plug detection 306.
  • the main link 304 is composed of one, two, or four double-terminated differential signal pairs (pair lanes) and does not have a dedicated clock signal, but instead is embedded with a clock in the 8B / 10B encoded data stream. ing.
  • the main link 304 is used to transmit HDR image data, HDR image data transmission method information, and gamma correction information.
  • the transmission data structure of the DP interface uses the TMDS transmission data structure (see FIG. 3) in HDMI, and the HDR image data uses the image data structure in FIGS. 7 to 9 in HDMI. Also, transmission method information and gamma correction information of HDR image data are inserted and transmitted in a data island section 18 (see FIG. 3) in HDMI, a VSIF packet (see FIG. 17), an AVIF packet (see FIG. 22), a DRIF The same packet as the data structure of the packet (see FIG. 23) is used.
  • the DP transmission device 301 confirms the connection of the DP reception device 307 with the hot plug detection 306. Thereafter, the DP transmission device 301 uses the AUX channel 305 to read the E-EDID HDR image information from the storage unit 309 of the DP reception device 307, and recognizes the HDR image transmission method corresponding to the DP reception device 307.
  • the data structure of the HDR image information of the E-EDID of the DP receiving device 307 may be the same as that shown in FIGS.
  • the DP interface includes a half-duplex bi-directional AUX channel 305 having a bandwidth of 1 Mbit / sec or a bandwidth of 720 Mbit / sec. Exchange information about functions between the two.
  • AUX channel 305 transmission method information of HDR image data, gamma correction method information, and transmission method information of gamma correction information can be transmitted.
  • FIG. 28 shows a configuration example of an MHL system 400 using an MHL interface.
  • an MHL transmission device 401 and an MHL reception device 408 are connected by an MHL cable 404.
  • the MHL transmission device 401 includes a TMDS transmission unit 402 and a storage unit 403
  • the MHL reception device 408 includes a TMDS reception unit 409, a storage unit 410, and an EDID-ROM 411.
  • the MHL cable 404 includes a TMDS channel 405, a CBUS (MHL Link Control Bus) / eCBUS (enhanced MHL Link Control Bus) line 406, and a power supply VBUS (MHL Voltage Bus) line 407.
  • the TMDS channel 405 includes a pair of differential signals, and transmits HDR image data, transmission method information of HDR image data, gamma correction information, and transmission method information thereof.
  • the transmission data structure of the MHL interface uses the TMDS transmission data structure (see FIG. 3) in HDMI
  • the HDR image data uses the image data structure in FIGS. 7 to 9 in HDMI.
  • transmission method information and gamma correction information of HDR image data are transmitted in a VSIF packet (see FIG. 17), an AVIF packet (see FIG. 22), and transmitted in a data island section 18 (see FIG. 3) in HDMI.
  • the same packet as the data structure of the DRIF packet is used.
  • the MHL transmitting device 401 confirms the connection of the MHL receiving device 408 through the CBUS / eCBUS line 406.
  • the MHL transmitting device 401 reads the E-EDID HDR image information from the MHL receiving device 408 using the CBUS / eCBUS line 406, and recognizes the HDR image transmission method supported by the MHL receiving device 408.
  • the data structure of the HDR image information of the E-EDID of the MHL receiving device 408 may be the same as that shown in FIGS.
  • the disc player 11 is used as the transmission device (source device) and the television receiver 12 is used as the reception device (sink device).
  • the transmission device source device
  • the television receiver 12 is used as the reception device (sink device).
  • other transmission devices and reception devices are used. It goes without saying that the present technology can be applied to the one to be used as well.
  • this technique can also take the following structures.
  • a data transmission unit that transmits high dynamic range image data to an external device;
  • a transmission apparatus comprising: an information transmission unit configured to transmit transmission method information and / or gamma correction information of the high dynamic range image data transmitted by the data transmission unit to the external device.
  • the transmission device according to (1) wherein the data transmission unit transmits the high dynamic range image data to the external device using a differential signal.
  • the information transmission unit inserts transmission method information and / or gamma correction information of the high dynamic range image data transmitted by the data transmission unit into a blanking period of the high dynamic range image data.
  • the transmission device according to (2) wherein transmission is performed to the external device.
  • Transmission method information and gamma correction information of the high dynamic range image data transmitted by the data transmission unit includes maximum white level information exceeding 100% of the high dynamic range image data, a bit value when expressing the black level, Bit value when expressing 100% white level, flag indicating whether high dynamic range processing is performed, receiving device luminance level assumed at 100% white level, luminance input level required for luminance expansion of high dynamic range image,
  • the transmission device according to any one of (1) to (3), including at least one of extended luminance output levels necessary for luminance expansion of a high dynamic range image.
  • An information receiving unit that receives transmission method information and / or gamma correction method information of high dynamic range image data that can be supported by the external device, sent from the external device; Based on the transmission method information and / or gamma correction method information received by the information receiver, the high dynamic range image data transmission method and / or gamma correction method that can be supported by the external device is changed to a predetermined transmission method and / or Or a method selection unit for selecting a gamma correction method; The data transmission unit transmits the high dynamic range image data of the transmission method and / or the gamma correction method selected by the method selection unit to the external device according to any one of (1) to (4). Transmitter device.
  • the information receiving unit further receives transmission method information of the high dynamic range image data and / or transmission method information of gamma correction information sent from the external device,
  • the information transmitting unit transmits the transmission method information and / or gamma correction information of the high dynamic range image data to the external device in the transmission method indicated by the transmission method information received by the information receiving unit.
  • the high dynamic range image data includes first data and second data,
  • the data transmission unit configures the first data and the second data in a video format defined for a stereoscopic image, and transmits the video data to the external device. Transmitter.
  • the high dynamic range image data includes first data and second data
  • the data transmission unit transmits the first data as a first frame image to the external device, and transmits the second data as a second frame image to the external device.
  • the high dynamic range image data includes first data and second data, The first data is lower 8 bit data of high dynamic range image data, and the second data is upper bit data of high dynamic range image data, or the first data is high dynamic range image data.
  • the transmission device according to any one of (1) to (6), wherein the second data is lower-order bit data of high dynamic range image data along with upper-order 8-bit data of image data.
  • a data transmission step of transmitting high dynamic range image data to an external device A high dynamic range image data transmission method comprising: an information transmission step of transmitting transmission method information and / or gamma correction information of the high dynamic range image data transmitted in the data transmission step to the external device.
  • the computer Data transmission means for transmitting high dynamic range image data to an external device A program for causing transmission method information and / or gamma correction information of the high dynamic range image data transmitted by the data transmission unit to function as an information transmission unit for transmitting to the external device.
  • a data receiving unit for receiving high dynamic range image data for displaying a high dynamic range image from an external device; An information receiving unit for receiving transmission method information and / or gamma correction information of high dynamic range image data received by the data receiving unit from the external device; And a data processing unit that processes the high dynamic range image data received by the data receiving unit based on transmission method information and / or gamma correction information received by the information receiving unit.
  • the receiving device wherein the data receiving unit receives the high dynamic range image data from the external device by a differential signal.
  • the information receiving unit extracts transmission method information and / or gamma correction information of the high dynamic range image data from a blanking period of the high dynamic range image data received by the data receiving unit.
  • the receiving device according to 13).
  • An information storage unit that stores transmission method information and / or gamma correction method information of high dynamic range image data that can be handled by the device;
  • the receiving device according to any one of (12) to (14), further including: an information transmission unit that transmits transmission method information and / or gamma correction method information stored in the information storage unit to the external device .
  • the information storage unit further stores transmission method information of the high dynamic range image data and / or transmission method information of gamma correction information,
  • the information transmitting unit further transmits the transmission method information of the high dynamic range image data and / or the transmission method information of gamma correction information stored in the information storage unit to the external device.
  • Receiver device Receiver device.
  • the information storage unit further stores at least one of displayable maximum luminance information, maximum expansion luminance level information capable of high dynamic range processing, and expansion processing prohibition flag (15) or (16) The receiving device described in 1.
  • Data receiving means for receiving high dynamic range image data for displaying a high dynamic range image from an external device;
  • Information receiving means for receiving transmission method information and / or gamma correction information of high dynamic range image data received by the data receiving means from the external device;
  • a program that functions as data processing means for processing high dynamic range image data received by the data receiving means based on transmission method information and / or gamma correction information received by the information receiving means.

Abstract

 機器間におけるHDR画像データの伝送を良好に行う。 ハイダイナミックレンジ画像データを、外部機器に送信する。このハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、外部機器に送信する。外部機器では、例えば、送信されてきたハイダイナミックレンジ画像データがいかなる伝送方式によるものか、いかなるガンマ補正方式によるものかなどを容易に把握でき、従ってハイダイナミックレンジ画像データの伝送を良好に行うことができる。

Description

送信装置、ハイダイナミックレンジ画像データ送信方法、受信装置、ハイダイナミックレンジ画像データ受信方法およびプログラム
 この発明は、送信装置、ハイダイナミックレンジ画像データ送信方法、受信装置、ハイダイナミックレンジ画像データ受信方法およびプログラムに関し、詳しくは、ハイダイナミックレンジ画像を表示するためのハイダイナミックレンジ画像データを送信する送信装置等に関する。
 近年、例えば、DVD(Digital Versatile Disc)レコーダや、セットトップボックス、その他のAVソース(Audio Visual Source)から、テレビ受信機、プロジェクタ、その他のディスプレイに対して、デジタル映像信号、すなわち、非圧縮(ベースバンド)の映像信号(画像データ)と、その映像信号に付随するデジタル音声信号(音声データ)とを、高速に伝送する通信インタフェースとして、HDMI(High Definition Multimedia Interface)が普及しつつある。例えば、非特許文献1には、HDMI規格の詳細についての記載がある。
 例えば、ソース機器としてのディスクプレーヤとシンク機器としてのテレビ受信機とを、HDMI接続したAVシステムなどが考えられる。ディスクプレーヤに記録された画像データは、最大輝度100cd/mという仕様の表示装置で表示されることを想定して輝度調整されている。
 一方、技術の進歩により、表示装置の最大輝度が従来の100cd/mを超えて1000cd/m程度のものが実用化されており、表示装置の高輝度出力の能力が活かされていない。
 そこで、画像データの最大輝度処理を100cd/mを超えて輝度ダイナミックレンジ処理を行うハイダイナミックレンジ(HDR:High Dynamic Range)処理が提案され、静止画の撮像、ポスト処理では実用化されている。例えば、特許文献1には、HDR画像データの記録方式およびその処理に関する提案がされている。
High-Definition Multimedia Interface Specification Version 1.4b, October 11,2011
特開2005-352482号公報
 従来、HDMI等のデジタルインタフェースでのハイダイナミックレンジの伝送仕様については何等提案されていない。
 本技術の目的は、機器間におけるハイダイナミックレンジ画像データの伝送を良好に行い得るようにすることにある。
  本技術の概念は、
 ハイダイナミックレンジ画像データを、外部機器に送信するデータ送信部と、
 上記データ送信部で送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する情報送信部とを備える
 送信装置にある。
 本技術において、データ送信部により、ハイダイナミックレンジ画像データが、外部機器に送信される。例えば、データ送信部は、外部機器に、ハイダイナミックレンジ画像データを、差動信号により送信する、ようにされてもよい。
 例えば、ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、データ送信部は、第1のデータおよび第2のデータを立体画像用に規定された映像フォーマットで構成し、外部機器に送信する、ようにされてもよい。また、例えば、ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、データ送信部は、第1のデータを第1のフレーム画像として外部機器に送信し、第2のデータを第2のフレーム画像として外部機器に送信する、ようにされてもよい。
 例えば、ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、第1のデータはハイダイナミックレンジ画像データの下位8ビットデータであると共に、第2のデータはハイダイナミックレンジ画像データの上位ビットデータであるか、あるいは、第1のデータはハイダイナミックレンジ画像データの上位8ビットデータであると共に、第2のデータはハイダイナミックレンジ画像データの下位ビットデータである、ようにされてもよい。
 情報送信部により、データ送信部で送信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報が、外部機器に送信される。例えば、情報送信部は、データ送信部で送信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、このハイダイナミックレンジ画像データのブランキング期間に挿入することで、外部機器に送信する、ようにされてもよい。
 また、例えば、データ送信部で送信されるハイダイナミックレンジ画像データの伝送方式情報およびガンマ補正情報は、ハイダイナミックレンジ画像データの100%を超える最大白レベル情報、黒レベル表現時のビット値、100%白レベル表現時のビット値、ハイダイナミックレンジ処理の実施有無を示すフラグ、100%白レベル時に想定される受信装置輝度レベル、ハイダイナミックレンジ画像の輝度伸長のために必要な輝度入力レベル、ハイダイナミックレンジ画像の輝度伸長のために必要な伸長輝度出力レベルの少なくとも1つを含む、ようにされてもよい。
 このように本技術においては、ハイダイナミックレンジ画像データが外部機器に送信されると共に、このハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報が外部機器に送信されるものである。そのため、外部機器では、例えば、送信されてきたハイダイナミックレンジ画像データがいかなる伝送方式によるものか、いかなるガンマ補正方式によるものかなどを容易に把握でき、従ってハイダイナミックレンジ画像データの伝送を良好に行うことができる。
 なお、本技術において、例えば、外部機器から送られてくる、この外部機器が対応可能なハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正方式情報を受信する情報受信部と、この情報受信部で受信された伝送方式情報および/またはガンマ補正方式情報に基づいて、外部機器が対応可能なハイダイナミックレンジ画像データの伝送方式および/またはガンマ補正方式から所定の伝送方式および/またはガンマ補正方式を選択する方式選択部とをさらに備え、データ送信部は、この方式選択部で選択された伝送方式および/またはガンマ補正方式のハイダイナミックレンジ画像データを、外部機器に送信する、ようにされてもよい。
 この場合、外部機器に送信されるハイダイナミックレンジ画像データの伝送方式および/またはガンマ補正方式は必ず外部機器が対応可能なものとなる。そのため、ハイダイナミックレンジ画像データの伝送を良好に行うことができる。
 例えば、情報受信部は、外部機器から送られてくる、ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報をさらに受信し、情報送信部は、受信された伝送方式情報が示す伝送方式で、ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を外部機器に送信する、ようにされてもよい。この場合、ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を外部機器が対応可能な伝送方式で良好に送ることができる。
 また、本技術の他の概念は、
 外部機器から、ハイダイナミックレンジ画像を表示するためのハイダイナミックレンジ画像データを受信するデータ受信部と、
 上記外部機器から、上記データ受信部で受信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を受信する情報受信部と、
 上記情報受信部で受信された伝送方式情報および/またはガンマ補正情報に基づいて、上記データ受信部で受信されたハイダイナミックレンジ画像データを処理するデータ処理部とを備える
 受信装置にある。
 本技術において、データ受信部により、外部機器から、ハイダイナミックレンジ画像を表示するためのハイダイナミックレンジ画像データが受信される。例えば、データ受信部は、外部機器から、差動信号により、ハイダイナミックレンジ画像データを受信する、ようにされてもよい。
 情報受信部により、外部機器から、データ受信部で受信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報が受信される。そして、データ処理部により、情報受信部で受信された伝送方式情報および/またはガンマ補正情報に基づいて、データ受信部で受信されたハイダイナミックレンジ画像データが処理される。
 例えば、情報受信部は、データ受信部で受信されたハイダイナミックレンジ画像データのブランキング期間から、このハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を抽出する、ようにされてもよい。
 このように本技術においては、送信側から送られてくるハイダイナミックレンジ画像データを同様に送信側から送られてくる伝送方式情報および/またはガンマ補正情報に基づいて処理するものであり、受信されたハイダイナミックレンジ画像データに対して適切な処理を容易に行うことができる。
 なお、本技術において、例えば、自身が対応可能なハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正方式情報を記憶しておく情報記憶部と、この情報記憶部に記憶されている伝送方式情報および/またはガンマ補正方式情報を、外部機器に送信する情報送信部とをさらに備える、ようにされてもよい。このように自身が対応可能なハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正方式情報を送信側に送ることで、送信側から自身が対応可能な伝送方式および/またはガンマ補正方式のハイダイナミックレンジ画像データを送ってもらうことが可能となる。
 例えば、情報記憶部は、表示可能な最大輝度情報、ハイダイナミックレンジ処理可能な最大伸長輝度レベル情報、伸長処理禁止フラグの少なくとも1つをさらに記憶している、ようにされてもよい。
 また、例えば、情報記憶部は、ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報をさらに記憶しており、情報送信部は、情報記憶部に記憶されているハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報を外部機器にさらに送信する、ようにされてもよい。これにより、ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、自身が対応可能な伝送方式で確実に送ってもらうことが可能となる。
 本技術によれば、機器間におけるハイダイナミックレンジ画像データの伝送を良好に行うことができる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としてのAVシステムの構成例を示すブロック図である。 ディスクプレーヤのHDMI送信部と、テレビ受信機のHDMI受信部の構成例を示すブロック図である。 TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示す図である。 従来の8ビット伝送方式を説明するための図である。 AVシステムを構成するディスクプレーヤ(ソース機器)の構成例を示すブロック図である。 AVシステムを構成するテレビ受信機(シンク機器)の構成例を示すブロック図である。 ディープカラー(Deep Color)の伝送フォーマットを用いてHDR画像データを伝送する伝送方式(1)を説明するための図である。 立体映像フォーマットを用いてHDR画像データを伝送する伝送方式(2)を説明するための図である。 ハイフレームレート映像フォーマットを用いてHDR画像データを伝送する伝送方式(3)を説明するための図である。 HDRガンマ補正方式(1)を説明するための図である。 HDRガンマ補正方式(2)を説明するための図である。 HDRガンマ補正方式(3)を説明するための図である。 HDRガンマ補正方式(4)を説明するための図である。 シンク機器(テレビ受信機)に記憶されているE-EDIDのデータ構造例を示す図である。 E-EDIDのVender Specific領域のデータ構造例を示す図である。 E-EDIDのVideo Capability領域のデータ構造例を示す図である。 HDMIのVendor Specific InfoFrameパケットのデータ構造例を示す図である。 HDR_Meta_Type=1で伝送されるガンマ補正情報のデータ構造例を示す図である。 HDR_Meta_Type=2で伝送されるガンマ補正情報のデータ構造例を示す図である。 HDR_Meta_Type=3で伝送されるガンマ補正情報のデータ構造例を示す図である。 HDR_Meta_Type=4で伝送されるガンマ補正情報のデータ構造例を示す図である。 HDMIのAuxiliary Video InfoFrameパケットのデータ構造例を示す図である。 HDMIのDynamic Range InfoFrameパケットのデータ構造例を示す図である。 整数および対数で設定されるガンマ補正情報のデータ構造の一例を示す図である。 ソース機器(ディスクプレーヤ)でのHDR伝送方式の選択処理例を示すフローチャートである。 ソース機器(ディスクプレーヤ)でのHDRガンマ補正情報の伝送方式の選択処理例を示すフローチャートである。 DPインタフェースを用いたDPシステムの構成例を示すブロック図である。 MHLインタフェースを用いたMHLシステムの構成例を示すブロック図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [AVシステムの構成例]
 図1は、実施の形態としてのAV(Audio Visual)システム10の構成例を示している。このAVシステム10は、ソース機器としてのディスクプレーヤ11と、シンク機器としてのテレビ受信機12とを有している。ディスクプレーヤ11およびテレビ受信機12は、伝送路としてのHDMIケーブル13を介して接続されている。
 ディスクプレーヤ11には、HDMI送信部(HDMITX)11bおよび高速バスインタフェース(高速バスI/F)11cが接続されたHDMI端子11aが設けられている。テレビ受信機12には、HDMI受信部(HDMI RX)12bおよび高速バスインタフェース(高速バスI/F)12cが接続されたHDMI端子12aが設けられている。HDMIケーブル13の一端はディスクプレーヤ11のHDMI端子11aに接続され、このHDMIケーブル13の他端はテレビ受信機12のHDMI端子12aに接続されている。
 図1に示すAVシステム10において、ディスクプレーヤ11で再生されて得られた非圧縮の画像データはHDMIケーブル13を介してテレビ受信機12に送信され、このテレビ受信機12ではディスクプレーヤ11から送信された画像データによる画像が表示される。また、ディスクプレーヤ11で再生されて得られた非圧縮の音声データはHDMIケーブル13を介してテレビ受信機12に送信され、このテレビ受信機12ではディスクプレーヤ11から送信された音声データによる音声が出力される。
 図2は、図1のAVシステム10における、ディスクプレーヤ11のHDMI送信部11bと、テレビ受信機12のHDMI受信部12bの構成例を示している。HDMI送信部11bは、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間15および垂直帰線区間16を除いた区間である有効画像区間14(以下、適宜、アクティブビデオ区間ともいう)(図3参照)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部12bに一方向に送信する。また、HDMI送信部11bは、水平帰線区間15または垂直帰線区間16において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部12bに一方向に送信する。
 すなわち、HDMI送信部11bは、HDMIトランスミッタ21を有する。トランスミッタ21は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDS(Transition Minimized Differential Signaling)チャネル#0,#1,#2で、HDMI受信部12bに、一方向にシリアル伝送する。
 また、トランスミッタ21は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2で、HDMI受信部12bに一方向にシリアル伝送する。さらに、トランスミッタ21は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMI受信部12bに送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。
 HDMI受信部12bは、アクティブビデオ区間14(図3参照)において、複数のチャネルで、HDMI送信部11bから一方向に送信されてくる、画素データに対応する差動信号を受信する。また、HDMI受信部12bは、水平帰線区間15(図3参照)または垂直帰線区間16(図3参照)において、複数のチャネルで、HDMI送信部11bから一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
 すなわち、HDMI受信部12bは、HDMIレシーバ22を有する。レシーバ22は、TMDSチャネル#0,#1,#2で、HDMIケーブル13を介して接続されているHDMI送信部11bから一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を、受信する。この際、同じくHDMI送信部11bからTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。
 HDMIソース送信部11bとHDMI受信部12bとからなるHDMIシステムの伝送チャネルには、画素データおよび音声データを伝送するための伝送チャネルとしての3つのTMDSチャネル#0乃至#2と、ピクセルクロックを伝送する伝送チャネルとしてのTMDSクロックチャネルの他に、DDC(Display Data Channel)23やCEC(Consumer Electronics Control)ライン24と呼ばれる伝送チャネルがある。
 DDC23は、HDMIケーブル13に含まれる2本の信号線からなり、HDMI送信部11bが、HDMIケーブル13を介して接続されたHDMI受信部12bから、E-EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。すなわち、HDMI受信部12bは、HDMIレシーバ22の他に、自身の性能(Configuration・Capability)に関する性能情報であるE-EDIDを記憶している、EDID ROM(Read Only Memory)を有している。
 HDMI送信部11bは、HDMIケーブル13を介して接続されているHDMI受信部12bから、当該HDMI受信部12bのE-EDIDを、DDC23を介して読み出す。そして、HDMI送信部11bは、そのE-EDIDに基づき、HDMI受信部12bの性能の設定、すなわち、例えば、HDMI受信部12bを有する電子機器が対応している画像のフォーマット(プロファイル)、例えば、RGB、YCbCr4:4:4、YCbCr4:2:2等を認識する。
 CECライン24は、HDMIケーブル13に含まれる1本の信号線からなり、HDMI送信部11bとHDMI受信部12bとの間で、制御用のデータの双方向通信を行うために用いられる。また、HDMIケーブル13には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)25が含まれている。
 ソース機器は、このライン25を利用して、直流バイアス電位により、シンク機器の接続を検出することができる。この場合、HPDラインは、ソース機器側から見ると、直流バイアス電位によってシンク機器から接続状態の通知を受ける機能を有するものとなる。一方、このHPDラインは、シンク機器側から見ると、直流バイアス電位によってソース機器に接続状態を通知する機能を有するものとなる。
 また、HDMIケーブル13には、ソース機器からシンク機器に電源を供給するために用いられるライン(電源ライン)26が含まれている。さらに、HDMIケーブル13には、リザーブライン27が含まれている。HPDライン25とリザーブライン27を用いて、一対の差動伝送路を構成し、双方向通信路として用いる場合もある。
 図3は、TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、ビデオデータ区間17(Video Data Period)、データアイランド区間18(Data Island Period)、およびコントロール区間19(Control Period)の3種類の区間が存在する。
 ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(Active Edge)から次の垂直同期信号の立ち上がりエッジまでの区間であり、水平帰線期間15(Horizontal Blanking)、垂直帰線期間16(Vertical Blanking)、並びに、ビデオフィールド区間から、水平帰線期間および垂直帰線期間を除いた区間である有効画素区間14(Active Video)に分けられる。
 ビデオデータ区間17は、有効画素区間14に割り当てられる。このビデオデータ区間17では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active Pixel)のデータが伝送される。データアイランド区間18およびコントロール区間19は、水平帰線期間15および垂直帰線期間16に割り当てられる。このデータアイランド区間18およびコントロール区間19では、補助データ(Auxiliary Data)が伝送される。
 すなわち、データアイランド区間18は、水平帰線期間15と垂直帰線期間16の一部分に割り当てられている。このデータアイランド区間18では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。コントロール区間19は、水平帰線期間15と垂直帰線期間16の他の部分に割り当てられている。このコントロール区間19では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
 この実施の形態において、ディクスプレーヤ11は、テレビ受信機12から、HDMIケーブル13を介して、このテレビ受信機12が対応可能なハイダイナミックレンジ画像データの伝送方式情報およびガンマ補正方式情報を受信する。以下、ハイダイナミックレンジを適宜「HDR」と略記する。この場合、テレビ受信機12は、自身が対応するHDR画像データの伝送方式情報およびガンマ補正方式情報を記憶部に記憶しており、この伝送方式情報およびガンマ補正方式情報を、HDMIケーブル13を介してディスクプレーヤ11に送信する。なお、従来は、HDR画像の伝送仕様がなく、メーカー間での互換性がなかった。
 ディスクプレーヤ11は、テレビ受信機12から受信した伝送方式情報およびガンマ補正方式情報に基づいて、テレビ受信機が対応可能なHDR画像データの伝送方式から所定の伝送方式およびガンマ補正方式を選択する。この場合、ディスクプレーヤ11は、例えば、テレビ受信機12が対応可能なHDR画像データの伝送方式およびガンマ補正方式が複数ある場合には、最も画質劣化の少ない伝送方式および最も近似が容易なガンマ補正方式を選択する。
 ディスクプレーヤ11は、選択した伝送方式およびガンマ補正方式のHDR画像データを、HDMIケーブル13を介してテレビ受信機12に送信する。この際、ディスクプレーヤ11は、送信するHDR画像データの伝送方式情報およびガンマ補正情報を、HDMIケーブル13を介してテレビ受信機12に送信する。
 テレビ受信機12は、ディクスプレーヤ11から、HDMIケーブル13を介して、HDR画像データを受信すると共に、その伝送方式情報およびガンマ補正情報を受信する。テレビ受信機12は、受信したHDR画像データを、受信した伝送方式情報およびガンマ補正情報に基づいて処理し、表示用のHDR画像データを生成する。自然界の物体の最大輝度は2000cd/m2 以上にも達する。
 従来、例えば、ディスクプレーヤに記録されている画像データは最大輝度100cd/m2 という仕様の表示装置で表示されることを想定して輝度調整されている。つまり、従来は、自然界の輝度値に比べて画像データでは輝度が大幅に圧縮されている。また、表示装置の最大輝度が従来の100cd/mを超えて1000cd/m2 程度のものが実用化されている。元々100cd/m2 で調整された画像データを表示装置で1000cd/m に合わせて輝度値を上げる処理を行うと画質に問題が生じる。
 HDR画像は、白レベル輝度100%以上の高輝度の画像を表現するために提案されている。通常の白レベル輝度100%は8ビットシステムではビット値が235または255で表現される。白レベル輝度100%を超える輝度を表現するためには階調8ビット以上のビット数が必要になる。つまり、HDR画像データは、10ビット、12ビット、16ビットなどの画像データとなる。
 図4は、従来の8ビット伝送方式の概念図を示している。図4(a)は、元の10ビットのHDR画像データの輝度レベルとそのときのビット値の一例を示している。図4(b)は、10ビットのHDR画像データを8ビット伝送方式で伝送するために変換された8ビットの画像データの輝度レベルとそのときのビット値の一例を示している。この場合、輝度レベル100%を8ビット値の「235」に割り当てるため、輝度200%は8ビット値の最大値である「255」となり、輝度圧縮が行われ、輝度108%を超える情報が失われる。
 [ディスクプレーヤの構成例]
 図5は、ディスクプレーヤ11の構成例を示している。このディスクプレーヤ11は、HDMI端子11aと、HDMI送信部11bと、高速バスインタフェース11cを有している。また、このディスクプレーヤ11は、CPU(Central Processing Unit)104と、内部バス105と、フラッシュROM(Read Only Memory)106と、SDRAM(Synchronous Random Access Memory)107と、リモコン受信部108と、リモコン送信機109を有している。
 また、ディスクプレーヤ11は、SATA(Serial Advanced Technology Attachment)インタフェース110と、BD(Blu-Ray Disc)ドライブ111と、イーサネットインタフェース(Ethernet I/F)112と、ネットワーク端子113を有している。また、ディスクプレーヤ11は、MPEG(Moving Picture Expert Group)デコーダ115と、グラフィック生成回路116と、映像出力端子117と、音声出力端子118と、HDR処理回路114を有している。
 また、ディスクプレーヤ11は、表示制御部121と、パネル駆動回路122と、表示パネル123と、電源部124を有していてもよい。なお、「イーサネット」および「Ethernet」は登録商標である。高速バスインタフェース11c、CPU104、フラッシュROM106、SDRAM107、リモコン受信部108、SATAインタフェース110、イーサネットインタフェース112およびMPEGデコーダ115は、内部バス105に接続されている。
 CPU104は、ディスクプレーヤ11の各部の動作を制御する。フラッシュROM106は、制御ソフトウェアの格納およびデータの保管を行う。SDRAM107は、CPU104のワークエリアを構成する。CPU104は、フラッシュROM106から読み出したソフトウェアやデータをSDRAM107上に展開してソフトウェアを起動させ、ディスクプレーヤ11の各部を制御する。
 リモコン受信部108は、リモコン送信機109から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU104に供給する。CPU104は、リモコンコードに従ってディスクプレーヤ11の各部を制御する。なお、この実施の形態では、ユーザ指示入力部としてリモートコントロール部を示しているが、ユーザ指示入力部は、その他の構成、例えば、スイッチ、ホイール、近接/タッチにより指示入力を行うタッチパネル部、マウス、キーボード、カメラで指示入力を検出するジェスチャ入力部、音声により指示入力を行う音声入力部などであってもよい。
 BDドライブ111は、ディスク状記録メディアとしてのBDディスク(図示せず)に対して、コンテンツデータを記録し、あるいは、このBDディスクからコンテンツデータを再生する。このBDドライブ111は、SATAインタフェース110を介して内部バス105に接続されている。MPEGデコーダ115は、BDドライブ111で再生されたMPEG2ストリームに対してデコード処理を行って画像および音声のデータを得る。
 グラフィック生成回路116は、MPEGデコーダ115で得られた画像データに対して、必要に応じてグラフィックスデータの重畳処理等を行う。映像出力端子117は、グラフィック生成回路116から出力される画像データを出力する。音声出力端子118は、MPEGデコーダ115で得られた音声データを出力する。
 パネル駆動回路122は、グラフィック生成回路260から出力される映像(画像)データに基づいて、表示パネル123を駆動する。表示制御部121は、グラフィクス生成回路116やパネル駆動回路122を制御して、表示パネル123における表示を制御する。表示パネル123は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)有機EL(Organic Electro-Luminescence)パネル等で構成されている。
 なお、この実施の形態では、CPU104の他に表示制御部121を有する例を示しているが、表示パネル123における表示をCPU104が直接制御するようにしてもよい。また、CPU104と表示制御部121は、1つのチップになっていても、複数コアであってもよい。電源部124は、ディスクプレーヤ11の各部に電源を供給する。この電源部124は、AC電源であっても、電池(蓄電池、乾電池)であってもよい。
 HDMI送信部(HDMIソース)11bは、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子11aから送出する。高速バスインインタフェース11cは、HDMIケーブル13を構成する所定ライン(この実施の形態においては、リザーブライン、HPDライン)を用いて構成される双方向通信路のインタフェースである。
 この高速バスインタフェース11cは、イーサネットインタフェース112とHDMI端子101との間に挿入されている。この高速バスインタフェース11cは、CPU104から供給される送信データを、HDMI端子101からHDMIケーブル13を介して相手側の機器に送信する。また、この高速バスインタフェース11cは、HDMIケーブル13からHDMI端子11aを介して相手側の機器から受信された受信データをCPU104に供給する。
 HDR処理回路114は、MPEGデコーダ115で得られた画像データのうち、HDR画像を表示するためのHDR画像データをHDMIのTMDSチャネルで送信する際に、このHDR画像データを伝送方式に応じた状態に加工処理する。ここで、HDR画像データは、例えば、ディープカラー(Deep Color)の画像フォーマットに準じて構成されるか、あるいは立体画像データフォーマットに準じて構成されるか、あるいはハイフレームレート画像フォーマットに準じて構成される。HDR処理回路114とHDMI送信部11bは、1つのチップになっていても、複数コアであってもよい。HDR画像データの伝送方式の種類、伝送方式の選択、各方式のパッキングフォーマット等の詳細は後述する。
 図5に示すディスクプレーヤ11の動作を簡単に説明する。記録時には、図示されないデジタルチューナを介して、あるいはネットワーク端子113からイーサネットインタフェース112を介して、あるいはHDMI端子11aから高速バスインタフェース11cを介して、記録すべきコンテンツデータが取得される。このコンテンツデータは、SATAインタフェース110に入力され、BDドライブ111によりBDディスクに記録される。場合によっては、このコンテンツデータは、SATAインタフェース110に接続された、図示されないHDD(ハードディスクドライブ)に記録されてもよい。
 再生時には、BDドライブ111によりBDディスクから再生されたコンテンツデータ(MPEGストリーム)は、SATAインタフェース110を介してMPEGデコーダ115に供給される。MPEGデコーダ115では、再生されたコンテンツデータに対してデコード処理が行われ、ベースバンドの画像および音声のデータが得られる。画像データは、グラフィック生成回路116を通じて映像出力端子117に出力される。また、音声データは、音声出力端子118に出力される。
 また、再生時には、MPEGデコーダ115で得られた画像データが、ユーザ操作に応じて、グラフィック生成回路116を通じてパネル駆動回路122に供給され、表示パネル123に再生画像が表示される。また、MPEGデコーダ115で得られた音声データが、ユーザ操作に応じて、図示しないスピーカに供給され、再生画像に対応した音声が出力される。
 また、この再生時に、MPEGデコーダ115で得られた画像および音声のデータをHDMIのTMDSチャネルで送信する場合には、これら画像および音声のデータは、HDMI送信部11bに供給されてパッキングされ、このHDMI送信部11bからHDMI端子11aに出力される。
 なお、画像データがHDR画像データである場合には、このHDR画像データは、HDR処理回路114により、選択された伝送方式に応じた状態に加工処理された後に、HDMI送信部11bに供給される。また、再生時に、BDドライブ111で再生されたコンテンツデータをネットワークに送出する際には、このコンテンツデータは、イーサネットインタフェース112を介して、ネットワーク端子113に出力される。同様に、再生時に、BDドライブ111で再生されたコンテンツデータをHDMIケーブル13の双方向通信路に送出する際には、当該コンテンツデータは、高速バスインタフェース11cを介して、HDMI端子11aに出力される。ここで、画像データを出力する前に、著作権保護技術、例えばHDCP、DTCP、DTCP+などを用いて暗号化してから伝送してもよい。
 [テレビ受信機の構成例]
 図6は、テレビ受信機12の構成例を示している。このテレビ受信機12は、HDMI端子12aと、HDMI受信部12bと、高速バスインタフェース12cと、HDR処理回路204とを有している。また、テレビ受信機12は、アンテナ端子205と、デジタルチューナ206と、MPEGデコーダ207と、映像信号処理回路208と、グラフィック生成回路209と、パネル駆動回路210と、表示パネル211とを有している。
 また、テレビ受信機12は、音声信号処理回路212と、音声増幅回路213と、スピーカ214と、内部バス220と、CPU221と、フラッシュROM222と、SDRAM(Synchronous Random Access Memory)223とを有している。また、テレビ受信機12は、イーサネットインタフェース(Ethernet I/F)224と、ネットワーク端子225と、リモコン受信部226と、リモコン送信機227とを有している。また、テレビ受信機12は、表示制御部231と、電源部232を有している。なお、「イーサネット」および「Ethernet」は登録商標である。
 アンテナ端子205は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ206は、アンテナ端子205に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリームから、パーシャルTS(Transport Stream)(映像データのTSパケット、音声データのTSパケット)を抽出する。
 また、デジタルチューナ206は、得られたトランスポートストリームから、PSI/SI(Program Specific Information/Service Information)を取り出し、CPU221に出力する。デジタルチューナ206で得られた複数のトランスポートストリームから任意のチャネルのパーシャルTSを抽出する処理は、PSI/SI(PAT/PMT)から当該任意のチャネルのパケットID(PID)の情報を得ることで可能となる。
 MPEGデコーダ207は、デジタルチューナ206で得られる映像データのTSパケットにより構成される映像PES(Packetized Elementary Stream)パケットに対してデコード処理を行って画像データを得る。また、MPEGデコーダ207は、デジタルチューナ206で得られる音声データのTSパケットにより構成される音声PESパケットに対してデコード処理を行って音声データを得る。
 映像信号処理回路208およびグラフィック生成回路209は、MPEGデコーダ207で得られた画像データ、あるいはHDMI受信部12bで受信された画像データに対して、必要に応じてスケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理、HDR画像データのガンマ補正等を行う。
 パネル駆動回路210は、グラフィック生成回路209から出力される映像(画像)データに基づいて、表示パネル211を駆動する。表示制御部231は、グラフィクス生成回路209やパネル駆動回路210を制御して、表示パネル211における表示を制御する。表示パネル211は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Organic Electro-Luminescence)パネル等で構成されている。
 なお、この実施の形態では、CPU221の他に表示制御部231を有する例を示しているが、表示パネル211における表示をCPU221が直接制御するようにしてもよい。また、CPU221と表示制御部231は、1つのチップになっていても、複数コアであってもよい。電源部232は、テレビ受信機12の各部に電源を供給する。この電源部232は、AC電源であっても、電池(蓄電池、乾電池)であってもよい。
 音声信号処理回路212はMPEGデコーダ207で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路213は、音声信号処理回路212から出力される音声信号を増幅してスピーカ214に供給する。なお、スピーカ214は、モノラルでもステレオでもよい。また、スピーカ214は、1つでもよく、2つ以上でもよい。また、スピーカ214は、イヤホン、ヘッドホンでもよい。また、スピーカ214は、2.1チャネルや、5.1チャネルなどに対応するものであってもよい。また、スピーカ214は、テレビ受信機12と無線で接続してもよい。また、スピーカ214は、他機器であってもよい。
 CPU221は、テレビ受信機12の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをSDRAM223上に展開してソフトウェアを起動させ、テレビ受信機12の各部を制御する。
 リモコン受信部226は、リモコン送信機227から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、このリモコンコードに基づいて、テレビ受信機12の各部を制御する。なお、この実施の形態では、ユーザ指示入力部としてリモートコントロール部を示しているが、ユーザ指示入力部は、その他の構成、例えば、近接/タッチにより指示入力を行うタッチパネル部、マウス、キーボード、カメラで指示入力を検出するジェスチャ入力部、音声により指示入力を行う音声入力部などであってもよい。
 ネットワーク端子225は、ネットワークに接続する端子であり、イーサネットインタフェース224に接続される。高速バスインタフェース12c、CPU221、フラッシュROM222、SDRAM223、イーサネットインタフェース224、MPEGデコーダ207および表示制御部231は、内部バス220に接続されている。
 HDMI受信部(HDMIシンク)12bは、HDMIに準拠した通信により、HDMIケーブル13を介してHDMI端子12aに供給されるベースバンドの画像(映像)と音声のデータを受信する。高速バスインタフェース12cは、上述したディスクプレーヤ11の高速バスインタフェース11cと同様に、HDMIケーブル13を構成する所定ライン(この実施の形態においては、リザーブライン、HPDライン)を用いて構成される双方向通信路のインタフェースである。
 この高速バスインタフェース12cは、イーサネットインタフェース224とHDMI端子201との間に挿入されている。この高速バスインタフェース12cは、CPU221から供給される送信データを、HDMI端子12aからHDMIケーブル13を介して相手側の機器に送信する。また、この高速バスインタフェース12cは、HDMIケーブル13からHDMI端子12aを介して相手側の機器から受信された受信データをCPU221に供給する。
 HDR処理回路204は、HDMI受信部202で受信された画像データが、HDR画像データである場合には、そのHDR画像データに対して、伝送方式に対応した処理(デコード処理)を行って、HDR画像データを生成する。すなわち、このHDR処理回路204は、上述したディスクプレーヤ11のHDR処理回路114とは逆の処理を行って、HDR画像データを構成するデータを取得する。HDR処理回路204とHDMI受信部202、またはHDR処理回路204と映像信号処理回路208は、1つのチップになっていても、複数コアであってもよい。
 また、このHDR処理回路204は、HDR画像の下位8ビットの画像データで構成される第1のデータおよびHDR画像の上位ビットの画像データで構成される第2のデータから、あるいはHDR画像の上位8ビットの画像データで構成される第1のデータおよびHDR画像の下位ビットの画像データで構成される第2のデータから、HDR画像データを生成する演算を行う。
 なお、例えば、受信されたコンテンツデータをネットワークに送出する際には、このコンテンツデータは、イーサネットインタフェース224を介して、ネットワーク端子225に出力される。同様に、受信されたコンテンツデータをHDMIケーブル13の双方向通信路に送出する際には、当該コンテンツデータは、高速バスインタフェース12cを介して、HDMI端子12aに出力される。ここで、画像データを出力する前に、著作権保護技術、例えばHDCP、DTCP、DTCP+などを用いて暗号化してから伝送してもよい。
 図6に示すテレビ受信機12の動作を簡単に説明する。アンテナ端子205に入力されたテレビ放送信号はデジタルチューナ206に供給される。このデジタルチューナ206では、テレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリームが出力され、トランスポートストリームから、パーシャルTS(映像データのTSパケット、音声データのTSパケット)が抽出され、当該パーシャルTSはMPEGデコーダ207に供給される。
 MPEGデコーダ207では、映像データのTSパケットにより構成される映像PESパケットに対してデコード処理が行われて映像データが得られる。この映像データは、映像信号処理回路208およびグラフィック生成回路209において、必要に応じて、スケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理等が行われた後に、パネル駆動回路210に供給される。そのため、表示パネル211には、ユーザの選択チャネルに対応した画像が表示される。
 また、MPEGデコーダ207では、音声データのTSパケットにより構成される音声PESパケットに対してデコード処理が行われて音声データが得られる。この音声データは、音声信号処理回路212でD/A変換等の必要な処理が行われ、さらに、音声増幅回路213で増幅された後に、スピーカ214に供給される。そのため、スピーカ214から、ユーザの選択チャネルに対応した音声が出力される。
 また、ネットワーク端子225からイーサネットインタフェース224に供給される、あるいは、HDMI端子12aから高速バスインタフェース12cを介して供給されるコンテンツデータ(画像データ、音声データ)は、MPEGデコーダ207に供給される。以降は、上述したテレビ放送信号の受信時と同様の動作となり、表示パネル211に画像が表示され、スピーカ214から音声が出力される。
 また、HDMI受信部12bでは、HDMI端子12aにHDMIケーブル13を介して接続されているディスクプレーヤ11から送信されてくる、画像データおよび音声データが取得される。画像データは、HDR処理回路204を介して映像信号処理回路208に供給される。また、音声データは、直接、音声信号処理回路212に供給される。以降は、上述したテレビ放送信号の受信時と同様の動作となり、表示パネル211に画像が表示され、スピーカ214から音声が出力される。
 なお、HDMI受信部12bで受信された画像データがHDR画像データである場合には、HDR処理回路204において、当該HDR画像データに対して伝送方式に対応した処理(デコード処理)が行われ、HDR画像データが生成される。そして、HDR処理回路204から映像信号処理部208には、HDR画像データが供給される。また、映像信号処理回路208では、HDR画像データが供給される場合には、HDR画像データに基づいて、HDR画像を表示するための画像データが生成され、HDMI受信部12bで受信したガンマ補正情報に基づきガンマ補正が行われる。そのため、表示パネル211には、HDR画像が表示される。
 [HDR画像データの伝送方式]
 次に、HDR画像データの伝送方式について説明する。最初に、原信号のHDR画像データが、8ビット以上の画像データで構成される場合について説明する。ここでは、図7~図9に示すように、HDR画像データが、それぞれ、1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
 この原信号を、ベースバンドデジタルインタフェースで伝送する際、例えば、以下の3通りの伝送方式が考えられる。これらの方式は、原信号の品位を低下させることなく伝送が可能であることから、最も望ましい方式である。しかし、伝送帯域が1920×1080pの8ビットピクセルフォーマットの画像データの1.2倍以上必要となることから、伝送帯域に余裕がある際に可能となる。
 伝送方式(1)は、図7に示すように、ディープカラー(Deep Color)の伝送フォーマットを用いて伝送する方式である。この場合、画像フォーマットは1920×1080pのピクセルフォーマットを選択し、後述する“DC-48bit”、“DC-36bit”、および“DC-30bit”のいずれかの1つの1ピクセル当たりのビット数を指定する情報および新たに定義するHDR伝送方式情報と共に伝送する。この場合、1ピクセルクロックで全てのピクセルデータは伝送できないため、HDR処理回路114またはHDMI送信部11bにてピクセルマッピング処理が必要となる。
 伝送方式(2)は、図8に示すように、HDR画像データの下位8ビット分を立体映像フォーマットの左眼画像データ領域へ配置し、HDR画像データの残りの上位ビット分を立体映像フォーマットの右眼画像データ領域へ配置して伝送する方式である。この場合、映像フォーマットとして、1920×1080pのフレームパッキングという映像フォーマットを指定し、立体映像フォーマットの指定は行わず、新たに定義するHDR伝送方式情報と共に伝送する。この場合、HDR処理回路114にて、下位8ビットの画像データと上位ビットの画像データのスライス処理および所定の立体映像フォーマットへのビットマッピング処理が必要となる。
 なお、上述では、HDR画像データの残りの上位ビット分を立体映像フォーマットの右眼画像データ領域へ配置して伝送する旨を説明した。すなわち、HD画像データの残りの上位ビットは、HDR画像データが10ビット、12ビット、16ビットの画像データであるとき、それぞれ、2ビット、4ビット、8ビットとなる。この残りの上位ビットの代わりに、HDR画像データの上位8ビット分を立体映像フォーマットの右眼画像データ領域へ配置して伝送することも考えられる。
 また、上述では、HDR画像データの下位8ビット分を立体映像フォーマットの左眼画像データ領域へ配置し、HDR画像データの残りの上位ビット分を立体映像フォーマットの右眼画像データ領域へ配置して伝送する旨を説明した。しかし、HDR画像データの下位8ビット分を立体映像フォーマットの右眼画像データ領域へ配置し、HDR画像データの残りの上位ビット分を立体映像フォーマットの左眼画像データ領域へ配置して伝送することも考えられる。
 また、上述では、HDR画像データの下位8ビット分を立体映像フォーマットの左眼画像データ領域へ配置し、HDR画像データの残りの上位ビット分を立体映像フォーマットの右眼画像データ領域へ配置して伝送する旨を説明した。しかし、HDR画像データの上位8ビット分を立体映像フォーマットの左眼画像データ領域へ配置し、HDR画像データの残りの下位ビット分を立体映像フォーマットの右眼画像データ領域へ配置して伝送することも考えられる。
 伝送方式(3)は、図9に示すように、HDR画像データの下位8ビット分をハイフレームレートの第1フレーム画像データ領域へ配置し、HDR画像データの残りの上位ビット分を第2フレーム画像データ領域へ配置して伝送する方式である。この場合、映像フォーマットとして、通常の1920×1080pのハイフレームレート映像フォーマットを指定し、新たに定義するHDR伝送方式情報と共に伝送する。この場合、HDR処理回路114にて、下位8ビットの画像データと上位ビットの画像データのスライス処理および所定のハイフレームレート映像フォーマットへのビットマッピング処理が必要となる。
 なお、上述では、HDR画像データの残りの上位ビット分を第2フレーム画像データ領域へ配置して伝送する旨を説明した。すなわち、HD画像データの残りの上位ビットは、HDR画像データが10ビット、12ビット、16ビットの画像データであるとき、それぞれ、2ビット、4ビット、8ビットとなる。この残りの上位ビットの代わりに、HDR画像データの上位8ビット分を第2フレーム画像データ領域へ配置して伝送することも考えられる。
 また、上述では、HDR画像データの下位8ビット分をハイフレームレートの第1フレーム画像データ領域へ配置し、HDR画像データの残りの上位ビット分を第2フレーム画像データ領域へ配置して伝送する旨を説明した。しかし、DR画像データの下位8ビット分をハイフレームレートの第2フレーム画像データ領域へ配置し、HDR画像データの残りの上位ビット分を第1フレーム画像データ領域へ配置して伝送することも考えられる。
 また、上述では、HDR画像データの下位8ビット分をハイフレームレートの第1フレーム画像データ領域へ配置し、HDR画像データの残りの上位ビット分を第2フレーム画像データ領域へ配置して伝送する旨を説明した。しかし、HDR画像データの上位8ビット分をハイフレームレートの第1フレーム画像データ領域へ配置し、HDR画像データの残りの下位ビット分を第2フレーム画像データ領域へ配置して伝送することも考えられる。
 なお、伝送方式(2)、(3)の場合、上述のテレビ受信機12のHDR処理回路204は、立体映像フォーマットあるいはハイフレームレート映像フォーマットより、それぞれHDR画像データの下位8ビットと上位ビット、あるいは上位8ビットと下位ビットを分離抽出する処理を行う。
 [HDR画像データのガンマ補正方式]
 次に、HDR画像データのガンマ補正方式について説明する。
 ガンマ補正方式(1)は、図10に示すように、輝度100%時の想定される表示パネル211の輝度レベルと、伝送されるHDR画像の最大輝度レベルと、輝度0%を表す画像データのビット値と、輝度100%を表す画像データのビット値と、HDR画像で表現される最大白レベルを表す画像データのビット値を指定することで、ガンマ補正カーブを近似することができ、この近似カーブに基づき画像補正を行うことで、想定されるHDR画像が表示できる。
 ガンマ補正方式(2)は、図11に示すように、指定された輝度入力レベル時の想定される表示パネル211の出力輝度レベルと、伝送されるHDR画像の輝度ダイナミックレンジ値と、最大輝度レベルを指定することで、ガンマ補正カーブを近似することができ、この近似カーブに基づき画像補正を行うことで、想定されるHDR画像が表示できる。
 ガンマ補正方式(3)は、図12に示すように、ITU-R BT.1886で定義される輝度100%時の輝度レベルと、輝度0%時の輝度レベルと、ガンマ値を指定することで、ガンマ補正カーブを近似することができ、この近似カーブに基づき画像補正を行うことで、想定されるHDR画像が表示できる。
 ガンマ補正方式(4)は、図13に示すように、ガンマ補正方式(2)で指定された輝度入力レベル時の想定される表示パネル211の出力輝度レベルを複数点指定することで、ガンマ補正カーブを近似することができ、この近似カーブに基づき画像補正を行うことで、想定されるHDR画像が表示できる。
 [EDIDのデータ構造例]
 図14は、E-EDIDのデータ構造例を示している。このE-EDIDは、基本ブロックと拡張ブロックとからなっている。基本ブロックの先頭には、“E-EDID1.3 Basic Structure”で表されるE-EDID1.3の規格で定められたデータが配置され、続いて“Preferred timing”で表される従来のEDIDとの互換性を保つためのタイミング情報、および“2nd timing”で表される従来のEDIDとの互換性を保つための“Preferred timing”とは異なるタイミング情報が配置されている。
 また、基本ブロックには、“2nd timing”に続いて、“Monitor NAME”で表される表示装置の名前を示す情報、および“Monitor Range Limits”で表される、アスペクト比が4:3および16:9である場合についての表示可能な画素数を示す情報が順番に配置されている。
 拡張ブロックの先頭には、 “Short Video Descriptor”で表される、表示可能な画像サイズ(解像度)、フレームレート、インターレースであるかプログレッシブであるかを示す情報、アスペクト比などの情報が記述されたデータ、“Short Audio Descriptor”で表される、再生可能な音声コーデック方式、サンプリング周波数、カットオフ帯域、コーデックビット数などの情報が記述されたデータ、および“Speaker Allocation”で表される左右のスピーカに関する情報が順番に配置されている。
 また、拡張ブロックには、“Speaker Allocation”に続いて、“Vender Specific”で表されるメーカーごとに固有に定義されたデータ、“3rd timing”で表される従来のEDIDとの互換性を保つためのタイミング情報、 “4th timing”で表される従来のEDIDとの互換性を保つためのタイミング情報および“Video Capability” (以降、VCDBと呼ぶ)で表されるシンク機器が表示対応出来るフラグ情報が配置されている。
 [VendorSpecificDataBlock(VSDB)領域のデータ構造例]
 この実施の形態においては、このVSDB領域に、HDR画像情報を記憶するために拡張するデータエリアを定義する。図15は、VSDB領域のデータ構造例を示している。このVSDB領域には、1バイトのブロックである第0ブロック乃至第Nブロックが設けられている。
 第8バイトの第4ビットおよび既に定義された第0バイトから第Mバイトに続く第M+1バイトから第M+3バイトに、シンク機器(この実施の形態では、テレビ受信機12)が記憶しておくべきHDR画像情報のデータ領域が定義される。
 まず、第0バイトから第8バイトについて説明する。“Vender Specific”で表されるデータの先頭に配置された第0バイトには、“Vendor-Specific tag code(=3)”で表されるデータ領域を示すヘッダ、および“Length(=N)”で表されるVSDBデータの長さを示す情報が配置される。また、第1バイト乃至第3バイトには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。
 さらに、第4バイトおよび第5バイトには、”A“、”B“、”C“、および”D“のそれぞれにより表される、24bitのシンク機器の物理アドレスを示す情報が配置される。第6バイトには、“Supports-AI”で表されるシンク機器が対応している機能を示すフラグ、“DC-48bit”、“DC-36bit”、および“DC-30bit”のそれぞれで表される1ピクセル当たりのビット数を指定する情報のそれぞれ、“DC-Y444”で表される、シンク機器がYCbCr4:4:4の画像の伝送に対応しているかを示すフラグ、および“DVI-Dual”で表される、シンク機器がデュアルDVI(Digital Visual Interface)に対応しているかを示すフラグが配置されている。
 また、第7バイトには、“Max-TMDS-Clock”で表されるTMDSのピクセルクロックの最大の周波数を示す情報が配置される。第8バイトには、Latencyフィールドの存在を指定する情報、Interlace Latencyフィールドの存在を指定する情報、3Dビデオフォーマットの拡張の存在を指定する情報、コンテンツタイプ(CNC)の機能の対応を指定する情報のフラグが配置されている。この第8バイトの第4ビットに、シンク機器が対応するHDR情報が存在するかどうかのフラグが新規に配置される。このフラグがTrueの場合には、第15+Mバイトから第18+MバイトにHDRに関する情報が存在することを示す。
 次に、第15+Mバイトから第18+Mバイトについて説明する。第15+Mバイトの第7ビットには、ソース機器でHDR機能に関する処理を禁止するかどうかを示す。第15+Mバイトの第6ビットから第4ビットには、シンク機器が対応しているHDR画像の3通り(上述の伝送方式(1)~(3))のビデオフォーマットを示すデータが書き込まれる。
 第15+Mバイトの第3ビットから第0ビットは、これ以外の方式が提案された場合に、割当が可能となっている。第16+Mバイトの第7ビットから第4ビットには、シンク機器が対応しているHDR画像のガンマ補正の4通りの方式を示すデータが書き込まれる。第16+Mバイトの第3ビットから第0ビットは、これ以外のガンマ補正方式が提案された場合に、割当が可能となっている。
 第17+Mバイトの第7ビットから第4ビットには、シンク機器が対応しているHDR画像のガンマ補正情報の3通りの伝送方式を示すデータが書き込まれる。第17+Mバイトの第4ビットから第0ビットは、これ以外のガンマ補正情報の伝送方式が提案された場合に、割当が可能となっている。
 例として、第7ビットがTrueの場合は、ソース機器ではHDR画像の輝度伸長やビット圧縮等の処理を禁止する。第18+Mバイトには、シンク機器の表示パネル部211の最大輝度値をcd/mの単位で指定する。第19+Mバイトには、シンク機器の映像信号処理回路208で処理可能な最大輝度伸長レベルを%の単位で指定する。これらは、第15+Mバイトの第7ビットの“Raw”がFalseの場合にソース機器で実施するHDR画像の輝度伸長・ビット圧縮処理等に必要なシンク機器の情報として用いられる。
 ここでは、VSDB領域を用いてHDR伝送情報を記憶させる方法を提案しているが、VSDB領域はHDMI独自のデータ構造を持つため、HDMI機器間では互換性があるが、それ以外の仕様に基づく機器との互換性が保てない。そのため、E-EDIDのデータ構造では、例えばVCDBの様に、これ以外のデータ領域で伝送規格を超えて互換性を保つ目的で、HDR伝送情報を記憶させる方法も実現可能である。
 [VideoCapabilityDataBlock(VCDB)領域のデータ構造例]
 この実施の形態においては、このVCDB領域に、HDR画像情報を記憶するために拡張するデータエリアを定義する。図16は、VCDB領域のデータ構造例を示している。このVCDB領域には、第0バイトから第Nバイトが設けられている。
 第0バイトの第7ビットから第5ビットの“User Extended Tag”には、拡張タグであることを示す0x7が配置され、続く第4ビットから第0ビットには、第0バイトを除くバイト長が配置される。また、第1バイトの“Extended Tag Code”には、VCDBを表す “0x0 “が配置される。
 続く第2バイトには、表示レンジQY・QSおよびスキャン情報S_PT1からS_CE0が配置される。続く第3バイトから第8バイトに、上記VSDB領域の第15+Mバイトから第21+Mバイトと同じ情報が配置される。この様にして、VCDB領域を用いることで、異なる伝送規格間で互換性を保つことができる。また、VCDB領域以外にも “Extended Tag Code”に“Video Related Code”を表す“0x06”を指定して新規のパケットを定義してHDR画像情報を記憶してもよい。
 図1に示すAVシステム10において、ディスクプレーヤ(ソース機器)11のCPU104は、HPDライン25(図2参照)で、テレビ受信機(シンク機器)12の接続を確認する。その後、ディスクプレーヤ11のCPU104は、DDC23(図2参照)を用いて、テレビ受信機12からE-EDID、従ってHDR画像情報を読み出し、テレビ受信機12が対応するHDR画像の伝送方式およびガンマ補正方式およびガンマ補正情報の伝送方式を認識する。
 図1に示すAVシステム10において、ディスクプレーヤ11は、HDR画像データをテレビ受信機12に伝送する際、上述したようにテレビ受信機12から読み出したHDR画像情報に基づいて、テレビ受信機12が対応可能なHDR画像データの伝送方式およびガンマ補正方式およびガンマ補正情報の伝送方式のうちいずれかの伝送方式およびガンマ補正方式およびガンマ補正の伝送方式を選択して、伝送する。その際、ディスクプレーヤ11は、テレビ受信機12に、現在伝送しているHDR画像フォーマットに関する情報を送信する。
 この場合、ディスクプレーヤ11は、テレビ受信機12に送信するHDR画像データ(映像信号)のブランキング期間にその情報を挿入することで、当該情報をテレビ受信機12に送信する。ここで、ディスクプレーヤ11は、例えば、HDMIのVendor Specific InfoFrame(以降、「VSIF」と呼ぶ)パケットまたはAuxiliary Video InfoFrame(以降、「AVIF」と呼ぶ)または新規に定義したDynamic Range InfoFrame(以降、「DRIF」と呼ぶ)を用いて、現在伝送している画像フォーマットに関する情報をHDR画像データのブランキング期間に挿入する。VSIFパケットおよびAVIFパケットおよびDRIFパケットは、上述したデータアイランド区間18(図3参照)に配置される。
 [VSIFパケットのデータ構造例]
 図17は、VSIFパケットのデータ構造例を示している。HDMIでは、このVSIFパケットにより、画像に関する付帯情報をソース機器からシンク機器に伝送可能となっている。第0バイトには、VSIFパケットを示すPacketType(0x81)が定義されている。第1バイトには、VSIFパケットのバージョンが定義されている。第2バイトの第4ビットから第0ビットには、VSIFパケットのヘッダ部を除いたデータ長が定義されている。第3バイトには、データのチェックサムが定義されている。第4バイトから第5バイトには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。
 第6バイトの第6ビットには、HDR画像データの伝送情報が第8+Nバイト以降に存在するかどうかを示す“HDR”フラグが指定される。この“HDR”フラグがFalseの場合は、HDR画像データの伝送ではないことを示す。“HDR”フラグがTrueの場合は、第9バイトから第MバイトにHDR画像に関する付帯情報が指定される。
 第8バイトの第7ビットには、伝送するHDR画像が輝度伸長や輝度圧縮等の処理をソース機器で実施しているかどうかの情報が指定される。“Raw”がTrueの場合には、ソース機器で輝度伸長等の処理を実施していないことを示す。“Raw”がFalseの場合には、ソース機器で輝度伸長等の処理を実施していることを示す。
 続く第6ビットから第4ビットには、HDR画像の3通り(上述の伝送方式(1)~(3))の伝送方式(映像フォーマット)のうちいずれが選択されているかの情報が指定される。この場合、第6ビットから第4ビットは、伝送方式(1)のときは0b001に、伝送方式(2)のときは0b010に、伝送方式(3)のときは0b011に設定される。第6ビットから第4ビットの0b100から0b111と第3ビットから第0ビットは、これ以外の方式が提案された場合に、割当が可能となっている。
 第9バイトの第7ビットから第4ビットには、HDR画像のガンマ補正方式の4通り(上述のガンマ補正方式(1)~(4))のうちいずれかが選択されているかの情報が指定される。この場合、第7ビットから第4ビットは、ガンマ補正方式(1)のときは0b0001に、ガンマ補正方式(2)のときは0b0010に、ガンマ補正方式(3)のときは0b0011に、ガンマ補正方式(4)のときは0b0100に設定される。第7ビットから第5ビットの0b0101から0b1111と第4ビットから第0ビットは、これ以外の方式が提案された場合に、割当が可能となっている。第10バイトから第Mバイトには、第9バイトの第7ビットから第4ビットで指定されるガンマ補正方式のデータが指定される。
 図18は、ガンマ補正方式(1)(図10参照)のガンマ補正のデータ構造を示す。第0バイトは、ガンマ補正方式(1)のデータ長9が指定される。第1バイトから第2バイトには、輝度100%時の想定される表示パネル211の輝度レベル「Reference_Screen_Luminance_White」がcd/mの単位で指定される。第3バイトから第4バイトには、伝送されるHDR画像の最大輝度レベル「Extended_Range_White_Level」が%の単位で指定される。
 第5バイトには、輝度レベル0%を表す画像データのビット値「Nominal_Black_Level_Code_Value」が指定される。通常、0~64の値を指定するため1バイト長となっている。第6バイトから第7バイトには、輝度レベル100%を表す画像データのビット値「Nominal_White_Level_Code_Value」が指定される。第8バイトから第9バイトには、HDR画像で表現される最大白レベルを表す画像データのビット値「Extended_White_Level_Code_Value」が指定される。
 上述の図10には、AVIF、VSIF、DRIFパケットで伝送されるHDR情報(1)、すなわち上述した「Extended_Range_White_Level」、「Nominal_Black_Level_Code_Value」、「Nominal_White_Level_Code_Value」、「Extended_White_Level_Code_Value」の値の一例を示している。この例は、「Extended_Range_White_Level」が“400”で、ビット長が10ビットの場合における例である。
 図19は、ガンマ補正方式(2)のガンマ補正のデータ構造を示す。第0バイトは、ガンマ方式(2)のデータ長13が指定される。第1バイトから第2バイトには、方式(2)の入力輝度レベル「Input_Knee_Point」が0.1%の単位で指定される。第3バイトから第4バイトには、出力輝度レベル「Output_Knee_Point」が0.1%の単位で指定される。
 第5バイトから第8バイトには、伝送されるHDR画像のダイナミックレンジ「Dynamic_Range」が0.1%の単位で指定される。第9バイトから第12バイトには、最大ダイナミックレンジでの輝度レベル「Dynamic_Range_Luminance」がcd/mの単位で指定される。
 上述の図11は、AVIF・VSIF・DRIFパケットで伝送されるHDR情報(2)、すなわち上述した「Input_Knee_Point」、「Output_Knee_Point」、「Dynamic_Range」、「Dynamic_Range_Luminance」の値の一例を示している。
 図20は、ガンマ方式(3)のガンマ補正のデータ構造を示す。第0バイトは、ガンマ補正方式(3)のデータ長4が指定される。第1バイトから第2バイトには、輝度100%時の輝度レベル「Screen_Luminance_White_Level」がcd/mの単位で指定される。第3バイトには、輝度レベル0%の輝度レベル「Screen_Luminance_Black_Level」がcd/mの単位で指定される。通常、0~64の値を指定するため1バイト長となっている。第4バイトには、ガンマ値「Gamat_Value」が指定される。
 上述の図12には、AVIF・VSIF・DRIFパケットで伝送されるHDR情報(3)、すなわち上述した「Screen_Luminance_White_Level」、「Screen_Luminance_Black_Level」、「Gamat_Value」を用いた計算式の一例を示している。
 図21は、ガンマ補正方式(4)のガンマ補正のデータ構造を示す。第0バイトは、ガンマ方式(4)のデータ長(可変長)が指定される。第1バイトから第4バイトには、入力画像ダイナミックレンジ情報(input_d_range)が指定される。第5バイトから第8バイトには、入力画像表示ディスプレイ最大輝度情報(input_disp_luminance)が指定される。第9バイトから第12バイトには、出力画像ダイナミックレンジ情報(output_d_range)が指定される。第13バイトから第16バイトには出力表示ディスプレイ最大輝度情報(output_disp_luminace)が指定される。
 第17バイトには、ガンマ補正方式(4)で伝送されるニー位置情報の個数が指定される。第18バイト以降には、3バイト毎に、変換前位置情報(input_knee_point)および変換後位置情報(output_knee_point)が設定される。ニー位置とは、符号化対象の画像の輝度のダイナミックレンジの同一の変換率でニー変換される輝度の範囲の始点の0以外の輝度であり、変換前位置情報は、ダイナミックレンジ変換における変換前の符号化対象の画像のニー位置を表す情報であり、符号化対象の画像の輝度の最大値を1000パーミルとしたときのニー位置の千分率であり、変換後位置情報は、ダイナミックレンジ変換における変換後の画像の、ニー位置を始点とするニー変換される輝度の範囲に対応する輝度の範囲の始点を表す情報である。具体的には、変換後位置情報(output_knee_point)は、変換後の画像の輝度の最大値を1000パーミルとしたときのニーポイントに対応する変換後の画像の輝度の千分率である。
 上述の図13には、AVIF・VSIF・DRIFパケットで伝送されるHDR情報(4)、すなわち上述した「input_knee_point(i)」、「output_knee_point(i)」の値の一例を示している。この例は、ニー位置が3点存在し、「input_knee_point(i)」、「output_knee_point(i)」の値がそれぞれ“100、600”、“250、800”、“450、900” の一例を示している。
 シンク機器(この実施の形態では、テレビ受信機12)は、第8バイトの第6ビットから第4ビットのいずれかのビットがTrueに設定されている場合に、HDR画像データが伝送されていると判定できる。さらに、シンク機器は、第6ビットから第4ビットの値により、伝送方式(映像フォーマット)を判定できる。
 すなわち、第6ビットから第4ビットが0b001に設定されている場合、1920×1080pのディープカラー(Deep Color)という映像フォーマットが用いられてHDR画像データの伝送が行われていることがわかる(図7参照)。また、第6ビットから第4ビットが0b010に設定されている場合、1920×1080pのフレームパッキングという立体映像フォーマットが用いられてHDR画像データの伝送が行われていることがわかる(図8参照)。また、第6ビットから第4ビットが0b011に設定されている場合、1920×1080pのハイフレームレート映像フォーマットが用いられてHDR画像データの伝送が行われていることがわかる(図9参照)。
 また、第9バイトの第7ビットから第4ビットの値により、HDR画像のガンマ補正の方式を判定できる。すなわち、第7ビットから第4ビットが0b0001に設定されている場合、ガンマ補正の方式(1)が用いられてHDR画像データの伝送が行われていることがわかる(図10参照)。また、第7ビットから第4ビットが0b0010に設定されている場合、ガンマ補正の方式(2)が用いられてHDR画像データの伝送が行われていることがわかる(図11参照)。また、第7ビットから第4ビットが0b0011に設定されている場合、ガンマ補正の方式(3)が用いられてHDR画像データの伝送が行われていることがわかる(図12参照)。また、第7ビットから第4ビットが0b0100に設定されている場合、ガンマ補正の方式(4)が用いられてHDR画像データの伝送が行われていることがわかる(図13参照)。
 [AVIFパケットのデータ構造例]
 図22は、AVIFパケットのデータ構造例を示している。HDMIでは、このAVIFパケットにより、画像に関する付帯情報をソース機器からシンク機器に伝送可能となっている。第0バイトには、AVIFパケットを示すPacketType(0x82)が定義されている。第1バイトには、AVIFパケットのバージョンが定義されている。第2バイトの第4ビットから第0ビットには、AVIFパケットのヘッダ部を除いたデータ長(0x0D)が定義されている。第3バイトには、データのチェックサムが定義されている。第4バイトから第16バイトには、CEA-861-Dで定義されるデータが配置される。
 第17バイトの第6ビットには、第18バイト以降に存在するかどうかを示す“HDR”フラグが指定される。この“HDR”フラグがFalseの場合は、HDR画像データの伝送ではないことを示す。“HDR”フラグがTrueの場合は、第17バイトから第27バイトにHDR画像に関する付帯情報が指定される。第5ビットには、HDR画像に関する付帯情報がVSIFパケットでも同時に伝送されているかどうかを示す“VSIF_EXT” フラグが指定される。
この“VSIF_EXT”フラグがFalseの場合は、HDR画像に関する付帯情報のVSIFパケットでの伝送は存在しないことを示す。“VSIF_EXT”フラグがTrueの場合は、HDR画像に関する付帯情報のVSIFパケットでの伝送があることを示す。例えば、ガンマ補正の方式(4)の情報をAVIFパケットとVSIFパケットで伝送する際、複数のAVIFパケットを用いて、図21の第0バイトから第20バイトまでを伝送し、図21の第21バイト以降を図17のVSIFパケット構造で伝送する方法が考えられる。必要最低限のニー位置情報をAVIFパケットで伝送することで、HDMI以外の伝送規格においても互換性を保てる。
 第18バイトの第7ビットには、伝送するHDR画像が輝度伸長や輝度圧縮等の処理をソース機器で実施しているかどうかの情報が指定される。“Raw”がTrueの場合には、ソース機器で輝度伸長等の処理を実施していないことを示す。“Raw”がFalseの場合には、ソース機器で輝度伸長等の処理を実施していることを示す。
 続く第6ビットから第4ビットには、HDR画像の3通り(上述の伝送方式(1)~(3))の伝送方式(映像フォーマット)のうちいずれが選択されているかの情報が指定される。この場合、第6ビットから第4ビットは、伝送方式(1)のときは0b001に、伝送方式(2)のときは0b010に、伝送方式(3)のときは0b011に設定される。第6ビットから第4ビットの0b100から0b111と第3ビットから第0ビットは、これ以外の方式が提案された場合に、割当が可能となっている。
 第19バイトの第7ビットから第4ビットには、HDR画像のガンマ補正方式の4通り(上述のガンマ補正方式(1)~(4))のうちいずれかが選択されているかの情報が指定される。この場合、第7ビットから第4ビットは、ガンマ補正方式(1)のときは0b0001に、ガンマ補正方式(2)のときは0b0010に、ガンマ補正方式(3)のときは0b0011に設定される。ガンマ補正方式(4)のときは0b0100に設定される。第7ビットから第4ビットの0b0101から0b1111と第4ビットから第0ビットは、これ以外の方式が提案された場合に、割当が可能となっている。
 第20バイトから第27バイトには、第19バイトの第7ビットから第4ビットに指定されるガンマ補正方式のデータが指定される。ガンマ補正方式(1)からガンマ補正方式(4)のデータは、それぞれ図18から図21に記述されたデータ形式を用いる。
 ガンマ補正方式のデータの中には、AVIFパケット長の27バイトを超えるデータを扱う場合があり、そのときの最初のデータを伝送する際、第1バイトのバージョンを0x02に指定し、連続するAVIFパケットが存在することを示す。また、最後のデータを伝送する際、第1バイトのバージョンを0x01に指定し、連続するAVIFパケットの終了を宣言することで、27バイトを超えるガンマ補正方式のデータを伝送することが可能となる。
 [DRIFパケットのデータ構造例]
 図23は、新規に定義されるDRIFパケットのデータ構造例を示している。HDMIでは、このDRIFパケットにより、画像に関する付帯情報をソース機器からシンク機器に伝送可能となっている。第0バイトには、DRIFパケットを示すPacketType(0x86)が定義されている。第1バイトには、DRIFパケットのバージョンが定義されている。第2バイトの第4ビットから第0ビットには、DRIFパケットのヘッダ部を除いたデータ長が定義されている。第3バイトには、データのチェックサムが定義されている。
 第4バイトの第6ビットには、第5バイト以降に存在するかどうかを示す“HDR”フラグが指定される。この“HDR”フラグがFalseの場合は、HDR画像データの伝送ではないことを示す。“HDR”フラグがTrueの場合は、第5バイトから第MバイトにHDR画像に関する付帯情報が指定される。
 第5バイトの第7ビットには、伝送するHDR画像が輝度伸長や輝度圧縮等の処理をソース機器で実施しているかどうかの情報が指定される。“Raw”がTrueの場合には、ソース機器で輝度伸長等の処理を実施していないことを示す。“Raw”がFalseの場合には、ソース機器で輝度伸長等の処理を実施していることを示す。
 続く第6ビットから第4ビットには、HDR画像の3通り(上述の伝送方式(1)~(3))の伝送方式(映像フォーマット)のうちいずれが選択されているかの情報が指定される。この場合、第6ビットから第4ビットは、伝送方式(1)のときは0b001に、伝送方式(2)のときは0b010に、伝送方式(3)のときは0b011に設定される。第6ビットから第4ビットの0b100から0b111と第3ビットから第0ビットは、これ以外の方式が提案された場合に、割当が可能となっている。
 第6バイトの第7ビットから第4ビットには、HDR画像のガンマ補正方式の4通り(上述のガンマ補正方式(1)~(4))のうちいずれかが選択されているかの情報が指定される。この場合、第7ビットから第4ビットは、ガンマ補正方式(1)のときは0b0001に、ガンマ補正方式(2)のときは0b0010に、ガンマ補正方式(3)のときは0b0011に設定される。ガンマ補正方式(4)のときは0b0100に設定される。第7ビットから第4ビットの0b0101から0b1111と第4ビットから第0ビットは、これ以外の方式が提案された場合に、割当が可能となっている。
 第7バイトから第Mバイトには、第6バイトの第7ビットから第4ビットに指定されるガンマ補正方式のデータが指定される。ガンマ補正方式(1)からガンマ補正方式(4)のデータは、それぞれ図18から図21に記述されたデータ形式を用いる。
 なお、ここでは、VSIFパケット・AVIFパケット・DRIFパケットを用いてHDR伝送情報を伝送する方法を提案しているが、これ以外のデータパケットでも実現可能なため、この方法に限定はされない。また、VSIFパケット・AVIFパケット・DRIFパケットのデータ構造は一例を示しており、これ以外の情報を付加して伝送することも可能なため、このデータ構造に限定はされない。
 VSIFパケット・AVIFパケット・DRIFパケットを用いてHDR伝送情報を伝送するデータ構造において、整数値を用いて指定する例を示したが、1つのガンマ補正方式のデータが2バイトを超えるデータがある。図24(a)は、図19に示すガンマ補正方式(2)の“Dynamic_Range”のデータ構造を表している。伝送されるHDR画像のダイナミックレンジ「Dynamic_Range」は0.1%の単位で指定されるため、整数による指定では4バイトを確保する必要がある。ところが、対数による指定では、図24(b)の様に、ダイナミックレンジが1000%を超えても、整数3ビットと端数10ビットの合計13ビットで現わすことができるため、必要となるバイト数は2バイトとなり、データ長を短くすることも可能である。
 [ソース機器でのHDR伝送方式の選択処理例]
 次に、図1に示すAVシステム10において、ディスクプレーヤ(ソース機器)11におけるHDR画像データの伝送方式の決定処理の一例について、図25のフローチャートを参照して説明する。
 ディスクプレーヤ11は、ステップST1において、処理を開始し、その後に、ステップST2の処理に移る。このステップST2において、ディスクプレーヤ11は、テレビ受信機(シンク機器)12のVSDB領域の第8バイトの第4ビットがハイレベル「H」にあるか否かを判定する。第8バイトの第4ビットがハイレベル「H」にないとき、ディスクプレーヤ11は、ステップST3において、VSIFパケットまたはAVIFパケットまたはDRIFパケットにHDR画像の非伝送を示すデータを設定し、その後に、ステップST10に進み、処理を終了する。ここで、HDR画像の非伝送を示すデータの設定とは、VSIFパケット(図17参照)の第7バイトの第6ビットを「L」に、AVIFパケット(図22参照)の第17バイトの第6ビットを「L」に、DRIFパケット(図23参照)の第4バイトの第6ビットを「L」に、設定することを意味する。
 ステップST2で第8バイトの第4ビットがハイレベル「H」にあるとき、ディスクプレーヤ11は、ステップST4の処理に移る。このステップST4において、ディスクプレーヤ11は、テレビ受信機12のVSDB領域の第15+Mバイトの第7ビットがハイレベル「H」にあるか否かを判定する。第15+Mバイトの第7ビットがハイレベル「H」にないとき、ディスクプレーヤ11は、HDR画像処理を実施せず、次のステップST3に進み、HDR画像の非伝送を示すデータを設定し、その後に、ステップST10に進み、処理を終了する。
 ステップST4で第15+Mバイトの第7ビットがハイレベル「L」のとき、ディスクプレーヤ11は、次のステップST5に進む。ステップST5で、ディスクプレーヤ11は、テレビ受信機12のVSDB領域の第15+Mバイトから第19+Mバイトを読み出し、次のステップST6に進む。ステップST6で、ディスクプレーヤ11は、ステップST5で読み出したHDR画像の伝送方式情報に基づき、HDR画像の伝送方式を決定し、次のステップST7に進む。
 ステップST7で、ディスクプレーヤ11は、ステップST5で読み出したテレビ受信機(シンク機器)12のVSDB領域の第16+Mバイトの第7ビットから第5ビットのHDR画像のガンマ補正方式および第17+Mバイトの第7ビットから第5ビットのガンマ補正情報の伝送方式に基づき、ガンマ補正方式およびガンマ補正情報の伝送方式を決定し、次のステップST8に進む。
 ステップST8で、ディスクプレーヤ11は、ステップST6で決定したHDR画像の伝送方式およびステップST7で決定したガンマ補正方式およびガンマ補正情報の伝送方式に対応するデータを、該当するパケットに設定し、次のステップST9に進む。
 ステップST9で、ディスクプレーヤ11は、ステップST5で読み出した第18+Mバイトの表示パネル211の最大輝度(cd/m)と第19+Mバイトの最大輝度拡張レベル(%)のデータに基づき、伝送するHDR画像の輝度圧縮処理を実施し、伝送を開始し、その後に、ステップST10に進み、処理を終了する。
[ソース機器でのHDRメタデータ伝送方式の選択処理例]
 次に、図1に示すAVシステム10において、ディスクプレーヤ(ソース機器)11におけるHDR画像データのHDRメタデータの伝送方式の決定処理の一例について、図26のフローチャートを参照して説明する。この処理は、図25のステップST7におけるガンマ補正情報の伝送方式を決定する処理の詳細を示す。
 ディスクプレーヤ11は、ステップST21において、処理を開始し、その後に、ステップST22の処理に移る。このステップST22において、ディスクプレーヤ11は、テレビ受信機(シンク機器)12のVSDB領域の第17+Mバイトの第5ビットがハイレベル「H」にあるか否かを判定する。
 第17+Mバイトの第5ビットがハイレベル「H」のとき、ディスクプレーヤ11は、ステップST23において、DRIFパケットにHDR画像のガンマ補正情報を設定し、その後に、ステップST29に進み、処理を終了する。ここで、HDR画像のガンマ補正情報の設定とは、DRIFパケット(図23参照)に所定のデータを設定することを意味する。
 ステップST22で第17+Mバイトの第5ビットがハイレベル「H」でないとき、ディスクプレーヤ11は、ステップST24の処理に移る。このステップST24において、ディスクプレーヤ11は、テレビ受信機12のVSDB領域の第17+Mバイトの第7ビットがハイレベル「H」にあるか否かを判定する。第17+Mバイトの第7ビットがハイレベル「H」にないとき、ディスクプレーヤ11は、次のステップST25に進み、ステップST25において、AVIFパケットにHDR画像のガンマ補正情報を設定し、その後に、ステップST29に進み、処理を終了する。ここで、HDR画像のガンマ補正情報の設定とは、AVIFパケット(図22参照)に所定のデータを設定することを意味する。
 ステップST24で第17+Mバイトの第7ビットがハイレベル「H」のとき、ディスクプレーヤ11は、次のステップST26に進む。ステップST26で、ディスクプレーヤ11は、テレビ受信機12のVSDB領域の第17+Mバイトの第6ビットがハイレベル「H」にあるか否かを判定する。第17+Mバイトの第6ビットがハイレベル「H」にないとき、ディスクプレーヤ11は、次のステップST27に進み、ステップST27において、VSIFパケットにHDR画像のガンマ補正情報を設定し、その後に、ステップST29に進み、処理を終了する。ここで、HDR画像のガンマ補正情報の設定とは、VSIFパケット(図17参照)に所定のデータを設定することを意味する。
 ステップST26で第17+Mバイトの第6ビットがハイレベル「H」のとき、ディスクプレーヤ11は、ステップST28の処理に移る。このステップST28において、ディスクプレーヤ11は、AVIFパケットおよびVSIFパケットにHDR画像のガンマ補正情報を設定し、その後に、ステップST29に進み、処理を終了する。ここで、HDR画像のガンマ補正情報の設定とは、AVIFパケット(図22参照)およびVSIFパケット(図17参照)に所定のデータを設定することを意味する。
 以上説明したように、図1に示すAVシステム10においては、ディスクプレーヤ11からテレビ受信機12に、HDR画像データがHDMIケーブル13を介して送信されると共に、このHDR画像データの伝送方式情報およびガンマ補正情報が同じHDMIケーブル13を介して送信されるものであり、HDR画像データの伝送を良好に行うことができる。例えば、テレビ受信機12は、受信される伝送方式情報およびガンマ補正情報に基づいて、受信されるHDR画像データを適切に処理できる。
 また、図1に示すAVシステム10においては、ディスクプレーヤ11では、HDR画像データの伝送方式およびガンマ補正方式として、テレビ受信機12が対応可能な方式が選択されるものである。そのため、テレビ受信機12では、受信されるHDR画像データのデコード処理、ガンマ補正処理を確実に行うことができる。つまり、ディスクプレーヤ11とテレビ受信機12との間におけるHDR画像データの伝送を良好に行うことができる。
 <2.変形例>
 なお、上述実施の形態においては、ディスクプレーヤ11は、HDR画像データの伝送方式情報およびガンマ補正情報を、VSIFパケット、AVIFパケット、DRIFパケットなどを用いて、画像データ(映像信号)のブランキング期間に挿入することで、テレビ受信機12に送信している。
 例えば、ディスクプレーヤ11は、HDR画像データの伝送方式情報およびガンマ補正情報を、HDMIケーブル13の制御データラインであるCECライン24を介して、テレビ受信機12に送信するようにしてもよい。また、例えば、ディスクプレーヤ11は、HDR画像データの伝送方式情報およびガンマ補正情報を、HDMIケーブル13のリザーブライン27およびHPDライン25で構成される双方向通信路を介して、テレビ受信機12に送信するようにしてもよい。
 また、上述実施の形態においては、テレビ受信機12のE-EDIDには、当該テレビ受信機12が対応するHDR画像データの伝送方式情報およびガンマ補正方式情報およびガンマ補正情報の伝送方式情報が含まれており、ディスクプレーヤ11は、HDMIケーブル13のDDC23を介してE-EDIDを読み出すことで、テレビ受信機12が対応するHDR画像データの伝送方式情報およびガンマ補正方式情報およびガンマ補正情報の伝送方式情報を取得するようにしている。
 しかし、ディスクプレーヤ11は、テレビ受信機12が対応するHDR画像データの伝送方式情報およびガンマ補正方式情報およびガンマ補正情報の伝送方式情報を、テレビ受信機12から、HDMIケーブル13の制御データラインであるCECライン24を介して、あるいはHDMIケーブル13のリザーブライン27およびHPDライン25で構成される双方向通信路を介して受信するようにしてもよい。
 また、上述実施の形態においては、ディスクプレーヤ11は、HDR画像データの伝送方式情報およびガンマ補正情報およびガンマ補正情報の伝送方式情報をテレビ受信機12に送信する例を示している。しかし、いずれか一方を送信する構成も考えられる。
 また、上述実施の形態においては、HDMIの伝送路を用いるものを示している。しかし、ベースバンドデジタルインタフェースとしては、HDMIの他に、MHL(Mobile High-definition Link)、DVI(Digital Visual Interface)インタフェース、DP(Display Port)インタフェース、光インタフェース、60GHzミリ波を利用したワイヤレスインタフェース等がある。本技術は、これらのデジタルインタフェースで、HDR画像データを伝送する場合にも同様に適用できる。
[DPシステムの構造例]
 図27は、DPインタフェースを用いたDPシステム300の構成例を示している。このDPシステム300は、DP送信機器301とDP受信機器307とが、DPケーブル303により接続されている。そして、DP送信機器301はDP送信部302を備え、DP受信機器307はDP受信部308と記憶部309を備えている。
 DPケーブル303は、メインリンク304とAUXチャネル305とホットプラグ検知306で構成されている。メインリンク304は、1つ、2つ、または4つの二重終端差動信号ペア(ペアレーン)から構成され、専用のクロック信号は持たず、代わりに8B/10B符号化データストリームにクロックが埋め込まれている。
 DPインタフェースでは、HDMIと異なり、伝送速度とピクセル周波数は独立していて、ピクセルの深さや解像度、フレーム周波数、および転送ストリーム内の音声データやDRM情報などの付加データの有無ならびにその量を、自由に調整できる。メインリンク304を用いて、HDR画像データおよびHDR画像データの伝送方式情報およびガンマ補正情報の伝送が行われる。
 DPインタフェースの伝送データ構造は、HDMIにおける、TMDS伝送データ構造(図3参照)を用い、HDR画像データは、HDMIにおける図7から図9の画像データ構造を用いる。また、HDR画像データの伝送方式情報およびガンマ補正情報は、HDMIにおけるデータアイランド区間18(図3参照)に挿入して伝送されるVSIFパケット(図17参照)、AVIFパケット(図22参照)、DRIFパケット(図23参照)のデータ構造と同じパケットを用いる。
 DP送信機器301は、ホットプラグ検知306で、DP受信機器307の接続を確認する。その後、DP送信機器301は、AUXチャネル305を用いて、DP受信機器307の記憶部309からE-EDIDのHDR画像情報を読み出し、DP受信機器307が対応するHDR画像の伝送方式を認識する。DP受信機器307のE-EDIDのHDR画像情報のデータ構造は、図14および図15と同じでもよい。
 また、DPインタフェースでは、メインリンク304とは別に、帯域幅1Mビット/秒または帯域幅720Mビット/秒の半二重双方向のAUXチャネル305があり、この双方向通信によって送信機器と受信機器との間の機能に関する情報交換を行う。このAUXチャネル305を用いて、HDR画像データの伝送方式情報およびガンマ補正方式情報およびガンマ補正情報の伝送方式情報の伝送を行うこともできる。
[MHLシステムの構造例]
 図28は、MHLインタフェースを用いたMHLシステム400の構成例を示している。このMHLシステムは、MHL送信機器401とMHL受信機器408が、MHLケーブル404により接続されている。そして、MHL送信機器401は、TMDS送信部402と、記憶部403を備え、MHL受信機器408はTMDS受信部409と、記憶部410と、EDID―ROM411を備えている。
 MHLケーブル404は、TMDSチャネル405と、CBUS(MHL Link Control Bus)/eCBUS(enhanced MHL Link Control Bus)ライン406と、電源供給用VBUS(MHL Voltage Bus)ライン407で構成されている。TMDSチャネル405は、1対の差動信号ペアから構成され、HDR画像データおよびHDR画像データの伝送方式情報およびガンマ補正情報およびそれらの伝送方式情報の伝送が行われる。
 MHLインタフェースの伝送データ構造は、HDMIにおける、TMDS伝送データ構造(図3参照)を用い、HDR画像データは、HDMIにおける図7から図9の画像データ構造を用いる。また、HDR画像データの伝送方式情報およびガンマ補正情報は、HDMIにおける、データアイランド区間18(図3参照)に挿入して伝送されるVSIFパケット(図17参照)、AVIFパケット(図22参照)、DRIFパケット(図23参照)のデータ構造と同じパケットを用いる。
 CBUS/eCBUSライン406において、パケットデータのデータ部を0x64に設定したとき、HPDがハイレベル「1」を表し、パケットデータのデータ部を0x65に設定したとき、HPDがローレベル「0」を表す。この様にして、MHL送信機器401は、CBUS/eCBUSライン406で、MHL受信機器408の接続を確認する。
 その後、MHL送信機器401は、CBUS/eCBUSライン406を用いて、MHL受信機器408からE-EDIDのHDR画像情報を読み出し、MHL受信機器408が対応するHDR画像の伝送方式を認識する。MHL受信機器408のE-EDIDのHDR画像情報のデータ構造は、図14および図15と同じでもよい。
 また、上述実施の形態においては、送信装置(ソース機器)としてディスクプレーヤ11を使用し、受信装置(シンク機器)としてテレビ受信機12を使用した例としたが、その他の送信装置、受信装置を使用するものにも、本技術を同様に適用できることは勿論である。
 また、本技術は、以下のような構成を取ることもできる。
 (1)ハイダイナミックレンジ画像データを、外部機器に送信するデータ送信部と、
 上記データ送信部で送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する情報送信部とを備える
 送信装置。
 (2)上記データ送信部は、上記外部機器に、上記ハイダイナミックレンジ画像データを、差動信号により送信する
 前記(1)に記載の送信装置。
 (3)上記情報送信部は、上記データ送信部で送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、該ハイダイナミックレンジ画像データのブランキング期間に挿入することで、上記外部機器に送信する
 前記(2)に記載の送信装置。
 (4)上記データ送信部で送信される上記ハイダイナミックレンジ画像データの伝送方式情報およびガンマ補正情報は、ハイダイナミックレンジ画像データの100%を超える最大白レベル情報、黒レベル表現時のビット値、100%白レベル表現時のビット値、ハイダイナミックレンジ処理の実施有無を示すフラグ、100%白レベル時に想定される受信装置輝度レベル、ハイダイナミックレンジ画像の輝度伸長のために必要な輝度入力レベル、ハイダイナミックレンジ画像の輝度伸長のために必要な伸長輝度出力レベルの少なくとも1つを含む
 前記(1)から(3)のいずれかに記載の送信装置。
 (5)上記外部機器から送られてくる、該外部機器が対応可能なハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正方式情報を受信する情報受信部と、
 上記情報受信部で受信された伝送方式情報および/またはガンマ補正方式情報に基づいて、上記外部機器が対応可能なハイダイナミックレンジ画像データの伝送方式および/またはガンマ補正方式から所定の伝送方式および/またはガンマ補正方式を選択する方式選択部とをさらに備え、
 上記データ送信部は、上記方式選択部で選択された伝送方式および/またはガンマ補正方式のハイダイナミックレンジ画像データを、上記外部機器に送信する
 前記(1)から(4)のいずれかに記載の送信装置。
 (6)上記情報受信部は、上記外部機器から送られてくる、上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報をさらに受信し、
 上記情報送信部は、上記情報受信部で受信された伝送方式情報が示す伝送方式で、上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する
 前記(5)に記載の送信装置。
 (7)上記ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、
 上記データ送信部は、上記第1のデータおよび上記第2のデータを立体画像用に規定された映像フォーマットで構成し、上記外部機器に送信する
 前記(1)から(6)のいずれかに記載の送信装置。
 (8)上記ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、
 上記データ送信部は、上記第1のデータを第1のフレーム画像として上記外部機器に送信し、上記第2のデータを第2のフレーム画像として上記外部機器に送信する
 前記(1)から(6)のいずれかに記載の送信装置。
 (9)上記ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、
 上記第1のデータはハイダイナミックレンジ画像データの下位8ビットデータであると共に、上記第2のデータはハイダイナミックレンジ画像データの上位ビットデータであるか、あるいは、上記第1のデータはハイダイナミックレンジ画像データの上位8ビットデータであると共に、上記第2のデータはハイダイナミックレンジ画像データの下位ビットデータである
 前記(1)から(6)のいずれかに記載の送信装置。
 (10)ハイダイナミックレンジ画像データを、外部機器に送信するデータ送信ステップと、
 上記データ送信ステップで送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する情報送信ステップとを有する
 ハイダイナミックレンジ画像データ送信方法。
 (11)コンピュータを、
 ハイダイナミックレンジ画像データを、外部機器に送信するデータ送信手段と、
 上記データ送信手段で送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する情報送信手段と
 して機能させるプログラム。
 (12)外部機器から、ハイダイナミックレンジ画像を表示するためのハイダイナミックレンジ画像データを受信するデータ受信部と、
 上記外部機器から、上記データ受信部で受信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を受信する情報受信部と、
 上記情報受信部で受信された伝送方式情報および/またはガンマ補正情報に基づいて、上記データ受信部で受信されたハイダイナミックレンジ画像データを処理するデータ処理部とを備える
 受信装置。
 (13)上記データ受信部は、上記外部機器から、差動信号により、上記ハイダイナミックレンジ画像データを受信する
 前記(12)に記載の受信装置。
 (14)上記情報受信部は、上記データ受信部で受信された上記ハイダイナミックレンジ画像データのブランキング期間から、該ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を抽出する
 前記(13)に記載の受信装置。
 (15)自身が対応可能なハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正方式情報を記憶しておく情報記憶部と、
 上記情報記憶部に記憶されている伝送方式情報および/またはガンマ補正方式情報を、上記外部機器に送信する情報送信部とをさらに備える
 前記(12)から(14)のいずれかに記載の受信装置。
 (16)上記情報記憶部は、上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報をさらに記憶しており、
 上記情報送信部は、上記情報記憶部に記憶されている上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報を上記外部機器にさらに送信する
 前記(15)に記載の受信装置。
 (17)上記情報記憶部は、表示可能な最大輝度情報、ハイダイナミックレンジ処理可能な最大伸長輝度レベル情報、伸長処理禁止フラグの少なくとも1つをさらに記憶している
 前記(15)または(16)に記載の受信装置。
 (18)データ受信部により、外部機器から、上記ハイダイナミックレンジ画像データを受信するデータ受信ステップと、
 上記外部機器から、上記データ受信ステップで受信された上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を受信する情報受信ステップと、
 上記情報受信ステップで受信された上記伝送方式情報および/またはガンマ補正情報に基づいて、上記データ受信ステップで受信されたハイダイナミックレンジ画像データを処理するデータ処理ステップとを有する
 ハイダイナミックレンジ画像データ受信方法。
 (19)コンピュータを、
 外部機器から、ハイダイナミックレンジ画像を表示するためのハイダイナミックレンジ画像データを受信するデータ受信手段と、
 上記外部機器から、上記データ受信手段で受信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を受信する情報受信手段と、
 上記情報受信手段で受信された伝送方式情報および/またはガンマ補正情報に基づいて、上記データ受信手段で受信されたハイダイナミックレンジ画像データを処理するデータ処理手段と
 して機能させるプログラム。
 10・・・・AVシステム
 11・・・・ディスクプレーヤ
 11a・・・HDMI端子
 11b・・・HDMI送信部
 11c・・・高速バスインタフェース
 12・・・・テレビ受信機
 12a・・・HDMI端子
 12b・・・HDMI受信部
 12c・・・高速バスインタフェース
 13・・・・HDMIケーブル
 14・・・・有効画像区間
 15・・・・水平帰線区間
 16・・・・垂直帰線区間
 17・・・・ビデオデータ区間
 18・・・・データアイランド区間
 19・・・・コントロール区間
 21・・・・HDMIトランスミッタ
 22・・・・HDMIレシーバ
 23・・・・DDCライン
 24・・・・CECライン
 25・・・・HPDライン
 26・・・・電源ライン
 27・・・・リザーブライン
 104・・・CPU
 105・・・内部バス
 106・・・フラッシュROM
 107・・・SDRAM
 108・・・リモコン受信部
 109・・・リモコン送信機
 110・・・SATAインタフェース
 111・・・BDドライブ
 112・・・イーサネットインタフェース
 113・・・ネットワーク端子
 114・・・HDR処理回路
 115・・・MPEGデコーダ
 116・・・グラフィック生成回路
 117・・・映像出力端子
 118・・・音声出力端子
 121・・・表示制御部
 122・・・パネル駆動回路
 123・・・表示パネル
 124・・・電源部
 204・・・HDR処理回路
 205・・・アンテナ端子
 206・・・デジタルチューナ
 207・・・MPEGデコーダ
 208・・・映像信号処理回路
 209・・・グラフィック生成回路
 210・・・パネル駆動回路
 211・・・表示パネル
 212・・・音声信号処理回路
 213・・・音声増幅回路
 214・・・スピーカ
 220・・・内部バス
 221・・・CPU
 222・・・フラッシュROM
 223・・・DRAM
 224・・・イーサネットインタフェース
 225・・・ネットワーク端子
 226・・・リモコン受信部
 227・・・リモコン送信機
 231・・・表示制御部
 232・・・電源部
 300・・・DPシステム
 301・・・DP送信機器
 302・・・DP送信部
 303・・・DPケーブル
 304・・・メインリンク
 305・・・AUXチャネル
 306・・・ホットプラグ検知
 307・・・DP受信機器
 308・・・DP受信部
 309・・・記憶部
 400・・・MHLシステム
 401・・・MHL送信機器
 402・・・TMDS送信部
 403・・・記憶部
 404・・・MHLケーブル
 405・・・TMDSチャネル
 406・・・CBUS/eCBUSライン
 407・・・VBUSライン
 408・・・MHL受信機器
 409・・・TMDS受信部
 410・・・記憶部
 411・・・EDID ROM

Claims (19)

  1.  ハイダイナミックレンジ画像データを、外部機器に送信するデータ送信部と、
     上記データ送信部で送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する情報送信部とを備える
     送信装置。
  2.  上記データ送信部は、上記外部機器に、上記ハイダイナミックレンジ画像データを、差動信号により送信する
     請求項1に記載の送信装置。
  3.  上記情報送信部は、上記データ送信部で送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、該ハイダイナミックレンジ画像データのブランキング期間に挿入することで、上記外部機器に送信する
     請求項2に記載の送信装置。
  4.  上記データ送信部で送信される上記ハイダイナミックレンジ画像データの伝送方式情報およびガンマ補正情報は、ハイダイナミックレンジ画像データの100%を超える最大白レベル情報、黒レベル表現時のビット値、100%白レベル表現時のビット値、ハイダイナミックレンジ処理の実施有無を示すフラグ、100%白レベル時に想定される受信装置輝度レベル、ハイダイナミックレンジ画像の輝度伸長のために必要な輝度入力レベル、ハイダイナミックレンジ画像の輝度伸長のために必要な伸長輝度出力レベルの少なくとも1つを含む
     請求項1に記載の送信装置。
  5.  上記外部機器から送られてくる、該外部機器が対応可能なハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正方式情報を受信する情報受信部と、
     上記情報受信部で受信された伝送方式情報および/またはガンマ補正方式情報に基づいて、上記外部機器が対応可能なハイダイナミックレンジ画像データの伝送方式および/またはガンマ補正方式から所定の伝送方式および/またはガンマ補正方式を選択する方式選択部とをさらに備え、
     上記データ送信部は、上記方式選択部で選択された伝送方式および/またはガンマ補正方式のハイダイナミックレンジ画像データを、上記外部機器に送信する
     請求項1に記載の送信装置。
  6.  上記情報受信部は、上記外部機器から送られてくる、上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報をさらに受信し、
     上記情報送信部は、上記情報受信部で受信された伝送方式情報が示す伝送方式で、上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する
     請求項5に記載の送信装置。
  7.  上記ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、
     上記データ送信部は、上記第1のデータおよび上記第2のデータを立体画像用に規定された映像フォーマットで構成し、上記外部機器に送信する
     請求項1に記載の送信装置。
  8.  上記ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、
     上記データ送信部は、上記第1のデータを第1のフレーム画像として上記外部機器に送信し、上記第2のデータを第2のフレーム画像として上記外部機器に送信する
     請求項1に記載の送信装置。
  9.  上記ハイダイナミックレンジ画像データは、第1のデータおよび第2のデータを含み、
     上記第1のデータはハイダイナミックレンジ画像データの下位8ビットデータであると共に、上記第2のデータはハイダイナミックレンジ画像データの上位ビットデータであるか、あるいは、上記第1のデータはハイダイナミックレンジ画像データの上位8ビットデータであると共に、上記第2のデータはハイダイナミックレンジ画像データの下位ビットデータである
     請求項1に記載の送信装置。
  10.  ハイダイナミックレンジ画像データを、外部機器に送信するデータ送信ステップと、
     上記データ送信ステップで送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する情報送信ステップとを有する
     ハイダイナミックレンジ画像データ送信方法。
  11.  コンピュータを、
     ハイダイナミックレンジ画像データを、外部機器に送信するデータ送信手段と、
     上記データ送信手段で送信される上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を、上記外部機器に送信する情報送信手段と
     して機能させるプログラム。
  12.  外部機器から、ハイダイナミックレンジ画像を表示するためのハイダイナミックレンジ画像データを受信するデータ受信部と、
     上記外部機器から、上記データ受信部で受信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を受信する情報受信部と、
     上記情報受信部で受信された伝送方式情報および/またはガンマ補正情報に基づいて、上記データ受信部で受信されたハイダイナミックレンジ画像データを処理するデータ処理部とを備える
     受信装置。
  13.  上記データ受信部は、上記外部機器から、差動信号により、上記ハイダイナミックレンジ画像データを受信する
     請求項12に記載の受信装置。
  14.  上記情報受信部は、上記データ受信部で受信された上記ハイダイナミックレンジ画像データのブランキング期間から、該ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を抽出する
     請求項13に記載の受信装置。
  15.  自身が対応可能なハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正方式情報を記憶しておく情報記憶部と、
     上記情報記憶部に記憶されている伝送方式情報および/またはガンマ補正方式情報を、上記外部機器に送信する情報送信部とをさらに備える
     請求項12に記載の受信装置。
  16.  上記情報記憶部は、上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報をさらに記憶しており、
     上記情報送信部は、上記情報記憶部に記憶されている上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報の伝送方式情報を上記外部機器にさらに送信する
     請求項15に記載の受信装置。
  17.  上記情報記憶部は、表示可能な最大輝度情報、ハイダイナミックレンジ処理可能な最大伸長輝度レベル情報、伸長処理禁止フラグの少なくとも1つをさらに記憶している
     請求項15に記載の受信装置。
  18.  データ受信部により、外部機器から、上記ハイダイナミックレンジ画像データを受信するデータ受信ステップと、
     上記外部機器から、上記データ受信ステップで受信された上記ハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を受信する情報受信ステップと、
     上記情報受信ステップで受信された上記伝送方式情報および/またはガンマ補正情報に基づいて、上記データ受信ステップで受信されたハイダイナミックレンジ画像データを処理するデータ処理ステップとを有する
     ハイダイナミックレンジ画像データ受信方法。
  19.  コンピュータを、
     外部機器から、ハイダイナミックレンジ画像を表示するためのハイダイナミックレンジ画像データを受信するデータ受信手段と、
     上記外部機器から、上記データ受信手段で受信されるハイダイナミックレンジ画像データの伝送方式情報および/またはガンマ補正情報を受信する情報受信手段と、
     上記情報受信手段で受信された伝送方式情報および/またはガンマ補正情報に基づいて、上記データ受信手段で受信されたハイダイナミックレンジ画像データを処理するデータ処理手段と
     して機能させるプログラム。
PCT/JP2015/081516 2014-11-17 2015-11-09 送信装置、ハイダイナミックレンジ画像データ送信方法、受信装置、ハイダイナミックレンジ画像データ受信方法およびプログラム WO2016080233A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016560154A JP6724788B2 (ja) 2014-11-17 2015-11-09 送信装置、送信方法、受信装置、受信方法およびプログラム
US15/523,398 US10623805B2 (en) 2014-11-17 2015-11-09 Sending device, method of sending high dynamic range image data, receiving device, and method of receiving high dynamic range image data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014232414 2014-11-17
JP2014-232414 2014-11-17

Publications (1)

Publication Number Publication Date
WO2016080233A1 true WO2016080233A1 (ja) 2016-05-26

Family

ID=56013778

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/081516 WO2016080233A1 (ja) 2014-11-17 2015-11-09 送信装置、ハイダイナミックレンジ画像データ送信方法、受信装置、ハイダイナミックレンジ画像データ受信方法およびプログラム

Country Status (3)

Country Link
US (1) US10623805B2 (ja)
JP (1) JP6724788B2 (ja)
WO (1) WO2016080233A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6439418B2 (ja) * 2014-03-05 2018-12-19 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
US20190043442A1 (en) * 2018-07-12 2019-02-07 Intel Corporation Image metadata over embedded dataport
CN114302196B (zh) * 2021-01-14 2023-05-05 海信视像科技股份有限公司 显示设备、外接设备及播放参数调整方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253789A (ja) * 2008-04-09 2009-10-29 Panasonic Corp 視聴システム
WO2012153224A1 (en) * 2011-05-10 2012-11-15 Koninklijke Philips Electronics N.V. High dynamic range image signal generation and processing
JP2013090113A (ja) * 2011-10-17 2013-05-13 Sony Corp 送信装置、送信方法および受信装置
WO2014178286A1 (ja) * 2013-04-30 2014-11-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949402B1 (ko) * 2003-02-21 2010-03-24 닛본 덴끼 가부시끼가이샤 화상 데이터 분배 시스템, 장치, 및 방법
JP4819404B2 (ja) 2005-06-07 2011-11-24 シャープ株式会社 液晶表示装置
JP5242111B2 (ja) * 2007-10-02 2013-07-24 株式会社ソニー・コンピュータエンタテインメント 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法
JP5593596B2 (ja) * 2008-02-04 2014-09-24 ソニー株式会社 映像信号送信装置および映像信号送信方法
CN104486605B (zh) * 2009-03-10 2017-04-12 杜比实验室特许公司 扩展动态范围和扩展维数图像信号转换
JP5450118B2 (ja) * 2010-01-14 2014-03-26 ソニー株式会社 映像伝送装置、映像表示装置、映像表示システム、映像伝送方法及びコンピュータプログラム
EP3716632B1 (en) * 2010-11-23 2022-05-04 Dolby Laboratories Licensing Corporation Display of high dynamic range images on a global dimming display using bit depth reduction mapping metadata
TWI711310B (zh) * 2013-06-21 2020-11-21 日商新力股份有限公司 送訊裝置、高動態範圍影像資料送訊方法、收訊裝置、高動態範圍影像資料收訊方法及程式

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253789A (ja) * 2008-04-09 2009-10-29 Panasonic Corp 視聴システム
WO2012153224A1 (en) * 2011-05-10 2012-11-15 Koninklijke Philips Electronics N.V. High dynamic range image signal generation and processing
JP2013090113A (ja) * 2011-10-17 2013-05-13 Sony Corp 送信装置、送信方法および受信装置
WO2014178286A1 (ja) * 2013-04-30 2014-11-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Also Published As

Publication number Publication date
US20170311031A1 (en) 2017-10-26
US10623805B2 (en) 2020-04-14
JPWO2016080233A1 (ja) 2017-08-24
JP6724788B2 (ja) 2020-07-15

Similar Documents

Publication Publication Date Title
US11792377B2 (en) Transmission apparatus, method of transmitting image data in high dynamic range, reception apparatus, method of receiving image data in high dynamic range, and program
JP6551401B2 (ja) 通信装置又は通信方法、並びにコンピューター・プログラム
JP6724788B2 (ja) 送信装置、送信方法、受信装置、受信方法およびプログラム
JP6307856B2 (ja) 送信装置、広色域画像データ送信方法、受信装置、広色域画像データ受信方法およびプログラム
US20170094287A1 (en) Encoding device, encoding method, sending device, sending method, receiving device, receiving method, and program
JP5583866B2 (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP2015233320A (ja) 送信方法および送信装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15861428

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016560154

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15523398

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15861428

Country of ref document: EP

Kind code of ref document: A1