WO2019087775A1 - 再生装置、再生方法、プログラム、および記録媒体 - Google Patents

再生装置、再生方法、プログラム、および記録媒体 Download PDF

Info

Publication number
WO2019087775A1
WO2019087775A1 PCT/JP2018/038587 JP2018038587W WO2019087775A1 WO 2019087775 A1 WO2019087775 A1 WO 2019087775A1 JP 2018038587 W JP2018038587 W JP 2018038587W WO 2019087775 A1 WO2019087775 A1 WO 2019087775A1
Authority
WO
WIPO (PCT)
Prior art keywords
metadata
picture
stream
information
display
Prior art date
Application number
PCT/JP2018/038587
Other languages
English (en)
French (fr)
Inventor
幸一 内村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP18874797.6A priority Critical patent/EP3706412B1/en
Priority to JP2019551042A priority patent/JP7251480B2/ja
Priority to CN201880070100.8A priority patent/CN111345034B/zh
Priority to US16/758,661 priority patent/US11153548B2/en
Priority to KR1020207010290A priority patent/KR102558213B1/ko
Publication of WO2019087775A1 publication Critical patent/WO2019087775A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/793Processing of colour television signals in connection with recording for controlling the level of the chrominance signal, e.g. by means of automatic chroma control circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Definitions

  • the present technology relates to a playback device, a playback method, a program, and a recording medium, and in particular, a playback device and a playback device capable of preventing an unnatural change in luminance when displaying other information superimposed on a video.
  • the present invention relates to a method, a program, and a recording medium.
  • Ultra HD Blu-ray (registered trademark) Disc is a BD standard that supports recording of HDR (High Dynamic Range) video, which is a video with extended dynamic range. While the maximum brightness of SDR (Standard Dynamic Range) video is 100 nits (100 cd / m 2 ), the maximum brightness of HDR video is, for example, 10000 nits, beyond that.
  • Dynamic metadata which is metadata including luminance information in units of pictures (frames)
  • SMPTE ST 2094 As metadata of the HDR video stream, Dynamic metadata, which is metadata including luminance information in units of pictures (frames), is defined in SMPTE ST 2094.
  • Dynamic metadata is transmitted from the player side to the TV side together with each picture.
  • display of a menu may be instructed by the user.
  • OSD On Screen Display
  • display of a menu is instructed, in the BD player, an image of the menu is combined with each picture of the HDR video, and the HDR video combined with the image of the menu is output to the TV.
  • the luminance of the menu image is also compressed along with the luminance of the HDR video. Therefore, for example, when the display of the menu is instructed in a scene where the change in luminance is severe, the change in the luminance of the menu is also intense, which may give the user a sense of discomfort.
  • the present technology has been made in view of such a situation, and can prevent an unnatural change in luminance when displaying other information superimposed on a video.
  • the reproduction device is a reception unit that receives a video stream to which dynamic metadata including luminance information of a picture is added, and a display that receives predetermined information superimposed on the picture.
  • the picture in which the metadata represented by a flag representing metadata used for luminance adjustment while superimposing and displaying the predetermined information is added to the picture forming the video stream, and the metadata is added
  • an output control unit that outputs to the display device.
  • a recording medium is a luminance adjustment between displaying a first file of a video stream to which dynamic metadata including luminance information of a picture is added and predetermined information superimposed on the picture. And a second file in which a flag representing metadata used for the image is described is recorded on the recording medium.
  • the picture that constitutes the received video stream is received To which the metadata represented by a flag representing metadata used for brightness adjustment while superimposing and displaying the predetermined information is added, and the picture to which the metadata is added is output to the display device .
  • FIG. 24 is a flowchart illustrating the playback process of the playback apparatus, continued from FIG. 23; It is a figure which shows the example of a display set. It is a figure which shows the syntax of ICS. It is a figure which shows the syntax of interactive_composition (). It is a block diagram which shows the structural example of TV. It is a flowchart explaining the display process of TV. It is a block diagram showing an example of composition of a recording device.
  • FIG. 5 It is a block diagram which shows the function structural example of the controller of FIG. 5 is a flowchart illustrating recording processing of the recording apparatus. It is a figure which shows the structural example of the other reproduction
  • FIG. 1 is a diagram showing a configuration example of a reproduction system of HDR content.
  • the reproduction apparatus 1 and a TV (television receiver) 2 are connected by a cable of a predetermined standard such as HDMI (High-Definition Multimedia Interface) 2.0a or HDMI 2.1. Composed of The playback device 1 and the TV 2 may be connected via a wireless interface.
  • a predetermined standard such as HDMI (High-Definition Multimedia Interface) 2.0a or HDMI 2.1.
  • Composed of The playback device 1 and the TV 2 may be connected via a wireless interface.
  • the playback device 1 is a device that supports playback of HDR content, such as a UHD BD player.
  • a BD recording HDR content is attached to the drive of the playback device 1.
  • the content reproduced by the reproduction device 1 includes audio data in addition to the data of the HDR video.
  • the TV 2 has a function of displaying a video input from the outside, in addition to a function of receiving and displaying a program transmitted through a broadcast wave or a network as a transmission path.
  • the display device included in the TV 2 is a display corresponding to the display of HDR video whose luminance exceeds 100 nits.
  • the reproduction device 1 and the TV 2 Before starting transmission of the HDR content, the reproduction device 1 and the TV 2 perform transmission setting (configuration) of the HDMI by transmitting and receiving information related to the respective performances. For example, the reproduction device 1 is notified to the TV 2 that the HDR video is to be transmitted. Also, the maximum brightness of the display of the TV 2 is notified from the TV 2 to the reproduction device 1.
  • the reproduction device 1 decodes the HDR video stream read from the BD, and outputs each picture of the HDR video to the TV 2.
  • the TV 2 receives and displays each picture transmitted from the playback device 1.
  • processing for adjusting (compressing) the luminance of the HDR video transmitted from the reproduction device 1 is appropriately performed according to the performance of the display.
  • the luminance compression is performed when the luminance of the HDR video output from the reproduction device 1 is higher than the maximum luminance of the display of the TV 2.
  • the luminance of the HDR video output from the playback device 1 is 1000 nits, and the maximum luminance of the display of the TV 2 is 500 nits.
  • FIG. 2 is a diagram showing an example of a tone curve used for luminance compression of HDR video.
  • the horizontal axis of FIG. 2 represents the luminance of the input signal, and the vertical axis represents the luminance of the output (display).
  • the EOTF Electro-Optical Transfer Function
  • PQ Perceptual Quantization
  • knee point The point indicated by the tip of the arrow in FIG. 2 and at which the light and dark expressions are not linear is called knee point.
  • the luminance compression is performed on the TV 2 side.
  • Metadata including content luminance information is transmitted as auxiliary information for luminance compression from the playback device 1 to the TV 2.
  • Dynamic metadata is transmitted from the playback device 1 to the TV 2.
  • Dynamic metadata is metadata that dynamically expresses luminance information of content in units of pictures, and is standardized as SMPTE ST 2094.
  • FIG. 3 is a diagram showing Dynamic metadata defined in SMPTE ST 2094-40.
  • Window is a rectangular area set in a frame. Up to three windows can be set in one frame.
  • Window size and Window location indicate the size and location of the window.
  • Internal Ellipse size and Internal Ellipse location indicate the size and position of the inner one of the two ellipses set in the window.
  • An ellipse is set in the window, and the brightness in the ellipse can be specified.
  • External Ellipse size and External Ellipse location indicate the size and position of the outer one of the two ellipses set in the window.
  • the rotation angle indicates the inclination of two ellipses set in the window.
  • Overlap process option indicates how to process pixels in an ellipse.
  • Maxscl indicates the RGB value of the brightest pixel in the window.
  • Average max rgb indicates the average of the largest value among R, G and B of each pixel in the window.
  • Distribution max rgb percentages indicate the ranking of bright luminance in the window as a percentage.
  • Distribution max rgb percentiles indicates the ranking of bright luminance in a window by percentile.
  • Fraction bright pixels indicates the extent to which the maximum luminance value in the scene is output.
  • Knee point indicates the luminance value of knee point described above.
  • Bezier curve anchors show samples x and y with brightness exceeding knee point.
  • Color saturation weight indicates a value used to correct an RGB value changed when luminance compression is performed on an assumed display (Target display).
  • Target System display max luminance indicates the expected luminance of the display.
  • Target System display max luminance specifies that the content is created on the assumption that it is displayed on such a display.
  • Local display luminance indicates the maximum luminance value of each area when the display is divided into 2 ⁇ 2 to 25 ⁇ 25 areas.
  • Local mastering display luminance indicates the maximum luminance value of each area when the mastering display is divided into 2 ⁇ 2 to 25 ⁇ 25 areas.
  • the attributes of the frame are indicated by the parameters in the first to fifteenth lines.
  • the parameters of the 16th and 17th lines indicate the attributes of the assumed display
  • the parameters of the 18th line indicate the attributes of the display used to create the content.
  • FIG. 4 shows the file structure of a BD.
  • an AV stream file having an extension of m2ts is stored in the STREAM directory set under the BDMV directory.
  • the AV stream file is a file of MPEG-2 TS obtained by multiplexing an HDR video stream, an audio stream, a subtitle stream and the like by MPEG-2.
  • AV stream files of "01000.m2ts", "02000.m2ts", and "03000.m2ts" are stored in the STREAM directory.
  • the HDR video stream is, for example, a coded stream of High Efficiency Video Coding (HEVC).
  • Dynamic metadata is included in the HDR video stream as a Supplemental Enhancement Information (SEI) message of HEVC.
  • SEI Supplemental Enhancement Information
  • FIG. 5 is a view showing an example of the structure of an AV stream of “03000.m2ts” shown by being surrounded by a frame F1 in FIG.
  • the AV stream of “03000.m2ts” is composed of TS packets that store respective data such as video, audio and subtitles.
  • a video elementary stream is constructed by collecting video TS packets.
  • the Video Elementary stream is composed of a sequence of Access Units, and one Access Unit is data of one picture of HDR video.
  • Each Access Unit includes, after the AU delimiter, parameters such as SPS and PPS, and also includes an SEI message as indicated by a frame F11.
  • the SEI message includes the above-mentioned Dynamic metadata. Note that, next to the SEI message, data of HDR video is included as Picture data.
  • Dynamic metadata is included in the HDR video stream as added to each picture, and is multiplexed with an audio stream or the like.
  • FIG. 6 is a diagram illustrating an example of transmission of Dynamic metadata.
  • Dynamic metadata is transmitted from the playback device 1 to the TV 2 in association with each picture obtained by decoding the HDR video stream.
  • luminance compression of each picture is performed based on Dynamic metadata transmitted together with each picture.
  • FIG. 7 is a diagram showing an example of luminance compression at the time of menu display.
  • the horizontal axis of FIG. 7 represents time.
  • the reproduction device 1 transmits the pictures # 1, # 2, and # 3 in this order to the TV 2, and luminance compression is performed on the TV 2.
  • the image of the menu is synthesized in the reproduction device 1 in response to the user instructing to display the menu.
  • the characters “a menu is displayed here” and the frame surrounding the characters shown over the pictures # 1, # 2, and # 3 are images forming a menu such as a button in the area. Represents being synthesized.
  • picture # 2 is a picture that constitutes a scene with higher luminance than pictures # 1 and # 3.
  • the luminance compression of the picture # 1 in which the menu image is synthesized is performed based on the tone curve C1 represented by Dynamic metadata transmitted together with the picture # 1.
  • the luminance compression of the picture # 2 in which the menu image is synthesized is performed based on the tone curve C2 represented by Dynamic metadata transmitted together with the picture # 2.
  • the luminance compression of the picture # 3 in which the menu image is synthesized is performed based on the tone curve C3 represented by Dynamic metadata transmitted together with the picture # 3.
  • the tone curve C2 used for the luminance compression of the picture # 2 constituting the high luminance scene is compared with the tone curve C1 used for the luminance compression of the picture # 1 and the tone curve C3 used for the luminance compression of the picture # 3.
  • the luminance is strongly compressed.
  • the brightness of the menu on picture # 2 is also compressed more strongly than the brightness of the menu on pictures # 1 and # 3.
  • the luminance of the menu is lowered by one step at the timing of display of the picture # 2, and it looks unnatural depending on the degree of compression of the luminance. For example, when a scene with a large change in luminance continues, the menu may be seen blinking.
  • FIG. 8 is a diagram showing an example of metadata prepared on an optical disc.
  • the optical disc 11 is a BD.
  • the default metadata is, for example, metadata including parameters similar to the parameters of Dynamic metadata described with reference to FIG. A fixed value is set to each parameter. While the values of the parameters included in the Dynamic metadata give priority to the appearance of the video, the values of the parameters included in the default metadata give priority to the appearance of the menu, for example.
  • the reproduction device 1 When the reproduction device 1 starts reproduction of the HDR content, the reproduction device 1 associates and outputs Dynamic metadata to each picture obtained by decoding the HDR video stream.
  • the playback device 1 when instructed to display a menu, the playback device 1 combines the menu image with each picture obtained by decoding the HDR video stream, and associates default metadata with the picture combined with the menu image. Output.
  • luminance compression using default metadata is performed on the picture obtained by combining the menu image, and the picture after luminance compression is displayed.
  • the brightness of the menu is also compressed according to the tone curve represented by the default metadata.
  • the brightness of the menu is constant regardless of the brightness of the picture associated with the default metadata.
  • FIG. 9 is a diagram showing a display after luminance compression.
  • the display of a menu is instructed in a state where a scene with high luminance is displayed as shown on the left side of FIG. 9, luminance compression using default metadata instead of dynamic metadata is performed, and the tip of arrow A2 As shown in, the brightness of the HDR video is low. That is, assuming that the luminance after luminance compression using Dynamic metadata is the original luminance of the HDR video shown at the tip of the arrow A1, the HDR video darker than the original luminance is displayed.
  • the luminance compression using the default metadata makes the menu luminance suitable as indicated by the tip of the arrow A2.
  • the menu is darkened in a manner that is dragged by the luminance compression of the video, as it is, by applying the luminance compression to the menu to the video.
  • luminance compression matched to the menu is applied to the video, so to speak, so to speak, to the luminance compression of the menu. Makes the video darker.
  • FIG. 10 is a diagram showing a reproduction apparatus 101 according to an embodiment of the present technology and an optical disc 111 mounted on the reproduction apparatus 101.
  • the playback device 101 is a player corresponding to the playback device 1 of FIG.
  • the TV 102 corresponding to the TV 2 is connected to the playback device 101 via an HDMI cable or the like (FIG. 11).
  • the description overlapping with the above description will be omitted as appropriate.
  • a flag indicating which of the dynamic metadata and the metadata for menu display is to be used for the brightness adjustment on the TV side while displaying the menu is recorded. It is done.
  • the menu display metadata is metadata corresponding to the default metadata in FIG. 8 and has parameters similar to, for example, parameters of Dynamic metadata. A fixed value is set to each parameter of the menu display metadata.
  • the menu display metadata is prepared in advance in the reproduction device 101, for example, in a form of being stored in a memory in the reproduction device 101.
  • the optical disc 111 is the same as the above-described optical disc 11 except that a flag representing metadata used for brightness adjustment is recorded.
  • each data including the HDR video stream is recorded, for example, in a BD-ROM format.
  • the playback device 101 in FIG. 10 performs the same processing as the above-described processing of the playback device 1 with reference to the value of the flag representing the metadata used for brightness adjustment.
  • FIG. 11 is a diagram illustrating an example of transmission of metadata.
  • the playback device 101 refers to the value of the flag and selects any metadata of Dynamic metadata and metadata for menu display. Identify what to use.
  • the playback device 101 When the use of metadata for menu display is represented by a flag, the playback device 101 combines the picture of the menu with each picture of the HDR video, and as shown in FIG. Associates menu display metadata and outputs it.
  • luminance compression of each picture is performed based on display metadata transmitted along with each picture, and the HDR video after luminance compression is displayed.
  • the display shows a menu superimposed on the HDR video.
  • the display metadata is metadata in which a fixed value is set to each parameter, the brightness of the menu superimposed on the HDR video after the brightness compression using the display metadata will be constant.
  • the playback device 101 when the use of Dynamic metadata is represented by a flag, the playback device 101 combines an image of a menu with each picture of the HDR video, associates Dynamic Picture with a picture obtained by combining the images of the menu, and outputs.
  • luminance compression of each picture is performed based on Dynamic metadata transmitted along with each picture, and the HDR video after luminance compression is displayed.
  • the display shows a menu superimposed on the HDR video.
  • the picture associated with the Dynamic metadata is output from the reproduction apparatus 101 to the TV 102 as described with reference to FIG.
  • luminance compression of each picture is performed based on Dynamic metadata transmitted in association with each picture.
  • the producer of the content uses the flag to designate which of the dynamic metadata and the metadata for menu display is used to perform the luminance compression when the menu is displayed. be able to.
  • FIG. 12 is a diagram showing an example of an AV stream management structure in the BD-ROM format.
  • the AV stream may be recorded not only on the optical disc 111 but also on the local storage of the playback apparatus 101.
  • a pair of one AV stream and Clip Information which is information accompanying it, is managed as one object.
  • a pair of AV stream and Clip Information is called Clip.
  • the AV stream is expanded on the time axis, and the access point of each clip is mainly designated in the PlayList with a time stamp.
  • Clip Information is used to find an address in the AV stream to start decoding.
  • PlayList is a collection of AV stream playback sections.
  • One playback section in the AV stream is called PlayItem.
  • PlayItem is represented by a pair of IN point and OUT point of the playback interval on the time axis. As shown in FIG. 12, the PlayList is composed of one or more PlayItems.
  • the first PlayList from the left in FIG. 12 is composed of two PlayItems, and the first and second half parts of the AV stream included in the Clip on the left side are respectively referred to by the two PlayItems.
  • the second PlayList from the left is composed of one PlayItem, whereby the entire AV stream included in the right Clip is referenced.
  • the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a part of the AV stream included in the Clip on the left and a part of the AV stream included in the Clip on the right.
  • the reproduction of the first half of the AV stream included in the Clip on the left side is performed.
  • a playback path created by an arrangement of one or more PlayItems is called a Main Path. Also, in the PlayList, in parallel with the Main Path, a playback path created by the arrangement of one or more SubPlayItems is called a Sub Path.
  • FIG. 13 is a diagram showing the structures of Main Path and Sub Path.
  • PlayList has one Main Path and one or more Sub Paths.
  • the PlayList in FIG. 13 has one Main Path and three Sub Paths created by an arrangement of three PlayItems.
  • the AV stream referred to by one PlayItem includes at least a video stream.
  • the AV stream may or may not include one or more audio streams to be reproduced at the same timing as (in synchronization with) the video stream included in the AV stream.
  • the AV stream may or may not include one or more streams of subtitles (PG (Presentation Graphic)) of bitmaps to be reproduced in synchronization with the video stream included in the AV stream.
  • PG Presentation Graphic
  • the AV stream may or may not include one or more IG (Interactive Graphic) streams to be reproduced in synchronization with the video stream included in the AV stream file.
  • the IG stream is used to display a graphic such as a button operated by the user.
  • a video stream, and an audio stream, a PG stream, and an IG stream to be reproduced in synchronization with it are multiplexed in an AV stream to which one PlayItem refers.
  • one SubPlayItem refers to a video stream, an audio stream, a PG stream, etc. of a stream different from the AV stream to which the PlayItem refers.
  • the menu is obtained, for example, by decoding the IG stream.
  • subtitles are obtained, for example, by decoding a PG stream.
  • the reproduction of the AV stream is performed using the PlayList and the Clip Information.
  • the PlayList and Clip Information which are reproduction control information used to manage reproduction of an AV stream as content, are appropriately referred to as Data Base information.
  • FIG. 14 is a view showing an example of the management structure of files recorded on the optical disc 111. As shown in FIG. 14
  • Each file recorded on the optical disc 111 is hierarchically managed by the directory structure.
  • One root directory is created on the optical disk 111.
  • the BDMV directory is placed under the root directory.
  • Index table which is a file to which the name "Index.bdmv” is set
  • MovieObject file which is a file to which the name "MovieObject.bdmv” is set
  • BDMV directory a PLAYLIST directory, a CLIPINF directory, a STREAM directory and the like are provided.
  • a PlayList file in which PlayLists are described is stored in the PLAYLIST directory.
  • a name combining a 5-digit number and an extension ".mpls” is set.
  • File names "00000. mpls”, “00001. mpls”, and "00002. mpls” are set in the three PlayList files shown in FIG.
  • Clip information files are stored in the CLIPINF directory.
  • each Clip Information file a name combining a 5-digit number and an extension ".clpi" is set.
  • the file names “01000.clpi”, “02000.clpi”, and “03000.clpi” are respectively set in the three Clip Information files in FIG.
  • the STREAM directory stores the files of the AV stream described above.
  • a name combining a 5-digit number and an extension ".m2ts” is set.
  • File names “01000.m2ts”, “02000.m2ts”, and “03000.m2ts” are respectively set in the three AV stream files in FIG.
  • the Clip Information file and the AV stream file in which the same five-digit number is set as the file name are files constituting one Clip.
  • a Clip Information file of "01000.clpi” is used, and when playing back an AV stream file of "02000.m2ts", a Clip Information file of "02000.clpi" is used.
  • Embodiment 1 An example of describing a flag in PlayList >> ⁇ 5-1. Description of PlayList> The main descriptions of the descriptions included in the PlayList will be described.
  • FIG. 15 is a diagram illustrating the syntax of the PlayList file.
  • the PlayList file is a file which is stored in the PLAYLIST directory of FIG. 14 and to which the extension “.mpls” is set.
  • mark information of PlayList that is, information on a mark which is a jump destination (jump point) in a user operation or a command instructing a chapter jump or the like is stored.
  • FIG. 16 is a diagram showing the syntax of the PlayList () of FIG.
  • Number_of_PlayItems indicates the number of PlayItems in the PlayList.
  • the number of PlayItems is three.
  • the values of PlayItem_id are allocated from 0 in the order in which PlayItem () appears in the PlayList.
  • Number_of_SubPaths indicates the number of Sub Paths in the PlayList.
  • the number of Sub Paths is three.
  • the values of SubPath_id are allocated from 0 in the order in which SubPath () appears in the PlayList.
  • PlayItem is described in the PlayList () by the number of PlayItems, and SubPath () is described by the number of Sub Paths.
  • FIG. 17 is a diagram showing the syntax of PlayItem () of FIG.
  • Clip_Information_file_name [0] represents the name of the Clip Information file of the Clip referred to by the PlayItem.
  • Clip_codec_identifier [0] represents the codec method of Clip.
  • IN_time represents the start position of the PlayItem playback interval
  • OUT_time represents the end position.
  • UO_mask_table (), PlayItem_random_access_mode, and still_mode are included.
  • the STN_table () contains information on the attributes of each of the elementary streams that make up the AV stream to which the PlayItem refers. If there is a Sub Path to be played back in association with the PlayItem, the STN_table () also includes information on the attribute of each Elementary stream that constitutes an AV stream to which the SubPlayItem that constitutes that Sub Path refers.
  • FIG. 18 is a diagram illustrating the syntax of STN_table () in FIG.
  • Number_of_video_stream_entries represents the number of video streams to be entered (registered) in STN_table ().
  • number_of_audio_stream_entries represents the number of streams of the 1st audio stream entered in STN_table ().
  • number_of_audio_stream2_entries represents the number of streams of the 2nd audio stream to be entered into STN_table ().
  • Number_of_PG_textST_stream_entries represents the number of PG_textST streams to be entered in STN_table ().
  • the PG_textST stream is a PG (Presentation Graphics) stream obtained by run-length encoding bitmap subtitles and a text subtitle file (textST).
  • number_of_IG_stream_entries represents the number of IG (Interactive Graphics) streams to be entered into STN_table ().
  • each video stream, 1st audio stream, 2nd audio stream, PG_textST stream, and stream_entry () and stream_attributes () which are information of IG stream are described.
  • stream_entry () contains the PID of the stream
  • stream_attributes () contains the attribute information of the stream.
  • FIG. 19 is a diagram illustrating an example of the description of stream_attributes () regarding the IG stream.
  • the IG stream is a stream used to transmit menu data.
  • stream_attributes When the value of stream_coding_type is 0x91, information on an IG stream is described in stream_attributes (). For example, as shown in FIG. 19, IG_language_code and Fixed_Dynamic_medatada_during_PopUp_flag which is a 1-bit flag are described in stream_attributes ().
  • Fixed_Dynamic_medatada_during_PopUp_flag is a flag (flag in FIG. 10) representing metadata used for adjusting the brightness while displaying the menu based on the IG stream.
  • the value of Fixed_Dynamic_medatada_during_PopUp_flag may be 0b to indicate that menu display metadata is used for brightness adjustment, and 1b may indicate that Dynamic metadata is used for brightness adjustment.
  • FIG. 20 is a block diagram showing a configuration example of the playback device 101. As shown in FIG.
  • the playback apparatus 101 includes a controller 151, a disk drive 152, a memory 153, a local storage 154, a communication unit 155, a decoding processing unit 156, an operation input unit 157, and an external output unit 158.
  • the controller 151 is configured by a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and the like.
  • the controller 151 executes a predetermined program to control the overall operation of the playback apparatus 101.
  • the disk drive 152 reads the data recorded on the optical disk 111 and outputs the data to the controller 151, the memory 153, or the decoding processing unit 156.
  • the disk drive 152 outputs Data Base information read from the optical disk 111 to the controller 151, and outputs an AV stream to the decoding processing unit 156.
  • the memory 153 stores data necessary for the controller 151 to execute various processes, such as a program executed by the controller 151.
  • a menu display metadata storage unit 153A is formed.
  • the menu display metadata storage unit 153A stores menu display metadata.
  • the menu display metadata stored in the menu display metadata storage unit 153A is appropriately used according to the value of Fixed_Dynamic_medatada_during_PopUp_flag.
  • the local storage 154 is configured by a recording medium such as a hard disk drive (HDD) or a solid state drive (SSD).
  • the local storage 154 records the stream downloaded from the server and the like.
  • the communication unit 155 is an interface such as a wireless LAN or a wired LAN.
  • the communication unit 155 communicates with the server via a network such as the Internet, and supplies data downloaded from the server to the local storage 154.
  • the decoding processing unit 156 decodes the HDR video stream multiplexed into the AV stream supplied from the disk drive 152, and outputs the data of the HDR video obtained by decoding to the external output unit 158.
  • the decoding processing unit 156 decodes the audio stream multiplexed in the AV stream, and outputs the audio data obtained by decoding to the external output unit 158.
  • the reproduction of video is mainly described, in this manner, the HDR content reproduced by the reproduction device 101 also includes audio data.
  • the operation input unit 157 includes an input device such as a button or a touch panel, and a receiving unit that receives a signal such as infrared light transmitted from the remote controller.
  • the operation input unit 157 detects the user's operation and supplies a signal representing the content of the detected operation to the controller 151.
  • the external output unit 158 is an interface of external output such as HDMI.
  • the external output unit 158 communicates with the TV 102 via the HDMI cable, acquires information on the performance of the display of the TV 102, and outputs the information to the controller 151. Also, the external output unit 158 receives the data of the HDR video supplied from the decoding processing unit 156 and outputs the data to the TV 102.
  • the external output unit 158 functions as a receiving unit that receives the stream of HDR video data supplied from the decoding processing unit 156.
  • FIG. 21 is a block diagram showing an example of a functional configuration of the controller 151. As shown in FIG.
  • a Data Base information analysis unit 171 In the controller 151, a Data Base information analysis unit 171, an output control unit 172, and a menu display metadata generation unit 173 are realized. At least a part of the functional units shown in FIG. 21 is realized by the CPU of the controller 151 executing a predetermined program.
  • the Data Base information analysis unit 171 analyzes Data Base information supplied from the disk drive 152.
  • the Data Base information analysis unit 171 analyzes the PlayList, and reproduces the HDR content according to the description of the PlayList. Also, the Data Base information analysis unit 171 specifies the metadata used for adjusting the brightness while displaying the menu by referring to the value of Fixed_Dynamic_medatada_during_PopUp_flag included in the PlayList, and outputs the specified metadata information to the output control unit 172. Output to
  • the output control unit 172 controls the output of the HDR content by controlling the decoding processing unit 156 and the external output unit 158.
  • the output control unit 172 causes the decoding processing unit 156 to decode the HDR video stream.
  • the output control unit 172 controls the external output unit 158, adds Dynamic metadata to each picture obtained by decoding the HDR video stream, and outputs the picture.
  • the output control unit 172 causes the decoding processing unit 156 to decode the HDR video stream and the IG stream, and the menu image obtained by decoding the IG stream into each picture of the HDR video Synthesize
  • the output control unit 172 controls the external output unit 158, and when the value of Fixed_Dynamic_medatada_during_PopUp_flag is 0b, adds the dynamic metadata to each picture on which the menu image is combined and outputs it. Further, when the value of Fixed_Dynamic_medatada_during_PopUp_flag is 1b, the output control unit 172 adds menu display metadata to each picture on which the menu image is combined and outputs the picture.
  • the menu display metadata generation unit 173 when Fixed_Dynamic_medatada_during_PopUp_flag is included in the PlayList, the menu display metadata generation unit 173 generates menu display metadata by setting a fixed value as the value of each parameter.
  • the menu display metadata generation unit 173 has fixed value information to be set to each parameter.
  • the menu display metadata generation unit 173 outputs the generated menu display metadata to the memory 153, and stores the menu display metadata in the menu display metadata storage unit 153A.
  • menu display metadata may be generated in the playback device 101.
  • the menu display metadata may be stored in the menu display metadata storage unit 153A at the time of manufacture of the playback apparatus 101 or the like, and may be prepared in the playback apparatus 101 in advance.
  • the user may be able to specify a value to be set to each parameter of the menu display metadata.
  • the setting of each parameter value is performed using, for example, the setting screen of the playback apparatus 101. Further, the user may select whether to refer to or ignore the menu display metadata on the TV 102 side using the setting screen of the TV 102.
  • values to be set to the respective parameters of the menu display metadata may be acquired from the server.
  • the server for example, information of values to be set to each parameter of the metadata for menu display is prepared in association with the HDR content recorded on the optical disc 111.
  • the menu display metadata generation unit 173 generates menu display metadata for HDR content recorded on the optical disc 111 by setting the value acquired from the server as the value of each parameter.
  • menu display metadata may be downloaded from the server.
  • the menu display metadata downloaded and received by the communication unit 155 is output to the memory 153 and stored in the menu display metadata storage unit 153A.
  • FIG. 22 is a block diagram showing a configuration example of the decoding processing unit 156.
  • the decoding processing unit 156 includes a video decoder 181, a graphic decoder 182, and a combining unit 183.
  • the HDR video stream included in the AV stream read by the disk drive 152 is input to the video decoder 181, and the IG stream is input to the graphics decoder 182.
  • the video decoder 181 decodes the HDR video stream, and outputs each picture of the HDR video to the combining unit 183. Also, the video decoder 181 obtains Dynamic metadata by decoding the HDR video stream, and outputs the Dynamic metadata to the controller 151.
  • the graphic decoder 182 decodes the IG stream and outputs an image of the menu to the synthesizing unit 183.
  • the combining unit 183 When displaying the menu, the combining unit 183 combines the picture of the menu supplied from the graphic decoder 182 with each picture of the HDR video supplied from the video decoder 181, and outputs each picture of the HDR video to the external output unit 158. Output. When the menu is not displayed, the synthesis unit 183 outputs each picture of the HDR video supplied from the video decoder 181 to the external output unit 158 as it is.
  • subtitles, OSD, and the like are also displayed superimposed on the HDR video in addition to the menu.
  • the PG stream is decoded by the graphic decoder 182.
  • the subtitle information obtained by decoding the PG stream is supplied to the combining unit 183 and combined with each picture of the HDR video.
  • the controller 151 supplies the combining unit 183 with OSD data, which is data used for displaying the OSD.
  • the controller 151 is also provided with a functional unit that generates OSD data in accordance with a user operation or the like.
  • the OSD data supplied from the controller 151 is combined with each picture of the HDR video.
  • FIG. 23 and FIG. 24 are started, for example, when the optical disc 111 is attached to the disc drive 152 of the reproducing apparatus 101 and reproduction of HDR content is instructed.
  • step S1 the disk drive 152 reads out a file of Data Base information including the PlayList file from the optical disk 111.
  • step S2 the Data Base information analysis unit 171 of the controller 151 analyzes the PlayList file, and specifies an AV stream to be reproduced. Also, the Data Base information analysis unit 171 specifies the value of Fixed_Dynamic_medatada_during_PopUp_flag described in stream_attributes () on the IG stream in the STN_table () of the PlayList file.
  • step S 3 the disc drive 152 reads from the optical disc 111 the file of the AV stream including the HDR video stream to be reproduced.
  • step S4 the video decoder 181 of the decoding processing unit 156 decodes the HDR video stream included in the AV stream supplied from the disk drive 152, and transmits the data of each picture to the external output unit 158 via the synthesizing unit 183. Output. Dynamic metadata included in the HDR video stream is supplied from the video decoder 181 to the controller 151.
  • step S5 the external output unit 158 adds Dynamic metadata supplied from the controller 151 to each picture of the HDR video supplied from the decoding processing unit 156, and outputs the added picture to the TV 102.
  • step S6 the output control unit 172 of the controller 151 determines whether display of a menu has been instructed. If it is determined in step S6 that the menu display is not instructed, the process returns to step S5, and the output of each picture of the HDR video is continued.
  • step S7 the graphic decoder 182 decodes the IG stream and outputs an image of the menu to the synthesizing unit 183.
  • step S8 the combining unit 183 combines the picture of the menu supplied from the graphic decoder 182 with each picture of the HDR video supplied from the video decoder 181, and outputs each picture of the HDR video to the external output unit 158 Do.
  • step S9 the output control unit 172 determines whether the value of Fixed_Dynamic_medatada_during_PopUp_flag is 0b.
  • step S10 the output control unit 172 controls the external output unit 158 to add dynamic metadata to each picture combined with the menu image and outputs it.
  • luminance compression of each picture of the HDR video in which the menu image is synthesized is performed based on Dynamic metadata, and the HDR video after luminance compression is displayed.
  • step S11 the output control unit 172 reads and acquires menu display metadata from the menu display metadata storage unit 153A.
  • the output control unit 172 outputs the acquired menu display metadata to the external output unit 158.
  • step S12 the output control unit 172 controls the external output unit 158 to add display metadata to each picture on which the menu image has been synthesized and output it.
  • the luminance compression of each picture of the HDR video in which the menu image is combined is performed based on the menu display metadata, and the luminance video after the luminance compression is displayed.
  • step S10 or step S12 is continued until the display of the menu is ended.
  • the process returns to step S5, and the subsequent processes are repeated.
  • the playback device 101 can transmit the metadata specified by the value of Fixed_Dynamic_medatada_during_PopUp_flag to the TV 102 to perform the brightness adjustment.
  • the producer of the content can specify the metadata of the HDR metadata after the adjustment of the brightness and the metadata whose menu appearance does not become unnatural among the Dynamic metadata and the metadata for menu display by the value of Fixed_Dynamic_medatada_during_PopUp_flag.
  • the content producer sets the value of Fixed_Dynamic_medatada_during_PopUp_flag so that the brightness adjustment using Dynamic metadata is performed, for example, when priority is given to the brightness of the HDR video because the image such as a button displayed as a menu is small.
  • the content producer sets the value of Fixed_Dynamic_medatada_during_PopUp_flag so that the brightness adjustment using the menu display metadata is performed when priority is given to the menu brightness because there are many scenes where the brightness changes rapidly.
  • a content producer can prevent unnatural changes in luminance when other information such as a menu is superimposed on the HDR video and displayed.
  • Embodiment 2 Example of Writing a Flag to an IG Stream >> Fixed_Dynamic_medatada_during_PopUp_flag may be described in an area other than PlayList.
  • a PES packet constituting an IG stream stores data in units called segments.
  • the display of the menu is performed using a segment of menu data.
  • FIG. 25 is a diagram illustrating an example of a display set including segments of menu data.
  • the display set of menu data is configured by ICS, PDS1 to PDSn, ODS1 to ODSn, END Segment which are segments of menu images (buttons) for one screen.
  • the ICS Interactive Composition Segment
  • the ICS represents the top of the display set, and is a segment including attribute information on a menu such as an ID for each menu button.
  • a PDS (Palette Definition Segment) is a segment that includes information on colors that can be used as menu colors.
  • An ODS (Object Definition Segment) is a segment including information indicating the shape of a menu.
  • the END Segment is a segment that represents the end of the display set.
  • FIG. 26 is a diagram showing the ICS syntax.
  • interactive_composition_data_fragment includes interactive_composition ().
  • FIG. 27 is a diagram illustrating the syntax of interactive_composition () included in interactive_composition_data_fragment ().
  • stream_model represents a multiplexing scheme of ICS and related information.
  • user_interface_model indicates whether the menu is displayed in Pop-Up format or Always-On format.
  • the process using the Fixed_Dynamic_medatada_during_PopUp_flag described in the IG stream is basically the same as the process when the Fixed_Dynamic_medatada_during_PopUp_flag is described in the PlayList.
  • the graphic decoder 182 when the graphic decoder 182 decodes the IG stream, the graphic decoder 182 outputs the information of Fixed_Dynamic_medatada_during_PopUp_flag to the controller 151. As described above, the output control unit 172 of the controller 151 switches the metadata output along with each picture of the HDR video based on the value of Fixed_Dynamic_medatada_during_PopUp_flag.
  • the playback device 101 can transmit the metadata specified by the value of Fixed_Dynamic_medatada_during_PopUp_flag to the TV 102 to perform the brightness adjustment.
  • the PG stream which is a subtitle stream, has the same configuration as the IG stream. Fixed_Dynamic_medatada_during_PopUp_flag may be described in the PG stream.
  • FIG. 28 is a block diagram showing a configuration example of the TV 102. As shown in FIG.
  • the TV 102 includes a controller 201, an external input unit 202, a signal processing unit 203, a display 204, a broadcast receiving unit 205, a decoding processing unit 206, and a communication unit 207.
  • the controller 201 is configured of a CPU, a ROM, a RAM, and the like.
  • the controller 201 executes a predetermined program and controls the overall operation of the TV 102.
  • the controller 201 manages information representing the performance of the display 204.
  • the controller 201 outputs information representing the performance of the display 204 to the external input unit 202 and transmits the information to the reproduction apparatus 101 at the time of transmission setting of HDMI.
  • the controller 201 controls the processing of the HDR video by the signal processing unit 203.
  • the controller 201 causes the signal processing unit 203 to perform luminance compression of HDR video based on Dynamic metadata or menu display metadata transmitted from the playback device 101 when the HDR content is played back.
  • the external input unit 202 is an interface of external input such as HDMI.
  • the external input unit 202 communicates with the playback device 101 via the HDMI cable, receives data of each picture of the HDR video transmitted from the playback device 101, and outputs the data to the signal processing unit 203. Also, the external input unit 202 receives Dynamic metadata or menu display metadata added and transmitted to each picture of the HDR video, and outputs the metadata to the controller 201.
  • the signal processing unit 203 processes the HDR video supplied from the external input unit 202 and causes the display 204 to display an image.
  • the signal processing unit 203 appropriately compresses the luminance of the HDR video so as to be within the displayable range of the display 204 according to the control by the controller 201.
  • the signal processing unit 203 also performs processing to display the video of the program on the display 204 based on the data supplied from the decoding processing unit 206.
  • the display 204 is a display device such as an organic EL (Electroluminescence) display or an LCD (Liquid Crystal Display).
  • the display 204 displays the video of the HDR content and the video of the program based on the video signal supplied from the signal processing unit 203.
  • the broadcast reception unit 205 extracts a broadcast signal of a predetermined channel from the signal supplied from the antenna, and outputs the broadcast signal to the decoding processing unit 206. Extraction of a broadcast signal by the broadcast reception unit 205 is performed according to control by the controller 201.
  • the decoding processing unit 206 performs processing such as decoding on the broadcast signal supplied from the broadcast receiving unit 205, and outputs video data of a program to the signal processing unit 203.
  • the communication unit 207 is an interface such as a wireless LAN or a wired LAN.
  • the communication unit 207 communicates with the server via the Internet.
  • the process of FIG. 29 is performed when transmission of a picture obtained by decoding the HDR video stream is started. Dynamic metadata or menu display metadata is added to the picture transmitted from the playback device 101.
  • step S21 the external input unit 202 of the TV 102 receives the data of each picture of the HDR content transmitted from the reproduction device 101 and the dynamic metadata or menu display metadata added and transmitted thereto.
  • Data of each picture received by the external input unit 202 is supplied to the signal processing unit 203, and metadata (Dynamic metadata or display metadata) is supplied to the controller 201.
  • step S22 the signal processing unit 203 performs luminance compression of each picture of the HDR video according to the control of the controller 201.
  • the metadata transmitted along with each picture is Dynamic metadata
  • luminance compression is performed based on Dynamic metadata.
  • the metadata transmitted together with each picture is menu display metadata
  • luminance compression is performed based on the menu display metadata.
  • step S23 the signal processing unit 203 causes the display 204 to display the HDR video subjected to the luminance compression.
  • the display of the HDR video is continued until the playback of the HDR content is finished.
  • FIG. 30 is a block diagram showing a configuration example of the recording device 251. As shown in FIG.
  • An optical disc 111 which is a BD as described above is created in the recording device 251 of FIG.
  • the recording device 251 includes a controller 261, an encoding processing unit 262, and a disk drive 263. A video to be a master is input to the encoding processing unit 262.
  • the controller 261 is configured of a CPU, a ROM, a RAM, and the like.
  • the controller 261 executes a predetermined program and controls the overall operation of the recording device 251.
  • the encoding processing unit 262 encodes the video of the master to generate an HDR video stream. Dynamic metadata added to each picture at the time of generation of the HDR video stream and encoded as an SEI message is supplied from the controller 261.
  • the encoding processing unit 262 generates an IG stream by encoding an image of a menu, and generates a PG stream by encoding subtitle data. Information such as a menu image and subtitle data is also input to the encoding processing unit 262.
  • the encoding processing unit 262 generates an AV stream constituting a Clip by multiplexing an HDR video stream, an IG stream, and a PG stream obtained by performing encoding together with an audio stream and the like.
  • the encoding processing unit 262 outputs the generated AV stream to the disk drive 263.
  • the disk drive 263 records each file of the Data Base information supplied from the controller 261 and the file of the AV stream supplied from the encoding processing unit 262 on the optical disk 111 according to the directory structure of FIG.
  • FIG. 31 is a block diagram showing an example of a functional configuration of the controller 261. As shown in FIG.
  • a Dynamic metadata generation unit 271, a coding control unit 272, a Data Base information generation unit 273, and a recording control unit 274 are realized. At least a part of the functional units illustrated in FIG. 31 is realized by the CPU of the controller 261 executing a predetermined program.
  • the Dynamic metadata generation unit 271 sets the value of each parameter according to the input by the content producer, and generates Dynamic metadata.
  • the Dynamic metadata generation unit 271 outputs the generated Dynamic metadata to the encoding control unit 272.
  • the encoding control unit 272 outputs the Dynamic metadata generated by the Dynamic metadata generation unit 271 to the encoding processing unit 262, and causes each picture of the HDR video to be encoded. Further, the encoding control unit 272 causes the encoding processing unit 262 to encode menu data and subtitle data.
  • the encoding control unit 272 When Fixed_Dynamic_medatada_during_PopUp_flag is described in the graphic stream, the encoding control unit 272 outputs the information of Fixed_Dynamic_medatada_during_PopUp_flag to the encoding processing unit 262, and causes the menu data and the subtitle data to be encoded.
  • the Data Base information generation unit 273 generates Data Base information such as Index table, PlayList, and Clip Information.
  • the Data Base information generation unit 273 sets the value of Fixed_Dynamic_medatada_during_PopUp_flag according to the input by the content creator, and generates a PlayList including Fixed_Dynamic_medatada_during_PopUp_flag.
  • the Data Base information generation unit 273 outputs the generated Data Base information file to the recording control unit 274.
  • the recording control unit 274 outputs the file of Data Base information generated by the Data Base information generation unit 273 to the disc drive 263 and causes the optical disc 111 to record the file.
  • the process of FIG. 32 is started, for example, when video data to be a master is input.
  • step S31 the Dynamic metadata generation unit 271 of the controller 261 sets the value of each parameter according to the input by the producer of the content, and generates Dynamic metadata.
  • step S32 the encoding processing unit 262 encodes the video of the master to generate an HDR video stream. Also, the encoding processing unit 262 encodes the menu image and subtitle data, and generates an IG stream and a PG stream. The encoding processing unit 262 generates an AV stream by multiplexing the generated stream.
  • step S33 the Data Base information generation unit 273 generates Data Base information such as PlayList including Fixed_Dynamic_medatada_during_PopUp_flag.
  • step S34 the disk drive 263 generates the optical disk 111 by recording the file of Data Base information supplied from the controller 261 and the file of the AV stream supplied from the encoding processing unit 262. Thereafter, the process is ended.
  • the recording device 251 can generate the optical disc 111 on which the PlayList including the Fixed_Dynamic_medatada_during_PopUp_flag is recorded.
  • FIG. 33 is a diagram showing a configuration example of another reproduction system of HDR content.
  • the reproduction system of FIG. 33 is configured by connecting the reproduction apparatus 101 and the content distribution server 301 via the network 302 such as the Internet.
  • the TV 102 is connected to the playback device 101 via an HDMI cable or the like.
  • the video of the HDR content reproduced by the reproduction device 101 is displayed on the TV 102.
  • the content distribution server 301 is a server managed by a provider who provides a distribution service of HDR content. As shown in the balloon of FIG. 33, the content distributed by the content distribution server 301 is HDR content.
  • Each HDR content is configured by associating a file of an HDR video stream including Dynamic metadata with a file of reproduction control information.
  • the reproduction control information is, for example, information described in XML.
  • the reproduction control information includes information corresponding to Fixed_Dynamic_medatada_during_PopUp_flag.
  • the TV 102 displays an HDR content selection screen.
  • the user can select predetermined HDR content and request the content distribution server 301 to start viewing.
  • the content distribution server 301 transmits the selected HDR content to the reproduction device 101.
  • the playback device 101 receives the HDR content transmitted from the content distribution server 301, and performs the same processing as the above-described playback processing to perform playback of the HDR content.
  • Dynamic metadata is transmitted from the playback apparatus 101 to the TV 102 together with each picture obtained by decoding the HDR video stream, and luminance compression is performed based on the Dynamic metadata.
  • menu display metadata is transmitted together with each picture of the HDR content, and the TV 102 performs luminance compression based on the menu display metadata.
  • the playback apparatus 101 is provided with menu display metadata.
  • FIG. 34 is a diagram showing another configuration example of the playback device 101. As shown in FIG. 34
  • the playback device 101 may be a so-called stick type terminal.
  • An HDMI terminal is provided in the housing of the playback device 101 shown in FIG. By inserting the HDMI terminal provided in the housing into the HDMI terminal of the TV 102, the playback device 101 and the TV 102 are connected.
  • the playback device 101 plays back the HDR content distributed by the content distribution server 301 by performing the same processing as the above-described processing.
  • the function of the playback device 101 may be installed in a portable terminal such as a smartphone or a tablet terminal, or the function of the playback device 101 may be installed in a terminal such as a PC.
  • Second configuration example> The function of the playback device 101 may be installed in the TV 102.
  • FIG. 35 is a diagram showing a configuration example of still another reproduction system of HDR content.
  • the playback system of FIG. 35 is configured by connecting the TV 102 having the function of the playback apparatus 101 and the content distribution server 301 via the network 302. Duplicate descriptions will be omitted as appropriate.
  • the TV 102 displays an HDR content selection screen based on the information transmitted from the content distribution server 301.
  • the content distribution server 301 transmits the selected HDR content to the TV 102.
  • the TV 102 receives the HDR content transmitted from the content distribution server 301 and reproduces the HDR content.
  • the TV 102 performs luminance compression of each picture of the HDR video based on Dynamic metadata.
  • the TV 102 when it is instructed to display a menu and the value of Fixed_Dynamic_medatada_during_PopUp_flag is 1b, the TV 102 performs luminance compression of each picture of the HDR video based on the metadata for menu display.
  • the TV 102 is provided with menu display metadata.
  • the function of the playback device 101 may be provided in the TV 102, and the TV 102 may perform the processing using the Fixed_Dynamic_medatada_during_PopUp_flag as described above.
  • the recording medium in which the HDR content is recorded is an optical disc, it may be another recording medium such as a flash memory.
  • Fixed_Dynamic_medatada_during_PopUp_flag shall be described in PlayList or a graphic stream, it may be described in other information such as Clip Information.
  • luminance expansion may be performed in the TV 102.
  • information of a tone curve used for luminance expansion is described in Dynamic metadata or metadata for menu display.
  • the video stream input to the playback apparatus 101 is a video stream encoded according to a predetermined method
  • the video stream composed of pictures to which Dynamic metadata is added and which is not encoded is sent to the playback apparatus 101. It may be input.
  • FIG. 36 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 1001, a read only memory (ROM) 1002, and a random access memory (RAM) 1003 are mutually connected by a bus 1004.
  • An input / output interface 1005 is further connected to the bus 1004.
  • the input / output interface 1005 is connected to an input unit 1006 including a keyboard, a mouse and the like, and an output unit 1007 including a display, a speaker and the like.
  • a storage unit 1008 such as a hard disk and a non-volatile memory
  • a communication unit 1009 such as a network interface
  • a drive 1010 for driving the removable medium 1011.
  • the CPU 1001 loads, for example, the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004, and executes the above-described series of processes. Is done.
  • the program executed by the CPU 1001 is provided, for example, via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, recorded in the removable medium 1011 or installed in the storage unit 1008.
  • a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting
  • the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
  • the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing or not. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the present technology can also be configured as follows.
  • An output control unit that adds the metadata and outputs the picture to which the metadata is added to a display device.
  • the playback apparatus according to any one of (1) to (3), wherein the flag represents display metadata that is the metadata for displaying the dynamic metadata or the predetermined information.
  • the output control unit adds the dynamic metadata to each of the pictures when the flag indicates that the dynamic metadata is used for the luminance adjustment. .
  • the output control unit adds the display metadata prepared in the reproduction device to each picture when the flag indicates that the display metadata is used for the luminance adjustment.
  • the playback device according to (5).
  • the reproduction apparatus further including: a metadata generation unit that generates the display metadata by setting a fixed value prepared in advance to the value of each parameter.
  • the playback unit according to any one of (1) to (7), further comprising: a control unit that analyzes playback control information used for playback of the video stream and specifies a value of the flag described in the playback control information. apparatus.
  • the reproduction apparatus further comprising: a reading unit that reads the file of the reproduction control information and the file of the video stream from a recording medium.
  • the control information processing apparatus according to any one of (1) to (7), further comprising: a control unit that analyzes attribute information that configures a graphic stream that transmits the predetermined information, and specifies a value of the flag described in the attribute information. Playback device.
  • 101 playback apparatus 102 TV, 151 controller, 152 disk drive, 153 memory, 154 local storage, 155 communication unit, 156 decryption processing unit, 157 operation input unit, 158 external output unit, 171 Data Base information analysis unit, 172 menu display Metadata generator, 173 output controller

Abstract

本技術は、ビデオに重畳して他の情報を表示させる場合の不自然な輝度の変化を防ぐことができるようにする再生装置、再生方法、プログラム、および記録媒体に関する。 本技術の一側面の再生装置は、ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信し、ピクチャに所定の情報を重畳して表示させる場合、受信されたビデオストリームを構成するピクチャに、所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表されるメタデータを付加し、メタデータを付加したピクチャを表示装置に出力する。本技術は、Blu-ray(登録商標) Discプレーヤに適用することができる。

Description

再生装置、再生方法、プログラム、および記録媒体
 本技術は、再生装置、再生方法、プログラム、および記録媒体に関し、特に、ビデオに重畳して他の情報を表示させる場合の不自然な輝度の変化を防ぐことができるようにした再生装置、再生方法、プログラム、および記録媒体に関する。
 Ultra HD Blu-ray(登録商標) Disc(UHD BD)は、ダイナミックレンジを拡張したビデオであるHDR(High Dynamic Range)ビデオの収録に対応したBD規格である。SDR(Standard Dynamic Range)ビデオの最高輝度が100nits(100cd/m2)であるのに対し、HDRビデオの最高輝度は、それを超える例えば10000nitsである。
 HDRビデオストリームのメタデータとして、ピクチャ(フレーム)単位の輝度情報を含むメタデータであるDynamic metadataがSMPTE ST 2094で規定されている。Dynamic metadataを付加したHDRビデオストリームの再生時、プレーヤ側からTV側には、各ピクチャとともにDynamic metadataが伝送される。
 TV側においては、ディスプレイの最高輝度がHDRビデオの輝度より低い場合、BDプレーヤから伝送されてきたDynamic metadataに基づいて、HDRビデオの輝度を圧縮するための処理が行われる。
特開2017-139052号公報
 HDRビデオの再生中に、メニュー、字幕、OSD(On Screen Display)などの表示がユーザにより指示されることがある。例えばメニューの表示が指示された場合、BDプレーヤにおいては、HDRビデオの各ピクチャにメニューの画像が合成され、メニューの画像が合成されたHDRビデオがTVに対して出力される。
 Dynamic metadataを用いた輝度圧縮をメニューの画像が合成されたHDRビデオに対して行った場合、HDRビデオの輝度とともに、メニューの画像の輝度も圧縮される。従って、例えば輝度の変化が激しいシーンでメニューの表示が指示された場合、メニューの輝度の変化も激しくなり、これにより、違和感をユーザに与えてしまうことがある。
 本技術はこのような状況に鑑みてなされたものであり、ビデオに重畳して他の情報を表示させる場合の不自然な輝度の変化を防ぐことができるようにするものである。
 本技術の一側面の再生装置は、ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信する受信部と、前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、前記メタデータを付加した前記ピクチャを表示装置に出力する出力制御部とを備える。
 本技術の他の側面の記録媒体は、ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームの第1のファイルと、前記ピクチャに所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグが記述された第2のファイルとが記録された記録媒体である。
 本技術においては、ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームが受信され、前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータが付加され、前記メタデータが付加された前記ピクチャが表示装置に出力される。
 本技術によれば、ビデオに重畳して他の情報を表示させる場合の不自然な輝度の変化を防ぐことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
HDRコンテンツの再生システムの構成例を示す図である。 HDRビデオの輝度圧縮に用いられるトーンカーブの例を示す図である。 SMPTE ST 2094-40で規定されるDynamic metadataを示す図である。 BDのファイル構造を示す図である。 AVストリームの構造の例を示す図である。 Dynamic metadataの伝送例を示す図である。 メニュー表示時の輝度圧縮の例を示す図である。 光ディスクに用意されるメタデータの例を示す図である。 輝度圧縮後の表示を示す図である。 本技術の一実施形態に係る再生装置を示す図である。 メタデータの伝送例を示す図である。 BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。 Main PathとSub Pathの構造を示す図である。 ファイルの管理構造の例を示す図である。 PlayListファイルのシンタクスを示す図である。 図15のPlayList()のシンタクスを示す図である。 図16のPlayItem()のシンタクスを示す図である。 図17のSTN_table()のシンタクスを示す図である。 IGストリームに関するstream_attributes()の記述の例を示す図である。 再生装置の構成例を示すブロック図である。 図20のコントローラの機能構成例を示すブロック図である。 図20の復号処理部の構成例を示すブロック図である。 再生装置の再生処理について説明するフローチャートである。 再生装置の再生処理について説明する、図23に続くフローチャートである。 ディスプレイセットの例を示す図である。 ICSのシンタクスを示す図である。 interactive_composition()のシンタクスを示す図である。 TVの構成例を示すブロック図である。 TVの表示処理について説明するフローチャートである。 記録装置の構成例を示すブロック図である。 図30のコントローラの機能構成例を示すブロック図である。 記録装置の記録処理について説明するフローチャートである。 HDRコンテンツの他の再生システムの構成例を示す図である。 再生装置の他の構成例を示す図である。 HDRコンテンツのさらに他の再生システムの構成例を示す図である。 コンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.HDRビデオ用のメタデータ
 2.メニュー表示時の輝度変化
 3.メニュー表示用メタデータ
 4.BDフォーマット
 5.実施の形態1:PlayListにフラグを記述する例
 6.実施の形態2:IGストリームにフラグを記述する例
 7.他の装置の構成と動作
 8.再生システムの他の構成例
 9.その他の例
<<1.HDRビデオ用のメタデータ>>
 図1は、HDRコンテンツの再生システムの構成例を示す図である。
 図1の再生システムは、再生装置1とTV(テレビジョン受像機)2が、HDMI(登録商標)(High-Definition Multimedia Interface) 2.0a,HDMI 2.1などの所定の規格のケーブルで接続されることによって構成される。再生装置1とTV2が、無線のインタフェースを介して接続されるようにしてもよい。
 再生装置1は、UHD BDプレーヤなどの、HDRコンテンツの再生に対応した装置である。再生装置1のドライブには、HDRコンテンツを記録したBDが装着される。再生装置1が再生するコンテンツには、HDRビデオのデータの他に、オーディオデータも含まれる。
 TV2は、放送波やネットワークを伝送路として伝送されてきた番組を受信して表示する機能の他に、外部から入力されたビデオを表示する機能を有する。TV2が有する表示デバイスは、輝度が100nitsを超えるHDRビデオの表示に対応したディスプレイである。
 HDRコンテンツの伝送を開始する前、再生装置1とTV2は、それぞれの性能に関する情報を送受信するなどして、HDMIの伝送設定(configuration)を行う。例えば、再生装置1からTV2に対しては、HDRビデオの伝送を行うことが通知される。また、TV2から再生装置1に対しては、TV2のディスプレイの最高輝度が通知される。
 伝送設定の後、再生装置1は、BDから読み出したHDRビデオストリームをデコードし、HDRビデオの各ピクチャをTV2に出力する。TV2は、再生装置1から伝送されてきた各ピクチャを受信し、表示させる。
 このとき、TV2においては、ディスプレイの性能に応じて、適宜、再生装置1から伝送されてきたHDRビデオの輝度を調整(圧縮)する処理が行われる。輝度圧縮は、再生装置1が出力するHDRビデオの輝度が、TV2のディスプレイの最高輝度より高い場合に行われる。
 図1の例においては、再生装置1が出力するHDRビデオの輝度が1000nitsであり、TV2のディスプレイの最高輝度が500nitsであるものとされている。
 図2は、HDRビデオの輝度圧縮に用いられるトーンカーブの例を示す図である。
 図2の横軸は入力信号の輝度を表し、縦軸は出力(表示)の輝度を表す。例えば、SMPTE ST 2084で規定されるPQ(Perceptual Quantization)カーブを用いたEOTF(Electro-Optical Transfer Function)処理がTV2側で行われ、HDRビデオの輝度が、ディスプレイの最高輝度である500nitsの範囲に収まるように圧縮される。
 なお、図2において矢印の先に示す、明暗の表現がリニアではなくなるポイントが、knee pointと呼ばれる。
 このように、図1の再生システムにおいては、再生装置1が出力するHDRビデオの輝度に対してTV2のディスプレイが十分な輝度を有していない場合、TV2側で輝度圧縮が行われる。
 再生装置1からTV2に対しては、輝度圧縮のための補助情報として、コンテンツの輝度情報を含むメタデータが伝送される。例えば、Dynamic metadataが再生装置1からTV2に対して伝送される。
 Dynamic metadataは、コンテンツの輝度情報をピクチャ単位で動的に表現するメタデータであり、SMPTE ST 2094として標準化されている。
 図3は、SMPTE ST 2094-40で規定されるDynamic metadataを示す図である。
 図3の1行目に示すように、Dynamic metadataには、フレームに設定されたWindowの情報が記述される。Windowは、フレーム内に設定された矩形領域である。1フレーム内に最大3つのWindowを設定することが可能とされる。
 2~14行目に示す各パラメータが、フレームに設定されたWindow毎に記述される。
 Window size, Window locationは、Windowのサイズと位置を示す。
 Internal Ellipse size, Internal Ellipse locationは、Window内に設定された2つの楕円のうちの内側の楕円のサイズと位置を示す。Window内に楕円を設定し、楕円内の輝度を指定することができるようになされている。
 External Ellipse size, External Ellipse locationは、Window内に設定された2つの楕円のうちの外側の楕円のサイズと位置を示す。
 Rotation angleは、Window内に設定された2つの楕円の傾きを示す。
 Overlap process optionは、楕円内の画素の処理方法を示す。
 maxsclは、Windowの中の最も明るいピクセルのRGB値を示す。
 average max rgbは、Windowの中の各ピクセルのR,G,Bの中の最も大きい値の平均を示す。
 Distribution max rgb percentagesは、Windowの中の明るい輝度のランキングをパーセンテージにより示す。
 Distribution max rgb percentilesは、Windowの中の明るい輝度のランキングを順位(パーセンタイル)により示す。
 Fraction bright pixelsは、シーン内の最大の輝度値が出画される程度を示す。
 Knee pointは、上述したknee pointの輝度値を示す。
 Bezier curve anchorsは、knee pointを超える明るさのサンプルx,yを示す。
 Color saturation weightは、想定するディスプレイ(Target display)において輝度圧縮を行った際に変化したRGB値の補正に用いる値を示す。
 Target System display max luminanceは、想定するディスプレイの輝度を示す。Target System display max luminanceにより、こういうディスプレイで表示されることを想定してコンテンツを作ったということが指定される。
 Local display luminanceは、ディスプレイを縦横2×2から25×25までのエリアに分割した場合の、それぞれのエリアの最大の輝度値を示す。
 Local mastering display luminanceは、mastering displayを縦横2×2から25×25までのエリアに分割した場合の、それぞれのエリアの最大の輝度値を示す。
 このように、Dynamic metadataにおいては、1~15行目のパラメータによってフレーム(フレーム内のWindow)の属性が示される。また、16行目と17行目のパラメータによって、想定するディスプレイの属性が示され、18行目のパラメータによって、コンテンツの作成に用いられたディスプレイの属性が示される。
 図4は、BDのファイル構造を示す図である。
 詳細については後述するが、BDMVディレクトリの下に設定されるSTREAMディレクトリには、m2tsの拡張子が設定されたAVストリームファイルが格納される。
 AVストリームファイルは、HDRビデオストリーム、オーディオストリーム、字幕ストリームなどをMPEG-2で多重化して得られたMPEG-2 TSのファイルである。図4の例においては、「01000.m2ts」、「02000.m2ts」、「03000.m2ts」のAVストリームファイルがSTREAMディレクトリに格納されている。
 HDRビデオストリームは、例えばHEVC(High Efficiency Video Coding)の符号化ストリームである。Dynamic metadataは、HEVCのSEI(Supplemental Enhancement Information)メッセージとしてHDRビデオストリームに含まれる。
 図5は、図4において枠F1で囲んで示す「03000.m2ts」のAVストリームの構造の例を示す図である。
 図5の最上段に示すように、「03000.m2ts」のAVストリームは、ビデオ、オーディオ、字幕などのそれぞれのデータを格納するTS packetから構成される。ビデオのTS packetを集めてVideo Elementary streamが構成される。
 Video Elementary streamはAccess Unitの並びから構成され、1つのAccess Unitが、HDRビデオの1ピクチャのデータとなる。それぞれのAccess Unitには、AU delimiterに続けて、SPS、PPSなどのパラメータが含まれるとともに、枠F11で囲んで示すように、SEIメッセージが含まれる。
 SEIメッセージに、上述したDynamic metadataが含まれる。なお、SEIメッセージの次には、HDRビデオのデータがPicture dataとして含まれる。
 このように、BDにおいては、Dynamic metadataは、各ピクチャに付加する形でHDRビデオストリームに含まれ、オーディオストリームなどとともに多重化される。
 図6は、Dynamic metadataの伝送例を示す図である。
 図6に示すように、Dynamic metadataは、HDRビデオストリームをデコードして得られた各ピクチャに関連付けて、再生装置1からTV2に伝送される。TV2においては、各ピクチャの輝度圧縮が、各ピクチャとともに伝送されてきたDynamic metadataに基づいて行われる。
<<2.メニュー表示時の輝度変化>>
 図7は、メニュー表示時の輝度圧縮の例を示す図である。
 なお、以下においては、HDRビデオにメニューを重畳して表示させる場合について説明するが、字幕、OSDなどの他の情報をHDRビデオに重畳して表示させる場合も同様である。
 図7の横軸は時刻を表す。ピクチャ#1,#2,#3の順に再生装置1からTV2に伝送され、TV2において輝度圧縮が行われる。
 ピクチャ#1,#2,#3のそれぞれには、例えばユーザによりメニューの表示が指示されることに応じて、メニューの画像が再生装置1において合成される。図7において、ピクチャ#1,#2,#3に重ねて示す、「ここにメニューが表示される」の文字と文字を囲む枠は、その領域に、ボタンなどの、メニューを構成する画像が合成されていることを表す。
 例えば、ピクチャ#2が、ピクチャ#1,#3よりも高輝度のシーンを構成するピクチャであるものとする。
 メニューの画像が合成されたピクチャ#1の輝度圧縮は、ピクチャ#1とともに伝送されたDynamic metadataにより表されるトーンカーブC1に基づいて行われる。メニューの画像が合成されたピクチャ#2の輝度圧縮は、ピクチャ#2とともに伝送されたDynamic metadataにより表されるトーンカーブC2に基づいて行われる。メニューの画像が合成されたピクチャ#3の輝度圧縮は、ピクチャ#3とともに伝送されたDynamic metadataにより表されるトーンカーブC3に基づいて行われる。
 高輝度のシーンを構成するピクチャ#2の輝度圧縮に用いられるトーンカーブC2は、ピクチャ#1の輝度圧縮に用いられるトーンカーブC1、ピクチャ#3の輝度圧縮に用いられるトーンカーブC3と比べて、輝度を強く圧縮するものとなる。ピクチャ#2上のメニューの輝度も、ピクチャ#1,#3上のメニューの輝度より強く圧縮される。
 従って、輝度圧縮後の各ピクチャのメニューの見え方を比べた場合、図7に示すように、ピクチャ#2上のメニューは、ピクチャ#1,#3上のメニューより輝度が低い状態で表示される。図7において、ピクチャ#2上のメニューを薄い色を付して示していることは、ピクチャ#1,#3上のメニューより輝度が低いことを表す。
 ピクチャ#1乃至#3が順に表示された場合、ピクチャ#2の表示のタイミングで、メニューの輝度が一段階低くなり、輝度の圧縮の程度によっては不自然な見え方になる。例えば、輝度の変化が大きいシーンが連続する場合、メニューが点滅して見えてしまう。
 図8は、光ディスクに用意されるメタデータの例を示す図である。
 上述したような不自然な見え方を防ぐため、図8に示すように、メニューの表示時用のメタデータであるデフォルトメタデータを光ディスク11に用意しておくことが考えられる。光ディスク11はBDである。
 デフォルトメタデータは、例えば図3を参照して説明したDynamic metadataのパラメータと同様のパラメータを含むメタデータである。各パラメータには固定値が設定される。Dynamic metadataに含まれるパラメータの値がビデオの見え方を優先させた値であるのに対して、デフォルトメタデータに含まれるパラメータの値は、例えば、メニューの見え方を優先させた値である。
 再生装置1は、HDRコンテンツの再生を開始した場合、HDRビデオストリームをデコードして得られた各ピクチャにDynamic metadataを関連付けて出力する。
 また、再生装置1は、メニューの表示が指示された場合、HDRビデオストリームをデコードして得られた各ピクチャにメニューの画像を合成し、メニューの画像を合成したピクチャにデフォルトメタデータを関連付けて出力する。
 TV2においては、メニューの画像を合成したピクチャに対して、デフォルトメタデータを用いた輝度圧縮が行われ、輝度圧縮後のピクチャが表示される。メニューの輝度も、デフォルトメタデータにより表されるトーンカーブに従って圧縮される。
 デフォルトメタデータに含まれるパラメータの値が固定値であるから、デフォルトメタデータが関連付けられたピクチャの輝度に関わらず、メニューの輝度は一定となる。
 図9は、輝度圧縮後の表示を示す図である。
 例えば、図9の左側に示すように高い輝度のシーンが表示されている状態でメニューの表示が指示された場合、Dynamic metadataではなくデフォルトメタデータを用いた輝度圧縮が行われ、矢印A2の先に示すようにHDRビデオの輝度が低くなる。すなわち、Dynamic metadataを用いた輝度圧縮後の輝度が矢印A1の先に示すHDRビデオの本来の輝度であるとすると、本来の輝度より暗いHDRビデオが表示される。
 メニュー用の値が設定されたメタデータであるから、デフォルトメタデータを用いた輝度圧縮により、矢印A2の先に示すように、メニューの輝度は好適なものになる。
 図7を参照して説明した処理の場合、ビデオに合わせた輝度圧縮がメニューに対して施されることにより、ビデオの輝度圧縮にいわば引きずられる形で、メニューが暗くなる。
 これに対して、図8、図9を参照して説明したデフォルトメタデータを用いた処理の場合、メニューに合わせた輝度圧縮がビデオに対して施されることにより、メニューの輝度圧縮にいわば引きずられる形で、ビデオが暗くなる。メニューのサイズが小さいといったように、メニューに合わせた輝度圧縮によってビデオを暗くさせてしまうことより、ビデオに合わせた輝度圧縮によってビデオの輝度を維持した方が、見た目の不自然さを抑えられる場合もある。
 本技術においては、メニューを表示させる場合に、Dynamic metadataを用いて輝度圧縮が行われるようにするのか、メニュー表示用のメタデータを用いて輝度圧縮が行われるようにするのかを、コンテンツの製作者が指定することが可能とされる。
<<3.メニュー表示用メタデータ>>
 図10は、本技術の一実施形態に係る再生装置101と、再生装置101に装着される光ディスク111を示す図である。
 再生装置101は、図1の再生装置1に対応するプレーヤである。再生装置101には、HDMIケーブルなどを介して、TV2に対応するTV102が接続される(図11)。上述した説明と重複する説明については適宜省略する。
 図10の吹き出しに示すように、光ディスク111には、メニューを表示させる間のTV側における輝度調整に、Dynamic metadataとメニュー表示用メタデータのうちのいずれのメタデータを用いるのかを表すフラグが記録されている。
 メニュー表示用メタデータは、図8のデフォルトメタデータに対応するメタデータであり、例えば、Dynamic metadataのパラメータと同様のパラメータを有する。メニュー表示用メタデータの各パラメータには固定値が設定される。メニュー表示用メタデータは、例えば、再生装置101内のメモリに記憶される形で、再生装置101に予め用意されている。
 輝度調整に用いるメタデータを表すフラグが記録されている点を除いて、光ディスク111は、上述した光ディスク11と同様である。光ディスク111には、HDRビデオストリームを含む各データが例えばBD-ROMフォーマットで記録されている。
 図10の再生装置101は、輝度調整に用いるメタデータを表すフラグの値を参照し、上述した再生装置1の処理と同様の処理を行う。
 図11は、メタデータの伝送例を示す図である。
 例えば、HDRビデオがTV102に表示されている状態でメニューの表示が指示された場合、再生装置101は、フラグの値を参照し、Dynamic metadataとメニュー表示用メタデータのうちのいずれのメタデータを用いるのかを特定する。
 メニュー表示用メタデータを用いることがフラグにより表されている場合、再生装置101は、HDRビデオの各ピクチャにメニューの画像を合成し、図11に示すように、メニューの画像を合成したピクチャにメニュー表示用メタデータを関連付けて出力する。
 TV102においては、各ピクチャの輝度圧縮が、各ピクチャとともに伝送されてきた表示用メタデータに基づいて行われ、輝度圧縮後のHDRビデオが表示される。ディスプレイには、HDRビデオに重ねてメニューが表示される。
 表示用メタデータは各パラメータに固定値が設定されたメタデータであるから、表示用メタデータを用いた輝度圧縮後のHDRビデオに重畳されるメニューの輝度は一定になることになる。
 一方、Dynamic metadataを用いることがフラグにより表されている場合、再生装置101は、HDRビデオの各ピクチャにメニューの画像を合成し、メニューの画像を合成したピクチャにDynamic metadataを関連付けて出力する。
 TV102においては、各ピクチャの輝度圧縮が、各ピクチャとともに伝送されてきたDynamic metadataに基づいて行われ、輝度圧縮後のHDRビデオが表示される。ディスプレイには、HDRビデオに重ねてメニューが表示される。
 なお、メニューの表示が指示されていない場合も同様に、図6を参照して説明したようにして、Dynamic metadataが関連付けられたピクチャが再生装置101からTV102に出力される。TV102においては、各ピクチャに関連付けて伝送されてきたDynamic metadataに基づいて、各ピクチャの輝度圧縮が行われる。
 このように、コンテンツの製作者は、メニューを表示させる場合にDynamic metadataとメニュー表示用メタデータのうちのいずれのメタデータを用いて輝度圧縮が行われるようにするのかをフラグを用いて指定することができる。
 以上のような再生装置101の一連の処理についてはフローチャートを参照して後述する。
<<4.BDフォーマット>>
 ここで、BD-ROMフォーマットについて説明する。
<4-1.データの管理構造>
 図12は、BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。
 AVストリームの管理は、PlayListとClipの2つのレイヤを用いて行われる。AVストリームは、光ディスク111だけでなく、再生装置101のローカルストレージに記録されることもある。
 1つのAVストリームと、それに付随する情報であるClip Informationのペアが1つのオブジェクトとして管理される。AVストリームとClip InformationのペアをClipという。
 AVストリームは時間軸上に展開され、各Clipのアクセスポイントは、主に、タイムスタンプでPlayListにおいて指定される。Clip Informationは、AVストリーム中のデコードを開始すべきアドレスを見つけるためなどに使用される。
 PlayListはAVストリームの再生区間の集まりである。AVストリーム中の1つの再生区間はPlayItemと呼ばれる。PlayItemは、時間軸上の再生区間のIN点とOUT点のペアで表される。図12に示すように、PlayListは1つまたは複数のPlayItemにより構成される。
 図12の左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照される。
 左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照される。
 左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照される。
 例えば、左から1番目のPlayListに含まれる左側のPlayItemが再生対象としてディスクナビゲーションプログラムにより指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。
 PlayListの中で、1つ以上のPlayItemの並びによって作られる再生パスをメインパス(Main Path)という。また、PlayListの中で、Main Pathに並行して、1つ以上のSubPlayItemの並びによって作られる再生パスをサブパス(Sub Path)という。
 図13は、Main PathとSub Pathの構造を示す図である。
 PlayListは、1つのMain Pathと1つ以上のSub Pathを持つ。図13のPlayListは、3つのPlayItemの並びにより作られる1つのMain Pathと3つのSub Pathを有する。
 Main Pathを構成するPlayItemには、先頭から順番にそれぞれIDが設定される。Sub Pathにも、先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2のIDが設定される。
 図13の例においては、Subpath_id=0のSub Pathには1つのSubPlayItemが含まれ、Subpath_id=1のSub Pathには2つのSubPlayItemが含まれる。また、Subpath_id=2のSub Pathには1つのSubPlayItemが含まれる。
 1つのPlayItemが参照するAVストリームには、少なくともビデオストリームが含まれる。AVストリームには、AVストリームに含まれるビデオストリームと同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。
 AVストリームには、AVストリームに含まれるビデオストリームと同期して再生されるビットマップの字幕(PG(Presentation Graphic))のストリームが1つ以上含まれてもよいし、含まれなくてもよい。
 AVストリームには、AVストリームファイルに含まれるビデオストリームと同期して再生されるIG(Interactive Graphic)のストリームが1つ以上含まれてもよいし、含まれなくてもよい。IGのストリームは、ユーザにより操作されるボタンなどのグラフィックを表示させるために用いられる。
 1つのPlayItemが参照するAVストリームには、ビデオストリームと、それと同期して再生されるオーディオストリーム、PGストリーム、およびIGストリームが多重化される。
 また、1つのSubPlayItemは、PlayItemが参照するAVストリームとは異なるストリームの、ビデオストリーム、オーディオストリーム、PGストリームなどを参照する。
 上述したようにしてHDRビデオに重畳される情報のうち、メニューは、例えばIGストリームをデコードすることによって取得される。また、字幕は、例えばPGストリームをデコードすることによって取得される。
 このように、AVストリームの再生はPlayListとClip Informationを用いて行われる。コンテンツとしてのAVストリームの再生を管理するために用いられる再生制御情報であるPlayListとClip Informationを、適宜、Data Base情報という。
<4-2.ディレクトリ構造>
 図14は、光ディスク111に記録されるファイルの管理構造の例を示す図である。
 光ディスク111に記録される各ファイルはディレクトリ構造により階層的に管理される。光ディスク111上には1つのrootディレクトリが作成される。
 rootディレクトリの下にはBDMVディレクトリが置かれる。
 BDMVディレクトリの下には、「Index.bdmv」の名前が設定されたファイルであるIndex tableファイルと、「MovieObject.bdmv」の名前が設定されたファイルであるMovieObjectファイルが格納される。Index tableファイルにはIndex tableが記述される。
 BDMVディレクトリの下には、PLAYLISTディレクトリ、CLIPINFディレクトリ、STREAMディレクトリ等が設けられる。
 PLAYLISTディレクトリには、PlayListを記述したPlayListファイルが格納される。各PlayListファイルには、5桁の数字と拡張子「.mpls」を組み合わせた名前が設定される。図14に示す3つのPlayListファイルには「00000.mpls」、「00001.mpls」、「00002.mpls」のファイル名が設定されている。
 CLIPINFディレクトリにはClip Informationファイルが格納される。各Clip Informationファイルには、5桁の数字と拡張子「.clpi」を組み合わせた名前が設定される。図14の3つのClip Informationファイルには、それぞれ、「01000.clpi」、「02000.clpi」、「03000.clpi」のファイル名が設定されている。
 STREAMディレクトリには、上述したAVストリームのファイルが格納される。各AVストリームファイルには、5桁の数字と拡張子「.m2ts」を組み合わせた名前が設定される。図14の3つのAVストリームファイルには、それぞれ、「01000.m2ts」、「02000.m2ts」、「03000.m2ts」のファイル名が設定されている。
 同じ5桁の数字がファイル名に設定されているClip InformationファイルとAVストリームファイルが1つのClipを構成するファイルとなる。「01000.m2ts」のAVストリームファイルの再生時には「01000.clpi」のClip Informationファイルが用いられ、「02000.m2ts」のAVストリームファイルの再生時には「02000.clpi」のClip Informationファイルが用いられる。
<<5.実施の形態1:PlayListにフラグを記述する例>>
<5-1.PlayListの記述>
 PlayListに含まれる記述のうちの主な記述について説明する。
 図15は、PlayListファイルのシンタクスを示す図である。
 PlayListファイルは、図14のPLAYLISTディレクトリに格納される、拡張子「.mpls」が設定されるファイルである。
 AppInfoPlayList()には、再生制限などの、PlayListの再生コントロールに関するパラメータが格納される。
 PlayList()には、Main PathやSub Pathに関するパラメータが格納される。
 PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納される。
 図16は、図15のPlayList()のシンタクスを示す図である。
 number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す。図13の例の場合、PlayItemの数は3となる。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。
 number_of_SubPathsは、PlayListの中にあるSub Pathの数を示す。図13の例の場合、Sub Pathの数は3である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。
 図16に示すように、PlayList()には、PlayItemの数だけPlayItem()が記述され、Sub Pathの数だけSubPath()が記述される。
 図17は、図16のPlayItem()のシンタクスを示す図である。
 Clip_Information_file_name[0]は、PlayItemが参照するClipのClip Informationファイルの名前を表す。Clip_codec_identifier[0]はClipのコーデック方式を表す。
 IN_timeはPlayItemの再生区間の開始位置を表し、OUT_timeは終了位置を表す。OUT_timeの後にはUO_mask_table()、PlayItem_random_access_mode、still_modeが含まれる。
 STN_table()には、PlayItemが参照するAVストリームを構成するそれぞれのElementary streamの属性の情報が含まれる。PlayItemと関連付けて再生されるSub Pathがある場合、STN_table()には、そのSub Pathを構成するSubPlayItemが参照するAVストリームを構成するそれぞれのElementary streamの属性の情報も含まれる。
 図18は、図17のSTN_table()のシンタクスを示す図である。
 number_of_video_stream_entriesは、STN_table()にエントリーされる(登録される)ビデオストリームの数を表す。number_of_audio_stream_entriesは、STN_table()にエントリーされる1stオーディオストリームのストリームの数を表す。number_of_audio_stream2_entriesは、STN_table()にエントリーされる2ndオーディオストリームのストリームの数を表す。
 number_of_PG_textST_stream_entriesは、STN_table()にエントリーされるPG_textSTストリームの数を表す。PG_textSTストリームは、ビットマップ字幕をランレングス符号化したPG(Presentation Graphics)ストリームとテキスト字幕ファイル(textST)である。number_of_IG_stream_entriesは、STN_table()にエントリーされるIG(Interactive Graphics)ストリームの数を表す。
 STN_table()には、それぞれのビデオストリーム、1stオーディオストリーム、2ndオーディオストリーム、PG_textSTストリーム、IGストリームの情報であるstream_entry()とstream_attributes()が記述される。stream_entry()にはストリームのPIDが含まれ、stream_attributes()にはストリームの属性情報が含まれる。
 図19は、IGストリームに関するstream_attributes()の記述の例を示す図である。上述したように、IGストリームはメニューデータの伝送に用いられるストリームである。
 stream_coding_typeの値が0x91である場合、stream_attributes()にはIGストリームに関する情報が記述される。例えば、図19に示すように、IG_language_codeと、1ビットのフラグであるFixed_Dynamic_medatada_during_PopUp_flagが、stream_attributes()に記述される。
 Fixed_Dynamic_medatada_during_PopUp_flagは、IGストリームに基づいてメニューを表示させる間の輝度調整に用いるメタデータを表すフラグ(図10のフラグ)である。
 例えば、Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであることは、輝度調整にDynamic metadataを用いることを表す。また、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bであることは、輝度調整にメニュー表示用メタデータを用いることを表す。
 Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであることが輝度調整にメニュー表示用メタデータを用いることを表し、1bであることが輝度調整にDynamic metadataを用いることを表すようにしてもよい。
 このように、PlayListファイルのSTN_table()中のIGストリームに関するstream_attributes()には、メニューを表示させる間の輝度調整に用いるメタデータを表すフラグが記述される。
<5-2.再生装置の構成>
 ここで、再生装置101の構成について説明する。
 図20は、再生装置101の構成例を示すブロック図である。
 再生装置101は、コントローラ151、ディスクドライブ152、メモリ153、ローカルストレージ154、通信部155、復号処理部156、操作入力部157、および外部出力部158から構成される。
 コントローラ151は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。コントローラ151は、所定のプログラムを実行し、再生装置101の全体の動作を制御する。
 ディスクドライブ152は、光ディスク111に記録されているデータを読み出し、コントローラ151、メモリ153、または復号処理部156に出力する。例えば、ディスクドライブ152は、光ディスク111から読み出したData Base情報をコントローラ151に出力し、AVストリームを復号処理部156に出力する。
 メモリ153は、コントローラ151が実行するプログラムなどの、コントローラ151が各種の処理を実行する上で必要なデータを記憶する。メモリ153にはメニュー表示用メタデータ記憶部153Aが形成される。
 メニュー表示用メタデータ記憶部153Aはメニュー表示用メタデータを記憶する。メニュー表示用メタデータ記憶部153Aに記憶されているメニュー表示用メタデータが、Fixed_Dynamic_medatada_during_PopUp_flagの値に応じて適宜用いられる。
 ローカルストレージ154は、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記録媒体により構成される。ローカルストレージ154には、サーバからダウンロードされたストリームなどが記録される。
 通信部155は、無線LAN、有線LANなどのインタフェースである。例えば、通信部155は、インターネットなどのネットワークを介してサーバと通信を行い、サーバからダウンロードしたデータをローカルストレージ154に供給する。
 復号処理部156は、ディスクドライブ152から供給されたAVストリームに多重化されているHDRビデオストリームを復号し、復号して得られたHDRビデオのデータを外部出力部158に出力する。
 また、復号処理部156は、AVストリームに多重化されているオーディオストリームを復号し、復号して得られたオーディオデータを外部出力部158に出力する。ビデオの再生について主に説明しているが、このように、再生装置101が再生するHDRコンテンツにはオーディオデータも含まれる。
 操作入力部157は、ボタン、タッチパネルなどの入力デバイスや、リモートコントローラから送信される赤外線などの信号を受信する受信部により構成される。操作入力部157はユーザの操作を検出し、検出した操作の内容を表す信号をコントローラ151に供給する。
 外部出力部158は、HDMIなどの外部出力のインタフェースである。外部出力部158は、HDMIケーブルを介してTV102と通信を行い、TV102が有するディスプレイの性能に関する情報を取得してコントローラ151に出力する。また、外部出力部158は、復号処理部156から供給されたHDRビデオのデータを受信し、TV102に出力する。外部出力部158は、復号処理部156から供給されたHDRビデオのデータのストリームを受信する受信部として機能する。
 図21は、コントローラ151の機能構成例を示すブロック図である。
 コントローラ151においては、Data Base情報解析部171、出力制御部172、およびメニュー表示用メタデータ生成部173が実現される。図21に示す機能部のうちの少なくとも一部は、コントローラ151のCPUにより所定のプログラムが実行されることによって実現される。
 Data Base情報解析部171は、ディスクドライブ152から供給されたData Base情報を解析する。
 例えば、Data Base情報解析部171は、PlayListを解析し、PlayListの記述に従ってHDRコンテンツを再生する。また、Data Base情報解析部171は、PlayListに含まれるFixed_Dynamic_medatada_during_PopUp_flagの値を参照することによって、メニューを表示させる間の輝度調整に用いるメタデータを特定し、特定したメタデータの情報を出力制御部172に出力する。
 出力制御部172は、復号処理部156と外部出力部158を制御することによって、HDRコンテンツの出力を制御する。
 例えば、出力制御部172は、HDRビデオストリームを復号処理部156にデコードさせる。また、出力制御部172は、外部出力部158を制御し、HDRビデオストリームをデコードして得られた各ピクチャに、Dynamic metadataを付加して出力させる。
 出力制御部172は、メニューの表示が指示された場合、HDRビデオストリームとIGストリームを復号処理部156にデコードさせ、HDRビデオの各ピクチャに、IGストリームをデコードすることによって得られたメニューの画像を合成させる。
 出力制御部172は、外部出力部158を制御し、Fixed_Dynamic_medatada_during_PopUp_flagの値が0bである場合には、メニューの画像が合成された各ピクチャにDynamic metadataを付加して出力させる。また、出力制御部172は、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合には、メニューの画像が合成された各ピクチャにメニュー表示用メタデータを付加して出力させる。
 メニュー表示用メタデータ生成部173は、例えば、PlayListにFixed_Dynamic_medatada_during_PopUp_flagが含まれる場合、各パラメータの値として固定値を設定することによりメニュー表示用メタデータを生成する。メニュー表示用メタデータ生成部173は、各パラメータに設定する固定値の情報を有している。メニュー表示用メタデータ生成部173は、生成したメニュー表示用メタデータをメモリ153に出力し、メニュー表示用メタデータ記憶部153Aに記憶させる。
 このように、メニュー表示用メタデータが再生装置101内で生成されるようにしてもよい。また、メニュー表示用メタデータが、再生装置101の製造時などのタイミングでメニュー表示用メタデータ記憶部153Aに記憶され、再生装置101に予め用意されるようにしてもよい。
 メニュー表示用メタデータの各パラメータに設定する値をユーザが指定することができるようにしてもよい。この場合、例えば再生装置101の設定画面を用いて、各パラメータの値の設定が行われる。また、TV102の設定画面を用いて、TV102側でメニュー表示用メタデータを参照するか無視するかをユーザが選択できるようにしても良い。
 また、メニュー表示用メタデータの各パラメータに設定する値がサーバから取得されるようにしてもよい。
 この場合、サーバには、例えば、光ディスク111に記録されているHDRコンテンツに対応付けて、メニュー表示用メタデータの各パラメータに設定する値の情報が用意される。メニュー表示用メタデータ生成部173は、サーバから取得された値を各パラメータの値として設定することによって、光ディスク111に記録されているHDRコンテンツ用のメニュー表示用メタデータを生成することになる。
 また、メニュー表示用メタデータがサーバからダウンロードされるようにしてもよい。ダウンロードされ、通信部155により受信されたメニュー表示用メタデータは、メモリ153に出力され、メニュー表示用メタデータ記憶部153Aに記憶される。
 図22は、復号処理部156の構成例を示すブロック図である。
 復号処理部156は、ビデオデコーダ181、グラフィック用デコーダ182、および合成部183から構成される。ディスクドライブ152により読み出されたAVストリームに含まれるHDRビデオストリームはビデオデコーダ181に入力され、IGストリームはグラフィック用デコーダ182に入力される。
 ビデオデコーダ181は、HDRビデオストリームをデコードし、HDRビデオの各ピクチャを合成部183に出力する。また、ビデオデコーダ181は、HDRビデオストリームをデコードすることによってDynamic metadataを取得し、コントローラ151に出力する。
 グラフィック用デコーダ182は、メニューの表示がユーザにより指示された場合、IGストリームをデコードし、メニューの画像を合成部183に出力する。
 合成部183は、メニューを表示させる場合、ビデオデコーダ181から供給されたHDRビデオの各ピクチャにグラフィック用デコーダ182から供給されたメニューの画像を合成し、HDRビデオの各ピクチャを外部出力部158に出力する。合成部183は、メニューを表示させない場合、ビデオデコーダ181から供給されたHDRビデオの各ピクチャをそのまま外部出力部158に出力する。
 なお、上述したように、メニュー以外に、字幕やOSDなどもHDRビデオに重ねて表示される。
 例えば字幕を表示させる場合、PGストリームのデコードがグラフィック用デコーダ182により行われる。PGストリームをデコードすることによって得られた字幕の情報は、合成部183に供給され、HDRビデオの各ピクチャに合成される。
 また、OSDを表示させる場合、コントローラ151から合成部183に対して、OSDの表示に用いるデータであるOSDデータが供給される。コントローラ151には、ユーザの操作などに応じてOSDデータを生成する機能部も設けられる。合成部183においては、コントローラ151から供給されたOSDデータがHDRビデオの各ピクチャに合成される。
<5-3.再生装置の動作>
 次に、図23、図24のフローチャートを参照して、HDRコンテンツを再生する再生装置101の処理について説明する。
 図23、図24の処理は、例えば再生装置101のディスクドライブ152に光ディスク111が装着され、HDRコンテンツの再生が指示されたときに開始される。
 ステップS1において、ディスクドライブ152は、PlayListファイルを含む、Data Base情報のファイルを光ディスク111から読み出す。
 ステップS2において、コントローラ151のData Base情報解析部171は、PlayListファイルを解析し、再生対象となるAVストリームの特定などを行う。また、Data Base情報解析部171は、PlayListファイルのSTN_table()中の、IGストリームに関するstream_attributes()に記述されるFixed_Dynamic_medatada_during_PopUp_flagの値を特定する。
 ステップS3において、ディスクドライブ152は、再生対象となるHDRビデオストリームを含むAVストリームのファイルを光ディスク111から読み出す。
 ステップS4において、復号処理部156のビデオデコーダ181は、ディスクドライブ152から供給されたAVストリームに含まれるHDRビデオストリームをデコードし、各ピクチャのデータを、合成部183を介して外部出力部158に出力する。HDRビデオストリームに含まれるDynamic metadataはビデオデコーダ181からコントローラ151に供給される。
 ステップS5において、外部出力部158は、復号処理部156から供給されたHDRビデオの各ピクチャに、コントローラ151から供給されたDynamic metadataを付加してTV102に出力する。
 ステップS6において、コントローラ151の出力制御部172は、メニューの表示が指示されたか否かを判定する。メニューの表示が指示されていないとステップS6において判定された場合、ステップS5に戻り、HDRビデオの各ピクチャの出力が続けられる。
 一方、ステップS6において、メニューの表示が指示されたと判定された場合、ステップS7において、グラフィック用デコーダ182は、IGストリームをデコードし、メニューの画像を合成部183に出力する。
 ステップS8において、合成部183は、ビデオデコーダ181から供給されたHDRビデオの各ピクチャに、グラフィック用デコーダ182から供給されたメニューの画像を合成し、HDRビデオの各ピクチャを外部出力部158に出力する。
 ステップS9において、出力制御部172は、Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであるか否かを判定する。
 Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであるとステップS9において判定した場合、ステップS10において、出力制御部172は、外部出力部158を制御し、メニューの画像が合成された各ピクチャにDynamic metadataを付加して出力させる。
 TV102においては、メニューの画像が合成されたHDRビデオの各ピクチャの輝度圧縮がDynamic metadataに基づいて行われ、輝度圧縮後のHDRビデオが表示される。
 一方、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bであるとステップS9において判定した場合、ステップS11において、出力制御部172は、メニュー表示用メタデータをメニュー表示用メタデータ記憶部153Aから読み出して取得する。出力制御部172は、取得したメニュー表示用メタデータを外部出力部158に出力する。
 ステップS12において、出力制御部172は、外部出力部158を制御し、メニューの画像が合成された各ピクチャに、表示用メタデータを付加して出力させる。
 TV102においては、メニューの画像が合成されたHDRビデオの各ピクチャの輝度圧縮がメニュー表示用メタデータに基づいて行われ、輝度圧縮後のHDRビデオが表示される。
 ステップS10またはステップS12の処理は、メニューの表示を終了するまで続けられる。メニューの表示を終了する場合、ステップS5に戻り、それ以降の処理が繰り返される。
 以上の処理により、再生装置101は、メニューを表示させる間、Fixed_Dynamic_medatada_during_PopUp_flagの値により指定されるメタデータをTV102に伝送し、輝度調整を行わせることができる。
 コンテンツの製作者は、Dynamic metadataとメニュー表示用メタデータのうち、輝度調整後のHDRビデオやメニューの見え方が不自然にならない方のメタデータをFixed_Dynamic_medatada_during_PopUp_flagの値により指定することができる。
 コンテンツの製作者は、例えば、メニューとして表示させるボタンなどの画像が小さいためHDRビデオの輝度を優先させる場合には、Dynamic metadataを用いた輝度調整が行われるようにFixed_Dynamic_medatada_during_PopUp_flagの値を設定する。
 また、コンテンツの製作者は、輝度の変化が激しいシーンが多いためメニューの輝度を優先させる場合には、メニュー表示用メタデータを用いた輝度調整が行われるようにFixed_Dynamic_medatada_during_PopUp_flagの値を設定する。
 このように適切なメタデータを指定することにより、コンテンツの製作者は、メニューなどの他の情報をHDRビデオに重畳して表示させる場合の不自然な輝度の変化を防ぐことが可能になる。
<<6.実施の形態2:IGストリームにフラグを記述する例>>
 Fixed_Dynamic_medatada_during_PopUp_flagが、PlayList以外の領域に記述されるようにしてもよい。
 ここでは、Fixed_Dynamic_medatada_during_PopUp_flagがIGストリーム中に記述される場合について説明する。
 IGストリームを構成するPESパケットにはセグメントと呼ばれる単位のデータが格納される。メニューの表示は、メニューデータのセグメントを用いて行われる。
 図25は、メニューデータのセグメントからなるディスプレイセットの例を示す図である。
 図25に示すように、メニューデータのディスプレイセットは、1画面分のメニュー画像(ボタン)のセグメントであるICS,PDS1乃至PDSn,ODS1乃至ODSn,END Segmentにより構成される。
 ICS(Interactive Composition Segment)は、ディスプレイセットの先頭を表し、メニューボタン毎のIDなどの、メニューに関する属性情報を含むセグメントである。
 PDS(Palette Definition Segment)は、メニューの色として使用可能な色の情報を含むセグメントである。
 ODS(Object Definition Segment)は、メニューの形状を示す情報を含むセグメントである。
 END Segmentは、ディスプレイセットの終端を表すセグメントである。
 図26は、ICSのシンタクスを示す図である。
 ICSには、segment_descriptor(),video_descriptor(),composition_descriptor(),sequence_descriptor(),interactive_composition_data_fragment()が記述される。interactive_composition_data_fragment()にはinteractive_composition()が含まれる。
 図27は、interactive_composition_data_fragment()に含まれるinteractive_composition()のシンタクスを示す図である。
 図27に示すように、interactive_composition()には、stream_model,user_interface_modelが記述される。stream_modelは、ICSと関連情報の多重化方式を表す。user_interface_modelは、メニューがPop-Up形式で表示されるのか、Always-On形式で表示されるのかを表す。
 また、interactive_composition()には、Fixed_Dynamic_medatada_during_PopUp_flagが記述される。
 このように、Fixed_Dynamic_medatada_during_PopUp_flagが、IGストリームを構成するICSのinteractive_composition()に記述されるようにすることが可能である。
 IGストリームに記述されるFixed_Dynamic_medatada_during_PopUp_flagを用いた処理も、基本的に、Fixed_Dynamic_medatada_during_PopUp_flagがPlayListに記述される場合の処理と同様である。
 すなわち、グラフィック用デコーダ182は、IGストリームをデコードしたとき、Fixed_Dynamic_medatada_during_PopUp_flagの情報をコントローラ151に出力する。コントローラ151の出力制御部172は、上述したようにして、HDRビデオの各ピクチャとともに出力するメタデータを、Fixed_Dynamic_medatada_during_PopUp_flagの値に基づいて切り替える。
 これによっても、再生装置101は、Fixed_Dynamic_medatada_during_PopUp_flagの値により指定されるメタデータをTV102に伝送し、輝度調整を行わせることができる。
 字幕のストリームであるPGストリームもIGストリームと同様の構成を有する。Fixed_Dynamic_medatada_during_PopUp_flagがPGストリームに記述されるようにしてもよい。
 このように、グラフィックストリーム(IGストリーム、PGストリーム)中にFixed_Dynamic_medatada_during_PopUp_flagが記述されるようにすることができる。
<<7.他の装置の構成と動作>>
<7-1.TV102の構成と動作>
 図28は、TV102の構成例を示すブロック図である。
 TV102は、コントローラ201、外部入力部202、信号処理部203、ディスプレイ204、放送受信部205、復号処理部206、および通信部207から構成される。
 コントローラ201は、CPU、ROM、RAMなどにより構成される。コントローラ201は、所定のプログラムを実行し、TV102の全体の動作を制御する。
 例えば、コントローラ201は、ディスプレイ204の性能を表す情報を管理する。コントローラ201は、HDMIの伝送設定時、ディスプレイ204の性能を表す情報を外部入力部202に出力し、再生装置101に送信する。
 また、コントローラ201は、信号処理部203によるHDRビデオの処理を制御する。例えば、コントローラ201は、HDRコンテンツの再生時に再生装置101から伝送されてきたDynamic metadataまたはメニュー表示用メタデータに基づいて、HDRビデオの輝度圧縮を信号処理部203に行わせる。
 外部入力部202は、HDMIなどの外部入力のインタフェースである。外部入力部202は、HDMIケーブルを介して再生装置101と通信を行い、再生装置101から伝送されてきたHDRビデオの各ピクチャのデータを受信して信号処理部203に出力する。また、外部入力部202は、HDRビデオの各ピクチャに付加して伝送されてきたDynamic metadataまたはメニュー表示用メタデータを受信し、コントローラ201に出力する。
 信号処理部203は、外部入力部202から供給されたHDRビデオの処理を行い、映像をディスプレイ204に表示させる。信号処理部203は、コントローラ201による制御に従って、適宜、ディスプレイ204が表示可能な範囲に収まるように、HDRビデオの輝度圧縮を行う。
 信号処理部203は、復号処理部206から供給されたデータに基づいて、番組の映像をディスプレイ204に表示させる処理なども行う。
 ディスプレイ204は、有機EL(Electroluminescence)ディスプレイやLCD(Liquid Crystal Display)等の表示デバイスである。ディスプレイ204は、信号処理部203から供給されたビデオ信号に基づいて、HDRコンテンツの映像や番組の映像を表示する。
 放送受信部205は、アンテナから供給された信号から所定のチャンネルの放送信号を抽出し、復号処理部206に出力する。放送受信部205による放送信号の抽出は、コントローラ201による制御に従って行われる。
 復号処理部206は、放送受信部205から供給された放送信号に対して復号等の処理を施し、番組のビデオデータを信号処理部203に出力する。
 通信部207は、無線LAN、有線LANなどのインタフェースである。通信部207は、インターネットを介してサーバと通信を行う。
 図29のフローチャートを参照して、TV102の表示処理について説明する。
 図29の処理は、HDRビデオストリームをデコードして得られたピクチャの伝送が開始されたときに行われる。再生装置101から伝送されてくるピクチャには、Dynamic metadataまたはメニュー表示用メタデータが付加されている。
 ステップS21において、TV102の外部入力部202は、再生装置101から伝送されてきたHDRコンテンツの各ピクチャのデータと、それに付加して伝送されてきたDynamic metadataまたはメニュー表示用メタデータを受信する。
 メニューの表示が指示されていない場合、または、メニューの表示が指示されているがFixed_Dynamic_medatada_during_PopUp_flagの値が0bである場合、ここでは、各ピクチャとDynamic metadataが受信される。
 また、再生装置101においてメニューの表示が指示され、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合、ここでは、各ピクチャとメニュー表示用メタデータが受信される。
 外部入力部202により受信された各ピクチャのデータは信号処理部203に供給され、メタデータ(Dynamic metadataまたは表示用メタデータ)はコントローラ201に供給される。
 ステップS22において、信号処理部203は、コントローラ201による制御に従い、HDRビデオの各ピクチャの輝度圧縮を行う。各ピクチャとともに伝送されてきたメタデータがDynamic metadataである場合にはDynamic metadataに基づいて輝度圧縮が行われる。また、各ピクチャとともに伝送されてきたメタデータがメニュー表示用メタデータである場合にはメニュー表示用メタデータに基づいて輝度圧縮が行われる。
 ステップS23において、信号処理部203は、輝度圧縮を行ったHDRビデオをディスプレイ204に表示させる。HDRビデオの表示は、HDRコンテンツの再生が終了するまで続けられる。
<7-2.記録装置の構成と動作>
 図30は、記録装置251の構成例を示すブロック図である。
 上述したようなBDである光ディスク111が、図30の記録装置251において作成される。
 記録装置251は、コントローラ261、符号化処理部262、およびディスクドライブ263から構成される。マスターとなるビデオが符号化処理部262に入力される。
 コントローラ261は、CPU、ROM、RAMなどにより構成される。コントローラ261は、所定のプログラムを実行し、記録装置251の全体の動作を制御する。
 符号化処理部262は、マスターのビデオの符号化を行い、HDRビデオストリームを生成する。HDRビデオストリームの生成時に各ピクチャに付加され、SEIメッセージとして符号化されるDynamic metadataはコントローラ261から供給される。
 また、符号化処理部262は、メニューの画像の符号化を行うことによってIGストリームを生成し、字幕データの符号化を行うことによってPGストリームを生成する。符号化処理部262に対しては、メニューの画像や字幕データなどの情報も入力される。
 符号化処理部262は、符号化を行うことによって得られたHDRビデオストリーム、IGストリーム、PGストリームを、オーディオストリームなどとともに多重化することによって、Clipを構成するAVストリームを生成する。符号化処理部262は、生成したAVストリームをディスクドライブ263に出力する。
 ディスクドライブ263は、コントローラ261から供給されたData Base情報の各ファイルと、符号化処理部262から供給されたAVストリームのファイルを図14のディレクトリ構造に従って光ディスク111に記録する。
 図31は、コントローラ261の機能構成例を示すブロック図である。
 コントローラ261においては、Dynamic metadata生成部271、符号化制御部272、Data Base情報生成部273、および記録制御部274が実現される。図31に示す機能部のうちの少なくとも一部は、コントローラ261のCPUにより所定のプログラムが実行されることによって実現される。
 Dynamic metadata生成部271は、コンテンツの製作者による入力に従って各パラメータの値を設定し、Dynamic metadataを生成する。Dynamic metadata生成部271は、生成したDynamic metadataを符号化制御部272に出力する。
 符号化制御部272は、Dynamic metadata生成部271により生成されたDynamic metadataを符号化処理部262に出力し、HDRビデオの各ピクチャの符号化を行わせる。また、符号化制御部272は、メニューデータ、字幕データの符号化を符号化処理部262に行わせる。
 なお、Fixed_Dynamic_medatada_during_PopUp_flagがグラフィックストリームに記述される場合、符号化制御部272は、Fixed_Dynamic_medatada_during_PopUp_flagの情報を符号化処理部262に出力し、メニューデータ、字幕データの符号化を行わせる。
 Data Base情報生成部273は、Index table、PlayList、Clip InformationなどのData Base情報を生成する。
 例えば、Data Base情報生成部273は、Fixed_Dynamic_medatada_during_PopUp_flagの値をコンテンツの製作者による入力に応じて設定し、Fixed_Dynamic_medatada_during_PopUp_flagを含むPlayListを生成する。
 Data Base情報生成部273は、生成したData Base情報のファイルを記録制御部274に出力する。
 記録制御部274は、Data Base情報生成部273により生成されたData Base情報のファイルをディスクドライブ263に出力し、光ディスク111に記録させる。
 図32のフローチャートを参照して、以上のような構成を有する記録装置251の記録処理について説明する。
 図32の処理は、例えば、マスターとなるビデオデータが入力されたときに開始される。
 ステップS31において、コントローラ261のDynamic metadata生成部271は、コンテンツの製作者による入力に従って各パラメータの値を設定し、Dynamic metadataを生成する。
 ステップS32において、符号化処理部262は、マスターのビデオの符号化を行い、HDRビデオストリームを生成する。また、符号化処理部262は、メニューの画像や字幕データの符号化を行い、IGストリームとPGストリームを生成する。符号化処理部262は、生成したストリームを多重化することによってAVストリームを生成する。
 ステップS33において、Data Base情報生成部273は、Fixed_Dynamic_medatada_during_PopUp_flagを含むPlayListなどのData Base情報を生成する。
 ステップS34において、ディスクドライブ263は、コントローラ261から供給されたData Base情報のファイルと、符号化処理部262から供給されたAVストリームのファイルを記録させることによって光ディスク111を生成する。その後、処理は終了される。
 以上の処理により、記録装置251は、Fixed_Dynamic_medatada_during_PopUp_flagを含むPlayListが記録された光ディスク111を生成することが可能になる。
<<8.再生システムの他の構成例>>
<8-1.第1の構成例>
 HDRコンテンツが光ディスク111に記録されている場合について説明したが、ネットワークを介して配信されるHDRコンテンツを再生する場合にも、以上の処理を適用することが可能である。
 図33は、HDRコンテンツの他の再生システムの構成例を示す図である。
 図33の再生システムは、再生装置101とコンテンツ配信サーバ301が、インターネットなどのネットワーク302を介して接続されることによって構成される。再生装置101には、HDMIケーブルなどを介してTV102が接続される。再生装置101が再生するHDRコンテンツの映像はTV102に表示される。
 コンテンツ配信サーバ301は、HDRコンテンツの配信サービスを提供する事業者が管理するサーバである。図33の吹き出しに示すように、コンテンツ配信サーバ301が配信するコンテンツはHDRコンテンツである。
 それぞれのHDRコンテンツは、Dynamic metadataを含むHDRビデオストリームのファイルと、再生制御情報のファイルを対応付けることによって構成される。再生制御情報は例えばXMLによって記述される情報である。再生制御情報には、Fixed_Dynamic_medatada_during_PopUp_flagに対応する情報が含まれる。
 例えば、ユーザが再生装置101を操作してコンテンツ配信サーバ301にアクセスした場合、TV102には、HDRコンテンツの選択画面が表示される。ユーザは、所定のHDRコンテンツを選択し、視聴の開始をコンテンツ配信サーバ301に要求することができる。
 HDRコンテンツが選択された場合、コンテンツ配信サーバ301は、選択されたHDRコンテンツを再生装置101に送信する。
 再生装置101は、コンテンツ配信サーバ301から送信されてきたHDRコンテンツを受信し、上述した再生処理と同様の処理を行うことによって、HDRコンテンツの再生を行う。
 すなわち、再生装置101からTV102に対しては、HDRビデオストリームをデコードすることによって得られた各ピクチャとともにDynamic metadataが伝送され、Dynamic metadataに基づいて輝度圧縮が行われる。
 また、メニューの表示が指示され、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合、HDRコンテンツの各ピクチャとともにメニュー表示用メタデータが伝送され、TV102において、メニュー表示用メタデータに基づいて輝度圧縮が行われる。再生装置101にはメニュー表示用メタデータが用意されている。
 このように、コンテンツ配信サーバ301が配信するコンテンツを再生する場合にも、Fixed_Dynamic_medatada_during_PopUp_flagを用いた処理が行われるようにすることが可能である。
 図34は、再生装置101の他の構成例を示す図である。
 図34に示すように、再生装置101が、いわゆるスティック型の端末であってもよい。図34に示す再生装置101の筐体にはHDMI端子が設けられている。筐体に設けられているHDMI端子をTV102のHDMI端子に差し込むことによって、再生装置101とTV102が接続される。
 この場合、図20に示す構成のうち、例えばディスクドライブ152以外の構成が再生装置101に設けられる。再生装置101は、上述した処理と同様の処理を行うことによって、コンテンツ配信サーバ301が配信するHDRコンテンツの再生を行う。
 このように、再生装置101の形態として各種の形態を採用することが可能である。例えば、スマートフォンやタブレット端末などの携帯型の端末に再生装置101の機能が搭載されるようにしてもよいし、PCなどの端末に再生装置101の機能が搭載されるようにしてもよい。
<8-2.第2の構成例>
 再生装置101の機能がTV102に搭載されるようにしてもよい。
 図35は、HDRコンテンツのさらに他の再生システムの構成例を示す図である。
 図35の再生システムは、再生装置101の機能を搭載したTV102とコンテンツ配信サーバ301がネットワーク302を介して接続されることによって構成される。重複する説明については適宜省略する。
 TV102は、コンテンツ配信サーバ301から送信されてきた情報に基づいてHDRコンテンツの選択画面を表示させる。
 ユーザにより所定のHDRコンテンツが選択された場合、コンテンツ配信サーバ301は、選択されたHDRコンテンツをTV102に送信する。
 TV102は、コンテンツ配信サーバ301から送信されてきたHDRコンテンツを受信し、HDRコンテンツの再生を行う。
 すなわち、TV102は、HDRビデオの各ピクチャの輝度圧縮をDynamic metadataに基づいて行う。
 また、メニューの表示が指示され、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合、TV102は、HDRビデオの各ピクチャの輝度圧縮をメニュー表示用メタデータに基づいて行う。TV102にはメニュー表示用メタデータが用意されている。
 このように、再生装置101の機能がTV102に設けられ、TV102において、上述したようなFixed_Dynamic_medatada_during_PopUp_flagを用いた処理が行われるようにしてもよい。
<<9.その他の例>>
 HDRコンテンツが記録されている記録媒体が光ディスクであるものとしたが、フラッシュメモリなどの他の記録媒体であってもよい。
 Fixed_Dynamic_medatada_during_PopUp_flagが、PlayList、またはグラフィックストリームに記述されるものとしたが、Clip Informationなどの他の情報に記述されるようにしてもよい。
 Dynamic metadataまたはメニュー表示用メタデータに基づいてビデオに対して行われる処理が輝度圧縮であるものとしたが、輝度伸張がTV102において行われるようにしてもよい。この場合、Dynamic metadataまたはメニュー表示用メタデータには、輝度伸張に用いられるトーンカーブの情報が記述されることになる。
 再生装置101に入力されるビデオストリームが所定の方式で符号化されたビデオストリームであるものとしたが、Dynamic metadataが付加されたピクチャから構成され、符号化されていないビデオストリームが再生装置101に入力されるようにしてもよい。
<コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図36は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
 CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
<構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信する受信部と、
 前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、前記メタデータを付加した前記ピクチャを表示装置に出力する出力制御部と
 を備える再生装置。
(2)
 前記ビデオストリームをデコードするデコード部をさらに備え、
 前記出力制御部は、前記ビデオストリームをデコードすることによって得られた前記ピクチャに前記メタデータを付加する
 前記(1)に記載の再生装置。
(3)
 前記ビデオストリームは、HDRビデオのストリームである
 前記(1)に記載の再生装置。
(4)
 前記フラグは、前記動的メタデータ、または、前記所定の情報の表示用の前記メタデータである表示用メタデータを表す
 前記(1)乃至(3)のいずれかに記載の再生装置。
(5)
 前記出力制御部は、前記動的メタデータを前記輝度調整に用いることが前記フラグにより表されている場合、それぞれの前記ピクチャに前記動的メタデータを付加する
 前記(4)に記載の再生装置。
(6)
 前記出力制御部は、前記表示用メタデータを前記輝度調整に用いることが前記フラグにより表されている場合、それぞれの前記ピクチャに、前記再生装置に用意された前記表示用メタデータを付加する
 前記(5)に記載の再生装置。
(7)
 予め用意された固定値を各パラメータの値に設定することによって前記表示用メタデータを生成するメタデータ生成部をさらに備える
 前記(6)に記載の再生装置。
(8)
 前記ビデオストリームの再生に用いられる再生制御情報を解析し、前記再生制御情報に記述される前記フラグの値を特定する制御部をさらに備える
 前記(1)乃至(7)のいずれかに記載の再生装置。
(9)
 前記再生制御情報のファイルと前記ビデオストリームのファイルを記録媒体から読み出す読み出し部をさらに備える
 前記(8)に記載の再生装置。
(10)
 前記所定の情報を伝送するグラフィックストリームを構成する属性情報を解析し、前記属性情報に記述される前記フラグの値を特定する制御部をさらに備える
 前記(1)乃至(7)のいずれかに記載の再生装置。
(11)
 前記グラフィックストリームをデコードするデコード部と、
 前記グラフィックストリームをデコードすることによって得られた前記所定の情報を前記ピクチャに合成する合成部と
 をさらに備える前記(10)に記載の再生装置。
(12)
 前記グラフィックストリームのファイルと前記ビデオストリームのファイルを記録媒体から読み出す読み出し部をさらに備える
 前記(11)に記載の再生装置。
(13)
 再生装置が、
 ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信し、
 前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、
 前記メタデータを付加した前記ピクチャを表示装置に出力する
 再生方法。
(14)
 コンピュータに、
 ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信し、
 前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、
 前記メタデータを付加した前記ピクチャを表示装置に出力する
 処理を実行させるためのプログラム。
(15)
 ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームの第1のファイルと、
 前記ピクチャに所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグが記述された第2のファイルと
 が記録された記録媒体。
(16)
 前記第2のファイルは、前記ビデオストリームの再生に用いられる再生制御情報のファイルである
 前記(15)に記載の記録媒体。
(17)
 前記第2のファイルは、前記フラグが記述された属性情報を含む、前記所定の情報を伝送するグラフィックストリームのファイルである
 前記(15)に記載の記録媒体。
(18)
 前記記録媒体は、BD-ROMのディスクである
 前記(15)乃至(17)のいずれかに記載の記録媒体。
 101 再生装置, 102 TV, 151 コントローラ, 152 ディスクドライブ, 153 メモリ, 154 ローカルストレージ, 155 通信部, 156 復号処理部, 157 操作入力部, 158 外部出力部, 171 Data Base情報解析部, 172 メニュー表示用メタデータ生成部, 173 出力制御部

Claims (18)

  1.  ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信する受信部と、
     前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、前記メタデータを付加した前記ピクチャを表示装置に出力する出力制御部と
     を備える再生装置。
  2.  前記ビデオストリームをデコードするデコード部をさらに備え、
     前記出力制御部は、前記ビデオストリームをデコードすることによって得られた前記ピクチャに前記メタデータを付加する
     請求項1に記載の再生装置。
  3.  前記ビデオストリームは、HDRビデオのストリームである
     請求項1に記載の再生装置。
  4.  前記フラグは、前記動的メタデータ、または、前記所定の情報の表示用の前記メタデータである表示用メタデータを表す
     請求項1に記載の再生装置。
  5.  前記出力制御部は、前記動的メタデータを前記輝度調整に用いることが前記フラグにより表されている場合、それぞれの前記ピクチャに前記動的メタデータを付加する
     請求項4に記載の再生装置。
  6.  前記出力制御部は、前記表示用メタデータを前記輝度調整に用いることが前記フラグにより表されている場合、それぞれの前記ピクチャに、前記再生装置に用意された前記表示用メタデータを付加する
     請求項5に記載の再生装置。
  7.  予め用意された固定値を各パラメータの値に設定することによって前記表示用メタデータを生成するメタデータ生成部をさらに備える
     請求項6に記載の再生装置。
  8.  前記ビデオストリームの再生に用いられる再生制御情報を解析し、前記再生制御情報に記述される前記フラグの値を特定する制御部をさらに備える
     請求項1に記載の再生装置。
  9.  前記再生制御情報のファイルと前記ビデオストリームのファイルを記録媒体から読み出す読み出し部をさらに備える
     請求項8に記載の再生装置。
  10.  前記所定の情報を伝送するグラフィックストリームを構成する属性情報を解析し、前記属性情報に記述される前記フラグの値を特定する制御部をさらに備える
     請求項1に記載の再生装置。
  11.  前記グラフィックストリームをデコードするデコード部と、
     前記グラフィックストリームをデコードすることによって得られた前記所定の情報を前記ピクチャに合成する合成部と
     をさらに備える請求項10に記載の再生装置。
  12.  前記グラフィックストリームのファイルと前記ビデオストリームのファイルを記録媒体から読み出す読み出し部をさらに備える
     請求項11に記載の再生装置。
  13.  再生装置が、
     ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信し、
     前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、
     前記メタデータを付加した前記ピクチャを表示装置に出力する
     再生方法。
  14.  コンピュータに、
     ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信し、
     前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、
     前記メタデータを付加した前記ピクチャを表示装置に出力する
     処理を実行させるためのプログラム。
  15.  ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームの第1のファイルと、
     前記ピクチャに所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグが記述された第2のファイルと
     が記録された記録媒体。
  16.  前記第2のファイルは、前記ビデオストリームの再生に用いられる再生制御情報のファイルである
     請求項15に記載の記録媒体。
  17.  前記第2のファイルは、前記フラグが記述された属性情報を含む、前記所定の情報を伝送するグラフィックストリームのファイルである
     請求項15に記載の記録媒体。
  18.  前記記録媒体は、BD-ROMのディスクである
     請求項15に記載の記録媒体。
PCT/JP2018/038587 2017-10-31 2018-10-17 再生装置、再生方法、プログラム、および記録媒体 WO2019087775A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18874797.6A EP3706412B1 (en) 2017-10-31 2018-10-17 Reproduction device, reproduction method, program, and recording medium
JP2019551042A JP7251480B2 (ja) 2017-10-31 2018-10-17 再生装置、再生方法、プログラム
CN201880070100.8A CN111345034B (zh) 2017-10-31 2018-10-17 再现设备、再现方法、程序及记录介质
US16/758,661 US11153548B2 (en) 2017-10-31 2018-10-17 Reproduction apparatus, reproduction method, program, and recording medium
KR1020207010290A KR102558213B1 (ko) 2017-10-31 2018-10-17 재생 장치, 재생 방법, 프로그램, 및 기록 매체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017210411 2017-10-31
JP2017-210411 2017-10-31

Publications (1)

Publication Number Publication Date
WO2019087775A1 true WO2019087775A1 (ja) 2019-05-09

Family

ID=66331742

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038587 WO2019087775A1 (ja) 2017-10-31 2018-10-17 再生装置、再生方法、プログラム、および記録媒体

Country Status (6)

Country Link
US (1) US11153548B2 (ja)
EP (1) EP3706412B1 (ja)
JP (1) JP7251480B2 (ja)
KR (1) KR102558213B1 (ja)
CN (1) CN111345034B (ja)
WO (1) WO2019087775A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198552A1 (ja) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
WO2016002154A1 (ja) * 2014-06-30 2016-01-07 パナソニックIpマネジメント株式会社 データ再生方法及び再生装置
WO2016125691A1 (ja) * 2015-02-03 2016-08-11 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2017139052A (ja) 2014-09-08 2017-08-10 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5685969B2 (ja) * 2011-02-15 2015-03-18 ソニー株式会社 表示制御方法、表示制御装置
EP2959676B1 (en) * 2013-02-21 2020-09-23 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
MX358934B (es) * 2014-06-26 2018-09-10 Panasonic Ip Man Co Ltd Dispositivo de salida de datos, metodo de salida de datos y metodo de generacion de datos.
JP6519329B2 (ja) * 2015-06-09 2019-05-29 ソニー株式会社 受信装置、受信方法、送信装置および送信方法
EP3644618A4 (en) * 2017-06-21 2020-05-27 Panasonic Intellectual Property Management Co., Ltd. IMAGE DISPLAY SYSTEM AND IMAGE DISPLAY METHOD
US10939158B2 (en) * 2017-06-23 2021-03-02 Samsung Electronics Co., Ltd. Electronic apparatus, display apparatus and control method thereof
CN110999280B (zh) * 2017-08-23 2022-02-25 三菱电机株式会社 影像内容介质和影像再现装置
CN109891902B (zh) * 2017-10-06 2022-02-18 松下知识产权经营株式会社 影像显示系统及影像显示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198552A1 (ja) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
WO2016002154A1 (ja) * 2014-06-30 2016-01-07 パナソニックIpマネジメント株式会社 データ再生方法及び再生装置
JP2017139052A (ja) 2014-09-08 2017-08-10 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2016125691A1 (ja) * 2015-02-03 2016-08-11 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3706412A4

Also Published As

Publication number Publication date
EP3706412B1 (en) 2023-03-15
JP7251480B2 (ja) 2023-04-04
EP3706412A4 (en) 2020-11-04
US20200358995A1 (en) 2020-11-12
US11153548B2 (en) 2021-10-19
KR20200077513A (ko) 2020-06-30
EP3706412A1 (en) 2020-09-09
JPWO2019087775A1 (ja) 2020-11-19
KR102558213B1 (ko) 2023-07-24
CN111345034A (zh) 2020-06-26
CN111345034B (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
US11812046B2 (en) Reproduction device reproduction method, and recording medium
US10880532B2 (en) Reproduction device, reproduction method, and recording medium
US9832440B2 (en) Reproduction device, reproduction method, and recording medium that display graphics based on tone mapping
US9706184B2 (en) Reproduction device, reproduction method, and recording medium
JP2024045366A (ja) 情報処理装置、情報処理方法、記録媒体、再生装置、再生方法、およびプログラム
JP7207314B2 (ja) 再生装置、再生方法、プログラム
JP6928885B2 (ja) 表示装置、表示方法及びコンピュータプログラム
WO2016117383A1 (ja) 再生装置、情報処理方法、およびプログラム
JP7251480B2 (ja) 再生装置、再生方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18874797

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019551042

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018874797

Country of ref document: EP

Effective date: 20200602