JP6402631B2 - ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法 - Google Patents

ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法 Download PDF

Info

Publication number
JP6402631B2
JP6402631B2 JP2014560961A JP2014560961A JP6402631B2 JP 6402631 B2 JP6402631 B2 JP 6402631B2 JP 2014560961 A JP2014560961 A JP 2014560961A JP 2014560961 A JP2014560961 A JP 2014560961A JP 6402631 B2 JP6402631 B2 JP 6402631B2
Authority
JP
Japan
Prior art keywords
hdr
information
track
file
tmi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014560961A
Other languages
English (en)
Other versions
JPWO2015008684A1 (ja
Inventor
遼平 高橋
遼平 高橋
幸一 内村
幸一 内村
しのぶ 服部
しのぶ 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015008684A1 publication Critical patent/JPWO2015008684A1/ja
Application granted granted Critical
Publication of JP6402631B2 publication Critical patent/JP6402631B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Systems (AREA)

Description

本技術は、ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法に関し、特に、例えば、ユーザが、高ダイナミックレンジの画像であるHDR(high dynamic range)画像を享受する機会を増やすことができるようにするファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法に関する。
近年、画像をディジタルとして取り扱い、その際、効率の高い情報の伝送や蓄積を目的とし、画像特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮を行う符号化方式を採用して画像を圧縮符号する装置が普及しつつある。この符号化方式には、例えば、MPEG(Moving Picture Experts Group)やH.264及びMPEG-4 Part10 (Advanced Video Coding、以下 AVCと記す)等がある。
そして、現在、H.264/AVCよりさらなる符号化効率の向上を目的として、ITU-TとISO/IECとの共同の標準化団体であるJCTVC (Joint Collaboration Team - Video Coding) により、HEVC (High Efficiency Video Coding) と呼ばれる符号化方式の標準化が進められている。
現時点におけるHEVCのドラフト(非特許文献1)では、"D.2.15 Tone mapping information SEI message syntax"、及び、"D.3.15 Tone mapping information SEI message semantics"において、SEI(Supplemental Enhancement Information)によって、高ダイナミックレンジの画像であるHDR(high dynamic range)画像に関するHDR情報としてのtone_mapping_infoを伝送することが規定されている。
なお、tone_mapping_infoについては、HEVCの他、AVCでも導入されている。
Benjamin Bross他、"High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Last Call)" , Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 12th Meeting: Geneva, CH, 14-23 Jan. 2013 (Document: JCTVC-L1003_v34, Date: 2013年03月19日)
現在、HDR画像を撮影するカメラや、HDR画像を表示するディスプレイが普及しつつあり、かかる状況下においては、HDR情報については、HEVCやAVCのフォーマット以外のファイルフォーマットや、データフォーマットへの導入を促進し、ユーザが、HDR画像を享受する機会を増やすことが要請される。
本技術は、このような状況に鑑みてなされたものであり、ユーザが、HDR画像を享受する機会を増やすことができるようにするものである。
本技術の第1のファイル生成装置は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報と、注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックが格納されたファイルを生成するファイル生成部を備えるファイル生成装置である。
本技術の第1のファイル生成方法は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報と、注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックが格納されたファイルを生成するステップを含むファイル生成方法である。
本技術の第1のファイル生成装置、及び、ファイル生成方法においては、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報と、注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックが格納されたファイルが生成される。
本技術の第1のファイル再生装置は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報と、注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックが格納されたファイルから、前記HDR指定情報が指定する前記HDR情報を取得する取得部を備えるファイル再生装置である。
本技術の第1のファイル再生方法は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報と、注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックが格納されたファイルから、前記HDR指定情報が指定する前記HDR情報を取得するステップを含むファイル再生方法である。
本技術の第1のファイル再生装置、及び、ファイル再生方法においては、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報と、注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックが格納されたファイルから、前記HDR指定情報が指定する前記HDR情報が取得される。
本技術の第2のファイル生成装置は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報のストリームのトラックであるHDR情報トラックと、注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックとが格納されたファイルを生成するファイル生成部を備えるファイル生成装置である。
本技術の第2のファイル生成方法は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報のストリームのトラックであるHDR情報トラックと、注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックとが格納されたファイルを生成するステップを含むファイル生成方法である。
本技術の第2のファイル生成装置、及び、ファイル生成方法においては、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報のストリームのトラックであるHDR情報トラックと、注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックとが格納されたファイルが生成される。
本技術の第2のファイル再生装置は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報のストリームのトラックであるHDR情報トラックと、注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックとが格納されたファイルから、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記HDR指定情報が指定する前記HDR情報を取得する取得部を備えるファイル再生装置である。
本技術の第2のファイル再生方法は、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報のストリームのトラックであるHDR情報トラックと、注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックとが格納されたファイルから、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記HDR指定情報が指定する前記HDR情報を取得するステップを含むファイル再生方法である。
本技術の第2のファイル再生装置、及び、ファイル再生方法においては、STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報とからなるHDR情報のストリームのトラックであるHDR情報トラックと、注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報とを含む前記注目トラックとが格納されたファイルから、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記HDR指定情報が指定する前記HDR情報が取得される。
なお、ファイル生成装置やファイル再生装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、ファイルは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術によれば、ユーザが、HDR画像を享受する機会を増やすことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した信号処理システムの一実施の形態の構成例を示す図である。 信号処理システムで行われるmode-iの信号処理の例を示す図である。 マスタのHDRデータが生成装置1に入力されてから、再生装置2からデータが出力されるまでのmode-iの信号処理の流れを示す図である。 信号処理システムで行われるmode-iiの信号処理の例を示す図である。 マスタのHDRデータが生成装置1に入力されてから、再生装置2からデータが出力されるまでのmode-iiの信号処理の流れを示す図である。 HEVC方式のアクセスユニットの構成を示す図である。 HEVC方式で規定されているtone_mapping_infoのシンタクスを示す図である。 tone_map_model_idとして、各値が設定されたTMIと、変換情報及び特性情報との関係を示す図である。 変換情報としての、tone_map_model_id=0のtone_mapping_infoが表す変換規則としてのトーンカーブの例を示す図である。 変換情報としての、tone_map_model_id=2のTMIが表す変換規則としての階段関数の例を示す図である。 変換情報としての、tone_map_model_id=3のTMIが表す変換規則としての折れ線関数の例を示す図である。 特性情報に含まれる各情報の例を示す図である。 MP4ファイルのMovieの例を示す図である。 MP4ファイルにおけるメディアデータ(Movie)の論理的な配置の例を示す図である。 MP4ファイルのデータ構造を示す図である。 メディアデータが格納されるMP4ファイルのデータ構造の例を示す図である。 fragmented movieのMP4ファイルと、non-fragmented movieのMP4ファイルとの例を示す図である。 DECE(Digital Entertainment Content Ecosystem) CFF(Common File Format)を説明する図である。 SMPTE-TTのSTのデータの例を示す図である。 生成装置1の第1の構成例を示すブロック図である。 生成装置1で生成されるMP4ファイルの例を示す図である。 trefボックスの定義を示す図である。 vtmiボックスとしてのTrackReferenceTypeBoxの定義の例を示す図である。 tirfボックスの定義の例を示す図である。 生成装置1で生成されるMP4ファイルの他の例を示す図である。 符号化処理部22の構成例を示すブロック図である。 変換部33による、HDRデータをSTDデータに変換する変換の処理の例を示す図である。 tone mappingの例を示す図である。 生成装置1が行うファイル生成処理の例を説明するフローチャートである。 ステップS2において行われるmode-iの符号化処理の例を説明するフローチャートである。 ステップS3において行われるmode-iiの符号化処理の例を説明するフローチャートである。 ステップS4において行われるヘッダ情報生成処理の例を説明するフローチャートである。 再生装置2の第1の構成例を示すブロック図である。 再生装置2が行う再生処理の例を説明するフローチャートである。 ステップS43において行われるmode-iの復号処理の例を説明するフローチャートである。 ステップS44において行われるmode-iiの復号処理の例を説明するフローチャートである。 表示装置3の構成例を示すブロック図である。 表示装置3が行う表示処理の例を説明するフローチャートである。 生成装置1の第2の構成例を示すブロック図である。 生成装置1で生成される第2のMP4ファイルの例を示す図である。 tinfボックスの定義の例を示す図である。 ToneMapInfoのシンタクスの第1の例を示す図である。 ToneMapInfoのシンタクスの第2の例を示す図である。 ToneMapInfoのシンタクスの第3の例を示す図である。 生成装置1で生成される第2のMP4ファイルの他の例を示す図である。 符号化処理部122の構成例を示すブロック図である。 生成装置1が行うファイル生成処理の例を説明するフローチャートである。 ステップS112において行われるmode-iの符号化処理の例を説明するフローチャートである。 ステップS113において行われるmode-iiの符号化処理の例を説明するフローチャートである。 ステップS114において行われるヘッダ情報生成処理の例を説明するフローチャートである。 再生装置2の第2の構成例を示すブロック図である。 再生装置2が行う再生処理の例を説明するフローチャートである。 ステップS153において行われるmode-iの復号処理の例を説明するフローチャートである。 ステップS154において行われるmode-iiの復号処理の例を説明するフローチャートである。 生成装置1の第3の構成例を示すブロック図である。 生成装置1で生成される第3のMP4ファイルの例を示す図である。 tmpiボックスとしてのTrackReferenceTypeBoxの定義の例を示す図である。 第3のMP4ファイルに格納されるTMIトラック(tone map track)のmdatボックスに格納される実データとしてのTMIのサンプル(ToneMapSample)のシンタクスの例を示す図である。 TMIのサンプル(ToneMapSample)のデータ構造の例を示す図である。 生成装置1で生成される第3のMP4ファイルの他の例を示す図である。 符号化処理部202の構成例を示すブロック図である。 生成装置1が行うファイル生成処理の例を説明するフローチャートである。 ステップS202において行われるmode-iの符号化処理の例を説明するフローチャートである。 ステップS203において行われるmode-iiの符号化処理の例を説明するフローチャートである。 ステップS204において行われるヘッダ情報生成処理の例を説明するフローチャートである。 再生装置2の第3の構成例を示すブロック図である。 再生装置2が行う再生処理の例を説明するフローチャートである。 ステップS253において行われるmode-iの復号処理の例を説明するフローチャートである。 ステップS254において行われるmode-iiの復号処理の例を説明するフローチャートである。 生成装置1の第4の構成例を示すブロック図である。 符号化処理部302の構成例を示すブロック図である。 HDR格納エレメントの例を示す図である。 toneMapRef属性、及び、hdrInfoRef属性の定義の例を示す図である。 新TTデータの第1の例を示す図である。 新TTデータの第2の例を示す図である。 新TTデータの第3の例を示す図である。 新TTデータの第4の例を示す図である。 生成装置1が行うファイル生成処理の例を説明するフローチャートである。 ステップS302において行われるmode-iの符号化処理の例を説明するフローチャートである。 ステップS303において行われるmode-iiの符号化処理の例を説明するフローチャートである。 再生装置2の第4の構成例を示すブロック図である。 再生装置2が行う再生処理の例を説明するフローチャートである。 ステップS333において行われるmode-iの復号処理の例を説明するフローチャートである。 ステップS334において行われるmode-iiの復号処理の例を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<本技術を適用した信号処理システムの実施の形態>
図1は、本技術を適用した信号処理システムの一実施の形態の構成例を示す図である。
図1の信号処理システムは、生成装置1、再生装置2、及び、表示装置3を有する。再生装置2と表示装置3とは、例えば、HDMI(登録商標)(High Definition Multimedia Interface)等のケーブル4を介して接続される。再生装置2と表示装置3とは、他の規格のケーブルを介して接続されるようにしてもよいし、無線による通信を介して接続されるようにしてもよい。
生成装置1は、コンテンツのストリームを生成して提供する。再生装置2は、生成装置1から提供されるストリームから、コンテンツを再生する。
生成装置1は、ストリームを、例えば、そのまま提供することができる。また、生成装置1は、ストリームを、例えば、IPパケット等の所定のパケットに格納し、又は、例えば、ISO/IEC14496-14に規定されたMP4ファイル等の所定のファイルに格納して、提供することができる。
また、生成装置1において、ストリームは、例えば、Blu-ray(登録商標)ディスク等の記録媒体11に記録して、又は、例えば、地上波や、インターネット等の伝送媒体12を介して伝送することにより、提供することができる。
ここで、生成装置1において、ストリームをファイルに格納する場合において、そのストリームを格納するファイルとしては、MP4ファイルの他、例えば、ISO/IEC 14496-12で規定されているファイル(ISO base media file formatのファイル)や、ISO/IEC 14496-15で規定されているファイル、QuickTime形式のファイル、その他の、ボックス構造を有するファイル、さらには、ボックス構造を有しないファイルを採用することができる。
生成装置1に対しては、標準の輝度のモニタで表示可能な所定のダイナミックレンジ(輝度範囲)の画像であるSTD(standard)画像よりも高ダイナミックレンジの画像であるHDR(High Dynamic Range)画像が入力される。標準の輝度は、例えば、100cd/m2(=100nit)である。なお、STD画像、及び、HDR画像は、特に限定されるものではない。すなわち、STD画像、及び、HDR画像とは、ダイナミックレンジだけが異なる画像であり、後述する変換情報に従って、一方を他方に変換することができる関係にある画像を意味する。したがって、STD画像は、ダイナミックレンジだけがHDR画像よりも低い(小さい)画像であり、HDR画像は、ダイナミックレンジだけがSTD画像よりも高い(広い)画像である。
ここで、画像には、ビデオや、グラフィクス、バックグラウンド(背景画像)、サブタイトル、その他、表示可能なメディアが含まれる。なお、サブタイトル(字幕やクローズドキャプション等)のデータ形式は、テキスト及びイメージのいずれであってもよい。
生成装置1に対しては、例えば、複数のビデオや、1以上のビデオと1以上のグラフィクス等の複数のHDR画像が入力される。
以下では、説明を簡単にするために、生成装置1に対して、例えば、1(シーケンス)のHDR画像のビデオ(以下、HDRビデオともいう)と、1(シーケンス)のHDR画像のサブタイトル(以下、HDR ST(HDR subtitle)ともいう)とが入力されることとする。
但し、生成装置1に対して入力するデータとしては、その他、ビデオとグラフィクスや、ビデオとグラフィクスとサブタイトル、グラフィクスとサブタイトル、グラフィクスだけ等の任意の画像を採用することができる。さらに、生成装置1に対して入力するビデオやサブタイトル等の同一種類のメディアの画像は、1つ(1シーケンス)に限定されるものではなく、複数(シーケンス)であってもよい。
また、HDRビデオとHDR STとを、特に区別する必要がない場合、それらをまとめてHDRデータともいう。
さらに、HDRビデオ及びHDR STのダイナミックレンジを、標準の輝度のモニタで表示可能な所定のダイナミックレンジに圧縮したSTD画像のビデオ及びST(サブタイトル)を、それぞれ、STDビデオ及びSTD STともいう。
また、STDビデオとSTD STとを、特に区別する必要がない場合、それらをまとめてSTDデータともいう。
STDデータのダイナミックレンジを、例えば、0-100%とすると、HDRデータのダイナミックレンジは、例えば、0-500%や、0-1000%等といったような、0%から101%以上の範囲で表される。
生成装置1は、例えば、入力されたマスタのHDRデータを、そのまま符号化し、例えば、MP4ファイルに格納する。
あるいは、生成装置1は、入力されたマスタのHDRデータをSTDデータに変換して符号化し、例えば、MP4ファイルに格納する。
MP4ファイルには、HDRデータ、又は、STDデータの他、マスタのHDRデータの輝度の特性を示す特性情報と、HDRデータ及びSTDデータのうちの一方を他方に変換する変換規則を表す変換情報とが、さらに格納される。
ここで、HDRビデオ、及び、STDビデオとしては、例えば、横×縦の解像度が4096×2160画素や、3840×2160画素等の、いわゆる4K解像度のビデオを採用することができる。
また、ビデオの符号化の方式としては、例えば、HEVC方式や、AVC方式、その他の任意の方式を採用することができる。すなわち、ビデオの符号化(復号)の方式は、HEVC方式やAVC方式等に限定されるものではない。
HDR画像の輝度の特性を示す特性情報と、HDR画像とSTD画像とのうちの一方を他方に変換する変換規則を表す変換情報とを、HDR情報ということとすると、例えば、HEVC方式では、HDR情報として、tone_mapping_infoが規定されている。さらに、HEVC方式では、HDR情報としてのtone_mapping_infoを、SEIに含めて伝送することが規定されている。
再生装置2は、ケーブル4を介して表示装置3と通信を行い、表示装置3の表示性能に関する情報を取得する。再生装置2は、表示装置3が、HDRデータの表示が可能なモニタであるHDRモニタを有する装置であるのか、STDデータの表示しかできないモニタであるSTDモニタを有する装置であるのかを特定する。
また、再生装置2は、記録媒体11に記録されたMP4ファイルを読み出すことにより取得し、又は、伝送媒体12を介して伝送されてくるMP4ファイルを受信することにより取得し、そのMP4ファイルに格納されたデータを再生する。
すなわち、再生装置2は、MP4ファイルに格納されたビデオのストリームであるビデオストリームと、ST(subtitle)のストリームであるSTストリームとを復号する。
そして、例えば、再生装置2は、復号して得られたデータがHDRデータであり、表示装置3がHDRモニタを有する場合、復号して得られたHDRデータを表示装置3に出力する。この場合、再生装置2は、HDRデータとともに、MP4ファイルに格納されている特性情報を表示装置3に出力する。
一方、再生装置2は、復号して得られたデータがHDRデータであり、表示装置3がSTDモニタを有する場合、復号して得られたHDRデータをSTDデータに変換し、STDデータを出力する。HDRデータのSTDデータへの変換は、MP4ファイルに格納されている変換情報を用いて行われる。
再生装置2は、復号して得られたデータがSTDデータであり、表示装置3がHDRモニタを有する場合、復号して得られたSTDデータをHDRデータに変換し、HDRデータを表示装置3に出力する。STDデータのHDRデータへの変換は、MP4ファイルに格納されている変換情報を用いて行われる。この場合、再生装置2は、HDRデータとともに、MP4ファイルに格納されている特性情報を表示装置3に出力する。
また、再生装置2は、復号して得られたデータがSTDデータであり、表示装置3がSTDモニタを有する場合、復号して得られたSTDデータを表示装置3に出力する。
表示装置3は、再生装置2から送信されてくるSTDデータ又はHDRデータを受信し、STDデータ又はHDRデータに基づいて、対応するSTD画像又はHDR画像をモニタに表示する。
例えば、表示装置3は、特性情報が送信されてきた場合、その特性情報とともに再生装置2から送信されてきたデータがHDRデータであるとして認識する。上述したように、HDRモニタを有する表示装置3に対しては、HDRデータとともに、特性情報が送信されてくる。
この場合、表示装置3は、HDRデータに対応するHDR画像を、特性情報により指定される特性に従って表示する。すなわち、表示装置3は、表示装置3が有するモニタが0-500%のダイナミックレンジを有するモニタであり、特性情報により、HDRデータのダイナミックレンジが0-500%の所定の特性であると指定された場合、その所定の特性に従って、0-500%の範囲で輝度を調整してHDR画像を表示する。
マスタのHDRデータの輝度の特性を指定することができるようにすることにより、コンテンツのオーサ(Author)は、意図したとおりの輝度で画像を表示させることが可能になる。
通常、TV(テレビジョン受像機)等の表示装置は、外部から入力されたデータを0-100%のダイナミックレンジを有するデータとして認識する。また、表示装置は、自身のモニタがそれより広い(高い)ダイナミックレンジを有する場合には、モニタの特性に応じて輝度を自ら拡張して画像を表示させることがある。輝度の特性を指定し、指定した特性に従ってHDRデータの輝度を調整させることにより、オーサの意図しない輝度調整が表示装置側で行われるのを防ぐことが可能になる。
また、通常、TVなどの表示装置にデータを出力する再生装置は、伝送路の特性に応じて輝度を変換してからデータを出力する。そのデータを受信した表示装置は、受信したデータの輝度をモニタの特性に応じて変換し、画像を表示させることになる。再生装置2において輝度の変換を行わずに、再生装置2からHDRデータのまま表示装置3に出力させることにより、輝度変換の回数を減らすことができ、マスタにより近い輝度の画像を表示装置3に表示させることが可能になる。
一方、表示装置3は、特性情報が送信されてこない場合、再生装置2から送信されたデータがSTDデータであると認識し、STDデータに対応するSTD画像を表示する。再生装置2からSTDデータが送信されてくるということは、表示装置3はSTDモニタを有する装置である。
また、生成装置1によりMP4ファイルにオーディオデータが格納される場合には、再生装置2は、そのオーディオデータを再生し、表示装置3に送信する。表示装置3は、再生装置2から送信されてくるオーディオデータに基づいて、対応する音声をスピーカから出力する。
以下、マスタのHDRデータを、そのダイナミックレンジを維持したままMP4ファイルに格納する処理モードをmode-iといい、マスタのHDRデータをSTDデータに変換してMP4ファイルに格納する処理モードをmode-iiという。
<mode-iの信号処理>
図2は、図1の信号処理システムで行われるmode-iの信号処理の例を示す図である。
実線L1で囲んで示す左側の処理が生成装置1において行われる符号化処理を示し、実線L2で囲んで示す右側の処理が再生装置2において行われる復号処理を示す。
マスタのHDRデータが入力された場合、生成装置1は、マスタのHDRデータの輝度を検出し、矢印#1で示すように、特性情報を生成する。また、生成装置1は、矢印#2−1で示すように、マスタのHDRビデオを、例えば、HEVC方式で符号化して符号化データを生成し、矢印#2−2で示すように、マスタのHDR STを符号化して、STのストリームであるSTストリームを生成する。
生成装置1は、矢印#3で示すように、マスタのHDRデータをSTDデータに変換する。変換して得られたSTDデータに対応するSTD画像は図示せぬモニタに表示される。HDRデータのSTDデータへの変換は、適宜、変換後のSTDデータに対応するSTD画像をオーサが目で確認し、変換パラメータを調整しながら行われる。
オーサによる調整に基づいて、生成装置1は、矢印#4で示すように、変換情報を生成する。
変換情報は、標準のダイナミックレンジより広い0-400%等の高ダイナミックレンジにおける各輝度値と、標準のダイナミックレンジである0-100%のダイナミックレンジにおける各輝度値とのうちの一方を他方に変換する変換規則を表し、したがって、それらの輝度値どうしの対応関係を表す。
生成装置1は、矢印#5で示すように、特性情報と変換情報をSEIとしてHDRビデオの符号化データに挿入し、ビデオストリームを生成する。生成装置1は、生成したビデオストリームと、HDR STのSTストリームをMP4ファイルに格納し、矢印#11に示すように再生装置2に提供する。
このように、HDRビデオ及びHDR STの特性情報と変換情報は、SEIを用いて、ビデオストリーム中に挿入する形で再生装置2に提供される。
再生装置2は、MP4ファイルからSTストリームを読み出し、矢印#20で示すように、STストリームを復号し、HDR STを生成する。
また、再生装置2は、MP4ファイルからビデオストリームを読み出し、矢印#21,#22で示すように、ビデオストリームのSEIから特性情報と変換情報を抽出する。
また、再生装置2は、矢印#23で示すように、ビデオストリームに含まれる符号化データをHEVC方式で復号し、HDRビデオを生成する。再生装置2は、表示装置3がHDRモニタを有する場合、矢印#24で示すように、復号して得られたHDRデータに特性情報を付加し、矢印#25で示すように表示装置3に出力する。
一方、再生装置2は、表示装置3がSTDモニタを有する場合、矢印#26で示すように、ビデオストリームから抽出された変換情報を用いて、復号して得られたHDRデータをSTDデータに変換する。再生装置2は、矢印#27で示すように、変換して得られたSTDデータを表示装置3に出力する。
このように、復号して得られたHDRデータは、特性情報とともに、HDRモニタを有する表示装置3に出力される。又は、復号して得られたHDRデータは、STDデータに変換された後、STDモニタを有する表示装置3に出力される。
図3は、マスタのHDRデータが生成装置1に入力されてから、再生装置2からデータが出力されるまでのmode-iの信号処理の流れを示す図である。
マスタのHDRデータは、白抜き矢印#51で示すように、マスタのHDRデータに基づいて生成装置1において生成された特性情報と変換情報とともに再生装置2に提供される。特性情報には、例えば、ダイナミックレンジが0-400%の範囲に拡張されていることを表す情報が含まれる。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#52,#53で示すように、復号して得られたHDRデータに特性情報が付加される。また、特性情報が付加されたHDRデータが矢印#54で示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#55,#56で示すように、復号して得られたHDRデータが変換情報を用いてSTDデータに変換される。また、変換して得られたSTDデータが矢印#57で示すように表示装置3に出力される。図3において、HDRデータを示す波形の振幅とSTDデータを示す波形の振幅は、それぞれダイナミックレンジを示す。
このように、mode-iにおいては、マスタのHDRデータがHDRデータのままMP4ファイルに格納される。また、出力先となる表示装置3の性能に応じて、復号して得られたHDRデータをそのまま特性情報を付加して出力するのか、HDRデータをSTDデータに変換して出力するのかが切り替えられる。
<mode-iiの信号処理>
図4は、図1の信号処理システムで行われるmode-iiの信号処理の例を示す図である。
マスタのHDRデータが入力された場合、生成装置1は、マスタのHDRデータの輝度を検出し、矢印#71で示すように特性情報を生成する。
生成装置1は、矢印#72で示すように、マスタのHDRデータをSTDデータに変換する。変換して得られたSTDデータに対応するSTD画像は、図示せぬモニタに表示される。
オーサによる調整に基づいて、生成装置1は、矢印#73で示すように、変換情報を生成する。
また、生成装置1は、矢印#74−1で示すように、マスタのHDRビデオを変換して得られたSTDビデオを、例えば、HEVC方式で符号化して符号化データを生成する。また、矢印#74−2で示すように、マスタのHDR STを変換して得られたSTD STを符号化してSTストリームを生成する。
生成装置1は、矢印#75で示すように、特性情報と変換情報をSEIとして符号化データに挿入し、ビデオストリームを生成する。生成装置1は、生成したビデオストリームとSTストリームを、MP4ファイルに格納し、矢印#91に示すように再生装置2に提供する。
再生装置2は、MP4ファイルからビデオストリームを読み出し、矢印#101,#102で示すように、ビデオストリームのSEIから特性情報と変換情報を抽出する。
また、再生装置2は、矢印#103−1で示すように、ビデオストリームに含まれる符号化データをHEVC方式で復号してSTDビデオを生成し、矢印#103−2で示すように、STストリームを復号してSTD STを生成する。再生装置2は、表示装置3がSTDモニタを有する場合、矢印#104で示すように、復号して得られたSTDデータを表示装置3に出力する。
一方、再生装置2は、表示装置3がHDRモニタを有する場合、矢印#105で示すように、ビデオストリームから抽出された変換情報を用いて、復号して得られたSTDデータをHDRデータに変換する。再生装置2は、矢印#106で示すように、変換して得られたHDRデータに特性情報を付加し、矢印#107で示すように表示装置3に出力する。
このように、復号して得られたSTDデータは、HDRデータに変換された後、特性情報とともに、HDRモニタを有する表示装置3に出力される。又は、復号して得られたSTDデータは、STDモニタを有する表示装置3にそのまま出力される。
図5は、マスタのHDRデータが生成装置1に入力されてから、再生装置2からデータが出力されるまでのmode-iiの信号処理の流れを示す図である。
マスタのHDRデータは、白抜き矢印#121で示すように、STDデータに変換された後、マスタのHDRデータに基づいて生成装置1において生成された特性情報と変換情報とともに再生装置2に提供される。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#122,#123で示すように、復号して得られたSTDデータが変換情報を用いてHDRデータに変換される。また、矢印#124,#125で示すように、STDデータを変換して得られたHDRデータに特性情報が付加され、矢印#126で示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#127で示すように、復号して得られたSTDデータが表示装置3に出力される。
このように、mode-iiにおいては、マスタのHDRデータがSTDデータに変換されてMP4ファイルに格納される。また、出力先となる表示装置3の性能に応じて、復号して得られたSTDデータをHDRデータに変換し、特性情報を付加して出力するのか、STDデータをそのまま出力するのかが切り替えられる。
以上のような生成装置1と再生装置2の構成と動作の詳細については後述する。
<HEVC方式におけるアクセスユニットの構成>
図6は、HEVC方式のアクセスユニットの構成を示す図である。
HEVC方式のビデオストリームは、NAL(Network Abstraction Layer)ユニットの集まりであるアクセスユニットから構成される。1つのアクセスユニットには、例えば、1ピクチャのビデオデータが含まれる。
図6に示すように、1つのアクセスユニットは、AUデリミタ(Access Unit delimiter)、VPS(Video Parameter Set)、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI、VCL(Video Coding Layer)、EOS(End of Sequence)、及び、EOS(End of Stream)から構成される。
AUデリミタは、アクセスユニットの先頭を示す。VPSは、ビットストリームの内容を表すメタデータを含む。SPSは、ピクチャサイズ、CTB(Coding Tree Block)サイズ等の、HEVCデコーダがシーケンスの復号処理を通じて参照する必要のある情報を含む。PPSは、HEVCデコーダがピクチャの復号処理を実行するために参照する必要のある情報を含む。
SEIは、各ピクチャのタイミング情報やランダムアクセスに関する情報等を含む補助情報である。特性情報と変換情報は、SEIの1つであるtone_mapping_infoとして、HEVC方式のビデオストリームに含めることができる。tone_mapping_infoには、tone_mapping_infoを識別する識別情報としてのtone_map_idが付与される。
VCLは、1ピクチャの符号化データである。EOS(End of Sequence)は、シーケンスの終了位置を示し、EOS(End of Stream)はストリームの終了位置を示す。
<tone_mapping_info>
図7は、HEVC方式で規定されているtone_mapping_infoのシンタクスを示す図である。
tone_mapping_infoを用いて、復号して得られた画像の明るさや色が、画像の出力先となるモニタの性能に合わせて変換される。なお、図7の左側の行番号とコロン(:)は、シンタクスを構成しない。
2行目のtone_map_idは、tone_mapping_infoの識別情報である。8行目のtone_map_model_idは、変換に用いるtone mapのモデル(変換規則)を表す。
tone_mapping_infoのシンタクス上、tone_map_model_idは、0,1,2,3,4の値をとることができる。
tone_map_model_idが、0,1,2、及び、3のうちのいずれかの値になっているtone_mapping_info(以下、適宜、TMIと略す)が、変換情報に対応し、tone_map_model_idが、4になっているTMIが、特性情報に対応する。
なお、HEVC方式では、変換情報としてのTMIについては、tone_map_model_idとして、0,2、又は、3をとることが許されており、本実施の形態でも、変換情報としてのTMIのtone_map_model_idは、0,2、及び、3のうちのいずれかの値であることとする。
生成装置1は、HDR情報、すなわち、変換情報と特性情報との両方を、MP4ファイルに含める。そのため、生成装置1においては、変換情報としての、tone_map_model_idが0,2、及び、3のうちのいずれかの値のTMIと、特性情報としての、tone_map_model_idが4のTMIとが、少なくとも1つずつ生成される。
図7の9〜11行目は、tone_map_model_id=0に関する記述である。tone_map_model_id=0である場合、min_valueとmax_valueが記述される。
図7の15〜17行目は、tone_map_model_id=2に関する記述である。tone_map_model_id=2である場合、階段関数を表す、max_target_dataの数と同じ数のstart_of_coded_interval[i]が記述される。
図7の18〜23行目は、tone_map_model_id=3に関する記述である。tone_map_model_id=3である場合、折れ線関数を表す、num_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]が記述される。
図7の24〜39行目は、tone_map_model_id=4に関する記述である。tone_map_model_id=4に関する情報のうちの、例えば、ref_screen_luminance_white、extended_range_white_level、nominal_black_level_code_value、nominal_white_level_code_value、及びextended_white_level_code_valueが、特性情報を構成するパラメータとなる。
図8は、tone_map_model_idとして、各値が設定されたTMIと、変換情報及び特性情報との関係を示す図である。
図8に示すように、tone_map_model_idとして0,2,3のうちのいずれかの値が設定されたTMIが、変換情報に対応し、tone_map_model_idとして4が設定されたTMIが、特性情報に対応する。
図9は、変換情報としての、tone_map_model_id=0のtone_mapping_infoが表す変換規則としてのトーンカーブの例を示す図である。
図9の横軸は、coded_data(変換前のRGB値)を示し、縦軸は、target_data(変換後のRGB値)を示す。図9のトーンカーブを用いた場合、値D1以下のRGB値は、白抜き矢印#151で示すようにmin_valueにより示されるRGB値に変換される。また、値D2(>D1)以上のRGB値は、白抜き矢印#152で示すようにmax_valueにより示されるRGB値に変換される。
tone_map_model_id=0のTMIを用いた変換では、max_valueを超える輝度とmin_valueを下回る輝度(RGB値により表される輝度)は失われるが、変換の処理の負荷は軽くなる。
図10は、変換情報としての、tone_map_model_id=2のTMIが表す変換規則としての階段関数の例を示す図である。
図10の階段関数を用いた場合、例えば、coded_data=5はtarget_data=3に変換される。
tone_map_model_id=2のTMIは、データ量が多いが、変換の処理の負荷は軽い。
図11は、変換情報としての、tone_map_model_id=3のTMIが表す変換規則としての折れ線関数の例を示す図である。
図11の折れ線関数を用いた場合、例えば、coded_data=D11は、target_data=D11’に変換され、coded_data=D12は、target_data=D12’に変換される。
図12は、特性情報に含まれる各情報の例を示す図である。
図12の横軸は、輝度値を示す。ビット長が10bitである場合、輝度値は0-1023の値となる。図12の縦軸は、明るさを示す。曲線L11が、標準の輝度のモニタにおける輝度値と明るさの関係を示す。標準の輝度のモニタのダイナミックレンジは0-100%である。
ref_screen_luminance_white(図7)は、標準となるモニタの明るさ(STD画像の最大の明るさ)(cd/m2)を示す。extended_range_white_levelは、拡張後のダイナミックレンジの明るさ(HDR画像の最大の明るさ)を示す。図12の例の場合、extended_range_white_levelの値として400が設定される。
nominal_black_level_code_valueは、黒(明るさ0%)の輝度値を示し、nominal_white_level_code_valueは、標準の輝度のモニタにおける白(明るさ100%)の輝度値を示す。extended_white_level_code_valueは、拡張後のダイナミックレンジにおける白の輝度値を示す。
図12の例の場合、白抜き矢印#161で示すように、0-100%のダイナミックレンジは、extended_range_white_levelの値に従って、0-400%のダイナミックレンジに拡張される。また、400%の明るさに相当する輝度値が、extended_white_level_code_valueにより指定される。
HDRデータの輝度の特性は、nominal_black_level_code_value、nominal_white_level_code_value、extended_white_level_code_valueの値がそれぞれ明るさ0%、100%、400%をとる曲線L12により示される特性となる。
このように、tone_map_model_idとして4の値が設定されたTMIにより、マスタのHDRデータの輝度の特性が示される。
<MP4ファイル>
図13は、MP4ファイルのMovieの例を示す図である。
ここで、MP4ファイルについては、ISO/IEC((International Organization for Standardization/International Engineering Consortium)) 14496-12に、その詳細が規定されている。
MP4ファイルでは、再生対象のビデオや、オーディオ、ST(subtitle)等のメディアデータの集合は、Movieと呼ばれ、Movieは、1以上のトラック(track)から構成される。
再生対象のビデオやST等の独立した1つのメディアデータ(データストリーム(例えば、es(elementary stream)エレメンタリストリーム))が、1つのトラックを構成し、Movieに含まれるトラックのうちの1以上は、同時に再生することができる。
図13では、Movieは、3つのトラック#1,#2,#3から構成されている。また、トラック#1は、ビデオのデータストリームで、トラック#2は、ビデオに付随する1チャンネルのオーディオのデータストリームで、トラック#3は、ビデオに重畳される1チャンネルのSTのデータストリームで、それぞれ構成されている。
各トラックのメディアデータは、サンプルから構成される。
サンプルとは、MP4ファイル内のメディアデータにアクセスする場合の、最小の単位(アクセス単位)である。したがって、サンプルより細かい単位で、MP4ファイル内のメディアデータにアクセスすることはできない。
ビデオのメディアデータについては、例えば、1フレーム(又は、1フィールド)等が、1サンプルとなる。また、オーディオのメディアデータについては、例えば、そのオーディオのメディアデータの規格で定められた1オーディオフレーム等が、1サンプルとなる。
図14は、MP4ファイルにおけるメディアデータ(Movie)の論理的な配置の例を示す図である。
メディアデータは、チャンク(chunk)と呼ばれる単位で配置される。
Movieのメディアデータとして、複数のデータ、すなわち、例えば、ビデオのデータストリームと、オーディオのデータストリームと、STのデータストリームとの3つのデータストリームが存在する場合には、その複数のメディアデータが、チャンク単位で、インターリーブして配置される。
ここで、チャンクは、論理的に連続したアドレスに配置される1以上のサンプルの集合である。
図15は、MP4ファイルのデータ構造を示す図である。
MP4ファイルは、データを格納するコンテナとしてのボックス(box)と呼ばれる単位で構成され、ボックス構造と呼ばれる構造を有する。
ボックスは、4バイトのサイズ(box size)、4バイトのタイプ(box type)、及び、実データ(data)を有する。
サイズは、ボックス全体のサイズを表し、タイプは、ボックス内の実データの種類を表す。
実データとしては、例えば、上述したメディアデータそのもの等のデータの他、ボックスを採用することができる。
すなわち、ボックスは、実データとして、ボックスを持つことができ、これにより、階層構造にすることができる。
図16は、メディアデータが格納されるMP4ファイルのデータ構造の例を示す図である。
図16において、MP4ファイルは、ftypボックス(File Type Compatibility Box),moovボックス(Movie Box)、及び、mdatボックス(Media Data Box)から構成される。
ftypボックスには、ファイルフォーマットの情報、すなわち、例えば、ファイルがMP4ファイルであることや、ボックスのバージョン、MP4ファイルを作成したメーカのメーカ名等が含まれる。
moovボックスには、メディアデータを管理するための、例えば、時間軸やアドレス等のメタデータが含まれる。
mdatボックスには、メディアデータ(AVデータ)が含まれる。
図17は、fragmented movieのMP4ファイルと、non-fragmented movieのMP4ファイルとの例を示す図である。
fragmented movieのMP4ファイルは、moovボックス(movie box)(MovieBox)、moofボックス(movie fragment box)(MovieFragmentBox)、及び、mdatボックス(media data box)(MediaDataBox)を有する。
non-fragmented movieのMP4ファイルは、moovボックス、及び、mdatボックスを有する。
ここで、図17において、moovボックスは、trakボックス(tarck box)(TrackBox)を有しており、moofボックスは、trafボックス(track fragment box)(TrackFragmentBox)を有する。
moovボックス、及び、moofボックスには、mdatボックスに格納されるビデオや、オーディオ、ST等のメディアデータ(実データ)を再生するために必要な情報(例えば、表示時刻等)が格納される。
trakボックス、及び、trafボックスには、対応するトラックのデータ(ビデオや、オーディオ、ST等のデータ)ごとに独立したデータシーケンス情報(例えば、表示サイズ等)等が格納される。
mdatボックスには、ビデオや、オーディオ、ST等のメディアデータ(実データ)が格納される。
moofボックスとmdatボックスとのセットが、フラグメント(fragment)と呼ばれる。fragmented movieのMP4ファイルは、moovボックスと、1以上のフラグメントとから構成され、ストリーミングに適している。
一方、non-fragmented movieのMP4ファイルは、フラグメントを有さず、上述したように、moovボックスとmdatボックスとを有する。
図18は、DECE(Digital Entertainment Content Ecosystem) CFF(Common File Format)を説明する図である。
DECE CFFは、DECEが定めた、MP4ファイルをベースとするファイルフォーマットであり、fragmented movieのMP4ファイルを採用する。
fragmented movieのMP4ファイルでは、1つのフラグメントのmdatボックスに、複数の種類のes(elementary stream)を格納することができるが、DECE CFFでは、1つのフラグメントのmdatボックスに、1つのesが格納される。
また、DECE CFFでは、fragmented movieのMP4ファイルに多重化することができるesが限定されている。
DECE CFFにおいて、fragmented movieのMP4ファイルに多重化することができるオーディオのesとしては、例えば、AVC audio:MPEG4(Moving Picture Experts Group)-AAC(Advanced Audio Coding),Dolby AC-3があり、ST(subtitle)のesとしては、例えば、SMPTE(Society of Motion Picture and Television Engineers)-TT(Timed Text)がある。
図19は、SMPTE-TTのSTのデータの例を示す図である。
SMPTE-TTは、W3Cが標準化したXML(Extensible Markup Language)仕様であるTTML(Timed Text Markup Language)にPNG表示機能を追加した規格であり、XMLに時間概念を持たせたSTのデータフォーマットを規定する。
図19のSMPTE-TTのデータ(文書)によれば、例えば、エレメント1001において、時刻"00:00:05:05"から時刻"00:00:10:05"までの間に、STとしてのテキスト"subtitle#1 is presented"が表示される。
また、例えば、エレメント1002において、時刻"00:00:10:05"から時刻"00:00:15:05"までの間に、STとしてのテキスト"subtitle#2 is presented"が表示される。
本実施の形態では、STのデータ(フォーマット)として、SMPTE-TTを採用することとするが、STのデータとしては、XML以外の、例えば、HTML(HyperText Markup Language)その他のマークアップ言語を利用したフォーマット、さらには、その他の任意のフォーマットを採用することができる。
<生成装置1の第1の構成例>
図20は、図1の生成装置1の第1の構成例を示すブロック図である。
図20において、生成装置1は、コントローラ21、符号化処理部22、及び、ファイル生成部23を有する。
図20の生成装置1では、マスタのHDRデータが符号化処理部22に入力される。
コントローラ21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等より構成される。コントローラ21は、所定のプログラムを実行し、生成装置1の全体の動作を制御する。
コントローラ21においては、所定のプログラムが実行されることによってヘッダ情報生成部21Aが実現される。
ヘッダ情報生成部21Aは、符号化処理部22から供給されるtone_map_idを、tone_mapping_info_id_refとして格納したtirfボックス(ToneMappingInformationReferecenceBox)を含むmoofボックスと、vtmiボックス(reference_typeが"vtmi"のTrackReferenceTypeBox)を含むmoovボックスとを、ヘッダ情報として生成し、ファイル生成部23に供給する。
又は、ヘッダ情報生成部21Aは、符号化処理部22から供給されるtone_map_idを、tone_mapping_info_id_refとして格納したtirfボックスと、vtmiボックスを含むmoovボックスを、ヘッダ情報として生成し、ファイル生成部23に供給する。
tirfボックス、及び、vtmiボックスについては、後述する。
符号化処理部22は、マスタのHDRデータの符号化を行うことにより、ビデオストリーム及びSTストリームを生成し、ファイル生成部23に出力する。
また、符号化処理部22は、ビデオやSTに適用するTMI(tone_mapping_info)のtone_map_idを、コントローラ21(のヘッダ情報生成部21A)に供給する。
ファイル生成部23は、コントローラ21(のヘッダ情報生成部21A)から供給されるヘッダ情報と、符号化処理部22から供給されるビデオストリーム及びSTストリームとを格納したMP4ファイルを生成して出力する。
図21は、図20の生成装置1で生成されるMP4ファイルの例を示す図である。
図21のMP4ファイルは、フラグメントを有するfragmented movieのMP4ファイルであり、moovボックスは、ビデオ、オーディオ、及び、STのtrakボックスを有している。
したがって、図21のMP4ファイルは、ビデオのトラック、オーディオのトラック、及び、STのトラックを有する。
ここで、MP4ファイルに格納されるビデオストリームが、ビデオを、例えば、HEVC方式で符号化することにより得られたストリームであり、TMIを含んでいるストリームであることとすると、ビデオのトラックには、TMIが含まれる。
図21のMP4ファイルは(後述する図25のMP4ファイルも同様)、HEVC方式で符号化されたビデオストリームの他、例えば、AVC方式で符号化されたビデオストリーム等の、TMI(TMIと同様のHDR情報(特性情報及び変換情報)を含む)が含まれるビデオストリームを、MP4ファイルに格納する場合に適用することができる。
図20の生成装置1は、ビデオのトラックに含まれるTMIを、ビデオのトラック以外の、例えば、STのトラックから参照し、STのトラックに、いわば流用して適用することができるMP4ファイルを生成する。
そのため、moovボックスのST(subtitle)のtrakボックスは、vtmiボックスを有するtrefボックス(TrackReferenceBox)を有している。
trefボックスは、TrackReferenceTypeBoxを持つことができるが、vtmiボックスは、TrackReferenceTypeBoxの一種として新規に定義されたボックスである。
いま、vtmiボックスを有する、あるSTのトラックを、注目する注目トラックとして注目すると、注目トラックとしてのSTのトラックが有するvtmiボックスには、注目トラックに適用するTMI(HDR情報)を含むトラック、すなわち、ここでは、ビデオのトラックを指定するトラック指定情報としての、ビデオのトラックのtrack_id(を表す後述するtrack_IDs[])が格納される。
したがって、注目トラックとしてのSTのトラックが有するvtmiボックスに格納されているtrack_idによって、注目トラックに適用するTMIを含むトラックとして参照すべき参照トラックを認識することができる。
なお、TMIを含むビデオのトラックを、注目トラックとして注目すると、注目トラックとしてのビデオのトラックが、そのビデオのトラックに適用するTMIを含むトラックとして参照すべき参照トラックになる。
このように、注目トラックが、その注目トラックに適用するTMIを含む参照トラックである場合には、注目トラックについては、参照トラックのtrack_idを格納したvtmiボックスを有するtrefボックスを、moovボックスの、注目トラックのtrakボックスに格納することを省略することができる。
この場合、moovボックスの、注目トラックのtrakボックスに、vtmiボックスを有するtrefボックスが存在しない場合には、注目トラックが参照トラックであると認識することができる。
図21では、moovボックスのビデオのtrakボックスに、vtmiボックスを有するtrefボックスが格納されておらず、したがって、ビデオのトラックについては、そのビデオのトラックが、参照トラックとして認識される。
ここで、注目トラックが、その注目トラックに適用するTMIを含む参照トラックである場合であっても、参照トラックのtrack_idを格納したvtmiボックスを有するtrefボックスを、moovボックスの、注目トラックのtrakボックスに格納することができる。
すなわち、例えば、図21において、ビデオのトラックについて、STのトラックと同様に、参照トラックとしてのビデオのトラックのtrack_idを格納したvtmiボックスを有するtrefボックスを、moovボックスのビデオのtrakボックスに格納することができる。
なお、参照トラックとなるトラックのtrack_idを、あらかじめ決めておくことにより、vtmiボックスを有するtrefボックスは、省略することができる。
図21のMP4ファイルでは、ビデオ及びSTのそれぞれのトラックのmoofボックスは、そのトラックに適用するTMIを指定するHDR指定情報としての、tone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスを有するtrafボックスを有する。
注目トラックのtirfボックスに格納されたtone_mapping_info_id_refを参照することにより、そのtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIとして認識される。
なお、fragmented movieのMP4ファイルは、フラグメントごとに、moofボックスを有する。あるフラグメントのデータには、そのフラグメントのmoofボックスが有するtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIのうちの有効なTMIが適用される。
有効なTMIとは、例えば、復号済みの(取得されている)TMIのうちの最新のTMIである。
fragmented movieのMP4ファイルでは、図21に示すように、TMIを含むビデオのトラックのmoofボックスが有するtrafボックスには、ビデオのトラックに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#2が格納される。
また、ビデオのトラックに含まれるTMIを参照するSTのトラックについては、moovボックスのST(subtitle)のトラックのtrakボックスのtrefボックスに、参照トラックとしてのビデオのトラックのtrack_idが格納されたvtmiボックスB#1が格納される。
さらに、STのトラックについては、そのSTのトラックのmoofボックスが有するtrafボックスに、STのトラックに適用するTMI(参照トラックとしてのビデオのトラックに含まれるTMI)のtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#3が格納される。
したがって、図21のMP4ファイルによれば、例えば、ビデオのトラックを、注目トラックとして注目すると、moovボックスのビデオのtrakボックスが、vtmiボックスを有するtrefボックスを有しないので、注目トラックであるビデオのトラックが、そのビデオのトラックに適用するTMIを含む参照トラックであることを認識することができる。
そして、参照トラックに含まれるTMIのうちの、注目トラックであるビデオのトラックのmoof/tarf/tirfボックス(moofボックスが有するtarfボックスが有するtirfボックス)B#2に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
また、図21のMP4ファイルによれば、例えば、STのトラックを、注目トラックとして注目すると、moovボックスのSTのtrak/tref/vtmiボックス(trakボックスが有するtrefボックスが有するvtmiボックス)B#1に格納されたtrack_idによって、ビデオのトラックが、STのトラックに適用するTMIを含む参照トラックであることを認識することができる。
そして、参照トラックに含まれるTMIのうちの、注目トラックであるSTのトラックのmoof/tarf/tirfボックスB#3に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
図22は、trefボックスの定義を示す図である。
trefボックスは、図21で説明したように、TrackReferenceTypeBoxを持つことができる。
TrackReferenceTypeBoxについては、そのTrackReferenceTypeBoxのrefernce_typeを、TrackReferenceTypeBoxの用途に応じて任意に定義して使用することができる。
本実施の形態では、TrackReferenceTypeBoxを、TMIを含むビデオのトラックのtrack_idを格納する用途に用いることを表すrefernce_typeとして、"vtmi"を新規に定義し、refernce_typeが"vtmi"になっているTrackReferenceTypeBoxが、TMIを含むビデオのトラックのtrack_idを格納するvtmiボックスとして使用される。
図23は、vtmiボックスとしてのTrackReferenceTypeBoxの定義の例を示す図である。
vtmiボックスは、track_idを表すtrack_IDs[]を有する(格納する)。
track_IDs[]は、配列変数であり、複数のtrack_idを格納することができる。したがって、vtmiボックスによれば、STのトラックに適用するTMIを含むトラックとして、複数のトラックを指定することができる。
図24は、tirfボックスの定義の例を示す図である。
tirfボックス(tone mapping information reference box)(ToneMappingInformationReferenceBox)は、そのtirfボックスを有するトラックに適用するTMIのtone_map_idを表すtone_mapping_info_id_refを格納するボックスとして、新規に定義されたボックスであり、trakボックス(に格納されるstblボックス(sample table box))、又は、trafボックスに格納される。
図24において、sample_countは、stszボックスや、stz2ボックス、trunボックスに格納されるsample_countに等しく、サンプル数を表す。
図24では、tirfボックスは、サンプルごとに、number_of_tone_mapping_info_id_refだけの数のtone_mapping_info_id_refを格納することができる。
したがって、tirfボックスによれば、1サンプルについて、その1サンプルに適用するTMIとして、number_of_tone_mapping_info_id_refだけの数のtone_mapping_info_id_refが表すtone_map_idのTMIを指定することができる。
図25は、図20の生成装置1で生成されるMP4ファイルの他の例を示す図である。
図25のMP4ファイルは、フラグメントを有しないnon-fragmented movieのMP4ファイルであり、moovボックスは、ビデオ、オーディオ、及び、STのtrakボックスを有している。
したがって、図25のMP4ファイルは、ビデオのトラック、オーディオのトラック、及び、STのトラックを有する。
図25でも、図21と同様に、ビデオのトラックは、TMIを含んでおり、ビデオのトラック以外の、例えば、STのトラックについては、ビデオのトラックに含まれるTMIを適用することができる。
すなわち、non-fragmented movieのMP4ファイルでは、図25に示すように、moovボックスの、TMIを含むビデオのトラックのtrakボックスが有するstblボックスに、ビデオのトラックに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#11が格納される。
また、ビデオのトラックに含まれるTMIを参照するSTのトラックについては、moovボックスのSTのトラックのtrakボックスが有するtrefボックスに、参照トラックとしてのビデオのトラックのtrack_idを表すtrack_IDs[](図23)が格納されたvtmiボックスB#12が格納される。
さらに、STのトラックについては、moovボックスのSTのトラックのtrakボックスが有するstblボックスに、STのトラックに適用するTMI(参照トラックとしてのビデオのトラックに含まれるTMI)のtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#13が格納される。
したがって、図25のMP4ファイルによれば、ビデオのトラックを、注目トラックとして注目すると、moovボックスのビデオのtrakボックスが、vtmiボックスを有するtrefボックスを有しないので、注目トラックであるビデオのトラックが、そのビデオのトラックに適用するTMIを含む参照トラックであることが認識される。
そして、moovボックスのビデオのtrak/stblボックス(trakボックスが有するstblボックス)は、tirfボックスB#11を有しているので、参照トラック(ここでは、ビデオのトラック)に含まれるTMIのうちの、ビデオのtrak/stbl/tirf(trakボックスが有するstblボックスが有するtirfボックス)B#11に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることが認識される。
また、図25において、例えば、STのトラックを、注目トラックとして注目すると、moovボックスのSTのtrak/tref/vtmiボックスB#12が存在するので、そのtrak/tref/vtmiボックスB#12に格納されたtrack_idによって、ビデオのトラックが、STのトラックに適用するTMIを含む参照トラックであることが認識される。
そして、moovボックスの、注目トラックであるSTのトラックのtark/stbl/tirfボックスB#13が存在するので、参照トラックに含まれるTMIのうちの、注目トラックであるSTのトラックのtark/stbl/tirfボックスB#13に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることが認識される。
なお、non-fragmented movieのMP4ファイルでは、注目トラックには、その注目トラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIのうちの有効なTMIが適用される。
有効なTMIとは、上述したように、例えば、復号済みの(取得されている)TMIのうちの最新のTMIである。
図20の生成装置1では、以上のように、HDR情報としてのTMIを含むビデオのトラックと、ビデオのトラックに含まれるTMIのうちの、STのトラックに適用するTMIを指定するHDR指定情報としてのtone_mapping_info_id_refを含むSTのトラックとが格納されたMP4ファイルが生成されるので、ビデオのトラックに含まれるTMIを、STに流用して適用することができ、STについて、TMIを別個に付加する必要がない。
したがって、例えば、Blu-ray(登録商標)ディスクに記録されるm2tsフォーマットの、TMIを含むビデオと、そのビデオとともに再生されるSTとを、STについて、TMIを別個に付加することなく、MP4ファイルにコンバートすることができる。
その結果、MP4ファイルへのTMIの導入を促進し、ユーザが、HDRビデオやHDR ST等のHDR画像を享受する機会を増やすことができる。
<符号化処理部22の構成例>
図26は、図20の符号化処理部22の構成例を示すブロック図である。
符号化処理部22は、特性情報生成部31、エンコーダ32、変換部33、変換情報生成部34、エンコーダ35、及び、ストリーム生成部36を有する。
特性情報生成部31は、符号化処理部22に入力されたマスタのHDRデータの輝度を検出し、図12を参照して説明した各情報を含む特性情報としてのTMI(tone_mapping_info)を生成する。特性情報生成部31は、生成した特性情報としてのTMIを、ストリーム生成部36に供給する。
なお、特性情報生成部31は、マスタのHDRデータのうちの、例えば、HDRビデオの輝度を検出し、ビデオ(HDRビデオ)の特性情報としてのTMIを生成する。また、特性情報生成部31は、マスタのHDRデータのうちの、例えば、HDR STについては、そのHDR STと同時に表示されるHDRビデオの特性情報としてのTMIを、ST(HDR ST)の特性情報としてのTMIとして採用する。
エンコーダ32は、処理モードがmode-iである場合、入力されたマスタのHDRビデオを、例えば、HEVC方式で符号化する。また、エンコーダ32は、処理モードがmode-iiである場合、変換部33から供給されるSTDビデオをHEVC方式で符号化する。エンコーダ32は、HDRビデオの符号化データ、又は、STDビデオの符号化データを、ストリーム生成部36に供給する。なお、ビデオの符号化方式は、HEVC方式に限定されない。
変換部33は、符号化処理部22に入力されたマスタのHDRデータをSTDデータに変換する。変換部33による変換は、適宜、オーサにより入力された変換パラメータに従って行われる。変換部33は、HDRデータのRGB信号をinput dataとするとともに、STDデータのRGB信号をoutput dataとして、input dataとoutput dataの対応関係を示す情報を、変換情報生成部34に出力する。
また、変換部33は、処理モードがmode-iiである場合、HDRビデオを変換して得られるSTDビデオを、エンコーダ32に供給し、HDR STを変換して得られるSTD STを、エンコーダ35に供給する。
変換情報生成部34は、変換部33から供給される情報に基づいて、変換情報としてのTMIを生成する。
例えば、変換情報生成部34は、tone_map_model_id=0が用いられる場合、図9のmin_valueとmax_valueの値を含むTMI(tone_mapping_info)を、変換情報として生成する。
また、変換情報生成部34は、tone_map_model_id=2が用いられる場合、図10のstart_of_coded_interval[i]を含むTMIを、変換情報として生成する。
さらに、変換情報生成部34は、tone_map_model_id=3が用いられる場合、図11のnum_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]を含むTMIを、変換情報として生成する。
なお、変換情報生成部34は、例えば、ビデオについて、変換情報としてのTMIを生成し、STについては、そのSTと同時に表示されるビデオの変換情報としてのTMIを、STの変換情報としてのTMIとして採用する。
エンコーダ35は、処理モードがmode-iである場合、符号化処理部22に入力されたマスタのHDR STを、SMPTE-TTフォーマットのSTのデータに符号化する。また、エンコーダ35は、処理モードがmode-iiである場合、変換部33から供給されるSTD STを、SMPTE-TTフォーマットのSTのデータに符号化する。エンコーダ35は、符号化の結果得られるSTのデータを、ストリーム生成部36に供給する。
ストリーム生成部36は、特性情報生成部31から供給されるビデオ、及び、STの特性情報としてのTMIのtone_map_idを、コントローラ21(図20)に供給する。
また、ストリーム生成部36は、変換情報生成部34から供給されるビデオ、及び、STの変換情報としてのTMIのtone_map_idを、コントローラ21に供給する。
さらに、ストリーム生成部36は、ビデオのTMI(STのTMIでもある)を、SEIとして、エンコーダ32からのビデオの符号化データに挿入し、ビデオストリームを生成する。
また、ストリーム生成部36は、エンコーダ35からのSTのデータを、STストリームとして、ビデオストリームとともに、図20のファイル生成部23に供給する。
図27は、図26の変換部33による、HDRデータをSTDデータに変換する変換の処理の例を示す図である。
変換部33は、矢印#201で示すように、符号化処理部22に入力されたマスタのHDRデータのYCrCb信号をRGB(red,green,blue)信号に変換し、RGBの各信号を対象として、STDデータのRGBの各信号への変換(tone mapping)を行う。
変換部33は、input dataであるHDRデータのRGB信号とoutput dataであるSTDデータのRGB信号の対応関係を示す情報を、変換情報生成部34に出力する。変換情報生成部34に出力された情報は、矢印#202で示すように変換情報の生成に用いられる。
また、変換部33は、矢印#203で示すように、STDデータのRGB信号をYCrCb信号に変換し、出力する。
図28は、tone mappingの例を示す図である。
HDRデータのRGB信号は、例えば、図28に示すように、高輝度成分を圧縮し、中・低域輝度成分を伸張するようにしてSTDデータのRGB信号に変換される。図28に示すようなHDRデータのRGB信号とSTDデータのRGB信号を対応付ける関数Fに相当する情報が、変換情報として、変換情報生成部34により生成される。
なお、図28に示す関数Fに相当する変換情報は、図11を参照して説明した、coded_dataとtarget_dataの関係を折れ線関数により示すtone_map_model_id=3のTMIに相当する。
<生成装置1のファイル生成処理>
図29は、図20の生成装置1が行うファイル生成処理の例を説明するフローチャートである。
マスタのHDRデータが生成装置1に入力されると、ステップS1において、生成装置1のコントローラ21は、処理モードがmode-iであるか否かを判定する。処理モードは、例えば、オーサにより設定される。
処理モードがmode-iであるとステップS1において判定された場合、ステップS2に進み、符号化処理部22は、mode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたビデオストリームとSTストリームは、符号化処理部22からファイル生成部23に供給される。
一方、処理モードがmode-iiであるとステップS1において判定された場合、ステップS3に進み、符号化処理部22は、mode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたビデオストリームとSTストリームは、符号化処理部22からファイル生成部23に供給される。
ステップS2又はS3の後、処理は、ステップS4に進み、ヘッダ情報生成部21Aは、ヘッダ情報生成処理を行う。ヘッダ情報生成処理により生成されたヘッダ情報は、ヘッダ情報生成部21Aからファイル生成部23に供給され、処理は、ステップS5に進む。
ステップS5において、ファイル生成部23は、符号化処理部22からのビデオストリーム、及び、STストリーム、並びに、ヘッダ情報生成部21Aからのヘッダ情報を格納した、図21、又は、図25のMP4ファイルを生成して出力し、ファイル生成処理は終了する。
図30は、図29のステップS2において行われるmode-iの符号化処理の例を説明するフローチャートである。
ステップS11において、符号化処理部22(図26)の特性情報生成部31は、マスタのHDRデータの輝度を検出し、ビデオ及びSTの特性情報としてのTMIを生成して、ストリーム生成部36に供給し、処理は、ステップS12に進む。
ステップS12において、エンコーダ32は、マスタのHDRビデオをHEVC方式で符号化し、HDRビデオの符号化データを生成して、ストリーム生成部36に供給し、処理は、ステップS13に進む。なお、ビデオの符号化方式は、HEVC方式に限定されない。
ステップS13において、エンコーダ35は、マスタのHDR STを符号化し、SMPTE-TTフォーマットのSTのデータを生成して、ストリーム生成部36に供給し、処理は、ステップS14に進む。
ステップS14において、変換部33は、入力されたマスタのHDRデータをSTDデータに変換し、HDRデータのRGB信号をinput dataとするとともに、STDデータのRGB信号をoutput dataとする、input dataとoutput dataの対応関係を示す情報を、変換情報生成部34に供給する。
その後、処理は、ステップS14からステップS15に進み、変換情報生成部34は、変換部33から供給された情報に基づいて、ビデオ及びSTの変換情報としてのTMIを生成し、ストリーム生成部36に供給して、処理は、ステップS16に進む。
ステップS16において、ストリーム生成部36は、符号化データのSEIとして、特性情報生成部31からの特性情報としてのTMIと、変換情報生成部34からの変換情報としてのTMIを、エンコーダ32からの符号化データに挿入し、ビデオストリームを生成する。
そして、ストリーム生成部36は、エンコーダ35からのSTのデータを、STストリームとして、ビデオストリームとともに、ファイル生成部23(図20)に供給する。
また、ストリーム生成部36は、ビデオのTMI(ビデオに適用するTMI)のtone_map_idと、STのTMI(STに適用するTMI)のtone_map_idとを、コントローラ21(図20)に供給し、mode-iの符号化処理は終了する(リターンする)。
図31は、図29のステップS3において行われるmode-iiの符号化処理の例を説明するフローチャートである。
ステップS21において、符号化処理部22の特性情報生成部31は、マスタのHDRデータの輝度を検出し、ビデオ及びSTの特性情報としてのTMIを生成して、ストリーム生成部36に供給する。
その後、ステップS22において、変換部33は、入力されたマスタのHDRデータをSTDデータに変換し、STDデータのうちのSTDビデオを、エンコーダ32に供給するとともに、STD STを、エンコーダ35に供給する。
さらに、変換部33は、HDRデータのRGB信号をinput dataとするとともに、STDデータのRGB信号をoutput dataとする、input dataとoutput dataの対応関係を示す情報を、変換情報生成部34に供給し、処理は、ステップS22からステップS23に進む。
ステップS23において、変換情報生成部34は、変換部33から供給された情報に基づいて、ビデオ及びSTの変換情報としてのTMIを生成して、ストリーム生成部36に供給して、処理は、ステップS24に進む。
ステップS24において、エンコーダ32は、変換部33からのSTDビデオをHEVC方式で符号化し、STDビデオの符号化データを生成して、ストリーム生成部36に供給する。なお、ビデオの符号化方式は、HEVC方式に限定されない。
その後、ステップS25において、エンコーダ35は、変換部33からのSTD STを符号化し、SMPTE-TTフォーマットのSTのデータを生成して、ストリーム生成部36に供給する。
そして、ステップS26において、ストリーム生成部36は、符号化データのSEIとして、特性情報生成部31からの特性情報としてのTMIと、変換情報生成部34からの変換情報としてのTMIを、エンコーダ32からの符号化データに挿入し、ビデオストリームを生成する。
さらに、ストリーム生成部36は、エンコーダ35からのSTのデータを、STストリームとして、ビデオストリームとともに、ファイル生成部23(図20)に供給する。
また、ストリーム生成部36は、ビデオのTMIのtone_map_idと、STのTMIのtone_map_idとを、コントローラ21(図20)に供給し、mode-iiの符号化処理は終了する(リターンする)。
図32は、図29のステップS4において行われるヘッダ情報生成処理の例を説明するフローチャートである。
ステップS31において、コントローラ21(図20)のヘッダ情報生成部21Aは、符号化処理部22(のストリーム生成部36(図26))から供給されるビデオのTMI(ビデオに適用するTMI)のtone_map_idを表すtone_mapping_info_id_refを格納したtirfボックス(図21、図24、図25)を生成する。
さらに、ヘッダ情報生成部21Aは、符号化処理部22から供給されるSTのTMI(STに適用するTMI)のtone_map_idを表すtone_mapping_info_id_refを格納したtirfボックス(図21、図24、図25)を生成する。
また、ヘッダ情報生成部21Aは、STに適用されるTMIを含むビデオストリームのトラックのtrack_idを表すtrack_IDs[]を格納したvtmiボックス(図21、図23、図25)を生成して、処理は、ステップS31からステップS32に進む。
ステップS32では、ヘッダ情報生成部21Aは、vtmiボックスを含むmoovボックスと、tirfボックスを含むmoofボックスとを作成するか、又は、vtmiボックスとtirfボックスとを含むmoovボックスを作成し、ヘッダ情報として、ファイル生成部23(図20)に供給して、ヘッダ情報生成処理は終了する。
すなわち、ファイル生成部23において、fragmented movieのMP4ファイルが生成される場合、ヘッダ情報生成部21Aは、図21に示したような、STのトラックのtrak/trefボックスに、vtmiボックスが含まれるmoovボックスを生成する。
さらに、ヘッダ情報生成部21Aは、図21に示したような、ビデオのトラックのtrafボックスに、tirfボックスが含まれるmoofボックス、及び、STのトラックのtrafボックスに、tirfボックスが含まれるmoofボックスを生成する。
一方、ファイル生成部23において、non-fragmented movieのMP4ファイルが生成される場合、ヘッダ情報生成部21Aは、図25に示したような、ビデオのトラックのtrakボックスに含まれるstblボックスに、tirfボックスが含まれ、かつ、STのトラックのtrak/trefボックスに、vtmiボックスが含まれるとともに、STのトラックのtrakボックスに含まれるstblボックスに、tirfボックスが含まれるmoovボックスを生成する。
<再生装置2の第1の構成例>
図33は、図1の再生装置2の第1の構成例を示すブロック図である。
図33において、再生装置2は、ファイル取得部51、分離部52、操作入力部53、コントローラ54、復号処理部55、及び、合成出力部56を有する。
ファイル取得部51は、記録媒体11や伝送媒体12(図1)から、MP4ファイルを取得し、分離部52に供給する。
分離部52は、ファイル取得部51からのMP4ファイルから、ヘッダ情報としてのmoovボックスやmoofボックスを分離(取得)し、コントローラ54に供給する。
また、分離部52は、ファイル取得部51からのMP4ファイルから、mdatボックスに格納された実データとしてのビデオストリームやSTストリームを分離(取得)し、復号処理部55に供給する。
操作入力部53は、ボタン、キー、タッチパネル等の入力デバイスや、所定のリモートコマンダから送信される赤外線等の信号を受信する受信部により構成され、ユーザの操作を受け付ける。そして、操作入力部53は、ユーザの操作に対応する操作信号を、コントローラ54に供給する。
コントローラ54は、CPU、ROM、RAM等より構成される。コントローラ54は、所定のプログラムを実行し、再生装置2の全体の動作を制御する。
例えば、コントローラ54は、分離部52から供給されるmoovボックスに含まれるvtmiボックスに格納されたtrack_IDs[](図21、図23、図25)や、tirfボックスに格納されたtone_mapping_info_id_ref(図21、図24、図25)を、復号処理部55に供給する。また、例えば、コントローラ54は、分離部52から供給されるmoofボックスに含まれるtirfボックスに格納されたtone_mapping_info_id_refを、復号処理部55に供給する。
復号処理部55は、デコーダ55Aとデコーダ55Bとを有する。
デコーダ55Aは、ビデオのトラックを、参照トラック(適用するTMIを含むトラックとして参照すべきトラック)として認識し、分離部52から供給されるビデオのトラックのビデオストリームのSEIから特性情報及び変換情報としてのTMI(tone_mapping_info)を、参照トラックに含まれるTMIとして取得する取得部として機能する。
また、デコーダ55Aは、分離部52から供給されるビデオストリームに含まれる符号化データをHEVC方式で復号する。
さらに、デコーダ55Aは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、ビデオのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、ビデオに適用するTMIとして取得する。
そして、デコーダ55Aは、必要に応じて、復号の結果得られるHDRビデオ又はSTDビデオを、ビデオに適用する変換情報としてのTMIに基づいて、STDビデオ又はHDRビデオに変換し、合成出力部56に出力する。
デコーダ55Aは、HDRビデオを出力する場合、HDRビデオとともに、ビデオに適用する特性情報としてのTMIを、合成出力部56に出力する。
デコーダ55Bは、分離部52から供給されるSTストリームを復号する。
また、デコーダ55Bは、コントローラ54から供給される、STのトラックのvtmiボックスに格納されたtrack_IDs[]が表すtrack_idのトラック、すなわち、本実施の形態では、ビデオのトラックを、参照トラックとして認識し、その参照トラックに含まれるTMIを取得する取得部として機能する。
具体的には、デコーダ55Bは、分離部52から供給される、参照トラックとしてのビデオのトラックのビデオストリームのSEIから特性情報及び変換情報としてのTMIを、参照トラックに含まれるTMIとして取得する。
さらに、デコーダ55Bは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、STのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、STに適用するTMIとして取得する。
そして、デコーダ55Bは、必要に応じて、復号の結果得られるHDR ST又はSTD STを、STに適用する、変換情報としてのTMIに基づいて、STD ST又はHDR STに変換し、合成出力部56に出力する。
デコーダ55Bは、HDR STを出力する場合、HDR STとともに、STに適用する、特性情報としてのTMIを、合成出力部56に出力する。
合成出力部56は、ケーブル4(図1)を介して表示装置3との間で通信を行う。例えば、合成出力部56は、表示装置3が有するモニタの性能に関する情報を取得し、コントローラ54に出力する。
また、合成出力部56は、デコーダ55Aから供給されるHDRビデオ又はSTDビデオと、デコーダ55Bから供給されるHDR ST又はSTD STを、必要に応じて合成して、表示装置3に出力する。
さらに、合成出力部56は、デコーダ55A及びデコーダ55Bから供給される特性情報としてのTMIを、表示装置3に出力する。
<再生装置2の再生処理>
図34は、図33の再生装置2が行う再生処理の例を説明するフローチャートである。
なお、再生装置2では、再生処理が開始される前に、コントローラ54が、合成出力部56を制御して表示装置3と通信を行い、表示装置3の性能を表す情報としての、例えば、EDID(Extended display identification data)を取得していることとする。
ステップS41において、ファイル取得部51は、生成装置1で生成されたMP4ファイルを取得し、分離部52に供給する。
分離部52は、ファイル取得部51からのMP4ファイルから、ヘッダ情報としてのmoovボックスやmoofボックスを読み出すとともに、mdatボックスに格納された実データとしてのビデオストリームやSTストリームを読み出す。
そして、分離部52は、ヘッダ情報としてのmoovボックスやmoofボックスを、コントローラ54に供給するとともに、ビデオストリームやSTストリームを、復号処理部55に供給する。
また、コントローラ54は、分離部52から供給されるmoovボックスに含まれるvtmiボックスに格納されたtrack_IDs[]や、tirfボックスに格納されたtone_mapping_info_id_refを、復号処理部55に供給する。さらに、コントローラ54は、分離部52から供給されるmoofボックスに含まれるtirfボックスに格納されたtone_mapping_info_id_refを、復号処理部55に供給する。
その後、処理は、ステップS41からステップS42に進み、コントローラ54は、ファイル取得部51で取得されたMP4ファイルの処理モードがmode-i又はmode-iiであるかどうか、すなわち、ファイル取得部51で取得されたMP4ファイルが、mode-i又はmode-iiの符号化処理で得られたファイルであるかどうかを判定する。
ここで、コントローラ54でのステップS42における処理モードの判定は、例えば、ヘッダ情報としてのmoovボックスに、MP4ファイルの処理モードを表す情報を含めておき、その情報に基づいて行うことができる。
処理モードがmode-iであるとステップS42において判定された場合、ステップS43に進み、復号処理部55は、mode-iの復号処理を行う。
一方、処理モードがmode-iiであるとステップS42において判定された場合、ステップS44に進み、復号処理部55は、mode-iiの復号処理を行う。
ステップS43又はステップS44において復号処理が行われた後、再生処理は終了する。
図35は、図34のステップS43において行われるmode-iの復号処理の例を説明するフローチャートである。
ステップS61において、デコーダ55Aは、ビデオのトラックを、参照トラックとして認識し、分離部52から供給されるビデオのトラックのビデオストリームのSEIから特性情報及び変換情報としてのTMIを、参照トラックに含まれるTMIとして取得する。
さらに、ステップS61では、デコーダ55Bは、コントローラ54から供給される、STのトラックのvtmiボックスに格納されたtrack_IDs[]が表すtrack_idのトラック(トラック指定情報としてのtrack_IDs[]が指定するトラック)であるビデオのトラックを、参照トラックとして認識し、その参照トラックに含まれるTMIを取得する。
すなわち、デコーダ55Bは、デコーダ55Aと同様に、分離部52から供給される、参照トラックとしてのビデオのトラックのビデオストリームのSEIから特性情報及び変換情報としてのTMIを、参照トラックに含まれるTMIとして取得する。
その後、処理は、ステップS61からステップS62に進み、デコーダ55Aは、分離部52からのビデオストリームに含まれる符号化データをHEVC方式で復号し、HDRビデオを生成して、処理は、ステップS63に進む。なお、ビデオの復号(符号化)方式は、HEVC方式に限定されない。
ステップS63において、デコーダ55Bは、分離部52からのSTストリーム、すなわち、例えば、SMPTE-TTフォーマットのSTのデータのストリームを、HDR STに復号し、処理は、ステップS64に進む。
ステップS64において、コントローラ54は、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
ここで、図34で説明したように、コントローラ54は、表示装置3から、その表示装置3の性能を表す情報としてのEDIDを取得しており、そのEDIDに基づいて、表示装置3が有するモニタがHDRモニタであるかどうかが判定される。
表示装置3が有するモニタがHDRモニタであるとステップS64において判定された場合、処理は、ステップS65に進む。
ステップS65において、デコーダ55Aは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、ビデオのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、ビデオに適用するTMIとして取得する。
また、デコーダ55Bは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、STのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、STに適用するTMIとして取得する。
その後、処理は、ステップS65からステップS66に進み、デコーダ55Aは、HDRビデオを、ビデオに適用する特性情報としてのTMIとともに、合成出力部56に供給する。また、デコーダ55Bは、HDR STを、STに適用する特性情報としてのTMIとともに、合成出力部56に供給する。
合成出力部56では、HDRビデオとHDR STとが、必要に応じて合成され、特性情報としてのTMIとともに、表示装置3(図1)に供給(送信)される。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS64において判定された場合、処理は、ステップS67に進む。
ステップS67において、デコーダ55Aは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、ビデオのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、ビデオに適用するTMIとして取得する。
また、デコーダ55Bは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、STのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、STに適用するTMIとして取得する。
その後、処理は、ステップS67からステップS68に進み、デコーダ55Aは、ビデオに適用する変換情報としてのTMIに基づいて、復号の結果得られたHDRビデオを、STDビデオに変換する。
また、デコーダ55Bは、STに適用する変換情報としてのTMIに基づいて、復号の結果得られたHDR STを、STD STに変換する。
そして、処理は、ステップS68からステップS69に進み、デコーダ55Aは、STDビデオを、合成出力部56に供給する。また、デコーダ55Bは、STD STを、合成出力部56に供給する。
合成出力部56では、STDビデオとSTD STとが、必要に応じて合成され、表示装置3(図1)に供給(送信)される。
ステップS66又はS69の後、処理は、ステップS70に進み、コントローラ54は、再生終了か否かを判定する。
再生終了ではないとステップS70において判定された場合、処理は、ステップS61に戻り、同様の処理が繰り返し実行される。一方、再生終了であるとステップS70において判定された場合、mode-iの復号処理は終了する。
図36は、図34のステップS44において行われるmode-iiの復号処理の例を説明するフローチャートである。
ステップS81において、デコーダ55A及び55Bは、図35のステップS61と同様に、参照トラックに含まれるTMIを取得する。
すなわち、デコーダ55Aは、ビデオのトラックを、参照トラックとして認識し、分離部52から供給されるビデオのトラックのビデオストリームのSEIから特性情報及び変換情報としてのTMIを、参照トラックに含まれるTMIとして取得する。
デコーダ55Bは、コントローラ54から供給される、STのトラックのvtmiボックスに格納されたtrack_IDs[]が表すtrack_idのトラック(トラック指定情報としてのtrack_IDs[]が指定するトラック)であるビデオのトラックを、参照トラックとして認識し、分離部52から供給される、参照トラックとしてのビデオのトラックのビデオストリームのSEIから特性情報及び変換情報としてのTMIを、参照トラックに含まれるTMIとして取得する。
その後、処理は、ステップS81からステップS82に進み、デコーダ55Aは、分離部52からのビデオストリームに含まれる符号化データをHEVC方式で復号し、STDビデオを生成して、処理は、ステップS83に進む。なお、ビデオの復号(符号化)方式は、HEVC方式に限定されない。
ステップS83において、デコーダ55Bは、STストリーム、すなわち、例えば、SMPTE-TTフォーマットのSTのデータのストリームを、STD STに復号し、処理は、ステップS84に進む。
ステップS84において、コントローラ54は、例えば、図35のステップS64と同様に、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS84において判定された場合、処理は、ステップS85に進む。
ステップS85において、デコーダ55Aは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、ビデオのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、ビデオに適用するTMIとして取得する。
また、デコーダ55Bは、参照トラックとしてのビデオのトラックに含まれるTMIの中から、コントローラ54から供給される、STのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、STに適用するTMIとして取得する。
その後、処理は、ステップS85からステップS86に進み、デコーダ55Aは、ビデオに適用する変換情報としてのTMIに基づいて、復号の結果得られたSTDビデオを、HDRビデオに変換する。また、デコーダ55Bは、STに適用する変換情報としてのTMIに基づいて、復号の結果得られたSTD STを、HDR STに変換する。
そして、処理は、ステップS86からステップS87に進み、デコーダ55Aは、HDRビデオを、ビデオに適用する特性情報としてのTMIとともに、合成出力部56に供給する。また、デコーダ55Bは、HDR STを、STに適用する特性情報としてのTMIとともに、合成出力部56に供給する。
合成出力部56では、HDRビデオとHDR STとが、必要に応じて合成され、特性情報としてのTMIとともに、表示装置3(図1)に供給される。
一方、表示装置3が有するモニタがSTDモニタであるとステップS84において判定された場合、処理は、ステップS88に進み、デコーダ55Aは、ステップS82の復号で得られたSTDビデオを、合成出力部56に供給する。また、デコーダ55Bは、ステップS83の復号で得られたSTD STを、合成出力部56に供給する。
合成出力部56では、STDビデオとSTD STとが、必要に応じて合成され、表示装置3(図1)に供給される。
ステップS87又はS88の後、処理は、ステップS89に進み、コントローラ54は、再生終了か否かを判定する。
再生終了ではないとステップS89において判定された場合、処理は、ステップS81に戻り、同様の処理が繰り返し実行される。一方、再生終了であるとステップS89において判定された場合、mode-iiの復号処理は終了する。
<表示装置3の構成例>
図37は、図1の表示装置3の構成例を示すブロック図である。
表示装置3は、コントローラ101、通信部102、信号処理部103、及び、モニタ104を有する。コントローラ101は、例えば、モニタ104の性能を表すEDID(Extended display identification data)等を記憶しているメモリ101Aを有する。
コントローラ101は、CPU、ROM、RAM等より構成される。コントローラ101は、所定のプログラムを実行し、表示装置3の全体の動作を制御する。
例えば、コントローラ101は、再生装置2との認証時、メモリ101Aに記憶されているEDIDを通信部102に出力し、再生装置2に対して送信させる。EDIDに基づいて、表示装置3のモニタ104の性能が再生装置2により特定される。
通信部102は、ケーブル4(図1)を介して再生装置2との間で通信を行う。通信部102は、再生装置2から送信されてくるHDRデータ又はSTDデータを受信し、信号処理部103に出力する。また、通信部102は、コントローラ101から供給されるEDIDを再生装置2に送信する。
信号処理部103は、通信部102から供給されるHDRデータ又はSTDデータの処理を行い、画像をモニタ104に表示させる。
<表示装置3の表示処理>
図38は、図37の表示装置3が行う表示処理の例を説明するフローチャートである。
ここでは、表示装置3が有するモニタ104がHDRモニタである場合について説明する。HDRモニタを有する表示装置3に対しては、特性情報が付加されたHDRデータが再生装置2から送信されてくる。
ステップS101において、表示装置3の通信部102は、再生装置2から送信されてくるHDRデータと特性情報を受信し、処理は、ステップS102に進む。
ステップS102において、コントローラ101は、特性情報を参照し、再生装置2から送信されてきたHDRデータをそのまま表示可能であるか否かを判定する。特性情報には、マスタのHDRデータ、すなわち、再生装置2から送信されてきたHDRデータの輝度の特性を示す特性情報としてのTMIが含まれる。ステップS102における判定は、特性情報としてのTMIにより特定されるHDRデータの輝度の特性と、モニタ104の表示性能を比較することによって行われる。
例えば、特性情報としてのTMIにより特定されるHDRデータのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-500%(例えば100%の明るさを100cd/m2とすると500cd/m2)である場合、HDRデータをそのまま表示可能であると判定される。一方、特性情報としてのTMIにより特定されるHDRデータのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-300%である場合、HDRデータをそのまま表示することができないと判定される。
HDRデータをそのまま表示可能であるとステップS102において判定された場合、処理は、ステップS103に進み、信号処理部103は、HDRデータに対応するHDR画像を、特性情報としてのTMIにより指定される輝度に従ってモニタ104に表示させる。例えば、図12の曲線L12で示す輝度の特性が特性情報としてのTMIにより指定されている場合、各輝度値は曲線L12で示す0-400%の範囲の明るさを表す。
一方、HDRデータをそのまま表示させることができないとステップS102において判定された場合、処理は、ステップS104に進み、信号処理部103は、モニタ104の表示性能に応じて、HDRデータの輝度を調整し、輝度を調整したHDRデータに対応するHDR画像を表示させる。例えば、図12の曲線L12で示す輝度の特性が特性情報により指定されており、モニタ104のダイナミックレンジが0-300%である場合、各輝度値が0-300%の範囲の明るさを表すように圧縮される。
ステップS103、又はステップS104においてHDRデータに対応するHDR画像が表示された後、処理は、ステップS105に進み、コントローラ101は、表示を終了するか否かを判定し、終了しないと判定した場合、ステップS101以降の処理を繰り返す。ステップS105において表示を終了すると判定された場合、表示処理は終了する。
以上の一連の処理により、生成装置1は、マスタのHDRデータをHDRデータのまま、MP4ファイルに格納し、再生装置2に再生させて、HDRデータに対応するHDR画像を、表示装置3に表示させることができる。
また、生成装置1は、マスタのHDRデータをSTDデータに変換して、MP4ファイルに格納し、再生装置2にHDRデータに復元させて、HDRデータに対応するHDR画像を、表示装置3に表示させることができる。
HDRデータを再生する際、マスタのHDRデータの輝度の特性を特性情報としてのTMIによって指定することができるようにすることにより、コンテンツのオーサは、意図したとおりの輝度で、HDRデータに対応するHDR画像を表示させることが可能になる。
また、生成装置1は、HDR情報(特性情報及び変換情報)としてのTMIを含むビデオ(のストリーム)のトラックと、ST(のストリーム)のトラックとを、MP4ファイルに格納する。
そして、STのトラックには、STのトラックに適用するTMIを含むビデオのトラックを指定するトラック指定情報としてのtrack_IDs[]が格納されたvtmiボックスと、STのトラックに適用するTMIを指定するHDR指定情報としてのtone_mapping_info_id_refが格納されたtirfボックスが含められる。
その結果、再生装置2は、STのトラックに含まれるvtmiボックスに格納されたtrack_IDs[]が指定する(track_idの)ビデオのトラックに含まれるTMIの中から、STのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが指定する(tone_map_idの)TMIを、STに適用するTMIとして取得し、STの処理に利用することができる。
したがって、図20の第1の構成例の生成装置1において生成されるMP4ファイル(以下、第1のMP4ファイルともいう)では、ビデオのトラックに含まれるTMIを、STに流用して適用することができるので、STについて、TMIを別個に付加する必要がない。
なお、上述の場合には、第1のMP4ファイルを生成するにあたって、STについて、そのSTと同時に表示されるビデオのTMIを、STのTMIとして採用することとしたため、STのTMIは、ビデオのTMIに依存することとなる。
但し、ビデオとSTについて、それぞれ、別個に、TMIを生成し、ビデオのストリームに、ビデオのTMIの他、STのTMIを含めることにより、STのTMIが、ビデオのTMIに依存することを避けることができる。
<生成装置1の第2の構成例>
図39は、図1の生成装置1の第2の構成例を示すブロック図である。
なお、図中、図20の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図39において、生成装置1は、コントローラ21、ファイル生成部23、及び、符号化処理部122を有する。
したがって、図39の生成装置1は、コントローラ21、及び、ファイル生成部23を有する点で、図20の場合と共通し、符号化処理部22に代えて、符号化処理部122が設けられている点で、図20の場合と相違する。
さらに、図39の生成装置1は、コントローラ21が、ヘッダ情報生成部21Aに代えて、ヘッダ情報生成部121Aを有する点で、図20の場合と相違する。
図39の生成装置1では、マスタのHDRデータが符号化処理部22に入力される。
ヘッダ情報生成部121Aは、図20のヘッダ情報生成部21Aと同様に、符号化処理部122から供給されるtone_map_idを、tone_mapping_info_id_refとして格納したtirfボックス(図24)を生成する。
また、ヘッダ情報生成部121Aは、符号化処理部122から供給されるTMI(tone_mapping_info)を、ToneMapInfo(クラスのオブジェクト)として格納したtinfボックス(ToneMappingInformationBox)を生成する。
そして、ヘッダ情報生成部121Aは、tirfボックスとtinfボックスとを含むmoovボックス、又は、moofボックスを、ヘッダ情報として生成し、ファイル生成部23に供給する。
tinfボックスについては、後述する。
符号化処理部122は、図20の符号化処理部22と同様に、マスタのHDRデータの符号化を行うことにより、ビデオストリーム及びSTストリームを生成し、ファイル生成部23に出力する。
また、符号化処理部122は、図20の符号化処理部22と同様に、ビデオ及びSTに適用するTMI(tone_mapping_info)のtone_map_idを、コントローラ21(のヘッダ情報生成部121A)に供給する。
さらに、符号化処理部122は、ビデオ及びSTに適用するTMIを、コントローラ21(のヘッダ情報生成部121A)に供給する。
図40は、図39の生成装置1で生成されるMP4ファイル(以下、第2のMP4ファイルともいう)の例を示す図である。
図40の第2のMP4ファイルは、フラグメントを有するfragmented movieのMP4ファイルであり、moovボックスは、ビデオ、オーディオ、及び、STのtrakボックスを有している。
したがって、図40の第2のMP4ファイルは、ビデオのトラック、オーディオのトラック、及び、STのトラックを有する。
ここで、第1のMPファイル(図21、図25)では、TMIが、ビデオのトラックには含まれるが、STのトラックには含まれていないため、STについては、ビデオのトラックに含まれるTMIを流用して使用することとしたが、第2のMPファイルでは、ビデオやST等の各メディアのトラックに、そのメディアに適用するTMIが含まれる。
すなわち、図39の生成装置1は、各メディアについて、そのメディアに適用するTMIが、そのメディアのトラックに含まれるMP4ファイルを、第2のMP4ファイルとして生成する。
そのため、図40において、各メディアのmoof/trafボックスは、tirfボックス、及び、tinfボックス(ToneMappingInformationBox)(tone mapping information box)を有している。
tirfボックスは、図21で説明したように、注目する注目トラックに適用するTMIを指定する、tone_map_idを表すtone_mapping_info_id_refが格納される、新規に定義されたボックスである。
tinfボックスは、TMI(tone_mapping_info)が格納される、新規に定義されたボックスである。
fragmented movieのMP4ファイルでは、図40に示すように、ビデオのトラックのmoof/trafボックスには、ビデオ(のトラック)に適用するTMIが格納されたtinfボックスB#22と、そのtinfボックスB#22に格納されたTMIの中で、ビデオに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#21が格納される。
同様に、STのトラックのmoof/trafボックスには、ST(のトラック)に適用するTMIが格納されたtinfボックスB#24と、そのtinfボックスB#24に格納されたTMIの中で、STに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#23が格納される。
したがって、図40の第2のMP4ファイルによれば、例えば、ビデオのトラックを、注目トラックとして注目すると、注目トラックのmoof/traf/tinfボックスB#22に格納されたTMIのうちの、注目トラックのmoof/tarf/tirfボックスB#21に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
また、図40のMP4ファイルによれば、例えば、STのトラックを、注目トラックとして注目すると、やはり、注目トラックのmoof/traf/tinfボックスB#24に格納されたTMIのうちの、注目トラックのmoof/tarf/tirfボックスB#23に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
なお、fragmented movieのMP4ファイルは、フラグメントごとに、moofボックスを有するが、あるフラグメントのデータには、そのフラグメントのmoof/traf/tirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIのうちの有効なTMIが適用される。
図41は、tinfボックスの定義の例を示す図である。
tinfボックス(ToneMappingInformationBox)(tone mapping information box)は、そのtinfボックスを有するトラックに適用するTMIを、ToneMapInfo(クラスのオブジェクトtonemap)として格納するボックスとして、新規に定義されたボックスであり、trakボックス(に格納されるstblボックス)、又は、trafボックスに格納される。
図42は、ToneMapInfoのシンタクスの第1の例を示す図である。
図42のToneMapInfoは、バイトアラインのためのpadding_valueが挿入されていることを除き、図7のTMI(tone_mapping_info)と同様に構成される。
図43は、ToneMapInfoのシンタクスの第2の例を示す図である。
図43のToneMapInfoは、component_idcが、新規に定義されていることを除き、図42の場合と同様に構成される。
component_idcが、例えば、0である場合、図43のToneMapInfoが表すTMIは、画像を構成する複数のコンポーネントとしての、例えば、R,G、及び、Bのすべてに共通に適用される。
また、component_idcが、例えば、1である場合、図43のToneMapInfoが表すTMIは、画像を構成するコンポーネントR,G、及び、Bのうちの1つである、例えば、Rにのみ適用される。
さらに、component_idcが、例えば、2である場合、図43のToneMapInfoが表すTMIは、画像を構成するコンポーネントR,G、及び、Bのうちの1つである、例えば、Gにのみ適用され、component_idcが、例えば、3である場合、図43のToneMapInfoが表すTMIは、画像を構成するコンポーネントR,G、及び、Bのうちの1つである、例えば、Bにのみ適用される。
図43のToneMapInfoによれば、コンポーネント単位で、適用するTMIを変更すること等ができる。
図44は、ToneMapInfoのシンタクスの第3の例を示す図である。
図44のToneMapInfoは、num_of_componentsが、新規に定義されていることを除き、図42の場合と同様に構成される。
num_of_componentsが、例えば、0である場合、図44のToneMapInfoが表すTMIは、画像を構成する複数のコンポーネントとしての、例えば、R,G、及び、Bのすべてに共通に適用される。
さらに、component_idcが、例えば、3である場合、図43のToneMapInfoには、画像を構成するコンポーネントR,G、及び、Bのそれぞれに適用するR用のTMI、G用のTMI、及び、B用のTMIが、例えば、その順で記述される。
図43や図44のToneMapInfoによれば、画像を構成する各コンポーネントについて、そのコンポーネントに適用するTMIを、独立に記述することができる。
図45は、図39の生成装置1で生成される第2のMP4ファイルの他の例を示す図である。
図45の第2のMP4ファイルは、フラグメントを有しないnon-fragmented movieのMP4ファイルであり、moovボックスは、ビデオ、オーディオ、及び、STのtrakボックスを有している。
したがって、図45の第2のMP4ファイルは、ビデオのトラック、オーディオのトラック、及び、STのトラックを有する。
図45の第2のMPファイルでは、図40の場合と同様に、ビデオやST等の各メディアのトラックに、そのメディアに適用するTMIが含まれる。
すなわち、non-fragmented movieのMP4ファイルでは、図45に示すように、ビデオのトラックについては、moovボックスの、ビデオのトラックのtrak/stblボックスに、ビデオ(のトラック)に適用するTMIが格納されたtinfボックスB#32と、ビデオに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#31とが格納される。
STのトラックについても同様に、moovボックスの、STのトラックのtrak/stblボックスに、ST(のトラック)に適用するTMIが格納されたtinfボックスB#34と、STに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#33とが格納される。
したがって、図45の第2のMP4ファイルによれば、例えば、ビデオのトラックを、注目トラックとして注目すると、moovボックスの、注目トラック(ここでは、ビデオのトラック)のtrakボックスに含まれるstblボックスが有するtinfボックスB#32に格納されたTMIのうちの、そのstblボックスが有するtirfボックスB#31に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
また、例えば、STのトラックを、注目トラックとして注目すると、ビデオの場合と同様に、moovボックスの、注目トラック(ここでは、STのトラック)のtrakボックスに含まれるstblボックスが有するtinfボックスB#34に格納されたTMIのうちの、そのstblボックスが有するtirfボックスB#33に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
なお、non-fragmented movieのMP4ファイルでは、注目トラックには、その注目トラックのtinfボックスに格納されたTMIのうちの有効なTMIが適用される。
図39の生成装置1では、以上のように、HDR情報としてのTMI(が格納されたtinfボックス)、及び、そのTMIのうちの、注目する注目トラックに適用するTMIを指定するHDR指定情報としてのtone_mapping_info_id_ref(が格納されたtirfボックス)を含む注目トラックが格納された第2のMP4ファイルが生成されるので、ビデオやST等の各メディアごとに、独立に、そのメディアに適用するTMIを付加することができる。
また、ビデオを、例えば、HEVC方式で符号化する場合には、SEIに、ビデオのTMIが挿入されたビデオストリームが生成されるが、第2のMP4ファイルでは、SEIに挿入されるTMIとは独立して、ビデオ以外のメディアに、そのメディアに適用するTMIを付加することができる。
したがって、例えば、Blu-ray(登録商標)ディスクに記録されるm2tsフォーマットの、TMIを含むビデオと、そのビデオとともに再生されるSTとを、STについて、STに適用するTMIを別個に付加して、MP4ファイルにコンバートすることができる。
その結果、MP4ファイルへのTMIの導入を促進し、ユーザが、HDRビデオやHDR ST等のHDR画像を享受する機会を増やすことができる。
なお、ビデオを、例えば、HEVC方式で符号化する場合には、SEIに、ビデオのTMIが挿入されたビデオストリームが生成されるため、第2のMP4ファイルでは、ビデオのTMIとしては、SEIに挿入されるTMIと、ビデオのトラックに含まれるtinfボックスに格納されるTMIとが存在する。
この場合、再生装置2(図1)において、ビデオに適用するTMIとして、SEIに挿入されたTMIと、ビデオのトラックに含まれるtinfボックスに格納されたTMIとのうちのいずれを使用するかは、例えば、あらかじめ決めておくことや、ユーザの操作に応じて選択することができる。
本実施の形態では、第2のMP4ファイルについては、SEIに挿入されたTMIと、ビデオのトラックに含まれるtinfボックスに格納されたTMIとのうちの、例えば、tinfボックスに格納されたTMIを、ビデオに適用するTMIとして使用することとする。
ここで、SMPTE-TTフォーマットのSTのデータによれば、MP4ファイルへのアクセス単位である1サンプルに、STの複数の表示画面を含めることができるが、第2のMP4ファイルでは、1サンプルにSTの複数の表示画面が含まれている場合に、その1サンプルに含まれるSTの複数の表示画面のそれぞれに適用することができるTMIは、同一のTMIであり、表示画面ごとに、適用されるTMIを切り替えることは困難である。
<符号化処理部122の構成例>
図46は、図39の符号化処理部122の構成例を示すブロック図である。
なお、図中、図26の符号化処理部22と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
符号化処理部122は、エンコーダ32、変換部33、変換情報生成部34、エンコーダ35、特性情報生成部131、変換情報生成部132、及び、ストリーム生成部133を有する。
したがって、図46の符号化処理部122は、エンコーダ32、変換部33、及び、エンコーダ35を有する点で、図26の符号化処理部22と共通する。
但し、図46の符号化処理部122は、特性情報生成部31、変換情報生成部34、及び、ストリーム生成部36に代えて、それぞれ、特性情報生成部131、変換情報生成部132、及び、ストリーム生成部133が設けられている点で、図26の符号化処理部22と相違する。
特性情報生成部131は、図26の特性情報生成部31と同様に、符号化処理部122に入力されたマスタのHDRデータの輝度を検出し、特性情報としてのTMIを生成して、ストリーム生成部133に供給する。
但し、特性情報生成部131は、マスタのHDRデータのうちの、HDRビデオとHDR STとのそれぞれについて、別個に、特性情報としてのTMIを生成する。
なお、特性情報生成部131では、図26の特性情報生成部31と同様に、HDRビデオについては、そのHDRビデオの特性情報としてのTMIを生成し、HDR STについては、そのHDR STと同時に表示されるHDRビデオの特性情報としてのTMIを、ST(HDR ST)の特性情報としてのTMIとして採用することができる。
変換情報生成部132は、図26の変換情報生成部34と同様に、変換部33から供給される情報に基づいて、変換情報としてのTMIを生成する。
但し、変換情報生成部132は、マスタのHDRデータのうちの、HDRビデオとHDR STとのそれぞれについて、別個に、変換情報としてのTMIを生成し、ストリーム生成部133に供給する。
なお、変換情報生成部132では、図26の変換情報生成部34と同様に、HDRビデオについては、そのHDRビデオの変換情報としてのTMIを生成し、HDR STについては、そのHDR STと同時に表示されるHDRビデオの変換情報としてのTMIを、ST(HDR ST)の変換情報としてのTMIとして採用することができる。
ストリーム生成部133は、特性情報生成部131から供給されるビデオ、及び、STの特性情報としてのTMI、並びに、変換情報生成部132から供給されるビデオ、及び、STの変換情報としてのTMIのtone_map_idを、コントローラ21(図39)に供給する。
その他、ストリーム生成部133は、図26のストリーム生成部36と同様の処理を行う。
すなわち、ストリーム生成部133は、特性情報生成部131から供給されるビデオ、及び、STの特性情報としてのTMIのtone_map_id、並びに、変換情報生成部132から供給されるビデオ、及び、STの変換情報としてのTMIのtone_map_idを、コントローラ21に供給する。
さらに、ストリーム生成部133は、ビデオのTMIを、SEIとして、エンコーダ32からのビデオの符号化データに挿入し、ビデオストリームを生成する。
また、ストリーム生成部133は、エンコーダ35からのSTのデータを、STストリームとして、ビデオストリームとともに、図39のファイル生成部23に供給する。
なお、ストリーム生成部133では、ビデオのTMIを、エンコーダ32からのビデオの符号化データに挿入せずに、その符号化データを、そのまま、ビデオストリームとすることができる。
<生成装置1のファイル生成処理>
図47は、図39の生成装置1が行うファイル生成処理の例を説明するフローチャートである。
マスタのHDRデータが生成装置1に入力されると、ステップS111において、生成装置1のコントローラ21は、図29のステップS1と同様に、処理モードがmode-iであるか否かを判定する。
処理モードがmode-iであるとステップS111において判定された場合、ステップS112に進み、符号化処理部122は、mode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたビデオストリームとSTストリームは、符号化処理部122からファイル生成部23に供給される。
一方、処理モードがmode-iiであるとステップS111において判定された場合、ステップS113に進み、符号化処理部122は、mode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたビデオストリームとSTストリームは、符号化処理部122からファイル生成部23に供給される。
ステップS112又はS113の後、処理は、ステップS114に進み、ヘッダ情報生成部121Aは、ヘッダ情報生成処理を行う。ヘッダ情報生成処理により生成されたヘッダ情報は、ヘッダ情報生成部121Aからファイル生成部23に供給され、処理は、ステップS115に進む。
ステップS115において、ファイル生成部23は、符号化処理部122からのビデオストリーム、及び、STストリーム、並びに、ヘッダ情報生成部121Aからのヘッダ情報を格納した、図40、又は、図45の第2のMP4ファイルを生成して出力し、ファイル生成処理は終了する。
図48は、図47のステップS112において行われるmode-iの符号化処理の例を説明するフローチャートである。
ステップS121において、符号化処理部122(図46)の特性情報生成部131は、マスタのHDRデータの輝度を検出し、ビデオ及びSTの特性情報としてのTMIを生成して、ストリーム生成部133に供給し、処理は、ステップS122に進む。
ステップS122において、エンコーダ32は、マスタのHDRビデオをHEVC方式で符号化し、HDRビデオの符号化データを生成して、ストリーム生成部133に供給し、処理は、ステップS123に進む。なお、ビデオの符号化方式は、HEVC方式に限定されない。
ステップS123において、エンコーダ35は、マスタのHDR STを符号化し、SMPTE-TTフォーマットのSTのデータを生成して、ストリーム生成部133に供給し、処理は、ステップS124に進む。
ステップS124において、変換部33は、入力されたマスタのHDRデータをSTDデータに変換し、そのHDRデータとSTDデータとの対応関係を表す情報(HDRデータのRGB信号をinput dataとするとともに、STDデータのRGB信号をoutput dataとする、input dataとoutput dataの対応関係を示す情報)を、変換情報生成部132に供給する。
その後、処理は、ステップS124からステップS125に進み、変換情報生成部132は、変換部33から供給された情報に基づいて、ビデオ及びSTの変換情報としてのTMIを生成し、ストリーム生成部133に供給して、処理は、ステップS126に進む。
ステップS126において、ストリーム生成部133は、符号化データのSEIとして、特性情報生成部131からの特性情報としてのTMIと、変換情報生成部132からの変換情報としてのTMIを、エンコーダ32からの符号化データに挿入し、ビデオストリームを生成する。
そして、ストリーム生成部133は、エンコーダ35からのSTのデータを、STストリームとして、ビデオストリームとともに、ファイル生成部23(図39)に供給する。
また、ストリーム生成部133は、ビデオのTMI(ビデオに適用するTMI)、及び、そのTMIのtone_map_id、並びに、STのTMI(STに適用するTMI)、及び、そのTMIのtone_map_idを、コントローラ21(図39)に供給し、mode-iの符号化処理は終了する。
図49は、図47のステップS113において行われるmode-iiの符号化処理の例を説明するフローチャートである。
ステップS131において、符号化処理部122の特性情報生成部131は、マスタのHDRデータの輝度を検出し、ビデオ及びSTの特性情報としてのTMIを生成して、ストリーム生成部133に供給する。
その後、ステップS132において、変換部33は、入力されたマスタのHDRデータをSTDデータに変換し、STDデータのうちのSTDビデオを、エンコーダ32に供給するとともに、STD STを、エンコーダ35に供給する。
さらに、変換部33は、HDRデータとSTDデータとの対応関係を示す情報を、変換情報生成部132に供給し、処理は、ステップS132からステップS133に進む。
ステップS133において、変換情報生成部132は、変換部33から供給された情報に基づいて、ビデオ及びSTの変換情報としてのTMIを生成して、ストリーム生成部133に供給して、処理は、ステップS134に進む。
ステップS134において、エンコーダ32は、変換部33からのSTDビデオをHEVC方式で符号化し、STDビデオの符号化データを生成して、ストリーム生成部133に供給する。なお、ビデオの符号化方式は、HEVC方式に限定されない。
その後、ステップS135において、エンコーダ35は、変換部33からのSTD STを符号化し、SMPTE-TTフォーマットのSTのデータを生成して、ストリーム生成部133に供給する。
そして、ステップS136において、ストリーム生成部133は、符号化データのSEIとして、特性情報生成部131からの特性情報としてのTMIと、変換情報生成部132からの変換情報としてのTMIを、エンコーダ32からの符号化データに挿入し、ビデオストリームを生成する。
さらに、ストリーム生成部133は、エンコーダ35からのSTのデータを、STストリームとして、ビデオストリームとともに、ファイル生成部23(図39)に供給する。
また、ストリーム生成部133は、ビデオのTMI(ビデオに適用するTMI)、及び、そのTMIのtone_map_id、並びに、STのTMI(STに適用するTMI)、及び、そのTMIのtone_map_idを、コントローラ21(図39)に供給し、mode-iiの符号化処理は終了する。
図50は、図47のステップS114において行われるヘッダ情報生成処理の例を説明するフローチャートである。
ステップS141において、コントローラ21(図39)のヘッダ情報生成部121Aは、符号化処理部122(のストリーム生成部133(図46))から供給されるビデオのTMI(ビデオに適用するTMI)を格納したtinfボックス(図40、図41、図45)を生成する。
さらに、ヘッダ情報生成部121Aは、符号化処理部122から供給されるSTのTMI(STに適用するTMI)を格納したtinfボックスを生成する。
また、ヘッダ情報生成部121Aは、符号化処理部122から供給されるビデオのTMIのtone_map_idを表すtone_mapping_info_id_refを格納したtirfボックス(図24、図40、図45)を生成する。
さらに、ヘッダ情報生成部121Aは、符号化処理部122から供給されるSTのTMIのtone_map_idを表すtone_mapping_info_id_refを格納したtirfボックスを生成し、処理は、ステップS141からステップS142に進む。
ステップS142では、ヘッダ情報生成部121Aは、tinfボックスとtirfボックスとを含むmoovボックス、又は、moofボックスを作成し、ヘッダ情報として、ファイル生成部23(図39)に供給して、ヘッダ情報生成処理は終了する。
すなわち、ファイル生成部23において、fragmented movieのMP4ファイルが生成される場合、ヘッダ情報生成部121Aは、図40に示したような、ビデオのトラックのtrafボックスに、tirfボックス及びtinfボックスが含まれるmoofボックス、及び、STのトラックのtrafボックスに、tirfボックス及びtinfボックスが含まれるmoofボックスを生成する。
一方、ファイル生成部23において、non-fragmented movieのMP4ファイルが生成される場合、ヘッダ情報生成部121Aは、図45に示したような、ビデオのトラックのtrakボックスに含まれるstblボックスに、tirfボックス及びtinfボックスが含まれ、かつ、STのトラックのtrakボックスに含まれるstblボックスに、tirfボックス及びtinfボックスが含まれるmoovボックスを生成する。
<再生装置2の第2の構成例>
図51は、図1の再生装置2の第2の構成例を示すブロック図である。
なお、図中、図33の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図51において、再生装置2は、ファイル取得部51、分離部52、操作入力部53、合成出力部56、コントローラ141、及び、復号処理部142を有する。
したがって、図51の再生装置2は、ファイル取得部51、分離部52、操作入力部53、及び、合成出力部56を有する点で、図33の場合と共通する。
但し、図51の再生装置2は、コントローラ54、及び、復号処理部55に代えて、それぞれ、コントローラ141、及び、復号処理部142が設けられている点で、図33の場合と相違する。
コントローラ141は、CPU、ROM、RAM等より構成され、所定のプログラムを実行することで、再生装置2の全体の動作を制御する。
例えば、コントローラ141は、分離部52から供給されるmoovボックス(図45)に含まれるtinfボックスにToneMapInfoとして格納されたTMI(tone_mapping_info)や、tirfボックスに格納されたtone_mapping_info_id_refを、復号処理部142に供給する。また、例えば、コントローラ141は、分離部52から供給されるmoofボックス(図40)に含まれるtinfボックスにToneMapInfoとして格納されたTMIや、tirfボックスに格納されたtone_mapping_info_id_refを、復号処理部142に供給する。
復号処理部142は、デコーダ142Aとデコーダ142Bとを有する。
デコーダ142Aは、コントローラ141から供給される、ビデオのトラックに含まれるtinfボックスにToneMapInfoとして格納されたTMIを、ビデオのTMIとして取得し、そのビデオのTMIの中から、コントローラ141から供給される、ビデオのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、ビデオに適用するTMIとして取得する取得部として機能する。
また、デコーダ142Aは、分離部52から供給されるビデオストリームに含まれる符号化データをHEVC方式で復号する。
そして、デコーダ142Aは、必要に応じて、復号の結果得られるHDRビデオ又はSTDビデオを、ビデオに適用する変換情報としてのTMIに基づいて、STDビデオ又はHDRビデオに変換し、合成出力部56に出力する。
デコーダ142Aは、HDRビデオを出力する場合、HDRビデオとともに、ビデオに適用する特性情報としてのTMIを、合成出力部56に出力する。
デコーダ142Bは、分離部52から供給されるSTストリームを復号する。
また、デコーダ142Bは、コントローラ141から供給される、STのトラックに含まれるtinfボックスにToneMapInfoとして格納されたTMIを、STのTMIとして取得し、そのSTのTMIの中から、コントローラ141から供給される、STのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、STに適用するTMIとして取得する取得部として機能する。
そして、デコーダ142Bは、必要に応じて、復号の結果得られるHDR ST又はSTD STを、STに適用する、変換情報としてのTMIに基づいて、STD ST又はHDR STに変換し、合成出力部56に出力する。
デコーダ142Bは、HDR STを出力する場合、HDR STとともに、STに適用する、特性情報としてのTMIを、合成出力部56に出力する。
<再生装置2の再生処理>
図52は、図51の再生装置2が行う再生処理の例を説明するフローチャートである。
ステップS151において、ファイル取得部51は、図39の生成装置1で生成された第2のMP4ファイルを取得し、分離部52に供給する。
分離部52は、ファイル取得部51からの第2のMP4ファイルから、ヘッダ情報としてのmoovボックスやmoofボックスを読み出すとともに、mdatボックスに格納された実データとしてのビデオストリームやSTストリームを読み出す。
そして、分離部52は、ヘッダ情報としてのmoovボックスやmoofボックスを、コントローラ141に供給するとともに、ビデオストリームやSTストリームを、復号処理部142に供給する。
また、コントローラ141は、分離部52から供給されるmoovボックス又はmoofボックスに含まれるtinfボックスにToneMapInfoとして格納されたTMIや、tirfボックスに格納されたtone_mapping_info_id_refを、復号処理部142に供給する。
その後、処理は、ステップS151からステップS152に進み、コントローラ141は、図34のステップS42の場合と同様に、ファイル取得部51で取得された第2のMP4ファイルの処理モードがmode-i又はmode-iiであるかどうかを判定する。
処理モードがmode-iであるとステップS152において判定された場合、ステップS153に進み、復号処理部142は、mode-iの復号処理を行う。
一方、処理モードがmode-iiであるとステップS152において判定された場合、ステップS154に進み、復号処理部142は、mode-iiの復号処理を行う。
ステップS153又はステップS154において復号処理が行われた後、再生処理は終了する。
図53は、図52のステップS153において行われるmode-iの復号処理の例を説明するフローチャートである。
ステップS161において、デコーダ142Aは、コントローラ141から供給される、ビデオのトラックに含まれるtinfボックスにToneMapInfoとして格納されたTMIを、ビデオのTMIとして取得する。
さらに、デコーダ142Bは、コントローラ141から供給される、STのトラックに含まれるtinfボックスにToneMapInfoとして格納されたTMIを、STのTMIとして取得し、処理は、ステップS162に進む。
ステップS162ないしS164では、図35のステップS62ないしS64とそれぞれ同様の処理が行われる。
すなわち、ステップS162では、デコーダ142Aは、分離部52からのビデオストリームに含まれる符号化データを復号し、HDRビデオを生成する。ステップS163では、デコーダ142Bは、分離部52からの、SMPTE-TTフォーマットのSTのデータのSTストリームを、HDR STに復号する。
そして、ステップS164において、コントローラ141は、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS164において判定された場合、処理は、ステップS165に進む。
ステップS165において、デコーダ142Aは、ステップS161で取得したビデオのTMIの中から、コントローラ141から供給される、ビデオのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、ビデオに適用するTMIとして取得する。
また、デコーダ142Bは、ステップS161で取得したSTのTMIの中から、コントローラ141から供給される、STのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、STに適用するTMIとして取得する。
その後、処理は、ステップS165からステップS166に進み、以下、ステップS166及びS170において、図35のステップS66及びS70とそれぞれ同様の処理が行われる。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS164において判定された場合、処理は、ステップS167に進む。
ステップS167において、デコーダ142Aは、ステップS165と同様に、ステップS161で取得したビデオのTMIの中から、コントローラ141から供給される、ビデオのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、ビデオに適用するTMIとして取得する。
また、デコーダ142Bは、ステップS165と同様に、ステップS161で取得したSTのTMIの中から、コントローラ141から供給される、STのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、STに適用するTMIとして取得する。
その後、処理は、ステップS167からステップS168に進み、以下、ステップS168ないしS170において、図35のステップS68ないしS70とそれぞれ同様の処理が行われる。
図54は、図52のステップS154において行われるmode-iiの復号処理の例を説明するフローチャートである。
ステップS181において、デコーダ142A及び55Bは、図53のステップS161と同様に、それぞれ、ビデオのTMI、及び、STのTMIを取得する。
すなわち、デコーダ142Aは、コントローラ141から供給される、ビデオのトラックに含まれるtinfボックスにToneMapInfoとして格納されたTMIを、ビデオのTMIとして取得する。
さらに、デコーダ142Bは、コントローラ141から供給される、STのトラックに含まれるtinfボックスにToneMapInfoとして格納されたTMIを、STのTMIとして取得し、処理は、ステップS182に進む。
ステップS182ないしS184では、図36のステップS82ないしS84とそれぞれ同様の処理が行われる。
すなわち、ステップS182では、デコーダ142Aは、分離部52からのビデオストリームに含まれる符号化データを復号し、STDビデオを生成する。ステップS183では、デコーダ142Bは、分離部52からの、SMPTE-TTフォーマットのSTのデータのSTストリームを、STD STに復号する。
そして、ステップS184において、コントローラ141は、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS184において判定された場合、処理は、ステップS185に進む。
ステップS185において、デコーダ142Aは、ステップS181で取得したビデオのTMIの中から、コントローラ141から供給される、ビデオのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、ビデオに適用するTMIとして取得する。
また、デコーダ142Bは、ステップS181で取得したSTのTMIの中から、コントローラ141から供給される、STのトラックに含まれるtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、STに適用するTMIとして取得する。
その後、処理は、ステップS185からステップS186に進み、ステップS186ないしS189において、図36のステップS86ないしS89とそれぞれ同様の処理が行われる。
以上のように、第2の構成例の生成装置1は、ビデオ(のストリーム)のトラックと、ST(のストリーム)のトラックとを、第2のMP4ファイルに格納する。
そして、各メディアのトラックには、そのメディア(のトラック)に適用するTMIを、ToneMapInfoとして格納したtinfボックスと、そのtinfボックスに格納されたTMIの中の、メディアに適用するTMIを指定するHDR指定情報としてのtone_mapping_info_id_refが格納されたtirfボックスが含められる。
その結果、再生装置2は、各メディアについて、そのメディアのトラックに含まれるtinfボックスに格納されたTMIの中から、tirfボックスに格納されたtone_mapping_info_id_refが指定する(tone_map_idの)TMIを、メディアに適用するTMIとして取得し、メディアの処理に利用することができる。
<生成装置1の第3の構成例>
図55は、図1の生成装置1の第3の構成例を示すブロック図である。
なお、図中、図20の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図55において、生成装置1は、コントローラ21、符号化処理部202、及び、ファイル生成部203を有する。
したがって、図55の生成装置1は、コントローラ21を有する点で、図20の場合と共通する。
但し、図55の生成装置1は、符号化処理部22、及び、ファイル生成部23に代えて、それぞれ、符号化処理部202、及び、ファイル生成部203が設けられている点で、図20の場合と相違する。
さらに、図55の生成装置1は、コントローラ21が、ヘッダ情報生成部21Aに代えて、ヘッダ情報201Aを有する点で、図20の場合と相違する。
図55の生成装置1では、マスタのHDRデータが符号化処理部202に入力される。
ヘッダ情報生成部201Aは、符号化処理部202から供給されるtone_map_idを、tone_mapping_info_id_refとして格納したtirfボックス(図24)を含むmoofボックスと、tmpiボックス(reference_typeが"tmpi"のTrackReferenceTypeBox)を含むmoovボックスとを、ヘッダ情報として生成し、ファイル生成部203に供給する。
又は、ヘッダ情報生成部201Aは、符号化処理部202から供給されるtone_map_idを、tone_mapping_info_id_refとして格納したtirfボックスと、tmpiボックスを含むmoovボックスを、ヘッダ情報として生成し、ファイル生成部203に供給する。
tmpiボックスについては、後述する。
符号化処理部202は、図20の符号処理部22と同様に、マスタのHDRデータの符号化を行うことにより、ビデオストリーム及びSTストリームを生成し、ファイル生成部203に出力する。
さらに、符号化処理部202は、ビデオやSTに適用するHDR情報としてのTMIのes(elementary stream)(以下、TMIストリームともいう)を生成し、ファイル生成部203に出力する。
また、符号化処理部202は、ビデオやSTに適用するTMIのtone_map_idを、コントローラ21(のヘッダ情報生成部201A)に供給する。
ファイル生成部203は、コントローラ21(のヘッダ情報生成部201A)から供給されるヘッダ情報と、符号化処理部202から供給されるビデオストリーム、STストリーム、及び、TMIストリームとを格納したMP4ファイルを生成して出力する。
図56は、図55の生成装置1で生成されるMP4ファイル(以下、第3のMP4ファイルともいう)の例を示す図である。
図56の第3のMP4ファイルは、フラグメントを有するfragmented movieのMP4ファイルであり、moovボックスは、ビデオ、ST、及び、TMI(tone map es)のtrakボックスを有している。
したがって、図56のMP4ファイルは、ビデオのトラック、STのトラック、及び、TMIのトラックを有する。
図55の生成装置1は、TMIのトラック(以下、TMIトラックともいう)に含まれるTMIを、他のトラックから参照して適用することができるMP4ファイルを、第3のMP4ファイルとして生成する。
そのため、第3のMP4ファイルでは、TMIトラック(tone map track)のmdatボックスは、実データとしてのTMIのサンプル(ToneMapSample)を有する。
さらに、moovボックスの、TMI以外のメディアのtrakボックス、すなわち、ビデオやST(subtitle)のtrakボックスは、tmpiボックスを有するtrefボックス(TrackReferenceBox)を有している。
ここで、trefボックスは、図21及び図22で説明したように、TrackReferenceTypeBoxを持つことができるが、tmpiボックスは、TrackReferenceTypeBoxの一種として新規に定義されたボックスである。
いま、例えば、tmpiボックスを有する、STのトラックを、注目する注目トラックとすると、注目トラックとしてのSTのトラックが有するtmpiボックスには、注目トラックに適用するTMI(HDR情報)のTMIトラックを指定するトラック指定情報としての、TMIトラックのtrack_id(を表すtrack_IDs[])が格納される。
したがって、注目トラックとしてのSTのトラックが有するtmpiボックスに格納されているtrack_idによって、注目トラックに適用するTMIのTMIトラックを認識することができる。
同様に、tmpiボックスを有する、ビデオのトラックを、注目する注目トラックとすると、注目トラックとしてのビデオのトラックが有するtmpiボックスには、注目トラックに適用するTMIのTMIトラックを指定するトラック指定情報としての、TMIトラックのtrack_idが格納される。
したがって、注目トラックとしてのビデオのトラックが有するtmpiボックスに格納されているtrack_idによって、注目トラックに適用するTMIのTMIトラックを認識することができる。
なお、TMIトラックとなるトラックのtrack_idを、あらかじめ決めておくことにより、tmpiボックスを有するtrefボックスは、省略することができる。
図56の第3のMP4ファイルでは、ビデオ及びSTのそれぞれのトラックのmoofボックスは、そのトラックに適用するTMIを指定するHDR指定情報としての、tone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスを有するtrafボックスを有する。
注目トラックのtirfボックスに格納されたtone_mapping_info_id_refを参照することにより、tmpiボックスに格納されたtrack_idのTMIトラックのTMIのうちの、tirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、注目トラックに適用するTMIとして認識することができる。
なお、fragmented movieのMP4ファイルは、フラグメントごとに、moofボックスを有するが、あるフラグメントのデータには、そのフラグメントのmoofボックスが有するtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIのうちの有効なTMIが適用される。
また、第3のMP4ファイルには、TMIトラック(tone map track)として、複数のトラックを格納することができる。図56では、2つのTMIトラックが格納されている。
さらに、第3のMP4ファイルにおいて、例えば、ビデオに適用するTMIのTMIトラックと、STに適用するTMIのTMIトラックとは、同一のTMIトラックであってもよいし、異なるTMIトラックであってもよい。
fragmented movieのMP4ファイルには、図56に示すように、ビデオ及びSTのトラックの他、TMIトラックが格納される。
そして、ビデオのトラックについては、moovボックスのビデオのトラックのtrak/trefボックスに、STに適用するTMIのTMIトラックのtrack_idが格納されたtmpiボックスB#41が格納される。
さらに、ビデオのトラックについては、そのビデオのトラックのmoof/trafボックスに、ビデオに適用するTMI(tmpiボックスB#41に格納されたtrack_idのTMIトラックに含まれるTMI)のtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#44が格納される。
したがって、図56の第3のMP4ファイルによれば、例えば、ビデオのトラックを、注目トラックとして注目すると、moovボックスのビデオのtrak/tref/tmpiボックスB#41に格納されたtrack_idによって、ビデオに適用するTMIのTMIトラックを認識することができる。
そして、TMIトラックに含まれるTMIのうちの、注目トラックであるビデオのトラックのmoof/tarf/tirfボックスB#44に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
一方、STのトラックについては、moovボックスのSTのトラックのtrak/trefボックスに、STに適用するTMIのTMIトラックのtrack_idが格納されたtmpiボックスB#42が格納される。
さらに、STのトラックについては、そのSTのトラックのmoof/trafボックスに、STに適用するTMI(tmpiボックスに格納されたtrack_idのTMIトラックに含まれるTMI)のtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#43が格納される。
したがって、図56の第3のMP4ファイルによれば、例えば、STのトラックを、注目トラックとして注目すると、moovボックスのSTのtrak/tref/tmpiボックスB#42に格納されたtrack_idによって、STに適用するTMIのTMIトラックを認識することができる。
そして、TMIトラックに含まれるTMIのうちの、注目トラックであるSTのトラックのmoof/tarf/tirfボックスB#43に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
図57は、tmpiボックスとしてのTrackReferenceTypeBoxの定義の例を示す図である。
本実施の形態では、TrackReferenceTypeBoxを、TMIトラックのtrack_idを格納する用途に用いることを表すrefernce_typeとして、"tmpi"を新規に定義し、refernce_typeが"tmpi"になっているTrackReferenceTypeBoxが、TMIトラックのtrack_idを格納するtmpiボックスとして使用される。
tmpiボックスは、track_idを表すtrack_IDs[]を有する(格納する)。
track_IDs[]は、配列変数であり、複数のtrack_idを格納することができる。したがって、tmpiボックスによれば、メディアに適用するTMIのTMIトラックとして、複数のトラックを指定することができる。
図58は、第3のMP4ファイルに格納されるTMIトラック(tone map track)のmdatボックスに格納される実データとしてのTMIのサンプル(ToneMapSample)のシンタクスの例を示す図である。
TMIの1サンプルには、TMIを表すToneMapInfoの長さを表すToneMapInfoLengthと、ToneMapInfoとのセットを、0セット以上含めることができる。
したがって、TMIの1サンプルには、ToneMapInfoLengthと、ToneMapInfoとのセットを、複数セット含めることができる。
なお、TMIのサンプルの長さを表すLength=sample_sizeは、TMIのサンプルには存在せず、例えば、stszボックスや、stz2ボックス、trunボックスに記述される各サンプルのサイズ情報が参照される。
ToneMapInfoとしては、例えば、図42ないし図44に示したシンタクスのToneMapInfo等を採用することができる。
図59は、TMIのサンプル(ToneMapSample)のデータ構造の例を示す図である。
図59に示すように、TMIのサンプルには、ToneMapInfoLengthと、ToneMapInfoとのセットを繰り返し含めることができる。
図60は、図55の生成装置1で生成される第3のMP4ファイルの他の例を示す図である。
図60の第3のMP4ファイルは、フラグメントを有しないnon-fragmented movieのMP4ファイルであり、moovボックスは、ビデオ、ST、及び、(2つの)TMI(tone map es)のtrakボックスを有している。
したがって、図60の第3のMP4ファイルは、ビデオのトラック、STのトラック、及び、TMIのトラックを有する。
図60でも、図56と同様に、ビデオ及びSTのトラックは、それぞれ、tmpiボックスとtirfボックスを有する。また、mdatボックスは、ビデオのサンプル、STのサンプル、及び、TMIのサンプル(ToneMapSample)を有する。
ここで、non-fragmented movieのMP4ファイルでは、図60に示すように、moovボックスの、ビデオのトラックのtrak/trefボックスに、ビデオに適用するTMIのTMIトラックのtrack_idを表すtrack_IDs[](図57)が格納されたtmpiボックスB#51が格納される。
さらに、moovボックスの、ビデオのトラックのtrakが有するstblボックスに、ビデオに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#52が格納される。
STのトラックにも、ビデオのトラックと同様に、tmpiボックスB#53、及び、tirfボックスB#54が含められる。
すなわち、moovボックスの、STのトラックのtrak/trefボックスには、ビデオに適用するTMIのTMIトラックのtrack_idを表すtrack_IDs[]が格納されたtmpiボックスB#53が格納される。
さらに、moovボックスの、STのトラックのtrakボックスが有するstblボックスには、STに適用するTMIのtone_map_idを表すtone_mapping_info_id_refが格納されたtirfボックスB#54が格納される。
したがって、図60の第3のMP4ファイルによれば、例えば、STのトラックを、注目トラックとして注目すると、moovボックスのSTのtrak/tref/tmpiボックスB#53に格納されたtrack_idによって、注目トラックであるSTのトラックに適用するTMIのTMIトラックを認識することができる。
そして、そのTMIトラックのTMIの中の、moovボックスの、注目トラックであるSTのトラックのtark/stbl/tirfボックスB#54に格納されたtone_mapping_info_id_refが表すtone_map_idのTMIが、注目トラックに適用するTMIであることを認識することができる。
ビデオについても、同様にして、ビデオに適用するTMIを認識することができる。
なお、non-fragmented movieのMP4ファイルでは、注目トラックには、その注目トラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIのうちの有効なTMIが適用される。
また、ビデオに適用するTMIのTMIトラックと、STに適用するTMIのTMIトラックとは、同一のTMIトラックであってもよいし、異なるTMIトラックであってもよい。
図55の生成装置1では、以上のように、HDR情報としてのTMIのTMIトラックと、TMIトラックに含まれるTMIのうちの、注目する注目トラックに適用するTMIのTMIトラックを指定するトラック指定情報としてのtrack_IDs[]、及び、注目トラックに適用するTMIを指定するHDR指定情報としてのtone_mapping_info_id_refを含む注目トラックとが格納された第3のMP4ファイルが生成されるので、ビデオやST等の各メディアごとに、独立に、そのメディアに適用するTMIを付加することができる。
また、ビデオを、例えば、HEVC方式で符号化する場合には、SEIに、ビデオのTMIが挿入されたビデオストリームが生成されるが、第3のMP4ファイルでは、SEIに挿入されるTMIとは独立して、ビデオ以外のメディアに、そのメディアに適用するTMIを付加することができる。
したがって、例えば、Blu-ray(登録商標)ディスクに記録されるm2tsフォーマットの、TMIを含むビデオと、そのビデオとともに再生されるSTとを、STについて、STに適用するTMIを別個に付加して、MP4ファイルにコンバートすることができる。
その結果、MP4ファイルへのTMIの導入を促進し、ユーザが、HDRビデオやHDR ST等のHDR画像を享受する機会を増やすことができる。
なお、ビデオを、例えば、HEVC方式で符号化する場合には、SEIに、ビデオのTMIが挿入されたビデオストリームが生成されるため、第3のMP4ファイルでは、ビデオのTMIとしては、SEIに挿入されるTMIと、TMIトラックのTMIとが存在する。
この場合、再生装置2(図1)において、ビデオに適用するTMIとして、SEIに挿入されたTMIと、TMIトラックのTMIとのうちのいずれを使用するかは、例えば、あらかじめ決めておくことや、ユーザの操作に応じて選択することができる。
本実施の形態では、第3のMP4ファイルについては、SEIに挿入されたTMIと、TMIトラックのTMIとのうちの、例えば、TMIトラックのTMIを、ビデオに適用するTMIとして使用することとする。
ここで、SMPTE-TTフォーマットのSTのデータによれば、MP4ファイルへのアクセス単位である1サンプルに、STの複数の表示画面を含めることができるが、第3のMP4ファイルでは、1サンプルにSTの複数の表示画面が含まれている場合に、その1サンプルに含まれるSTの複数の表示画面の表示時間に合わせて、TMIのサンプル(ToneMapSample)を配置する(対応させる)ことにより、1サンプルに含まれるSTの複数の表示画面のそれぞれごとに、表示画面に適用するTMIを切り替える(変更する)ことができる。
なお、第3のMP4ファイルでは、メディアのトラックの他に、TMIトラックが存在するため、生成装置1、及び、再生装置2の処理の負荷が増加するが、その増加の程度は、それほど大きくはない。
<符号化処理部202の構成例>
図61は、図55の符号化処理部202の構成例を示すブロック図である。
なお、図中、図26の符号化処理部22、又は、図46の符号化処理部122と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図61の符号化処理部202は、エンコーダ32、変換部33、エンコーダ35、特性情報生成部131、変換情報生成部132、及び、ストリーム生成部211を有する。
したがって、図61の符号化処理部202は、エンコーダ32、変換部33、エンコーダ35、特性情報生成部131、及び、変換情報生成部132を有する点で、図46の符号化処理部122と共通する。
但し、図61の符号化処理部202は、ストリーム生成部133に代えて、ストリーム生成部211が設けられている点で、図46の符号化処理部122と相違する。
ストリーム生成部211は、図26のストリーム生成部36と同様の処理を行う。
すなわち、ストリーム生成部211は、特性情報生成部131から供給されるビデオ、及び、STの特性情報としてのTMIのtone_map_idを、コントローラ21(図55)に供給する。
また、ストリーム生成部211は、変換情報生成部132から供給されるビデオ、及び、STの変換情報としてのTMIのtone_map_idを、コントローラ21に供給する。
さらに、ストリーム生成部211は、ビデオのTMIを、SEIとして、エンコーダ32からのビデオの符号化データに挿入し、ビデオストリームを生成する。
また、ストリーム生成部211は、エンコーダ35からのSTのデータを、STストリームとして、ビデオストリームとともに、図55のファイル生成部203に供給する。
以上のように、ストリーム生成部211は、図26のストリーム生成部36と同様の処理を行う他、特性情報生成部131から供給されるビデオ、及び、STの特性情報としてのTMI、並びに、変換情報生成部132から供給されるビデオ、及び、STの変換情報としてのTMIを用いて、それらのTMIのTMIストリーム(es(elementary stream))を生成し、図55のファイル生成部203に供給する。
なお、ストリーム生成部211では、ビデオのTMIを、エンコーダ32からのビデオの符号化データに挿入せずに、その符号化データを、そのまま、ビデオストリームとすることができる。
<生成装置1のファイル生成処理>
図62は、図55の生成装置1が行うファイル生成処理の例を説明するフローチャートである。
マスタのHDRデータが生成装置1に入力されると、ステップS201において、生成装置1のコントローラ21は、図29のステップS1と同様に、処理モードがmode-iであるか否かを判定する。
処理モードがmode-iであるとステップS1において判定された場合、ステップS202に進み、符号化処理部202は、mode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたビデオストリーム、STストリーム、及び、TMIストリームは、符号化処理部202からファイル生成部203に供給される。
一方、処理モードがmode-iiであるとステップS201において判定された場合、ステップS203に進み、符号化処理部202は、mode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたビデオストリーム、STストリーム、及び、TMIストリームは、符号化処理部202からファイル生成部203に供給される。
ステップS202又はS203の後、処理は、ステップS204に進み、ヘッダ情報生成部201Aは、ヘッダ情報生成処理を行う。ヘッダ情報生成処理により生成されたヘッダ情報は、ヘッダ情報生成部201Aからファイル生成部203に供給され、処理は、ステップS205に進む。
ステップS205において、ファイル生成部203は、符号化処理部202からのビデオストリーム、STストリーム、及び、TMIストリーム、並びに、ヘッダ情報生成部201Aからのヘッダ情報を格納した、図56、又は、図60の第3のMP4ファイルを生成して出力し、ファイル生成処理は終了する。
図63は、図62のステップS202において行われるmode-iの符号化処理の例を説明するフローチャートである。
ステップS211ないしS215において、符号化処理部202(図61)では、図48のステップS121ないしS125とそれぞれ同様の処理が行われる。
そして、ステップS215の後、処理は、ステップS216に進み、ストリーム生成部211は、符号化データのSEIとして、特性情報生成部131から供給される特性情報としてのTMIと、変換情報生成部132から供給される変換情報としてのTMIを、エンコーダ32からの符号化データに挿入し、ビデオストリームを生成する。
さらに、ストリーム生成部211は、エンコーダ35からのSTのデータを、STストリームとして、処理は、ステップS216からステップS217に進む。
ステップS217において、ストリーム生成部211は、ビデオのTMIと、STのTMIとから、それらのTMIのTMIストリームを生成し、ビデオストリーム、及び、STストリームとともに、ファイル生成部203(図55)に供給する。
そして、ストリーム生成部211は、ビデオのTMIのtone_map_idと、STのTMIのtone_map_idとを、コントローラ21(図55)に供給し、mode-iの符号化処理は終了する。
図64は、図62のステップS203において行われるmode-iiの符号化処理の例を説明するフローチャートである。
ステップS221ないしステップS225において、符号化処理部202(図61)では、図49のステップS131ないしS135とそれぞれ同様の処理が行われる。
そして、ステップS226及びS227において、図63のステップS216及びS217とそれぞれ同様の処理が行われ、mode-iiの符号化処理は終了する。
図65は、図62のステップS204において行われるヘッダ情報生成処理の例を説明するフローチャートである。
ステップS231において、コントローラ21(図55)のヘッダ情報生成部201Aは、符号化処理部202(のストリーム生成部211(図61))から供給されるビデオのTMI(ビデオに適用するTMI)のtone_map_idを表すtone_mapping_info_id_refを格納したtirfボックス(図24、図56、図60)を生成する。
さらに、ヘッダ情報生成部201Aは、符号化処理部202から供給されるSTのTMI(STに適用するTMI)のtone_map_idを表すtone_mapping_info_id_refを格納したtirfボックスを生成する。
また、ヘッダ情報生成部201Aは、ビデオに適用されるTMIのTMIストリームのトラックのtrack_idを表すtrack_IDs[]を格納したtmpiボックス(図56、図57、図60)を生成する。
さらに、ヘッダ情報生成部201Aは、STに適用されるTMIのTMIストリームのトラックのtrack_idを表すtrack_IDs[]を格納したtmpiボックスを生成して、処理は、ステップS231からステップS232に進む。
ステップS232では、ヘッダ情報生成部201Aは、tmpiボックスを含むmoovボックスと、tirfボックスを含むmoofボックスとを作成するか、又は、tmpiボックスとtirfボックスとを含むmoovボックスを作成し、ヘッダ情報として、ファイル生成部203(図55)に供給して、ヘッダ情報生成処理は終了する。
すなわち、ファイル生成部203において、fragmented movieのMP4ファイルが生成される場合、ヘッダ情報生成部201Aは、図56に示したような、ビデオ及びSTのトラックのそれぞれのtrak/trefボックスに、tmpiボックスが含まれるmoovボックスを生成する。
さらに、ヘッダ情報生成部201Aは、図56に示したような、ビデオ及びSTのトラックのそれぞれのtrafボックスに、tirfボックスが含まれるmoofボックスを生成する。
一方、ファイル生成部203において、non-fragmented movieのMP4ファイルが生成される場合、ヘッダ情報生成部201Aは、図60に示したような、ビデオ及びSTのトラックのそれぞれのtrak/trefボックスに、tmpiボックスが含まれるとともに、ビデオ及びSTのトラックのそれぞれのtrakボックス/stblボックスに、tirfボックスが含まれるmoovボックスを生成する。
<再生装置2の第3の構成例>
図66は、図1の再生装置2の第3の構成例を示すブロック図である。
なお、図中、図33又は図51の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図66において、再生装置2は、ファイル取得部51、操作入力部53、合成出力部56、分離部231、コントローラ232、及び、復号処理部233を有する。
したがって、図66の再生装置2は、ファイル取得部51、操作入力部53、及び、合成出力部56を有する点で、図33の場合と共通する。
但し、図66の再生装置2は、分離部52、コントローラ54、及び、復号処理部55に代えて、それぞれ、分離部231、コントローラ232、及び、復号処理部233が設けられている点で、図33の場合と相違する。
分離部231は、図33の分離部52と同様に、ファイル取得部51からの第3のMP4ファイルから、ヘッダ情報としてのmoovボックスやmoofボックスを分離(取得)し、コントローラ232に供給する。
さらに、分離部231は、ファイル取得部51からの第3のMP4ファイルから、mdatボックスに格納された実データとしてのビデオストリーム、STストリーム、及び、TMIストリームを分離(取得)し、復号処理部233に供給する。
コントローラ232は、CPU、ROM、RAM等より構成される。コントローラ232は、所定のプログラムを実行し、再生装置2の全体の動作を制御する。
例えば、コントローラ232は、分離部231から供給されるmoovボックスに含まれるtmpiボックスに格納されたtrack_IDs[](図56、図57、図60)や、tirfボックスに格納されたtone_mapping_info_id_ref(図24、図56、図60)を、復号処理部233に供給する。また、例えば、コントローラ232は、分離部231から供給されるmoofボックスに含まれるtirfボックスに格納されたtone_mapping_info_id_refを、復号処理部233に供給する。
復号処理部233は、デコーダ233Aとデコーダ233Bとを有する。
デコーダ233Aは、分離部231から供給されるストリーム(ここでは、ビデオストリーム、STストリーム、及び、TMIストリーム)の中の、コントローラ232から供給される、ビデオのトラックのtmpiボックスに格納されたtrack_IDs[]が表すtrack_idのTMIトラックのTMIストリームに含まれるTMIを、ビデオのTMIとして取得する取得部として機能する。
また、デコーダ233Aは、分離部231から供給されるビデオストリームに含まれる符号化データをHEVC方式で復号する。
さらに、デコーダ233Aは、ビデオのTMIの中から、コントローラ232から供給される、ビデオのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、ビデオに適用するTMIとして取得する。
そして、デコーダ233Aは、必要に応じて、復号の結果得られるHDRビデオ又はSTDビデオを、ビデオに適用する変換情報としてのTMIに基づいて、STDビデオ又はHDRビデオに変換し、合成出力部56に出力する。
デコーダ233Aは、HDRビデオを出力する場合、HDRビデオとともに、ビデオに適用する特性情報としてのTMIを、合成出力部56に出力する。
デコーダ233Bは、分離部231から供給されるSTストリームを復号する。
また、デコーダ233Bは、分離部231から供給されるストリーム(ここでは、ビデオストリーム、STストリーム、及び、TMIストリーム)の中の、コントローラ232から供給される、STのトラックのtmpiボックスに格納されたtrack_IDs[]が表すtrack_idのTMIトラックのTMIストリームに含まれるTMIを、STのTMIとして取得する取得部として機能する。
さらに、デコーダ233Bは、STのTMIの中から、コントローラ232から供給される、STのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、STに適用するTMIとして取得する。
そして、デコーダ233Bは、必要に応じて、復号の結果得られるHDR ST又はSTD STを、STに適用する、変換情報としてのTMIに基づいて、STD ST又はHDR STに変換し、合成出力部56に出力する。
デコーダ233Bは、HDR STを出力する場合、HDR STとともに、STに適用する、特性情報としてのTMIを、合成出力部56に出力する。
<再生装置2の再生処理>
図67は、図66の再生装置2が行う再生処理の例を説明するフローチャートである。
ステップS251において、ファイル取得部51は、生成装置1で生成された第3のMP4ファイルを取得し、分離部231に供給する。
分離部231は、ファイル取得部51からのMP4ファイルから、ヘッダ情報としてのmoovボックスやmoofボックスを読み出すとともに、mdatボックスに格納された実データとしてのビデオストリーム、STストリーム、及び、TMIストリームを読み出す。
そして、分離部231は、ヘッダ情報としてのmoovボックスやmoofボックスを、コントローラ232に供給するとともに、ビデオストリーム、STストリーム、及び、TMIストリームを、復号処理部233に供給する。
また、コントローラ232は、分離部231から供給されるmoovボックスに含まれるtmpiボックスに格納されたtrack_IDs[]や、tirfボックスに格納されたtone_mapping_info_id_refを、復号処理部233に供給する。さらに、コントローラ232は、分離部231から供給されるmoofボックスに含まれるtirfボックスに格納されたtone_mapping_info_id_refを、復号処理部233に供給する。
その後、処理は、ステップS251からステップS252に進み、コントローラ232は、ファイル取得部51で取得された第3のMP4ファイルの処理モードがmode-i又はmode-iiであるかどうかを、図34のステップS42の場合と同様に判定する。
処理モードがmode-iであるとステップS252において判定された場合、ステップS253に進み、復号処理部233は、mode-iの復号処理を行う。
一方、処理モードがmode-iiであるとステップS252において判定された場合、ステップS254に進み、復号処理部233は、mode-iiの復号処理を行う。
ステップS253又はステップS254において復号処理が行われた後、再生処理は終了する。
図68は、図67のステップS253において行われるmode-iの復号処理の例を説明するフローチャートである。
ステップS261において、デコーダ233Aは、コントローラ232から供給される、ビデオのトラックのtmpiボックスに格納されたtrack_IDs[]が表すtrack_idのTMIトラックを、分離部231から供給されるストリームの中から取得し、そのTMIストリームに含まれるTMIを、ビデオのTMIとして取得する。
また、デコーダ233Bは、コントローラ232から供給される、STのトラックのtmpiボックスに格納されたtrack_IDs[]が表すtrack_idのTMIトラックを、分離部231から供給されるストリームの中から取得し、そのTMIストリームに含まれるTMIを、STのTMIとして取得する。
その後、処理は、ステップS261からステップS262に進み、デコーダ233Aは、分離部231からのビデオストリームに含まれる符号化データをHEVC方式で復号し、HDRビデオを生成して、処理は、ステップS263に進む。なお、ビデオの復号(符号化)方式は、HEVC方式に限定されない。
ステップS263において、デコーダ233Bは、分離部231からのSTストリーム、すなわち、例えば、SMPTE-TTフォーマットのSTのデータのストリームを、HDR STに復号し、処理は、ステップS264に進む。
ステップS264において、コントローラ232は、図35のステップS64と同様に、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS264において判定された場合、処理は、ステップS265に進む。
ステップS265において、デコーダ233Aは、ステップS261で取得したビデオのTMIの中から、コントローラ232から供給される、ビデオのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、ビデオに適用するTMIとして取得する。
また、デコーダ233Bは、ステップS261で取得したSTのTMIの中から、コントローラ232から供給される、STのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMI(HDR指定情報としてのtone_mapping_info_id_refが指定するTMI)を、STに適用するTMIとして取得する。
その後、処理は、ステップS265からステップS266に進み、以下、ステップS266及びS270において、図35のステップS66及びS70とそれぞれ同様の処理が行われる。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS264において判定された場合、処理は、ステップS267に進む。
ステップS267において、デコーダ233A及び233Bは、ステップS265と同様にして、ビデオに適用するTMI、及び、STに適用するTMIを、それぞれ取得する。
その後、処理は、ステップS267からステップS268に進み、以下、ステップS268ないしS270において、図35のステップS68ないしS70とそれぞれ同様の処理が行われる。
図69は、図67のステップS254において行われるmode-iiの復号処理の例を説明するフローチャートである。
ステップS281において、デコーダ233A及び233Bは、図68のステップS261と同様に、TMIを取得する。
すなわち、デコーダ233Aは、コントローラ232から供給される、ビデオのトラックのtmpiボックスに格納されたtrack_IDs[]が表すtrack_idのTMIトラックを、分離部231から供給されるストリームの中から取得し、そのTMIストリームに含まれるTMIを、ビデオのTMIとして取得する。
また、デコーダ233Bは、コントローラ232から供給される、STのトラックのtmpiボックスに格納されたtrack_IDs[]が表すtrack_idのTMIトラックを、分離部231から供給されるストリームの中から取得し、そのTMIストリームに含まれるTMIを、STのTMIとして取得する。
その後、処理は、ステップS281からステップS282に進み、ステップS282ないしS284において、図36のステップS82ないしS84とそれぞれ同様の処理が行われる。
すなわち、ステップS282では、デコーダ233Aは、分離部231からのビデオストリームに含まれる符号化データを復号し、STDビデオを生成する。ステップS283では、デコーダ233Bは、分離部231からの、SMPTE-TTフォーマットのSTのデータのSTストリームを、STD STに復号する。
そして、ステップS284において、コントローラ232は、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS284において判定された場合、処理は、ステップS285に進む。
ステップS285では、デコーダ233Aは、ステップS281で取得したビデオのTMIの中から、コントローラ232から供給される、ビデオのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、ビデオに適用するTMIとして取得する。
また、デコーダ233Bは、ステップS281で取得したSTのTMIの中から、コントローラ232から供給される、STのトラックのtirfボックスに格納されたtone_mapping_info_id_refが表すtone_map_idのTMIを、STに適用するTMIとして取得する。
その後、処理は、ステップS285からステップS286に進み、ステップS286ないしS289において、図36のステップS86ないしS89とそれぞれ同様の処理が行われる。
以上のように、第3の構成例の生成装置1は、ビデオ(のストリーム)のトラック、及び、ST(のストリーム)のトラックの他、TMI(のストリーム)のトラックであるTMIトラックを、第3のMP4ファイルに格納する。
そして、各メディアのトラックには、そのメディア(のトラック)に適用するTMIのTMIトラックを指定するトラック指定情報としての、track_idを表すtrack_IDs[]を格納したtmpiボックスと、TMIトラックのTMIの中の、メディアに適用するTMIを指定するHDR指定情報としてのtone_mapping_info_id_refが格納されたtirfボックスが含められる。
その結果、再生装置2は、各メディアについて、そのメディアのトラックに含まれるtmpiボックスに格納されたtrack_IDs[]が指定する(track_idの)TMIトラックのTMIの中から、tirfボックスに格納されたtone_mapping_info_id_refが指定する(tone_map_idの)TMIを、メディアに適用するTMIとして取得し、メディアの処理に利用することができる。
<生成装置1の第4の構成例>
図70は、図1の生成装置1の第4の構成例を示すブロック図である。
なお、図中、図20の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜、省略する。
図70において、生成装置1は、コントローラ21、ファイル生成部23、及び、符号化処理部302を有する。
したがって、図70の生成装置1は、コントローラ21、及び、ファイル生成部23を有する点で、図20の場合と共通し、符号化処理部22に代えて、符号化処理部302が設けられている点で、図20の場合と相違する。
さらに、図70の生成装置1は、コントローラ21が、ヘッダ情報生成部21Aに代えて、ヘッダ情報生成部301Aを有する点で、図20の場合と相違する。
図70の生成装置1では、マスタのHDRデータが符号化処理部302に入力される。
ヘッダ情報生成部301Aは、ファイル生成部23で生成されるMP4ファイルのmoovと必要なmoofとを、ヘッダ情報として生成し、ファイル生成部23に供給する。
符号化処理部302は、図20の符号化処理部22と同様に、マスタのHDRデータの符号化を行うことにより、ビデオストリーム及びSTストリームを生成し、ファイル生成部23に出力する。
但し、本実施の形態では、HDR情報としてのTMIを格納するXMLのエレメントとして、HDR格納エレメントを新規に定義し、符号化処理部302は、STについては、そのSTの符号化の結果得られるSMPTE-TTフォーマットのSTのデータに、HDR情報としてのTMIをXMLのエレメントとして格納するHDR格納エレメントを含めて、STストリームを生成する。
したがって、符号化処理部302において生成されるSTストリームとしてのSMPTE-TTフォーマットのSTのデータには、HDR情報としてのTMIを格納するHDR格納エレメントが含まれているため、そのSMPTE-TTフォーマットのSTのデータだけで、HDR情報としてのTMIを利用したHDR ST等の表示を行うことができる。
すなわち、上述の第1ないし第3のMP4ファイルに格納されるSTストリームとしてのSMPTE-TTフォーマットのSTのデータに適用するTMIについては、そのTMIをtinfボックスに格納すること、又は、STのトラック以外のトラックに含まれるTMIを参照(利用)することとしているため、第1ないし第3のMP4ファイルに格納されるSTストリームを、そのまま、MP4ファイル以外のコンテナフォーマットのファイルやデータに格納した場合には、HDR情報としてのTMIを利用したHDR ST等の表示を行うことが困難となる。
これに対して、符号化処理部302において生成されるSTストリームとしてのSMPTE-TTフォーマットのSTのデータ(以下、新TTデータともいう)には、HDR情報としてのTMIを格納するHDR格納エレメントが含まれているため、その新TTデータだけで、HDR情報としてのTMIを利用したHDR ST等の表示を行うことができる。
したがって、新TTデータは、MP4ファイルは、勿論、どのようなコンテナフォーマットによって提供しても、HDR情報としてのTMIを利用したHDR ST等の表示を行うことができる。
すなわち、図70の生成装置1では、新TTデータを、MP4ファイルに格納して提供することとしているが、新TTデータは、MP4ファイルに格納する他、例えば、IPパケット、その他の任意のコンテナフォーマットのファイルやデータに格納して提供することができる。
また、新TTデータは、単独で提供しても、ビデオ等の他のデータと多重化等して提供しても、HDR情報としてのTMIを利用したHDR ST等の表示を行うことができる。
したがって、新TTデータによれば、SMPTE-TTフォーマットのSTのデータへのTMIの導入を促進し、ユーザが、HDR STを享受する機会を増やすことができる。
<符号化処理部302の構成例>
図71は、図70の符号化処理部302の構成例を示すブロック図である。
なお、図中、図26の符号化処理部22と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
符号化処理部302は、特性情報生成部31、エンコーダ32、変換部33、変換情報生成部34、エンコーダ35、及び、ストリーム生成部311を有する。
したがって、符号化処理部302は、特性情報生成部31、エンコーダ32、変換部33、変換情報生成部34、及び、エンコーダ35を有する点で、図26の符号化処理部22と共通する。
但し、符号化処理部302は、ストリーム生成部36に代えて、ストリーム生成部311が設けられている点で、図26の符号処理部22と相違する。
ストリーム生成部311は、特性情報生成部31、及び、変換情報生成部34のそれぞれからのビデオのTMIを、SEIとして、エンコーダ32からのビデオの符号化データに挿入し、ビデオストリームを生成して、ファイル生成部23(図70)に供給する。
また、ストリーム生成部311は、特性情報生成部31、及び、変換情報生成部34のそれぞれからのSTのTMIを格納したHDR格納エレメントを生成する。
さらに、ストリーム生成部311は、エンコーダ35からのSMPTE-TTフォーマットのSTのデータに、HDR格納エレメント等を挿入することにより、新TTデータを生成し、その新TTデータのストリーム(STストリーム)を、ファイル生成部23に供給する。
なお、図71において、特性情報生成部31は、図46の特性情報生成部131と同様に、HDRビデオとHDR STとのそれぞれについて、別個に、特性情報としてのTMIを生成することもできるし、HDRビデオについては、そのHDRビデオの特性情報としてのTMIを生成し、HDR STについては、そのHDR STと同時に表示されるHDRビデオの特性情報としてのTMIを、ST(HDR ST)の特性情報としてのTMIとして採用することができる。
さらに、図71において、変換情報生成部34は、図46の変換情報生成部132と同様に、HDRビデオとHDR STとのそれぞれについて、別個に、変換情報としてのTMIを生成することもできるし、HDRビデオについては、そのHDRビデオの変換情報としてのTMIを生成し、HDR STについては、そのHDR STと同時に表示されるHDRビデオの変換情報としてのTMIを、ST(HDR ST)の変換情報としてのTMIとして採用することができる。
<HDR格納エレメント>
図72は、HDR格納エレメントの例を示す図である。
HDR格納エレメントとしては、変換情報としてのTMIを格納するToneMapエレメントと、特性情報としてのTMIを格納するHdrInfoエレメントとがある。
図72のA、図72のB、及び、図72のCは、ToneMapエレメントの例を示しており、図72のDは、HdrInfoエレメントの例を示している。
図72のAのToneMapエレメントは、tone_map_idが0のときの図7のTMIに、図72のBのToneMapエレメントは、tone_map_idが2のときの図7のTMIに、図72のCのToneMapエレメントは、tone_map_idが3のときの図7のTMIに、それぞれ相当する。
図72のDのHdrInfoエレメントは、tone_map_idが4のときの図7のTMIに相当する。
なお、図72のToneMapエレメント、及び、HdrInfoエレメント(に格納されるTMI)は、識別情報としてのxml:idによって識別される。
図72では、ToneMapエレメント、及び、HdrInfoエレメントのxml:idとして、数字を用いているが、xml:idとしては、任意の文字(列)(数字を含む)を用いることができる。
ToneMapエレメント、及び、HdrInfoエレメントは、XMLの所定のエレメントとしての、例えば、tt,head,body,region,div,p,span、又は、setエレメント内に配置(記述)することができる。
図73は、toneMapRef属性、及び、hdrInfoRef属性の定義の例を示す図である。
toneMapRef属性(toneMapRef attribute)は、STに適用するTMIが格納されたToneMapエレメントを指定する属性として、所定の名前空間(例えば、後述する名前空間hdr)の下に新規に定義された指定属性である。
あるエレメントが、toneMapRef属性を有する場合、そのtoneMapRef属性によって指定されるToneMapエレメントに格納されたTMIが取得され、そのtoneMapRef属性を有するエレメントに記述されたSTに適用するTMIとして使用される。
hdrInfoRef属性(hdrInfoRef attribute)は、STに適用するTMIが格納されたHdrInfoエレメントを指定する属性として、所定の名前空間(例えば、後述する名前空間hdr)の下に新規に定義された指定属性である。
あるエレメントが、hdrInfoRef属性を有する場合、そのhdrInfoRef属性によって指定されるHdrInfoエレメントに格納されたTMIが取得され、そのhdrInfoRef属性を有するエレメントに記述されたSTに適用するTMIとして使用される。
toneMapRef属性、及び、hdrInfoRef属性は、XMLの所定のエレメントとしての、例えば、body,div,p,region,span、又は、setエレメントに記述することができる。
図74は、新TTデータの第1の例を示す図である。
図74の新TTデータでは、記述n1において、HDR情報としてのTMIに関する名前空間hdrが定義されている。
また、記述n2及びn3は、ToneMapエレメントであり、記述n2のToneMapエレメントは、xml:id="A"で識別され、記述n3のToneMapエレメントは、xml:id="B"で識別される。
なお、記述n2及びn3のToneMapエレメントは、それぞれ、図72のB及び図72のCのToneMapエレメントに相当する。
また、図74の記述n2及びn3のToneMapエレメントについては、その記述の一部を省略してある。
記述n4は、pエレメントであり、toneMapRef属性としてのhdr:toneMapRef="A"を有している。
記述n4のpエレメントによれば、toneMapRef属性としてのhdr:toneMapRef="A"に従い、xml:id="A"で識別される記述n2のToneMapエレメントに格納されたTMIが取得され、記述n4のpエレメントに記述されているSTとしてのテキスト"this subtitle references ToneMap whose id is A"に適用するTMIとして使用される。
記述n5は、pエレメントであり、toneMapRef属性としてのhdr:toneMapRef="B"を有している。
記述n5のpエレメントによれば、toneMapRef属性としてのhdr:toneMapRef="B"に従い、xml:id="B"で識別される記述n3のToneMapエレメントに格納されたTMIが取得され、記述n5のpエレメントに記述されているSTとしてのテキスト"this subtitle references ToneMap whose id is B"に適用するTMIとして使用される。
なお、図74では、記述n2及びn3のToneMapエレメントは、bodyエレメントに配置されているが、その他の位置に配置することができる。
また、図74では、記述n2やn3のToneMapエレメントと、そのToneMapエレメントを指定するtoneMapRef属性を有する記述n4やn5のpエレメントとは、同一のファイルに記述されているが、異なるファイルに記述することができる。
図75は、新TTデータの第2の例を示す図である。
図75の新TTデータでは、記述n11において、図74の記述n1と同様に、HDR情報としてのTMIに関する名前空間hdrが定義されている。
また、記述n12及びn13は、HdrInfoエレメントであり、記述n12のHdrInfoエレメントは、xml:id="AA"で識別され、記述n13のHdrInfoエレメントは、xml:id="BB"で識別される。
なお、記述n12及びn13のHdrInfoエレメントは、いずれも、図72のDのHdrInfoエレメントに相当する。
また、図75の記述n12及びn13のHdrInfoエレメントについては、その記述の一部を省略してある。
記述n14は、pエレメントであり、hdrInfoRef属性としてのhdr:hdrInfoRef="AA"を有している。
記述n14のpエレメントによれば、hdrInfoRef属性としてのhdr:hdrInfoRef="AA"に従い、xml:id="AA"で識別される記述n12のHdrInfoエレメントに格納されたTMIが取得され、記述n14のpエレメントに記述されているSTとしてのテキスト"this subtitle references HdrInfo whose id is AA"に適用するTMIとして使用される。
記述n15は、pエレメントであり、hdrInfoRef属性としてのhdr:hdrInfoRef="BB"を有している。
記述n15のpエレメントによれば、hdrInfoRef属性としてのhdr:hdrInfoRef="BB"に従い、xml:id="BB"で識別される記述n13のHdrInfoエレメントに格納されたTMIが取得され、記述n15のpエレメントに記述されているSTとしてのテキスト"this subtitle references HdrInfo whose id is BB"に適用するTMIとして使用される。
なお、図75では、記述n12及びn13のHdrInfoエレメントは、bodyエレメントに配置されているが、その他の位置に配置することができる。
また、図75では、記述n12やn13のHdrInfoエレメントと、そのHdrInfoエレメントを指定するhdrInfoRef属性を有する記述n14やn15のpエレメントとは、同一のファイルに記述されているが、異なるファイルに記述することができる。
さらに、図74及び図75では、新TTデータに、ToneMapエレメント、及び、HdrInfoエレメントのうちの一方だけが記述されているが、新TTデータには、ToneMapエレメント、及び、HdrInfoエレメントの両方を記述することができる。
さらに、図74及び図75では、pエレメントにおいて、toneMapRef属性、及び、hdrInfoRef属性のうちの一方だけを指定しているが、1つのエレメントでは、toneMapRef属性、及び、hdrInfoRef属性の両方を指定することができる。
図76は、新TTデータの第3の例を示す図である。
ここで、図74の新TTデータの第1の例では、STに適用するTMIが格納されたToneMapエレメントを、toneMapRef属性によって指定することとしたが、図76の新TTデータの第3の例では、toneMapRef属性を用いずに、STに適用するTMIが格納されたToneMapエレメントが指定される。
すなわち、図76の新TTデータの第3の例では、STに適用するTMIが格納されたToneMapエレメントを、そのSTが表示されるエレメントに配置することによって、STに適用するTMIが格納されたToneMapエレメントとして、そのSTが表示されるエレメントに配置されたToneMapエレメントが指定される。
図76の新TTデータでは、記述n21において、図74の記述n1と同様に、HDR情報としてのTMIに関する名前空間hdrが定義されている。
また、図76において、記述n22のdivエレメントには、図74の記述n2と同一の記述n23のToneMapエレメントが配置されている。
さらに、記述n22のdivエレメントには、STとしてのテキスト"this subtitle references ToneMap whose identifiers are A"が表示される記述n24のpエレメントが配置されている。
その結果、記述n22のdivエレメントに配置されている記述n24のpエレメントについては、同じく、記述n22のdivエレメントに配置されている記述n23のToneMapエレメントに格納されたTMIが取得され、記述n24のpエレメントに記述されているSTとしてのテキスト"this subtitle references ToneMap whose identifiers are A"に適用するTMIとして使用される。
また、図76において、記述n25のdivエレメントには、図74の記述n3と同一の記述n26のToneMapエレメントが配置されている。
さらに、記述n25のdivエレメントには、STとしてのテキスト"this subtitle references ToneMap whose identifiers are B"が表示される記述n27のpエレメントが配置されている。
その結果、記述n25のdivエレメントに配置されている記述n27のpエレメントについては、同じく、記述n25のdivエレメントに配置されている記述n26のToneMapエレメントに格納されたTMIが取得され、記述n27のpエレメントに記述されているSTとしてのテキスト"this subtitle references ToneMap whose identifiers are B"に適用するTMIとして使用される。
図77は、新TTデータの第4の例を示す図である。
ここで、図75の新TTデータの第2の例では、STに適用するTMIが格納されたHdrInfoエレメントを、hdrInfoRef属性によって指定することとしたが、図77の新TTデータの第4の例では、hdrInfoRef属性を用いずに、STに適用するTMIが格納されたHdrInfoエレメントが指定される。
すなわち、図77の新TTデータの第4の例では、図76の場合と同様に、STに適用するTMIが格納されたHdrInfoエレメントを、そのSTが表示されるエレメントに配置することによって、STに適用するTMIが格納されたHdrInfoエレメントとして、そのSTが表示されるエレメントに配置されたHdrInfoエレメントが指定される。
図77の新TTデータでは、記述n31において、図74の記述n1と同様に、HDR情報としてのTMIに関する名前空間hdrが定義されている。
また、図77において、記述n32のdivエレメントには、図75の記述n12と同一の記述n33のHdrInfoエレメントが配置されている。
さらに、記述n32のdivエレメントには、STとしてのテキスト"this subtitle references HdrInfo whose identifiers are AA"が表示される記述n34のpエレメントが配置されている。
その結果、記述n32のdivエレメントに配置されている記述n34のpエレメントについては、同じく、記述n32のdivエレメントに配置されている記述n33のHdrInfoエレメントに格納されたTMIが取得され、記述n34のpエレメントに記述されているSTとしてのテキスト"this subtitle references HdrInfo whose identifiers are AA"に適用するTMIとして使用される。
また、図77において、記述n35のdivエレメントには、図75の記述n13と同一の記述n36のHdrInfoエレメントが配置されている。
さらに、記述n35のdivエレメントには、STとしてのテキスト"this subtitle references HdrInfo whose identifiers are BB"が表示される記述n37のpエレメントが配置されている。
その結果、記述n35のdivエレメントに配置されている記述n37のpエレメントについては、同じく、記述n35のdivエレメントに配置されている記述n36のHdrInfoエレメントに格納されたTMIが取得され、記述n37のpエレメントに記述されているSTとしてのテキスト"this subtitle references HdrInfo whose identifiers are BB"に適用するTMIとして使用される。
なお、図76及び図77では、新TTデータに、ToneMapエレメント、及び、HdrInfoエレメントのうちの一方だけが記述されているが、新TTデータには、ToneMapエレメント、及び、HdrInfoエレメントの両方を記述することができる。
<生成装置1のファイル生成処理>
図78は、図70の生成装置1が行うファイル生成処理の例を説明するフローチャートである。
マスタのHDRデータが生成装置1に入力されると、ステップS301において、生成装置1のコントローラ21は、図29のステップS1と同様に、処理モードがmode-iであるか否かを判定する。
処理モードがmode-iであるとステップS301において判定された場合、ステップS302に進み、符号化処理部302は、mode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたビデオストリームとSTストリーム(es)は、符号化処理部302からファイル生成部23に供給される。
一方、処理モードがmode-iiであるとステップS301において判定された場合、ステップS303に進み、符号化処理部302は、mode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたビデオストリームとSTストリーム(es)は、符号化処理部302からファイル生成部23に供給される。
ステップS302又はS303の後、処理は、ステップS304に進み、ヘッダ情報生成部301Aは、ヘッダ情報生成処理を行う。ヘッダ情報生成処理により生成されたヘッダ情報としてのmoov、及び、必要なmoofは、ヘッダ情報生成部301Aからファイル生成部23に供給され、処理は、ステップS305に進む。
ステップS305において、ファイル生成部23は、符号化処理部302からのビデオストリーム、及び、STストリーム、並びに、ヘッダ情報生成部301Aからのヘッダ情報を格納したMP4ファイルを生成して出力し、ファイル生成処理は終了する。
図79は、図78のステップS302において行われるmode-iの符号化処理の例を説明するフローチャートである。
ステップS311ないしS315において、図30のステップS11ないしS15とそれぞれ同様の処理が行われる。
その後、ステップS316において、符号化処理部302(図71)のストリーム生成部311は、符号化データのSEIとして、特性情報生成部31から供給される特性情報としてのビデオのTMIと、変換情報生成部34から供給される変換情報としてのビデオのTMIを、エンコーダ32から供給される符号化データに挿入し、ビデオストリームを生成し、処理は、ステップS317に進む。
ステップS317では、ストリーム生成部311は、特性情報生成部31から供給される特性情報としてのSTのTMIを格納したHdrInfoエレメント、及び、変換情報生成部34から供給される変換情報としてのSTのTMIを格納したToneMapエレメントを生成する。
また、ストリーム生成部311は、HdrInfoエレメント、及び、ToneMapエレメント、並びに、必要なtoneMapRef属性、及び、hdrInfoRef属性を、エンコーダ35からのSMPTE-TTフォーマットのSTのデータに挿入することで、新TTデータを生成する。
そして、ストリーム生成部311は、新TTデータのストリームであるSTストリームを、ビデオストリームとともに、ファイル生成部23(図70)に供給して、mode-iの符号化処理は終了する(リターンする)。
図80は、図78のステップS303において行われるmode-iiの符号化処理の例を説明するフローチャートである。
ステップS321ないしS325において、図31のステップS21ないしS25とそれぞれ同様の処理が行われる。
そして、ステップS326及びS327において、図79のステップS316及びS317とそれぞれ同様の処理が行われる。
<再生装置2の第4の構成例>
図81は、図1の再生装置2の第4の構成例を示すブロック図である。
なお、図中、図33の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜、省略する。
図81において、再生装置2は、ファイル取得部51、分離部52、操作入力部53、合成出力部56、コントローラ321、及び、復号処理部322を有する。
したがって、図81の再生装置2は、ファイル取得部51、分離部52、操作入力部53、及び、合成出力部56を有する点で、図33の場合と共通する。
但し、図81の再生装置2は、コントローラ54、及び、復号処理部55に代えて、それぞれ、コントローラ321、及び、復号処理部322が設けられている点で、図33の場合と相違する。
コントローラ321は、CPU、ROM、RAM等より構成される。コントローラ321は、所定のプログラムを実行し、再生装置2の全体の動作を制御する。
例えば、コントローラ321は、分離部52から供給されるmoovボックスやmoofボックスに応じて、復号処理部322を制御する。
復号処理部322は、デコーダ322Aとデコーダ322Bとを有する。
デコーダ322Aは、分離部52から供給されるビデオストリームのSEIから特性情報及び変換情報としてのTMI(tone_mapping_info)を、ビデオに適用するTMIとして取得する。
また、デコーダ322Aは、分離部52から供給されるビデオストリームに含まれる符号化データをHEVC方式で復号する。
そして、デコーダ322Aは、必要に応じて、復号の結果得られるHDRビデオ又はSTDビデオを、ビデオに適用する変換情報としてのTMIに基づいて、STDビデオ又はHDRビデオに変換し、合成出力部56に出力する。
デコーダ322Aは、HDRビデオを出力する場合、HDRビデオとともに、ビデオに適用する特性情報としてのTMIを、合成出力部56に出力する。
デコーダ322Bは、分離部52から供給されるSTストリームを復号する。
また、デコーダ322Bは、STストリームに含まれるToneMapエレメント、及び、HdrInfoエレメント(toneMapRef属性やhdrInfoRef属性によって、ToneMapエレメントやHdrInfoエレメントが指定されている場合には、そのoneMapRef属性やhdrInfoRef属性によって指定されているToneMapエレメントやHdrInfoエレメント)に格納されたTMIを、STに適用するTMIとして取得する取得部として機能する。
そして、デコーダ322Bは、必要に応じて、復号の結果得られるHDR ST又はSTD STを、STに適用する変換情報としてのTMIに基づいて、STD ST又はHDR STに変換し、合成出力部56に出力する。
デコーダ322Bは、HDR STを出力する場合、HDR STとともに、STに適用する特性情報としてのTMIを、合成出力部56に出力する。
<再生装置2の再生処理>
図82は、図81の再生装置2が行う再生処理の例を説明するフローチャートである。
ステップS331において、ファイル取得部51は、生成装置1で生成されたMP4ファイルを取得し、分離部52に供給する。
分離部52は、ファイル取得部51からのMP4ファイルから、ヘッダ情報としてのmoovボックスやmoofボックスを読み出すとともに、mdatボックスに格納された実データとしてのビデオストリームやSTストリームを読み出す。
そして、分離部52は、ヘッダ情報としてのmoovボックスやmoofボックスを、コントローラ321に供給するとともに、ビデオストリームやSTストリームを、復号処理部322に供給する。
その後、処理は、ステップS331からステップS332に進み、コントローラ321は、ファイル取得部51で取得されたMP4ファイルの処理モードがmode-i又はmode-iiであるかどうかを、図34のステップS42と同様に判定する。
処理モードがmode-iであるとステップS332において判定された場合、ステップS333に進み、復号処理部322は、mode-iの復号処理を行う。
一方、処理モードがmode-iiであるとステップS332において判定された場合、ステップS334に進み、復号処理部322は、mode-iiの復号処理を行う。
ステップS333又はステップS334において復号処理が行われた後、再生処理は終了する。
図83は、図82のステップS333において行われるmode-iの復号処理の例を説明するフローチャートである。
ステップS341において、デコーダ322Aは、分離部52から供給されるビデオストリームのSEIから特性情報及び変換情報としてのTMIを取得する。
その後、処理は、ステップS341からステップS342に進み、デコーダ322Aは、分離部52からのビデオストリームに含まれる符号化データをHEVC方式で復号し、HDRビデオを生成して、処理は、ステップS343に進む。なお、ビデオの復号(符号化)方式は、HEVC方式に限定されない。
ステップS343では、デコーダ322Bは、分離部52から供給されるSTストリーム(新TTデータ)に含まれるToneMapエレメント、及び、HdrInfoエレメントに格納されたTMIを取得し、処理は、ステップS344に進む。
ステップS344において、デコーダ322Bは、分離部52から供給されるSTストリームを、HDR STに復号し、処理は、ステップS345に進む。
ステップS345において、コントローラ321は、表示装置3が有するモニタがHDRモニタであるか否かを、図35のステップS64と同様に判定する。
表示装置3が有するモニタがHDRモニタであるとステップS345において判定された場合、処理は、ステップS346に進む。
ステップS346において、デコーダ322Aは、ステップS341で取得したTMIから、ビデオに適用するTMIを取得する。ここで、MP4ファイルに格納されたビデオに適用するTMIを取得する方法としては、例えば、生成装置1及び再生装置2の第1の構成例で説明した方法等を採用することができる。
また、デコーダ322Bは、ステップS343で取得したTMIから、STに適用するTMI(toneMapRef属性やhdrInfoRef属性によって、ToneMapエレメントやHdrInfoエレメントが指定されている場合には、そのoneMapRef属性やhdrInfoRef属性によって指定されているToneMapエレメントやHdrInfoエレメントに格納されたTMI)を取得する。
その後、処理は、ステップS346からステップS347に進み、以下、ステップS347及びS351において、図35のステップS66及びS70とそれぞれ同様の処理が行われる。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS345において判定された場合、処理は、ステップS348に進む。
ステップS348において、デコーダ322A及び322Bは、ステップS346と同様に、ビデオ及びSTに適用するTMIとして取得する。
その後、ステップS349ないしS351において、図35のステップS68ないしS69と同様の処理が行われる。
図84は、図82のステップS334において行われるmode-iiの復号処理の例を説明するフローチャートである。
ステップS361において、デコーダ322Aは、図83のステップS341と同様に、分離部52から供給されるビデオストリームのSEIから特性情報及び変換情報としてのTMIを取得する。
その後、処理は、ステップS361からステップS362に進み、デコーダ322Aは、分離部52からのビデオストリームに含まれる符号化データをHEVC方式で復号し、STDビデオを生成して、処理は、ステップS363に進む。なお、ビデオの復号(符号化)方式は、HEVC方式に限定されない。
ステップS363では、デコーダ322Bは、図83のステップS343と同様に、分離部52から供給されるSTストリーム(新TTデータ)に含まれるToneMapエレメント、及び、HdrInfoエレメントに格納されたTMIを取得し、処理は、ステップS364に進む。
ステップS364において、デコーダ322Bは、分離部52から供給されるSTストリームを、STD STに復号し、処理は、ステップS365に進む。
ステップS365において、コントローラ321は、例えば、図83のステップS345と同様に、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS365において判定された場合、処理は、ステップS366に進む。
ステップS366において、デコーダ322A及び322Bは、図83のステップS346と同様に、ビデオ及びSTに適用するTMIとして取得する。
すなわち、ステップS366において、デコーダ322Aは、ステップS361で取得したTMIから、ビデオに適用するTMIを取得する。
また、デコーダ322Bは、ステップS363で取得したTMIから、STに適用するTMI(toneMapRef属性やhdrInfoRef属性によって、ToneMapエレメントやHdrInfoエレメントが指定されている場合には、そのoneMapRef属性やhdrInfoRef属性によって指定されているToneMapエレメントやHdrInfoエレメントに格納されたTMI)を取得する。
その後、処理は、ステップS366からステップS367に進み、ステップS367ないしS370において、図36のステップS86ないしS89とそれぞれ同様の処理が行われる。
以上のように、第4の構成例の生成装置1は、HDR情報としてのTMIをXMLのエレメントとして格納するHDR格納エレメントとしてのToneMapエレメントやHdrInfoエレメントを含む、XMLの新TTデータを生成する。
その結果、再生装置2は、新TTデータから、STに適用するTMIを取得し、STの処理に利用することができる。
なお、ToneMapエレメントやHdrInfoエレメント、さらには、toneMapRef属性やhdrInfoRef属性は、XMLを利用したSMPTE-TTによって、STを表示する場合の他、任意のマークアップ言語を利用して、STその他の任意の画像を表示する場合に適用することができる。
<本技術を適用したコンピュータの説明>
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図85は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク405やROM403に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブル記録媒体411に格納(記録)しておくことができる。このようなリムーバブル記録媒体411は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体411としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体411からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク405にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)402を内蔵しており、CPU402には、バス401を介して、入出力インタフェース410が接続されている。
CPU402は、入出力インタフェース410を介して、ユーザによって、入力部407が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)403に格納されているプログラムを実行する。あるいは、CPU402は、ハードディスク405に格納されたプログラムを、RAM(Random Access Memory)404にロードして実行する。
これにより、CPU402は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU402は、その処理結果を、必要に応じて、例えば、入出力インタフェース410を介して、出力部406から出力、あるいは、通信部408から送信、さらには、ハードディスク405に記録等させる。
なお、入力部407は、キーボードや、マウス、マイク等で構成される。また、出力部406は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下のような構成をとることができる。
<1>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報と、
注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックが格納されたファイルを生成するファイル生成部を備える
ファイル生成装置。
<2>
前記ファイルは、ボックス構造のファイルである
<1>に記載のファイル生成装置。
<3>
前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
<2>に記載のファイル生成装置。
<4>
前記注目トラックは、前記HDR情報を格納するボックスとして定義されたtinfボックス(ToneMappingInformationBox)を含む
<3>に記載のファイル生成装置。
<5>
前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含む
<3>又は<4>に記載のファイル生成装置。
<6>
前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
<1>ないし<5>のいずれかに記載のファイル生成装置。
<7>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報と、
注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックが格納されたファイルを生成する
ステップを含むファイル生成方法。
<8>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報と、
注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックが格納されたファイルから、前記HDR指定情報が指定する前記HDR情報を取得する取得部を備える
ファイル再生装置。
<9>
前記ファイルは、ボックス構造のファイルである
<8>に記載のファイル再生装置。
<10>
前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
<9>に記載のファイル再生装置。
<11>
前記注目トラックは、前記HDR情報を格納するボックスとして定義されたtinfボックス(ToneMappingInformationBox)を含み、
前記取得部は、前記tinfボックスに格納された前記HDR情報を取得する
<10>に記載のファイル再生装置。
<12>
前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含み、
前記取得部は、前記tirfボックスに格納された前記HDR指定情報が指定する前記HDR情報を取得する
<10>又は<11>に記載のファイル再生装置。
<13>
前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
<8>ないし<12>のいずれかに記載のファイル再生装置。
<14>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報と、
注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックが格納されたファイルから、前記HDR指定情報が指定する前記HDR情報を取得する
ステップを含むファイル再生方法。
<15>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報のストリームのトラックであるHDR情報トラックと、
注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックと
が格納されたファイルを生成するファイル生成部を備える
ファイル生成装置。
<16>
前記ファイルは、ボックス構造のファイルである
<15>に記載のファイル生成装置。
<17>
前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
<16>に記載のファイル生成装置。
<18>
前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含む
<17>に記載のファイル生成装置。
<19>
前記注目トラックは、TrackReferenceBoxが有するTrackReferenceTypeBoxを前記トラック指定情報を格納する用途に用いることを表す、前記TrackReferenceTypeBoxのreference_typeとして定義されたtmpiが前記reference_typeになっている前記TrackReferenceTypeBoxを含む
<17>又は<18>に記載のファイル生成装置。
<20>
前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
<15>ないし<19>のいずれかに記載のファイル生成装置。
<21>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報のストリームのトラックであるHDR情報トラックと、
注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックと
が格納されたファイルを生成する
ステップを含むファイル生成方法。
<22>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報のストリームのトラックであるHDR情報トラックと、
注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックと
が格納されたファイルから、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記HDR指定情報が指定する前記HDR情報を取得する取得部を備える
ファイル再生装置。
<23>
前記ファイルは、ボックス構造のファイルである
<22>に記載のファイル再生装置。
<24>
前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
<23>に記載のファイル再生装置。
<25>
前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含み、
前記取得部は、前記注目トラックに含まれる前記tirfボックスに格納された前記HDR指定情報が指定する前記HDR情報を取得する
<24>に記載のファイル再生装置。
<26>
前記注目トラックは、TrackReferenceBoxが有するTrackReferenceTypeBoxを前記トラック指定情報を格納する用途に用いることを表す、前記TrackReferenceTypeBoxのreference_typeとして定義されたtmpiが前記reference_typeになっている前記TrackReferenceTypeBoxを含み、
前記取得部は、前記reference_typeが前記tmpiになっている前記TrackReferenceTypeBoxに格納された前記トラック指定情報が指定する前記HDR情報トラックの前記HDR情報から、前記HDR指定情報が指定する前記HDR情報を取得する
<24>又は<25>に記載のファイル再生装置。
<27>
前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
<22>ないし<26>のいずれかに記載のファイル再生装置。
<28>
STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
からなるHDR情報のストリームのトラックであるHDR情報トラックと、
注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
を含む前記注目トラックと
が格納されたファイルから、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記HDR指定情報が指定する前記HDR情報を取得する
ステップを含むファイル再生方法。
1 生成装置, 2 再生装置, 3 表示装置, 4 ケーブル, 11 記録媒体, 12 伝送媒体, 21 コントローラ, 21A ヘッダ情報生成部, 22 符号化処理部, 23 ファイル生成部, 31 特性情報生成部, 32 エンコーダ, 33 変換部, 34 変換情報生成部, 35 エンコーダ, 36 ストリーム生成部, 51 ファイル取得部, 52 分離部, 53 操作入力部, 54 コントローラ, 55 復号処理部, 55A,55B デコーダ, 56 合成出力部, 101 コントローラ, 101A メモリ, 102 通信部, 103 信号処理部, 104 モニタ, 121A ヘッダ情報生成部, 122 符号化処理部, 131 特性情報生成部, 132 変換情報生成部, 133 ストリーム生成部, 141 コントローラ, 142 復号処理部, 142A,142B デコーダ, 201A ヘッダ情報生成部, 202 符号化処理部, 203 ファイル生成部, 211 ストリーム生成部, 231 分離部, 232 コントローラ, 233 復号処理部, 233A,233B デコーダ, 301A ヘッダ情報生成部, 302 符号化処理部, 311 ストリーム生成部, 321 コントローラ, 322 復号処理部, 322A,322B デコーダ, 401 バス, 402 CPU, 403 ROM, 404 RAM, 405 ハードディスク, 406 出力部, 407 入力部, 408 通信部, 409 ドライブ, 410 入出力インタフェース, 411 リムーバブル記録媒体, 1001,1002 エレメント

Claims (28)

  1. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報と、
    注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックが格納されたファイルを生成するファイル生成部を備える
    ファイル生成装置。
  2. 前記ファイルは、ボックス構造のファイルである
    請求項1に記載のファイル生成装置。
  3. 前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
    請求項2に記載のファイル生成装置。
  4. 前記注目トラックは、前記HDR情報を格納するボックスとして定義されたtinfボックス(ToneMappingInformationBox)を含む
    請求項3に記載のファイル生成装置。
  5. 前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含む
    請求項4に記載のファイル生成装置。
  6. 前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
    請求項3に記載のファイル生成装置。
  7. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報と、
    注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックが格納されたファイルを生成する
    ステップを含むファイル生成方法。
  8. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報と、
    注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックが格納されたファイルから、前記HDR指定情報が指定する前記HDR情報を取得する取得部を備える
    ファイル再生装置。
  9. 前記ファイルは、ボックス構造のファイルである
    請求項8に記載のファイル再生装置。
  10. 前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
    請求項9に記載のファイル再生装置。
  11. 前記注目トラックは、前記HDR情報を格納するボックスとして定義されたtinfボックス(ToneMappingInformationBox)を含み、
    前記取得部は、前記tinfボックスに格納された前記HDR情報を取得する
    請求項10に記載のファイル再生装置。
  12. 前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含み、
    前記取得部は、前記tirfボックスに格納された前記HDR指定情報が指定する前記HDR情報を取得する
    請求項11に記載のファイル再生装置。
  13. 前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
    請求項10に記載のファイル再生装置。
  14. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報と、
    注目する注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックが格納されたファイルから、前記HDR指定情報が指定する前記HDR情報を取得する
    ステップを含むファイル再生方法。
  15. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報のストリームのトラックであるHDR情報トラックと、
    注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
    前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックと
    が格納されたファイルを生成するファイル生成部を備える
    ファイル生成装置。
  16. 前記ファイルは、ボックス構造のファイルである
    請求項15に記載のファイル生成装置。
  17. 前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
    請求項16に記載のファイル生成装置。
  18. 前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含む
    請求項17に記載のファイル生成装置。
  19. 前記注目トラックは、TrackReferenceBoxが有するTrackReferenceTypeBoxを前記トラック指定情報を格納する用途に用いることを表す、前記TrackReferenceTypeBoxのreference_typeとして定義されたtmpiが前記reference_typeになっている前記TrackReferenceTypeBoxを含む
    請求項18に記載のファイル生成装置。
  20. 前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
    請求項17に記載のファイル生成装置。
  21. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報のストリームのトラックであるHDR情報トラックと、
    注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
    前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックと
    が格納されたファイルを生成する
    ステップを含むファイル生成方法。
  22. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報のストリームのトラックであるHDR情報トラックと、
    注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
    前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックと
    が格納されたファイルから、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記HDR指定情報が指定する前記HDR情報を取得する取得部を備える
    ファイル再生装置。
  23. 前記ファイルは、ボックス構造のファイルである
    請求項22に記載のファイル再生装置。
  24. 前記ファイルは、ISO/IEC14496-14に規定されたMP4ファイルである
    請求項23に記載のファイル再生装置。
  25. 前記注目トラックは、前記HDR指定情報を格納するボックスとして定義されたtirfボックス(ToneMappingInformationReferecenceBox)を含み、
    前記取得部は、前記注目トラックに含まれる前記tirfボックスに格納された前記HDR指定情報が指定する前記HDR情報を取得する
    請求項24に記載のファイル再生装置。
  26. 前記注目トラックは、TrackReferenceBoxが有するTrackReferenceTypeBoxを前記トラック指定情報を格納する用途に用いることを表す、前記TrackReferenceTypeBoxのreference_typeとして定義されたtmpiが前記reference_typeになっている前記TrackReferenceTypeBoxを含み、
    前記取得部は、前記reference_typeが前記tmpiになっている前記TrackReferenceTypeBoxに格納された前記トラック指定情報が指定する前記HDR情報トラックの前記HDR情報から、前記HDR指定情報が指定する前記HDR情報を取得する
    請求項25に記載のファイル再生装置。
  27. 前記HDR情報は、画像の複数のコンポーネントに共通に適用するHDR情報、画像の複数のコンポーネントのうちの1つのコンポーネントに適用するHDR情報、又は、画像の複数のコンポーネントのそれぞれに適用するHDR情報である
    請求項24に記載のファイル再生装置。
  28. STD(standard)画像よりも高ダイナミックレンジのHDR(high dynamic range)画像の輝度の特性を表す特性情報と、
    前記STD画像、及び、前記HDR画像のうちの一方を他方に変換する変換規則を表す変換情報と
    からなるHDR情報のストリームのトラックであるHDR情報トラックと、
    注目する注目トラックに適用する前記HDR情報を含む前記HDR情報トラックを指定するトラック指定情報と、
    前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記注目トラックに適用する前記HDR情報を指定するHDR指定情報と
    を含む前記注目トラックと
    が格納されたファイルから、前記トラック指定情報が指定する前記HDR情報トラックのHDR情報の中の、前記HDR指定情報が指定する前記HDR情報を取得する
    ステップを含むファイル再生方法。
JP2014560961A 2013-07-19 2014-07-10 ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法 Expired - Fee Related JP6402631B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013150437 2013-07-19
JP2013150437 2013-07-19
PCT/JP2014/068379 WO2015008684A1 (ja) 2013-07-19 2014-07-10 ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法

Publications (2)

Publication Number Publication Date
JPWO2015008684A1 JPWO2015008684A1 (ja) 2017-03-02
JP6402631B2 true JP6402631B2 (ja) 2018-10-10

Family

ID=52346147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014560961A Expired - Fee Related JP6402631B2 (ja) 2013-07-19 2014-07-10 ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法

Country Status (6)

Country Link
US (1) US9918099B2 (ja)
EP (1) EP2869567B1 (ja)
JP (1) JP6402631B2 (ja)
CN (1) CN104509094B (ja)
TW (1) TWI630820B (ja)
WO (1) WO2015008684A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10171787B2 (en) * 2013-07-12 2019-01-01 Sony Corporation Reproduction device, reproduction method, and recording medium for displaying graphics having appropriate brightness
TWI630821B (zh) 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method
MX364635B (es) * 2014-06-27 2019-05-03 Panasonic Ip Man Co Ltd Dispositivo de salida de datos, método de salida de datos y método de generación de datos.
WO2016103968A1 (ja) * 2014-12-22 2016-06-30 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US10349127B2 (en) 2015-06-01 2019-07-09 Disney Enterprises, Inc. Methods for creating and distributing art-directable continuous dynamic range video
WO2017033811A1 (ja) * 2015-08-24 2017-03-02 シャープ株式会社 受信装置、放送システム、受信方法、及びプログラム
CN108702534B (zh) * 2016-02-22 2021-09-14 索尼公司 文件生成装置、文件生成方法以及再现装置和再现方法
CN105979192A (zh) * 2016-05-16 2016-09-28 福州瑞芯微电子股份有限公司 一种视频显示方法和装置
WO2018012244A1 (ja) * 2016-07-11 2018-01-18 シャープ株式会社 映像信号変換装置、映像信号変換方法、映像信号変換システム、制御プログラム、および記録媒体

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879731B2 (en) * 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
JP3835554B2 (ja) * 2003-09-09 2006-10-18 ソニー株式会社 ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
CN101742306A (zh) * 2006-01-23 2010-06-16 马普科技促进协会 高动态范围编解码器
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
KR101662696B1 (ko) 2008-08-22 2016-10-05 톰슨 라이센싱 콘텐츠 전달 방법 및 시스템
US8724007B2 (en) 2008-08-29 2014-05-13 Adobe Systems Incorporated Metadata-driven method and apparatus for multi-image processing
US8483479B2 (en) * 2009-05-11 2013-07-09 Dolby Laboratories Licensing Corporation Light detection, color appearance models, and modifying dynamic range for image display
US8606009B2 (en) * 2010-02-04 2013-12-10 Microsoft Corporation High dynamic range image generation and rendering
CN102845067B (zh) 2010-04-01 2016-04-20 汤姆森许可贸易公司 三维(3d)呈现中的字幕
TWI559779B (zh) * 2010-08-25 2016-11-21 杜比實驗室特許公司 擴展影像動態範圍
WO2012153224A1 (en) 2011-05-10 2012-11-15 Koninklijke Philips Electronics N.V. High dynamic range image signal generation and processing
US9417479B2 (en) * 2011-05-13 2016-08-16 Samsung Display Co., Ltd. Method for reducing simultaneous contrast error
CN102957202A (zh) * 2011-08-30 2013-03-06 湖南省电力勘测设计院 集成型数据记录分析装置及comtrade分文件方法
WO2013090120A1 (en) 2011-12-15 2013-06-20 Dolby Laboratories Licensing Corporation Backwards-compatible delivery of digital cinema content with extended dynamic range
GB201201230D0 (en) * 2012-01-25 2012-03-07 Univ Delft Tech Adaptive multi-dimensional data decomposition
US9129445B2 (en) 2012-03-14 2015-09-08 Dolby Laboratories Licensing Corporation Efficient tone-mapping of high-bit-depth video to low-bit-depth display
JP2015005878A (ja) 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
TWI632810B (zh) * 2013-07-19 2018-08-11 新力股份有限公司 Data generating device, data generating method, data reproducing device, and data reproducing method
TWI630821B (zh) 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method

Also Published As

Publication number Publication date
US9918099B2 (en) 2018-03-13
JPWO2015008684A1 (ja) 2017-03-02
TW201513641A (zh) 2015-04-01
WO2015008684A1 (ja) 2015-01-22
US20150208078A1 (en) 2015-07-23
EP2869567A4 (en) 2016-05-04
EP2869567A1 (en) 2015-05-06
CN104509094A (zh) 2015-04-08
CN104509094B (zh) 2019-08-13
TWI630820B (zh) 2018-07-21
EP2869567B1 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
JP6402632B2 (ja) データ生成装置、データ生成方法、データ再生装置、及び、データ再生方法
JP6402633B2 (ja) ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法
JP6402631B2 (ja) ファイル生成装置、ファイル生成方法、ファイル再生装置、及び、ファイル再生方法
JP7033537B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN104813666A (zh) 解码装置和解码方法、以及编码装置和编码方法
JP7238948B2 (ja) 情報処理装置および情報処理方法
KR101732803B1 (ko) 실감 효과 미디어 데이터 파일 구성 방법 및 장치, 실감 효과 미디어 데이터 파일 재생 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180827

R151 Written notification of patent or utility model registration

Ref document number: 6402631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees