JP2015008361A - 再生装置、再生方法、および記録媒体 - Google Patents

再生装置、再生方法、および記録媒体 Download PDF

Info

Publication number
JP2015008361A
JP2015008361A JP2013132019A JP2013132019A JP2015008361A JP 2015008361 A JP2015008361 A JP 2015008361A JP 2013132019 A JP2013132019 A JP 2013132019A JP 2013132019 A JP2013132019 A JP 2013132019A JP 2015008361 A JP2015008361 A JP 2015008361A
Authority
JP
Japan
Prior art keywords
tone
graphics
stream
mapping
hdr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013132019A
Other languages
English (en)
Inventor
幸一 内村
Koichi Uchimura
幸一 内村
遼平 高橋
Ryohei Takahashi
遼平 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013132019A priority Critical patent/JP2015008361A/ja
Priority to PCT/JP2014/065552 priority patent/WO2014208346A1/ja
Priority to CN201480034530.6A priority patent/CN105324987B/zh
Priority to KR1020157034581A priority patent/KR102225977B1/ko
Priority to US14/898,434 priority patent/US9832440B2/en
Publication of JP2015008361A publication Critical patent/JP2015008361A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input

Abstract

【課題】輝度のダイナミックレンジが広いグラフィックスを適切な明るさで表示させることができるようにする。
【解決手段】光ディスクには、第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスであるHDRグラフィックスの輝度の特性を示すHDR情報を含むtone_mapping_infoと、HDRグラフィックスから第1の輝度範囲のグラフィックスであるSTDグラフィックスへの輝度変換を行うときに用いられるtone mapping定義情報であるtone_mapping_infoとを含むTone_mapストリーム、および、HDRグラフィックスのグラフィックスストリームが記録される。本技術は、グラフィックスを記録する記録媒体に適用することができる。
【選択図】図36

Description

本技術は、再生装置、再生方法、および記録媒体に関し、特に、輝度のダイナミックレンジが広いグラフィックスを適切な明るさで表示させることができるようにした再生装置、再生方法、および記録媒体に関する。
映画などのコンテンツの記録メディアとしてBlu-ray(登録商標) Disc(以下、適宜、BDという)がある。従来、BDに収録する字幕やユーザにより操作されるメニューボタンなどのグラフィックスのオーサリングは、標準の輝度(100nit=100cd/m2)のモニタで視聴することを前提に、マスターのグラフィックスのダイナミックレンジを圧縮して行われている。
マスターとなるグラフィックスは、標準の輝度のモニタで表示可能なダイナミックレンジ以上のダイナミックレンジを有している。圧縮されることにより、マスターのグラフィックスのダイナミックレンジは当然損なわれることになる。
特開2009−58692号公報 特開2009−89209号公報
有機EL(Electroluminescence)ディスプレイやLCD(Liquid Crystal Display)等のディスプレイ技術の進歩により、500nitや1000nitといったような、標準よりも明るいモニタが市販されている。このような広いダイナミックレンジを有するモニタの性能を活かすようなグラフィックスに対する要求がある。
本技術はこのような状況に鑑みてなされたものであり、輝度のダイナミックレンジが広いグラフィックスを適切な明るさで表示させることができるようにするものである。
本技術の第1の側面の再生装置は、第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリーム、および、前記拡張グラフィックスのグラフィックスストリームを記録した記録媒体から、前記Tone_mapストリームと前記グラフィックスストリームを読み出す読み出し部と、前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換する変換部と、前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する出力部とを備える再生装置である。
本技術の第1の側面の再生方法は、本技術の第1の側面の再生装置に対応する。
本技術の第1の側面においては、第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリーム、および、前記拡張グラフィックスのグラフィックスストリームを記録した記録媒体から、前記Tone_mapストリームと前記グラフィックスストリームが読み出され、前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスが前記標準グラフィックスに変換され、前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報が出力され、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスが出力される。
本技術の第2の側面の記録媒体は、第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリームと、前記拡張グラフィックスのグラフィックスストリームとを記録した記録媒体であって、前記記録媒体を再生する再生装置においては、前記Tone_mapストリームと前記グラフィックスストリームを前記記録媒体から読み出し、前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換し、前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する
処理が行われる記録媒体である。
本技術の第2の側面においては、第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリームと、前記拡張グラフィックスのグラフィックスストリームとが記録される。
本技術によれば、輝度のダイナミックレンジが広いグラフィックスを適切な明るさで表示させることができる。
本技術を適用した記録・再生システムの第1実施の形態の構成例を示す図である。 mode-iにおける信号処理の例を示す図である。 mode-iにおいて処理される信号の流れを示す図である。 mode-iiにおける信号処理の例を示す図である。 mode-iiにおいて処理される信号の流れを示す図である。 HEVC方式におけるアクセスユニットの構成を示す図である。 Tone_mapping_infoのシンタクスを示す図である。 tone mapping定義情報とHDR情報として用いられる情報の例を示す図である。 tone_map_model_id=0のTone_mapping_infoにより示されるトーンカーブの例を示す図である。 tone_map_model_id=2のTone_mapping_infoにより示される階段関数の例を示す図である。 tone_map_model_id=3のTone_mapping_infoにより示される折れ線関数の例を示す図である。 HDR情報に含まれる各情報の例を示す図である。 BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。 Main PathとSub Pathの構造を示す図である。 ファイルの管理構造の例を示す図である。 STN_tableのシンタクスを示す図である。 StreamCodingInfoのシンタクスを示す図である。 図17の[Video Block]と[Graphics Block]のシンタクスを示す図である。 PGストリームとIGストリームのディスプレイセットの構成例を示す図である。 XPDSのシンタクスを示す図である。 本技術を適用した記録・再生システムの第1実施の形態の記録装置の構成例を示すブロック図である。 図21の符号化処理部の構成例を示すブロック図である。 HDR-STD変換部による信号処理の例を示す図である。 tone mappingの例を示す図である。 本技術を適用した記録・再生システムの第1実施の形態の再生装置の構成例を示すブロック図である。 図25のグラフィックス復号処理部の構成例を示すブロック図である。 表示装置の構成例を示すブロック図である。 図21の記録装置の記録処理について説明するフローチャートである。 図28のmode-iでの符号化処理について説明するフローチャートである。 図28のmode-iiでの符号化処理について説明するフローチャートである。 図28のData Base情報生成処理について説明するフローチャートである。 図25の再生装置の再生処理について説明するフローチャートである。 図32のmode-iでの復号処理について説明するフローチャートである。 図32のmode-iiでの復号処理について説明するフローチャートである。 図27の表示装置の表示処理について説明するフローチャートである。 本技術を適用した記録・再生システムの第2実施の形態におけるAVストリームの構成例を示す図である。 Tone_mapストリームのシンタクスを示す図である。 第2実施の形態におけるStreamCodingInfoのシンタクスを示す図である。 本技術を適用した記録・再生システムの第2実施の形態の符号化処理部の構成例を示す図である。 本技術を適用した記録・再生システムの第2実施の形態の再生装置の構成例を示す図である。 図40のグラフィックス復号処理部の構成例を示すブロック図である。 記録装置の第2の実施の形態による記録処理を説明するフローチャートである。 図42のmode-iでの符号化処理を説明するフローチャートである。 図42のmode-iiでの符号化処理を説明するフローチャートである。 図42のData Base情報生成処理を説明するフローチャートである。 再生装置の第2実施の形態による再生処理を説明するフローチャートである。 図46のmode-iでの復号処理を説明するフローチャートである。 図46のmode-iiでの復号処理の詳細を説明するフローチャートである。 第3実施の形態におけるPGストリームとIGストリームのディスプレイセットの構成例を示す図である。 図49のXPDSのシンタクスの例を示す図である。 図49のTDSのシンタクスの例を示す図である。 本技術を適用した記録・再生システムの第3実施の形態の符号化処理部の構成例を示す図である。 本技術を適用した記録・再生システムの第3実施の形態の再生装置の構成例を示す図である。 図53のグラフィックス復号処理部の構成例を示すブロック図である。 図52の符号化処理部のmode-iでの符号化処理を説明するフローチャートである。 図52の符号化処理部のmode-iiでの符号化処理を説明するフローチャートである。 第3実施の形態におけるData Base情報生成処理を説明するフローチャートである。 図53の復号処理部のmode-iでの復号処理を説明するフローチャートである。 図53の復号処理部のmode-iiでの復号処理を説明するフローチャートである。 BDJオブジェクトに基づいて生成される画面を説明する図である。 本技術を適用した第4実施の形態におけるビデオ再生時のtone_mapping_infoを説明する図である。 ビデオ再生時のコマンドの例を示す図である。 本技術を適用した第4実施の形態におけるビデオ停止時のtone_mapping_infoを説明する図である。 ビデオ停止時のコマンドの例を示す図である。 BDJアプリケーションのクラス構造を示す図である。 BDJアプリケーションのクラス構造を示す図である。 本技術を適用した記録・再生システムの第4実施の形態の記録装置の構成例を示す図である。 図67の符号化処理部の構成例を示すブロック図である。 本技術を適用した再生装置2の第4実施の形態の構成例を示すブロック図である。 図67の記録装置の記録処理を説明するフローチャートである。 図69の再生装置のBDJ画面の再生処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
<第1実施の形態>
(記録・再生システムの第1実施の形態の構成例)
図1は、本技術を適用した記録・再生システムの第1実施の形態の構成例を示す図である。
図1の記録・再生システムは、記録装置1、再生装置2、および表示装置3から構成される。再生装置2と表示装置3はHDMI(登録商標)(High Definition Multimedia Interface)ケーブル4を介して接続される。再生装置2と表示装置3が他の規格のケーブルを介して接続されるようにしてもよいし、無線による通信を介して接続されるようにしてもよい。
記録装置1はコンテンツを記録し、再生装置2はコンテンツを再生する。記録装置1から再生装置2に対するコンテンツの提供は光ディスク11を用いて行われる。光ディスク11は、例えばBD-ROM(Blu-ray(登録商標) Disc Read-Only)フォーマットでコンテンツが記録されたディスクである。
光ディスク11に対するコンテンツの記録がBD-R,-REなどの他のフォーマットで行われるようにしてもよい。また、記録装置1から再生装置2に対するコンテンツの提供が、フラッシュメモリを搭載したメモリカードなどの、光ディスク以外のリムーバブルメディアを用いて行われるようにしてもよいし、ネットワーク配信により行われてもよい。
光ディスク11がBD-ROMのディスクである場合、記録装置1は例えばコンテンツのオーサーが使う装置となる。以下、適宜、記録装置1によってコンテンツが記録された光ディスク11が再生装置2に提供されるものとして説明するが、実際には、記録装置1によりコンテンツが記録されたマスター盤に基づいて光ディスクが複製され、その一つである光ディスク11が再生装置2に提供される。
記録装置1に対しては、標準の輝度のモニタで表示可能なダイナミックレンジ(輝度範囲)以上のダイナミックレンジを有するビデオである1以上のHDR(High Dynamic Range)ビデオが入力される。標準の輝度は例えば100cd/m2(=100nit)である。
また、記録装置1に対しては、標準の輝度のモニタで表示可能なダイナミックレンジ以上のダイナミックレンジを有するグラフィックスであるHDRグラフィックスが入力される。なお、以下では、HDRビデオとHDRグラフィックスを特に区別する必要がない場合、それらをまとめてHDRデータという。
記録装置1は、入力されたマスターのHDRデータをそのまま、すなわち標準の輝度を有するモニタで表示可能なダイナミックレンジ以上のダイナミックレンジを有するデータのまま符号化し、BDフォーマットで光ディスク11に記録する。
この場合、光ディスク11には、マスターのHDRデータの輝度の特性を示すHDR情報と、HDRデータをSTDデータに変換するときに用いられる低変換情報も記録される。
STDデータは、標準の輝度を有するモニタで表示可能なダイナミックレンジのビデオであるSTDビデオ(standardビデオ)、および、そのダイナミックレンジのグラフィックスであるSTDグラフィックスの総称である。STDデータのダイナミックレンジを0-100%とすると、HDRデータのダイナミックレンジは0-500%、0-1000%といったような、0%から101%以上の範囲として表される。
また、記録装置1は、入力されたマスターのHDRデータをSTDデータに変換して、すなわち標準の輝度を有するモニタで表示可能なダイナミックレンジを有するデータに変換して符号化し、BDフォーマットで光ディスク11に記録する。この場合、光ディスク11には、HDR情報と、STDデータをHDRデータに変換するときに用いられる高変換情報も記録される。
記録装置1が記録するHDRビデオ、またはHDRビデオを変換して得られたSTDビデオは、例えば、横×縦の解像度が4096×2160、3840×2160画素などのいわゆる4K解像度のビデオである。ビデオの符号化の方式としては、例えばHEVC(High Efficiency Video Coding)方式が用いられる。
HEVC方式では、HDR画像のデータの輝度の特性を示す情報と、HDR画像のデータをSTD画像のデータに、またはSTD画像のデータをHDR画像のデータに変換するときに用いられる情報を、SEI(Supplemental Enhancement Information)に設定することができる。従って、HDR情報と、低変換情報または高変換情報とは、ビデオのHEVCストリームであるビデオストリームのSEIに設定されて記録される。字幕の符号化の方式としては、ランレングス方式がある。
再生装置2は、HDMIケーブル4を介して表示装置3と通信を行い、表示装置3の表示性能に関する情報を取得する。再生装置2は、表示装置3がHDRデータの表示が可能なモニタであるHDRモニタを有する装置であるのか、STDデータの表示しかできないモニタであるSTDモニタを有する装置であるのかを特定する。
また、再生装置2は、ドライブを駆動し、光ディスク11に記録されたビデオストリームとグラフィックスの符号化ストリームであるグラフィックスストリームとを読み出して復号する。
例えば、再生装置2は、復号して得られたデータがHDRデータであり、表示装置3がHDRモニタを有する場合、復号して得られたHDRデータを表示装置3に出力する。この場合、再生装置2は、HDRデータとともに、HDR情報を表示装置3に出力する。
一方、再生装置2は、復号して得られたデータがHDRデータであり、表示装置3がSTDモニタを有する場合、復号して得られたHDRデータをSTDデータに変換し、STDデータを出力する。HDRデータのSTDデータへの変換は、光ディスク11に記録されている、低変換情報を用いて行われる。
再生装置2は、復号して得られたデータがSTDデータであり、表示装置3がHDRモニタを有する場合、復号して得られたSTDデータをHDRデータに変換し、HDRデータを表示装置3に出力する。STDデータのHDRデータへの変換は、光ディスク11に記録されている高変換情報を用いて行われる。この場合、再生装置2は、HDRデータとともに、HDR情報を表示装置3に出力する。
一方、再生装置2は、復号して得られたデータがSTDデータであり、表示装置3がSTDモニタを有する場合、復号して得られたSTDデータを表示装置3に出力する。
表示装置3は、再生装置2から送信されたSTDデータまたはHDRデータを受信し、STDデータまたはHDRデータに基づいて映像をモニタに表示する。
例えば、表示装置3は、HDR情報が送信されてきた場合、そのHDR情報とともに再生装置2から送信されてきたデータがHDRデータであるとして認識する。上述したように、HDRモニタを有する表示装置3に対しては、HDRデータとともに、HDR情報が送信されてくる。
この場合、表示装置3は、HDRデータの映像を、HDR情報により指定される特性に従って表示する。すなわち、表示装置3は、自身が有するモニタが0-500%のダイナミックレンジを有するモニタであり、HDR情報により、HDRデータのダイナミックレンジが0-500%の所定の特性であると指定された場合、その所定の特性に従って、0-500%の範囲で輝度を調整して映像を表示する。
マスターのHDRデータの輝度の特性を指定することができるようにすることにより、コンテンツのオーサー(Author)は、意図したとおりの輝度で映像を表示させることが可能になる。
通常、TVなどの表示装置は、外部から入力されたデータを0-100%のダイナミックレンジを有するデータとして認識する。また、表示装置は、自身のモニタがそれより広いダイナミックレンジを有する場合には、モニタの特性に応じて輝度を自ら拡張して映像を表示させてしまう。輝度の特性を指定し、指定した特性に従ってHDRデータの輝度を調整させることにより、オーサーの意図しない輝度調整が表示装置側で行われるのを防ぐことが可能になる。
また、通常、TVなどの表示装置にデータを出力する再生装置は、伝送路の特性に応じて輝度を変換してからデータを出力する。そのデータを受信した表示装置は、受信したデータの輝度をモニタの特性に応じて変換し、映像を表示させることになる。再生装置2において輝度の変換を行わずに、再生装置2からHDRデータのまま表示装置3に出力させることにより、輝度変換の回数を減らすことができ、マスターにより近い輝度の映像を表示装置3に表示させることが可能になる。
一方、表示装置3は、HDR情報が送信されてこない場合、再生装置2から送信されたデータがSTDデータであると認識し、STDデータの映像を表示する。再生装置2からSTDデータが送信されてくるということは、表示装置3はSTDモニタを有する装置である。
また、記録装置1により光ディスク11にオーディオデータが記録される場合には、再生装置2からオーディオデータも送信されてくる。表示装置3は、再生装置2から送信されてきたオーディオデータに基づいて、音声をスピーカから出力させる。
以下、適宜、マスターのHDRデータをそのまま光ディスク11に記録するモードをmode-iという。mode-iの場合、光ディスク11には、HDR情報と低変換情報が記録される。
また、マスターのHDRデータをSTDデータに変換して光ディスク11に記録するモードをmode-iiという。mode-iiの場合、光ディスク11には、HDR情報と高変換情報が記録される。
(mode-iにおける信号処理)
図2は、mode-iにおける信号処理の例を示す図である。
実線L1で囲んで示す左側の処理が記録装置1において行われる符号化処理を示し、実線L2で囲んで示す右側の処理が再生装置2において行われる復号処理を示す。
マスターのHDRデータが入力された場合、記録装置1は、マスターのHDRデータの輝度を検出し、矢印#1の先に示すように、HDR情報を生成する。また、記録装置1は、矢印#2−1の先に示すように、マスターのHDRビデオをHEVC方式で符号化して符号化データを生成し、矢印#2−2の先に示すように、マスターのHDRグラフィックスを符号化してグラフィックスストリームを生成する。
記録装置1は、矢印#3の先に示すように、マスターのHDRデータをSTDデータに変換する。変換して得られたSTDデータの映像は図示せぬモニタに表示される。HDRデータのSTDデータへの変換は、適宜、変換後のSTDデータの映像をオーサーが目で確認し、変換パラメータを調整しながら行われる。
オーサーによる調整に基づいて、記録装置1は、矢印#4の先に示すように、低変換情報であるHDR-STD変換用のtone mapping定義情報を生成する。
tone mapping定義情報は、標準のダイナミックレンジより広い0-400%などのダイナミックレンジにおける各輝度値と、標準のダイナミックレンジである0-100%のダイナミックレンジにおける各輝度値の対応関係を定義する情報である。
記録装置1は、矢印#5の先に示すように、HDR情報とtone mapping定義情報をSEIとしてHDRビデオの符号化データに挿入し、ビデオストリームを生成する。記録装置1は、生成したビデオストリームと、HDRグラフィックスのグラフィックスストリームをBDフォーマットで光ディスク11に記録し、矢印#11に示すように再生装置2に提供する。
このように、HDRビデオおよびHDRグラフィックスのHDR情報とHDR-STD変換用のtone mapping定義情報は、SEIを用いて、ビデオストリーム中に挿入する形で再生装置2に提供される。
再生装置2は、光ディスク11からグラフィックスストリームを読み出し、矢印#20の先に示すように、グラフィックスストリームを復号し、HDRグラフィックスを生成する。
また、再生装置2は、光ディスク11からビデオストリームを読み出し、矢印#21,#22の先に示すように、ビデオストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#23の先に示すように、ビデオストリームに含まれる符号化データをHEVC方式で復号し、HDRビデオを生成する。再生装置2は、表示装置3がHDRモニタを有する場合、矢印#24の先に示すように、復号して得られたHDRデータにHDR情報を付加し、矢印#25の先に示すように表示装置3に出力する。
一方、再生装置2は、表示装置3がSTDモニタを有する場合、矢印#26の先に示すように、ビデオストリームから抽出されたHDR-STD変換用のtone mapping定義情報を用いて、復号して得られたHDRデータをSTDデータに変換する。再生装置2は、矢印#27の先に示すように、変換して得られたSTDデータを表示装置3に出力する。
このように、復号して得られたHDRデータは、HDR情報とともに、HDRモニタを有する表示装置3に出力される。また、復号して得られたHDRデータは、STDデータに変換された後、STDモニタを有する表示装置3に出力される。
図3は、マスターのHDRデータが記録装置1に入力されてから、再生装置2からデータが出力されるまでの処理の流れを示す図である。
マスターのHDRデータは、白抜き矢印#51の先に示すように、マスターのHDRデータに基づいて記録装置1において生成されたHDR情報とHDR-STD変換用のtone mapping定義情報とともに再生装置2に提供される。HDR情報には例えばダイナミックレンジが0-400%の範囲に拡張されていることを表す情報が含まれる。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#52,#53の先に示すように、復号して得られたHDRデータにHDR情報が付加される。また、HDR情報が付加されたHDRデータが矢印#54の先に示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#55,#56の先に示すように、復号して得られたHDRデータがHDR-STD変換用のtone mapping定義情報を用いてSTDデータに変換される。また、変換して得られたSTDデータが矢印#57の先に示すように表示装置3に出力される。図3において、HDRデータを示す波形の振幅とSTDデータを示す波形の振幅はそれぞれダイナミックレンジを示す。
このように、mode-iにおいては、マスターのHDRデータがHDRデータのまま光ディスク11に記録される。また、出力先となる表示装置3の性能に応じて、復号して得られたHDRデータをそのままHDR情報を付加して出力するのか、HDRデータをSTDデータに変換して出力するのかが切り替えられる。
(mode-iiにおける信号処理)
図4は、mode-iiにおける信号処理の例を示す図である。
マスターのHDRデータが入力された場合、記録装置1は、マスターのHDRデータの輝度を検出し、矢印#71の先に示すようにHDR情報を生成する。
記録装置1は、矢印#72の先に示すように、マスターのHDRデータをSTDデータに変換する。変換して得られたSTDデータの映像は図示せぬモニタに表示される。
オーサーによる調整に基づいて、記録装置1は、矢印#73の先に示すように、高変換情報であるSTD-HDR変換用のtone mapping定義情報を生成する。
また、記録装置1は、矢印#74−1の先に示すように、マスターのHDRビデオを変換して得られたSTDビデオをHEVC方式で符号化して符号化データを生成する。また、矢印#74−2の先に示すように、マスターのHDRグラフィックスを変換して得られたSTDグラフィックスを符号化してグラフィックスストリームを生成する。
記録装置1は、矢印#75の先に示すように、HDR情報とtone mapping定義情報をSEIとして符号化データに挿入し、ビデオストリームを生成する。記録装置1は、生成したビデオストリームとグラフィックスストリームをBDフォーマットで光ディスク11に記録し、矢印#91に示すように再生装置2に提供する。
再生装置2は、光ディスク11からビデオストリームを読み出し、矢印#101,#102の先に示すように、ビデオストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#103−1の先に示すように、ビデオストリームに含まれる符号化データをHEVC方式で復号してSTDビデオを生成し、矢印#103−2の先に示すように、グラフィックスストリームを復号してSTDグラフィックスを生成する。再生装置2は、表示装置3がSTDモニタを有する場合、矢印#104の先に示すように、復号して得られたSTDデータを表示装置3に出力する。
一方、再生装置2は、表示装置3がHDRモニタを有する場合、矢印#105の先に示すように、ビデオストリームから抽出されたSTD-HDR変換用のtone mapping定義情報を用いて、復号して得られたSTDデータをHDRデータに変換する。再生装置2は、矢印#106の先に示すように、変換して得られたHDRデータにHDR情報を付加し、矢印#107の先に示すように表示装置3に出力する。
このように、復号して得られたSTDデータは、HDRデータに変換された後、HDR情報とともに、HDRモニタを有する表示装置3に出力される。また、復号して得られたSTDデータは、STDモニタを有する表示装置3にそのまま出力される。
図5は、マスターのHDRデータが記録装置1に入力されてから、再生装置2からデータが出力されるまでの処理の流れを示す図である。
マスターのHDRデータは、白抜き矢印#121の先に示すように、STDデータに変換された後、マスターのHDRデータに基づいて記録装置1において生成されたHDR情報とSTD-HDR変換用のtone mapping定義情報とともに再生装置2に提供される。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#122,#123の先に示すように、復号して得られたSTDデータがSTD-HDR変換用のtone mapping定義情報を用いてHDRデータに変換される。また、矢印#124,#125の先に示すように、STDデータを変換して得られたHDRデータにHDR情報が付加され、矢印#126の先に示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#127の先に示すように、復号して得られたSTDデータが表示装置3に出力される。
このように、mode-iiにおいては、マスターのHDRデータがSTDデータに変換されて光ディスク11に記録される。また、出力先となる表示装置3の性能に応じて、復号して得られたSTDデータをHDRデータに変換し、HDR情報を付加して出力するのか、STDデータをそのまま出力するのかが切り替えられる。
以上のような記録装置1と再生装置2の構成と動作の詳細については後述する。
ここで、HEVC方式について説明する。
(HEVC方式におけるアクセスユニットの構成)
図6は、HEVC方式におけるアクセスユニットの構成を示す図である。
ビデオストリームは、NAL(Network Abstraction Layer)ユニットの集まりであるアクセスユニットから構成される。1つのアクセスユニットには1ピクチャのビデオデータが含まれる。
図6に示すように、1つのアクセスユニットは、AUデリミタ(Access Unit delimiter)、VPS(Video Parameter Set)、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI、VCL(Video Coding Layer)、EOS(End of Sequence)、およびEOS(End of Stream)から構成される。
AUデリミタは、アクセスユニットの先頭を示す。VPSは、ビットストリームの内容を表すメタデータを含む。SPSは、ピクチャサイズ、CTB(Coding Tree Block)サイズなどの、HEVCデコーダがシーケンスの復号処理を通じて参照する必要のある情報を含む。PPSは、HEVCデコーダがピクチャの復号処理を実行するために参照する必要のある情報を含む。VPS,SPS,PPSがヘッダ情報として用いられる。
SEIは、各ピクチャのタイミング情報やランダムアクセスに関する情報などを含む補助情報である。HDR情報とtone mapping定義情報は、SEIの1つであるtone_mapping_infoに含まれる。tone_mapping_infoには、tone_mapping_infoを識別する識別情報が付与されている。本明細書では、識別情報がiであるtone_mapping_infoをtone_mapping_info#iという。
VCLは1ピクチャの符号化データである。EOS(End of Sequence)はシーケンスの終了位置を示し、EOS(End of Stream)はストリームの終了位置を示す。
(tone_mapping_infoについて)
図7は、tone_mapping_infoのシンタクスを示す図である。
tone_mapping_infoを用いて、復号して得られた映像の明るさや色が、映像の出力先となるモニタの性能に合わせて変換される。なお、図7の左側の行番号とコロン(:)は説明の便宜上示すものであり、シンタクスに含まれるものではない。このことは、後述する図16乃至図18および図20、図37、図38、図50、および図51においても同様である。tone_mapping_infoに含まれる主な情報について説明する。
2行目のtone_map_idは、tone_mapping_infoの識別情報である。8行目のtone_map_model_idは、変換に用いるtone mapのモデルを表す。
記録装置1においては、tone_map_model_idとして0,2,3のうちのいずれかの値が設定されたtone_mapping_infoと、tone_map_model_idとして4の値が設定されたtone_mapping_infoが少なくとも1つずつ生成される。
図8に示すように、tone_map_model_idとして0,2,3のうちのいずれかの値が設定されたtone_mapping_infoが、HDR-STD変換用またはSTD-HDR変換用のtone mapping定義情報として用いられる。また、tone_map_model_idとして4の値が設定されたtone_mapping_infoに含まれる情報が、HDR情報として用いられる。
図7の9〜11行目がtone_map_model_id=0に関する記述である。tone_map_model_id=0である場合、min_valueとmax_valueが記述される。
図9は、tone_map_model_id=0のtone_mapping_infoにより示されるトーンカーブの例を示す図である。
図9の横軸がcoded_data(変換前のRGB値)を示し、縦軸がtarget_data(変換後のRGB値)を示す。図9のトーンカーブを用いた場合、D1以下のRGB値は、白抜き矢印#151で示すようにmin_valueにより示されるRGB値に変換される。また、D2以上のRGB値は、白抜き矢印#152で示すようにmax_valueにより示されるRGB値に変換される。
tone_map_model_id=0のtone_mapping_infoは、HDR-STD変換用のtone mapping定義情報として用いられる。tone_map_model_id=0のtone_mapping_infoを用いた場合、max_value以上とmin_value以下の輝度(RGB値により表される輝度)が失われることになるが、変換処理の負荷は軽くなる。
図7の15〜17行目がtone_map_model_id=2に関する記述である。tone_map_model_id=2である場合、階段関数を表す、max_target_dataの数と同じ数のstart_of_coded_interval[i]が記述される。start_of_coded_interval[i]のビット数は、6行目のcoded_data_bit_depthによって決まる可変値であってもよいし、固定値(256ビット)であってもよい。可変値の場合、固定値の場合に比べてビット数を削減することができる。
図10は、tone_map_model_id=2のtone_mapping_infoにより示される階段関数の例を示す図である。
図10の階段関数を用いた場合、例えばcoded_data=5はtarget_data=3に変換される。start_of_coded_interval[i]が{1,3,4,5,5,5,7,7,・・・}であるとすると、coded_data-target_data変換テーブルは{0,1,1,2,3,5,5,・・・}として表される。
tone_map_model_id=2のtone_mapping_infoは、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられる。tone_map_model_id=2のtone_mapping_infoは、データ量が多いことから、その作成時に変換テーブルへの畳み込みを行う必要があるが、変換処理の負荷は軽い。
図7の18〜23行目がtone_map_model_id=3に関する記述である。tone_map_model_id=3である場合、折れ線関数を表す、num_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]が記述される。coded_pivot_value[i]とtarget_pivot_value[i]のビット数は、6行目のcoded_data_bit_depthによって決まる可変値であってもよいし、固定値(256ビット)であってもよい。可変値の場合、固定値の場合に比べてビット数を削減することができる。
図11は、tone_map_model_id=3のtone_mapping_infoにより示される折れ線関数の例を示す図である。
図11の折れ線関数を用いた場合、例えばcoded_data=D11はtarget_data=D11’に変換され、coded_data=D12はtarget_data=D12’に変換される。tone_map_model_id=3のtone_mapping_infoは、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられる。
このように、tone_map_model_idとして0,2,3のいずれかの値が設定されたtone_mapping_infoが、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられ、記録装置1から再生装置2に伝送される。
図7の24〜39行目がtone_map_model_id=4に関する記述である。tone_map_model_id=4に関する情報のうち、ref_screen_luminance_white、extended_range_white_level、nominal_black_level_code_value、nominal_white_level_code_value、およびextended_white_level_code_valueが、HDR情報を構成するパラメータとなる。
図12は、HDR情報に含まれる各情報の例を示す図である。
図12の横軸は輝度値を示す。ビット長が10bitである場合、輝度値は0-1023の値となる。図12の縦軸は明るさを示す。曲線L11が、標準の輝度のモニタにおける輝度値と明るさの関係を示す。標準の輝度のモニタのダイナミックレンジは0-100%である。
ref_screen_luminance_whiteは、標準となるモニタの明るさ(cd/m2)を示す。extended_range_white_levelは、拡張後のダイナミックレンジの明るさを示す。図12の例の場合、extended_range_white_levelの値として400が設定される。
nominal_black_level_code_valueは、黒(明るさ0%)の輝度値を示し、nominal_white_level_code_valueは、標準の輝度のモニタにおける白(明るさ100%)の輝度値を示す。extended_white_level_code_valueは、拡張後のダイナミックレンジにおける白の輝度値を示す。
図12の例の場合、白抜き矢印#161で示すように、0-100%のダイナミックレンジは、extended_range_white_levelの値に従って、0-400%のダイナミックレンジに拡張される。また、400%の明るさに相当する輝度値が、extended_white_level_code_valueにより指定される。
HDRデータの輝度の特性は、nominal_black_level_code_value、nominal_white_level_code_value、extended_white_level_code_valueの値がそれぞれ明るさ0%、100%、400%をとる曲線L12により示される特性となる。
このように、tone_map_model_idとして4の値が設定されたtone_mapping_infoにより、マスターのHDRデータの輝度の特性が示され、記録装置1から再生装置2に伝送される。
ここで、BD-ROMフォーマットについて説明する。
(BD-ROMフォーマットにおけるAVストリームの管理構造)
図13は、BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。
ビデオストリームを含むAVストリームの管理は、PlayListとClipの2つのレイヤを用いて行われる。AVストリームは、光ディスク11だけでなく、再生装置2のローカルストレージに記録されることもある。
1つのAVストリームと、それに付随する情報であるClip Informationのペアが1つのオブジェクトとして管理される。AVストリームとClip InformationのペアをClipという。
AVストリームは時間軸上に展開され、各Clipのアクセスポイントは、主に、タイムスタンプでPlayListにおいて指定される。Clip Informationは、AVストリーム中のデコードを開始すべきアドレスを見つけるためなどに使用される。
PlayListはAVストリームの再生区間の集まりである。AVストリーム中の1つの再生区間はPlayItemと呼ばれる。PlayItemは、時間軸上の再生区間のIN点とOUT点のペアで表される。図13に示すように、PlayListは1つまたは複数のPlayItemにより構成される。
図13の左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照される。
左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照される。
左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照される。
例えば、左から1番目のPlayListに含まれる左側のPlayItemが再生対象としてディスクナビゲーションプログラムにより指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームの再生を管理するための再生管理情報として用いられる。
PlayListの中で、1つ以上のPlayItemの並びによって作られる再生パスをメインパス(Main Path)という。また、PlayListの中で、Main Pathに並行して、1つ以上のSubPlayItemの並びによって作られる再生パスをサブパス(Sub Path)という。
(Main PathとSub Pathの構造)
図14は、Main PathとSub Pathの構造を示す図である。
PlayListは、1つのMain Pathと1つ以上のSub Pathを持つ。図14のPlayListは、3つのPlayItemの並びにより作られる1つのMain Pathと3つのSub Pathを有する。
Main Pathを構成するPlayItemには、先頭から順番にそれぞれIDが設定される。Sub Pathにも、先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2のIDが設定される。
図14の例においては、Subpath_id=0のSub Pathには1つのSubPlayItemが含まれ、Subpath_id=1のSub Pathには2つのSubPlayItemが含まれる。また、Subpath_id=2のSub Pathには1つのSubPlayItemが含まれる。
1つのPlayItemが参照するAVストリームには、少なくとも主映像のビデオストリームが含まれる。AVストリームには、AVストリームに含まれる主映像のビデオストリームと同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームに含まれる主映像のビデオストリームと同期して再生される副映像のビデオストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームに含まれる主映像のビデオストリームと同期して再生されるビットマップの字幕データ(PG(Presentation Graphic))のストリームであるPGストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームに含まれる主映像のビデオストリームと同期して再生される字幕のテキストデータ(Text-ST)のストリームであるText-STストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームに含まれる主映像のビデオストリームと同期して再生されるメニューボタンの画像データ(IG(Interactive Graphic))のストリームであるIGストリームが1つ以上含まれてもよいし、含まれなくてもよい。
1つのPlayItemが参照するAVストリームには、主映像のビデオストリームと、それと同期して再生されるオーディオストリーム、副映像のビデオストリーム、PGストリーム、Text-STストリーム、およびIGストリームが多重化される。
また、1つのSubPlayItemは、PlayItemが参照するAVストリームとは異なる、ビデオストリーム、オーディオストリーム、PGストリーム、Text-STストリーム、IGストリームなどを参照する。
このように、AVストリームの再生はPlayListとClip Informationを用いて行われる。AVストリームの再生に関する情報を含むPlayListとClip Informationを、適宜、Data Base情報という。
(光ディスク11のファイルの管理構造)
図15は、光ディスク11に記録されるファイルの管理構造の例を示す図である。
光ディスク11に記録される各ファイルはディレクトリ構造により階層的に管理される。光ディスク11上には1つのrootディレクトリが作成される。
rootディレクトリの下にはBDMVディレクトリが置かれる。
BDMVディレクトリの下には、「Index.bdmv」の名前が設定されたファイルであるIndexファイルと、「MovieObject.bdmv」の名前が設定されたファイルであるMovieObjectファイルが格納される。
Indexファイルには、例えば、光ディスク11に記録されているタイトルの番号の一覧と、そのタイトルの番号に対応して実行されるオブジェクトの種類および番号が記述される。オブジェクトの種類としては、ムービーオブジェクト(MovieObject)とBDJオブジェクト(BDJ Object)の2種類がある。
ムービーオブジェクトとは、プレイリストの再生等のナビゲーションコマンドが記述されるオブジェクトである。BDJオブジェクトとは、BDJアプリケーションが記述されるオブジェクトである。MovieObjectファイルには、ムービーオブジェクトが記述される。
BDMVディレクトリの下には、PLAYLISTディレクトリ、CLIPINFディレクトリ、STREAMディレクトリ、BDJOディレクトリ等が設けられる。
PLAYLISTディレクトリには、PlayListを記述したPlayListファイルが格納される。各PlayListファイルには、5桁の数字と拡張子「.mpls」を組み合わせた名前が設定される。図15に示す1つのPlayListファイルには「00000.mpls」のファイル名が設定されている。
CLIPINFディレクトリには、Clip Informationを記述したClip Informationファイルが格納される。各Clip Informationファイルには、5桁の数字と拡張子「.clpi」を組み合わせた名前が設定される。図15の3つのClip Informationファイルには、それぞれ、「00001.clpi」、「00002.clpi」、「00003.clpi」のファイル名が設定されている。
STREAMディレクトリにはストリームファイルが格納される。各ストリームファイルには、5桁の数字と拡張子「.m2ts」を組み合わせた名前が設定される。図15の3つのストリームファイルには、それぞれ、「00001.m2ts」、「00002.m2ts」、「00003.m2ts」のファイル名が設定されている。
同じ5桁の数字がファイル名に設定されているClip Informationファイルとストリームファイルが1つのClipを構成するファイルとなる。「00001.m2ts」のストリームファイルの再生時には「00001.clpi」のClip Informationファイルが用いられ、「00002.m2ts」のストリームファイルの再生時には「00002.clpi」のClip Informationファイルが用いられる。
BDJOディレクトリには、BDJオブジェクトが記述されるBDJオブジェクトファイルが格納される。各BDJオブジェクトファイルには、5桁の数字と拡張子「.bdjo」を組み合わせた名前が設定される。図15の3つのストリームファイルには、それぞれ、「00001.bdjo」、「00002.bdjo」、「00003.bdjo」のファイル名が設定されている。
ここで、各ファイルのシンタクスの主な記述について説明する。
(PlayListファイルのシンタクス)
図16は、PlayListファイルのPlayItemのSTN_tableのシンタクスを示す図である。
STN_tableには、PlayItemが参照するAVストリームの情報が含まれる。PlayItemと関連付けて再生されるSub Pathがある場合、そのSub Pathを構成するSubPlayItemが参照するAVストリームの情報も含まれる。
4行目のnumber_of_primary_video_stream_entriesは、STN_tableにエントリされる(登録される)主映像のビデオストリームの数を表す。6行目のnumber_of_PG_textST_stream_entriesは、STN_tableにエントリされるPGストリームおよびText-STストリームの数を表す。7行目のnumber_of_IG_stream_entriesは、STN_tableにエントリされるIGストリームの数を表す。
11行目のprimary_video_tone_mapping_flagは、主映像のビデオストリームとtone_mapping_infoを対応付けるかどうかを表す。12行目のPG_text_ST_tone_mapping_flagは、PGストリームおよびText-STストリームとtone_mapping_infoとを対応付けるかどうかを表す。13行目のIG_tone_mapping_flagは、IGストリームとtone_mapping_infoを対応付けるかどうかを表す。14行目のsecondary_video_tone_mapping_flagは、副映像のビデオストリームとtone_mapping_infoを対応付けるかどうかを表す。
33行目に示すように、primary_video_tone_mapping_flagが1である場合、STN_tableには、主映像のビデオストリームの再生時に使用されるtone_mapping_infoの数を表すnumber_of_tone_mapping_info_refが記述される。
また、34〜37行目に示すように、primary_video_tone_mapping_flagが1である場合、STN_tableには、主映像のビデオストリームの再生時に使用されるtone_mapping_infoのtone_map_idを表すtone_mapping_info_refが記述される。これにより、主映像のビデオストリームと、そのビデオストリームのtone_mapping_infoが対応付けられる。従って、33〜37行目のnumber_of_tone_mapping_info_refとtone_mapping_info_refは、主映像のビデオストリームと、その主映像のビデオストリームのtone_mapping_infoとを対応付ける対応情報である。
同様に、56〜60行目に示すように、STN_tableには、PG_text_ST_tone_mapping_flagが1である場合、PGストリームおよびText-STストリームの再生時に使用されるtone_mapping_infoの数と、そのtone_mapping_infoのtone_map_idが設定される。これにより、PGストリームおよびText-STストリームと、そのPGストリームおよびText-STストリームのtone_mapping_infoとが対応付けられる。従って、56〜60行目のnumber_of_tone_mapping_info_refとtone_mapping_info_refは、PGストリームおよびText-STストリームと、そのPGストリームおよびText-STストリームのtone_mapping_infoとを対応付ける対応情報である。
また、同様に、79〜83行目に示すように、STN_tableには、IG_tone_mapping_flagが1である場合、IGストリームの再生時に使用されるtone_mapping_infoの数と、そのtone_mapping_infoのtone_map_idが設定される。これにより、IGストリームと、そのIGストリームのtone_mapping_infoが対応付けられる。従って、79〜83行目のnumber_of_tone_mapping_info_refとtone_mapping_info_refは、IGストリームと、そのIGストリームのtone_mapping_infoとを対応付ける対応情報である。同様に、105〜109行目に示すように、STN_tableには、secondary_video_tone_mapping_flagが1である場合、副映像のビデオストリームの再生時に使用されるtone_mapping_infoの数と、そのtone_mapping_infoのtone_map_idが設定される。これにより、副映像のビデオストリームと、その副映像のビデオストリームのtone_mapping_infoが対応付けられる。従って、105〜109行目のnumber_of_tone_mapping_info_refとtone_mapping_info_refは、副映像のビデオストリームと、その副映像のビデオストリームのtone_mapping_infoとを対応付ける対応情報である。
以上のように、STN_tableでは、各AVストリームと、そのAVストリームのtone_mapping_infoが対応付けられる。従って、再生装置2は、このSTN_tableに基づいて、ビデオストリームのSEIに挿入されているtone_mapping_infoの中から各AVストリームのtone_mapping_infoを選択し、そのAVストリームの再生時に用いることができる。
(Clip Informationファイルのシンタクス)
図17は、Clip InformationファイルのStreamCodingInfoのシンタクスを示す図である。
StreamCodingInfoには、Clipを構成するAVストリームの符号化に関する情報が含まれる。
3行目のstream_coding_typeは、AVストリームに含まれるelementary streamの符号化方式を示す。例えば、ビデオストリームの再生に用いられるClip InformationのStreamCodingInfoにおいては、符号化方式がHEVC方式であることを示す値がstream_coding_typeとして設定される。
また、4〜6行目に示すように、StreamCodingInfoには、ビデオストリームの符号化に関する情報である[Video Block]、オーディオストリームの符号化に関する情報である[Audio Block]、およびグラフィックスストリームの符号化に関する情報である[Graphics Block]が含まれる。
図18は、図17の[Video Block]と[Graphics Block]のシンタクスを示す図である。
図18Aは、[Video Block]のシンタクスを示し、図18Bは、[Graphics Block]のシンタクスを示している。
図18Aの[Video Block]は、ビデオストリームの再生に用いられるClip InformationのStreamCodingInfoにおいて記述される、ビデオストリームの符号化に関する情報である。5行目のvideo_formatは、ビデオの走査方式を示す。
10行目のHDR_flagは1ビットのフラグであり、HDRデータをマスターとした記録が行われているか否かを示す。例えば、HDR_flag=1は、HDRデータをマスターとした記録が行われていることを示す。また、HDR_flag=0は、STDデータをマスターとした記録が行われていることを示す。
11行目のmode_flagは1ビットのフラグであり、AVストリームの記録モードを示す。mode_flagは、HDR_flag=1である場合に有効になる。例えば、mode_flag=1は、記録モードがmode-iであることを示す。また、mode_flag=0は、記録モードがmode-iiであることを示す。
このように、Clip Informationには、そのClip Informationを用いて再生が行われるAVストリームがマスターをHDRデータとするストリームであるか否かを示すフラグ、およびAVストリームの記録モードを示すフラグが含まれる。
再生装置2は、Clip Informationに含まれるフラグを参照することにより、AVストリームを実際に解析することなく、マスターのデータがHDRデータであるかなどを特定することが可能になる。
14行目のnumber_of_tone_mapping_info_refは、ビデオストリームに含まれるtone_mapping_infoの数を表す。また、15〜18行目に示すように、[Video Block]には、ビデオストリームに含まれるtone_mapping_infoのtone_map_idを表すtone_mapping_info_refも含まれる。
図18Bの[Graphics Block]は、グラフィックスストリームの再生に用いられるClip InformationのStreamCodingInfoにおいて記述される、グラフィックスストリームの符号化に関する情報である。4行目に示すように、グラフィックスストリームがPGストリームである場合、[Graphics Block]には、PGストリームの言語コードを表すPG_language_codeが含まれる。
また、7〜11行目に示すように、グラフィックスストリームがPGストリームである場合、[Graphics Block]には、PGストリームに含まれるtone_mapping_infoの数を表すnumber_of_tone_mapping_info_refと、そのtone_mapping_infoのtone_map_idを表すtone_mapping_info_refが含まれる。
グラフィックスストリームがIGストリームである場合も同様に、15行目に示すように、[Graphics Block]には、IGストリームの言語コードを表すIG_language_codeが含まれる。また、18〜22行目に示すように、IGストリームに含まれるtone_mapping_infoの数を表すnumber_of_tone_mapping_info_refと、そのtone_mapping_infoのtone_map_idを表すtone_mapping_info_refが含まれる。
ここで、PGストリームとIGストリームの構成について説明する。
(PGストリームとIGストリームの構成)
図19は、PGストリームとIGストリームのディスプレイセットの構成例を示す図である。
図19Aに示すように、PGストリームのディスプレイセットは、1画面分の字幕のセグメントであるPCS(Presentation Composition Segment),WDS(Window Definition Segment),XPDS(Extended Palette Definition Segment),ODS(Object Definition Segment)、およびEND(End of Display Set Segment)により構成される。
PCSには、各ODSに対応する字幕に付与されたIDなどが記述される。WDSには、字幕の表示範囲を示すウィンドウの位置やサイズなどの構造を示す情報などが記述される。XPDSには、字幕の色として使用可能な色の情報が記述される。ODSには、字幕の形状を示す情報が記述される。ENDは、ディスプレイセットの終端を示すセグメントである。
また、図19Bに示すように、IGストリームのディスプレイセットは、1画面分のメニューボタンのセグメントであるICS(Interactive Composition Segment),XPDS,ODS、およびENDにより構成される。
ICSには、メニューボタンの操作により実行されるコマンド、各ODSに対応するメニューボタンに固有のIDなどが記述される。XPDSには、メニューボタンの色として使用可能な色の情報が記述される。ODSには、メニューボタンの形状を示す情報が記述される。ENDは、ディスプレイセットの終端を示すセグメントである。
(XPDSのシンタクス)
図20は、XPDSのシンタクスを示す図である。
図20の5行目のcolor_depthは、9〜12行目のY_value,Cr_value,Cb_value,T_valueのビット数を表す。Y_valueは色の輝度成分を表し、Cr_valueおよびCb_valueは色の色差成分を表し、T_valueは色の透明度を表す。
なお、図示は省略するが、Text-STストリームでは、DSS(Dialog Style Segment)にcolor_depthが記述される。
ここで、各装置の構成について説明する。
(記録装置1の構成)
図21は、記録装置1の構成例を示すブロック図である。
記録装置1は、コントローラ21、符号化処理部22、およびディスクドライブ23から構成される。マスターのHDRデータが符号化処理部22に入力される。
コントローラ21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などより構成される。コントローラ21は、所定のプログラムを実行し、記録装置1の全体の動作を制御する。
コントローラ21においては、所定のプログラムが実行されることによってData Base情報生成部21Aが実現される。Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームのtone_mapping_infoの数をPlayListのSTN_table(図16)の主映像のビデオストリームのnumber_of_tone_mapping_info_refとして記述し、tone_map_idをtone_mapping_info_refとして記述する。
Data Base情報生成部21Aはまた、符号化処理部22から供給されるグラフィックスストリームのtone_mapping_infoの数をPlayListのグラフィックスストリームのnumber_of_tone_mapping_info_refとして記述し、tone_map_idをtone_mapping_info_refとして記述する。
さらに、Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームに挿入されるtone_mapping_infoの数を、Clip Informationの[Video Block](図18)のnumber_of_tone_mapping_info_refとして記述し、tone_map_idをtone_mapping_info_refとして記述する。Data Base情報生成部21Aは、以上のようにして各種の情報を記述することによりData Base情報であるPlayListとClip Informationを生成し、ディスクドライブ23に出力する。
符号化処理部22は、マスターのHDRデータの符号化を行う。符号化処理部22は、マスターのHDRデータを符号化して得られたビデオストリームおよびグラフィックスストリームをディスクドライブ23に出力する。また、符号化処理部22は、ビデオストリームのtone_mapping_infoの数およびtone_map_id、グラフィックスのtone_mapping_infoの数およびtone_map_id、並びにビデオストリームに挿入されるtone_mapping_infoの数およびtone_map_idをコントローラ21に供給する。
ディスクドライブ23は、コントローラ21から供給されたData Base情報と、符号化処理部22から供給されたビデオストリームおよびグラフィックスストリームを格納するファイルを図15のディレクトリ構造に従って光ディスク11に記録する。
(符号化処理部22の構成)
図22は、図21の符号化処理部22の構成例を示すブロック図である。
符号化処理部22は、HDR情報生成部31、HEVCエンコーダ32、HDR-STD変換部33、定義情報生成部34、エンコーダ35、およびストリーム生成部36から構成される。
HDR情報生成部31は、入力されたマスターのHDRデータの輝度を検出し、図12を参照して説明した各情報を含むHDR情報を生成する。HDR情報生成部31は、生成したHDR情報をストリーム生成部36に出力する。
HEVCエンコーダ32は、記録モードがmode-iである場合、入力されたマスターのHDRビデオをHEVC方式で符号化する。また、HEVCエンコーダ32は、記録モードがmode-iiである場合、HDR-STD変換部33から供給されたSTDビデオをHEVC方式で符号化する。HEVCエンコーダ32は、HDRビデオの符号化データ、またはSTDビデオの符号化データをストリーム生成部36に出力する。
HDR-STD変換部33は、入力されたマスターのHDRデータをSTDデータに変換する。HDR-STD変換部33による変換は、適宜、オーサーにより入力された変換パラメータに従って行われる。HDR-STD変換部33は、HDRデータのRGB信号をinput data、STDデータのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報を定義情報生成部34に出力する。
(HDR-STD変換部33による信号処理について)
図23は、HDR-STD変換部33による信号処理の例を示す図である。
HDR-STD変換部33は、矢印#201の先に示すように、入力されたマスターのHDRデータのYCrCb信号をRGB信号に変換し、RGBの各信号を対象として、STDデータのRGBの各信号への変換(tone mapping)を行う。
HDR-STD変換部33は、input dataであるHDRデータのRGB信号とoutput dataであるSTDデータのRGB信号の対応関係を示す情報を定義情報生成部34に出力する。定義情報生成部34に出力された情報は、矢印#202の先に示すようにtone mapping定義情報の生成に用いられる。
また、HDR-STD変換部33は、矢印#203の先に示すように、STDデータのRGB信号をYCrCb信号に変換し、出力する。
図24は、tone mappingの例を示す図である。
HDRデータのRGB信号は、例えば図24に示すように、高輝度成分を圧縮し、中・低域輝度成分を伸張するようにしてSTDデータのRGB信号に変換される。図24に示すようなHDRデータのRGB信号とSTDデータのRGB信号を対応付ける関数Fを示す情報が、定義情報生成部34により生成される。なお、図24に示す関数Fを示す情報により生成されるtone mapping定義情報は、図11を参照して説明した、coded_dataとtarget_dataの関係を折れ線関数により示すtone_map_model_id=3のtone_mapping_infoである。
図22の説明に戻り、また、HDR-STD変換部33は、記録モードがmode-iiである場合、HDRビデオを変換して得られたSTDビデオをHEVCエンコーダ32に出力し、HDRグラフィックスを変換して得られたSTDグラフィックスをエンコーダ35に供給する。
定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいて、HDR-STD変換用のtone mapping定義情報を生成する。
例えば、定義情報生成部34は、tone_map_model_id=0が用いられる場合、図9のmin_valueとmax_valueの値を含むtone_mapping_infoをHDR-STD変換用のtone mapping定義情報として生成する。
また、定義情報生成部34は、tone_map_model_id=2が用いられる場合、図10のstart_of_coded_interval[i]を含むtone_mapping_infoをHDR-STD変換用のtone mapping定義情報として生成する。
さらに、定義情報生成部34は、tone_map_model_id=3が用いられる場合、図11のnum_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]を含むtone_mapping_infoをHDR-STD変換用のtone mapping定義情報として生成する。
エンコーダ35は、記録モードがmode-iである場合、入力されたマスターのHDRグラフィックスを符号化する。また、エンコーダ35は、記録モードがmode-iiである場合、HDR-STD変換部33から供給されたSTDグラフィックスを符号化する。エンコーダ35は、符号化の結果得られるHDRグラフィックスまたはSTDグラフィックスのグラフィックスストリームをストリーム生成部36に出力する。
ストリーム生成部36は、HDR情報生成部31から供給されたビデオストリームのHDR情報を含むtone_mapping_infoと、定義情報生成部34から供給されたビデオストリームのtone mapping定義情報であるtone_mapping_infoの数を図21のコントローラ21に供給する。また、ストリーム生成部36は、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。
また、ストリーム生成部36は、HDR情報生成部31から供給されたグラフィックスストリームのHDR情報を含むtone_mapping_infoと、定義情報生成部34から供給されたグラフィックスストリームのtone mapping定義情報であるtone_mapping_infoの数をコントローラ21に供給する。また、ストリーム生成部36は、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。
さらに、ストリーム生成部36は、ビデオストリームとグラフィックスストリームのtone_mapping_infoの数およびtone_map_idを、ビデオストリームに挿入されるtone_mapping_infoの数およびtone_map_idとしてコントローラ21に供給する。ストリーム生成部36は、ビデオストリームとグラフィックスストリームのtone_mapping_infoをSEIとして符号化データに挿入し、ビデオストリームを生成する。ストリーム生成部36は、生成したビデオストリームとエンコーダ35から供給されるグラフィックスストリームを図21のディスクドライブ23に出力する。
(再生装置2の構成)
図25は、再生装置2の構成例を示すブロック図である。
再生装置2は、コントローラ51、ディスクドライブ52、メモリ53、ローカルストレージ54、ネットワークインタフェース55、復号処理部56、操作入力部57、およびHDMI通信部58から構成される。
コントローラ51は、CPU、ROM、RAMなどより構成される。コントローラ51は、所定のプログラムを実行し、再生装置2の全体の動作を制御する。例えば、コントローラ51は、ディスクドライブ52から供給されるPlayListに記述されているビデオストリームとグラフィクスストリームのtone_mapping_info_refを、復号処理部56に供給する。
ディスクドライブ52は、光ディスク11からデータを読み出し、読み出したデータを、コントローラ51、メモリ53、または復号処理部56に出力する。例えば、ディスクドライブ52は、光ディスク11から読み出したData Base情報をコントローラ51に出力し、ビデオストリームとグラフィックスストリームを復号処理部56に出力する。
メモリ53は、コントローラ51が各種の処理を実行する上において必要なデータなどを記憶する。メモリ53には、PSR(Player Status Register)であるレジスタ53Aが形成される。レジスタ53Aには、BD Playerである再生装置2が光ディスク11の再生時に参照する各種の情報が記憶される。
ローカルストレージ54は例えばHDD(Hard Disk Drive)により構成される。ローカルストレージ54には、サーバからダウンロードされたストリームなどが記録される。
ネットワークインタフェース55は、インターネットなどのネットワークを介してサーバと通信を行い、サーバからダウンロードしたデータをローカルストレージ54に供給する。
復号処理部56は、ビデオ復号処理部56Aとグラフィックス復号処理部56Bにより構成される。ビデオ復号処理部56Aは、ディスクドライブ52から供給されたビデオストリームのSEIからHDR情報を含むtone_mapping_infoと、tone mapping定義情報であるtone_mapping_infoを抽出し、グラフィックス復号処理部56Bに供給する。
ビデオ復号処理部56Aは、ビデオストリームに含まれる符号化データをHEVC方式で復号する。ビデオ復号処理部56Aは、コントローラ51から供給されるビデオストリームのtone_mapping_info_refに基づいて、ビデオストリームのtone_mapping_infoを選択する。ビデオ復号処理部56Aは、必要に応じて、復号の結果得られるHDRビデオまたはSTDビデオを、選択されたtone_mapping_infoであるtone mapping定義情報を参照してSTDビデオまたはHDRビデオに変換し、HDMI通信部58に出力する。ビデオ復号処理部56Aは、HDRビデオを出力する場合、HDRビデオとともに、選択されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
グラフィックス復号処理部56Bは、グラフィックスストリームを復号する。グラフィックス復号処理部56Bは、コントローラ51から供給されるグラフィックスストリームのtone_mapping_info_refに基づいて、ビデオ復号処理部56Aから供給されるtone_mapping_infoを選択する。グラフィックス復号処理部56Bは、必要に応じて、復号の結果得られるHDRグラフィックスまたはSTDグラフィックスを、選択されたtone_mapping_infoであるtone mapping定義情報を参照してSTDグラフィックスまたはHDRグラフィックスに変換し、HDMI通信部58に出力する。グラフィックス復号処理部56Bは、HDRグラフィックスを出力する場合、HDRグラフィックスとともに、選択されたtone_mapping_infoであるHDR情報をHDMI通信部58に出力する。
操作入力部57は、ボタン、キー、タッチパネルなどの入力デバイスや、所定のリモートコマンダから送信される赤外線などの信号を受信する受信部により構成される。操作入力部57はユーザの操作を検出し、検出した操作の内容を表す信号をコントローラ51に供給する。
HDMI通信部58は、HDMIケーブル4を介して表示装置3との間で通信を行う。例えば、HDMI通信部58は、表示装置3が有するモニタの性能に関する情報を取得し、コントローラ51に出力する。また、HDMI通信部58は、ビデオ復号処理部56Aから供給されたHDRビデオまたはSTDビデオを表示装置3に出力し、グラフィックス復号処理部56Bから供給されたHDRグラフィックスまたはSTDグラフィックスを表示装置3に出力する。HDMI通信部58は、ビデオ復号処理部56Aおよびグラフィックス復号処理部56Bから供給されるHDR情報を表示装置3に出力する。
(グラフィックス復号処理部の構成)
図26は、図25のグラフィックス復号処理部56Bの構成例を示すブロック図である。
グラフィックス復号処理部56Bは、PIDフィルタ71、TSバッファ72、ESバッファ73、プロセッサ74、デコーダバッファ75、グラフィックス生成部76、コンポジッションバッファ77、グラフィックスコントローラ78、CLUT79、トーンマップ保持部80、およびトーン変換部81により構成される。
PIDフィルタ71は、ディスクドライブ52から供給されるビデオストリームとグラフィックスストリームの各パケットのパケットID(PID)に基づいて、グラフィックスストリームのパケットを抽出する。PIDは、パケットを構成するデータの種類に固有のIDであり、パケットに付加されている。
PIDフィルタ71は、抽出されたグラフィックスストリームのTS(Transport Stream)パケットをTSバッファ72に供給し、保持させる。TSバッファ72は、保持しているTSパケットからなるES(Elementary Stream)をESバッファ73に供給し、保持させる。
プロセッサ74は、ESバッファ73からESを読み出し、そのESに含まれるグラフィックスの制御データをコンポジッションバッファ77に供給する。例えば、ESがPGストリームである場合、プロセッサ74は、PGストリームに含まれるPCS,WDS、およびXPDSをコンポジッションバッファ77に供給する。一方、ESがIGストリームである場合、プロセッサ74は、IGストリームに含まれるICSとXPDSをコンポジッションバッファ77に供給する。
また、プロセッサ74は、ESに含まれる実データを復号し、デコーダバッファ75に供給して保持させる。例えば、ESがPGストリームまたはIGストリームである場合、プロセッサ74は、ODSを復号し、デコーダバッファ75に供給する。
グラフィックス生成部76は、グラフィックスコントローラ78により制御されるタイミングで、デコーダバッファ75から読み出され、供給されるODSに基づいて、画面単位のグラフィックスを生成し、保持する。グラフィックス生成部76は、保持している画面単位のグラフィックスを、グラフィックスコントローラ78により制御されるタイミングで、CLUT79に供給する。
コンポジッションバッファ77は、プロセッサ74から供給される制御データを保持する。
グラフィックスコントローラ78は、コンポジッションバッファ77から制御データを読み出す。グラフィックスコントローラ78は、その制御データのうちのPCSやWDSに基づいて、デコーダバッファ75とグラフィックス生成部76における読み出しタイミングを制御する。また、グラフィックスコントローラ78は、XPDSをCLUT79に供給する。
CLUT79は、グラフィックスコントローラ78から供給されるXPDSに基づいて、インデックスカラーとY,Cr,Cbの値とを対応付けたテーブルを記憶する。CLUT79は、記憶しているテーブルに基づいて、グラフィックス生成部76から供給されるグラフィックスのインデックスカラーをY,Cr,Cbの値に変換し、トーン変換部81に供給する。
トーンマップ保持部80は、ビデオ復号処理部56Aから供給されるtone_mapping_infoを保持する。
トーン変換部81は、コントローラ51から供給されるグラフィックスストリームのtone_mapping_info_refに基づいて、トーンマップ保持部80から、そのtone_mapping_info_refをtone_map_idとして記述するtone_mapping_infoを読み出す。
トーン変換部81にはまた、例えば、Clip Informationに含まれるmode_flagにより特定される記録モードを表す情報と、表示装置3から取得された情報により特定される、表示装置3が有するモニタの性能に関する情報がコントローラ51から供給される。
トーン変換部81は、表示装置3にHDRグラフィックスを出力する場合、読み出されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。また、トーン変換部81は、記録モードがmode-iであり、表示装置3にSTDグラフィックスを出力する場合、読み出されたtone_mapping_infoであるHDR-STD変換用のtone mapping定義情報に基づいて、CLUT79から供給されるグラフィックスであるHDRグラフィックスをSTDグラフィックスに変換する。そして、トーン変換部81は、STDグラフィックスをHDMI通信部58に出力する。
一方、トーン変換部81は、記録モードがmode-iiであり、表示装置3にHDRグラフィックスを出力する場合、読み出されたtone_mapping_infoであるSTD-HDR変換用のtone mapping定義情報に基づいて、CLUT79から供給されるグラフィックスであるSTDグラフィックスをHDRグラフィックスに変換する。そして、トーン変換部81は、HDRグラフィックスをHDMI通信部58に出力する。
トーン変換部81は、記録モードがmode-iであり、表示装置3にHDRグラフィックスを出力する場合、または、記録モードがmode-iiであり、表示装置3にSTDグラフィックスを出力する場合、CLUT79から供給されるグラフィックスをそのままHDMI通信部58に出力する。
(表示装置3の構成)
図27は、表示装置3の構成例を示すブロック図である。
表示装置3は、コントローラ101、HDMI通信部102、信号処理部103、およびモニタ104から構成される。コントローラ101はメモリ101Aを有する。
コントローラ101は、CPU、ROM、RAMなどより構成される。コントローラ101は、所定のプログラムを実行し、表示装置3の全体の動作を制御する。
例えば、コントローラ101は、モニタ104の性能を表すEDID(Extended display identification data)をメモリ101Aに記憶させて管理する。コントローラ101は、再生装置2との認証時、メモリ101Aに記憶させているEDIDをHDMI通信部102に出力し、再生装置2に対して送信させる。EDIDに基づいて、表示装置3のモニタ104の性能が再生装置2により特定される。
HDMI通信部102は、HDMIケーブル4を介して再生装置2との間で通信を行う。HDMI通信部102は、再生装置2から送信されてきたHDRデータまたはSTDデータを受信し、信号処理部103に出力する。また、HDMI通信部102は、コントローラ101から供給されたEDIDを再生装置2に送信する。
信号処理部103は、HDMI通信部102から供給されたHDRデータまたはSTDデータの処理を行い、映像をモニタ104に表示させる。
ここで、以上のような構成を有する各装置の動作について説明する。
(記録処理)
はじめに、図28のフローチャートを参照して、記録装置1の記録処理について説明する。図28の記録処理は、マスターのHDRデータが記録装置1に入力されたときに開始される。
ステップS1において、記録装置1のコントローラ21は、記録モードがmode-iであるか否かを判定する。記録モードは例えばオーサーにより設定される。
記録モードがmode-iであるとステップS1において判定された場合、ステップS2において、符号化処理部22はmode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたビデオストリームとグラフィックスストリームはディスクドライブ23に供給される。
一方、記録モードがmode-iiであるとステップS1において判定された場合、ステップS3において、符号化処理部22はmode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたビデオストリームとグラフィックスストリームはディスクドライブ23に供給される。
ステップS4において、Data Base情報生成部21AはData Base情報生成処理を行う。Data Base情報生成処理により生成されたData Base情報はディスクドライブ23に供給される。
ステップS5において、ディスクドライブ23は、ビデオストリーム、グラフィックスストリーム、およびData Base情報を格納するファイルを光ディスク11に記録する。その後、処理は終了される。
次に、図29のフローチャートを参照して、図28のステップS2において行われるmode-iでの符号化処理について説明する。
ステップS11において、符号化処理部22のHDR情報生成部31は、マスターのHDRデータの輝度を検出し、HDR情報を生成する。
ステップS12において、HEVCエンコーダ32は、マスターのHDRビデオをHEVC方式で符号化し、HDRビデオの符号化データを生成する。
ステップS13において、エンコーダ35は、マスターのHDRグラフィックスを符号化し、HDRグラフィックスのグラフィックスストリームを生成する。エンコーダ35は、グラフィクスストリームをストリーム生成部36に供給する。
ステップS14において、HDR-STD変換部33は、入力されたマスターのHDRデータをSTDデータに変換する。HDRデータのRGB信号をinput data、STDデータのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報は定義情報生成部34に供給される。
ステップS15において、定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいてHDR-STD変換用のtone mapping定義情報を生成する。
ステップS16において、ストリーム生成部36は、符号化データのSEIとして、HDR情報生成部31により生成されたHDR情報を含むtone_mapping_infoと、定義情報生成部34により生成されたtone mapping定義情報であるtone_mapping_infoを符号化データに挿入し、ビデオストリームを生成する。
また、ストリーム生成部36は、ビデオストリームのHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoの数、および、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。さらに、ストリーム生成部36は、グラフィックスストリームのHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoの数、および、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。また、ストリーム生成部36は、ビデオストリームとグラフィックスストリームのtone_mapping_infoの数およびtone_map_idを、ビデオストリームに挿入されるtone_mapping_infoの数およびtone_map_idとしてコントローラ21に供給する。その後、図28のステップS2に戻り、それ以降の処理が行われる。
次に、図30のフローチャートを参照して、図28のステップS3において行われるmode-iiでの符号化処理について説明する。
ステップS21において、符号化処理部22のHDR情報生成部31は、マスターのHDRデータの輝度を検出し、HDR情報を生成する。
ステップS22において、HDR-STD変換部33は、入力されたマスターのHDRデータをSTDデータに変換する。HDRデータのRGB信号をinput data、STDデータのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報は定義情報生成部34に供給される。
ステップS23において、定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいてSTD-HDR変換用のtone mapping定義情報を生成する。
ステップS24において、HEVCエンコーダ32は、マスターのHDRビデオを変換して得られたSTDビデオをHEVC方式で符号化し、STDビデオの符号化データを生成する。
ステップS25において、エンコーダ35は、マスターのHDRグラフィックスを変換して得られたSTDグラフィックスを符号化し、STDグラフィックスのグラフィックスストリームを生成する。
ステップS26において、ストリーム生成部36は、符号化データのSEIとして、HDR情報生成部31により生成されたHDR情報を含むtone_mapping_infoと、定義情報生成部34により生成されたtone mapping定義情報であるtone_mapping_infoを挿入し、ビデオストリームを生成する。その後、図28のステップS3に戻り、それ以降の処理が行われる。
次に、図31のフローチャートを参照して、図28のステップS4において行われるData Base情報生成処理について説明する。
ステップS31において、コントローラ21のData Base情報生成部21Aは、図16を参照して説明したビデオストリームおよびグラフィックスストリームのnumber_of_tone_mapping_info_refとtone_mapping_info_refを含むPlayListを生成する。具体的には、Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームおよびグラフィックスストリームのtone_mapping_infoの数を、number_of_tone_mapping_info_refとしてPlayListに記述する。また、Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームおよびグラフィックスストリームのtone_map_idをtone_mapping_info_refとしてPlayListに記述する。
ステップS32において、Data Base情報生成部21Aは、図17と図18を参照して説明した[Video Block]にnumber_of_tone_mapping_info_refとtone_mapping_info_refを含むClip Informationを生成する。
具体的には、Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームに挿入されたtone_mapping_infoの数を、number_of_tone_mapping_info_refとしてClip Informationの[Video Block]に記述する。また、Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームに挿入されたtone_mapping_infoのtone_map_idを、tone_mapping_info_refとしてClip Informationの[Video Block]に記述する。なお、このClip Informationには、HDR_flagとmode_flagも含まれる。この例においてはマスターのデータがHDRデータであるから、HDR_flagの値として、そのことを示す値である1が設定される。
また、図28のステップS2においてmode-iでの符号化処理が行われている場合、Data Base情報生成部21Aは、mode_flagの値として、記録モードがmode-iであることを示す値である1を設定する。一方、Data Base情報生成部21Aは、図28のステップS3においてmode-iiでの符号化処理が行われている場合、mode_flagの値として、記録モードがmode-iiであることを示す値である0を設定する。その後、図28のステップS4に戻り、それ以降の処理が行われる。
記録装置1においては、以上の処理によって生成されたビデオストリーム、グラフィックスストリーム、およびData Base情報が光ディスク11に記録される。
(再生処理)
次に、図32のフローチャートを参照して、再生装置2の再生処理について説明する。
光ディスク11の再生を開始する前などの所定のタイミングにおいて、再生装置2のコントローラ51は、HDMI通信部58を制御して表示装置3と通信を行い、表示装置3のメモリ101AからEDIDを読み出す。コントローラ51は、表示装置3が有するモニタの性能を表す情報をレジスタ53Aに記憶させて管理する。
ステップS41において、コントローラ51は、ディスクドライブ52を制御し、Data Base情報であるPlayListとClip Informationを光ディスク11から読み出す。また、コントローラ51は、再生するビデオストリームおよびグラフィックスストリームをPlayListに含まれる情報に基づいて特定し、特定したビデオストリームおよびグラフィックスストリームを、ディスクドライブ52を制御して光ディスク11から読み出す。
ステップS42において、コントローラ51は、Clip Informationに含まれるHDR_flagとmode_flagを参照する。この例においては、マスターをHDRデータとした記録が行われていることを示す値がHDR_flagに設定されている。これにより、記録装置1の状態は、HDRデータ、または、HDRデータを変換して得られたSTDデータを再生する状態となる。
ステップS43において、コントローラ51は、記録モードがmode-iであるか否かをmode_flagの値に基づいて判定する。
記録モードがmode-iであるとステップS43において判定された場合、ステップS44において、復号処理部56はmode-iでの復号処理を行う。
一方、記録モードがmode-iiであるとステップS43において判定された場合、ステップS45において、復号処理部56はmode-iiでの復号処理を行う。
ステップS44またはステップS45において復号処理が行われた後、処理は終了される。
次に、図33のフローチャートを参照して、図32のステップS44において行われるmode-iでの復号処理について説明する。
ステップS61において、ビデオ復号処理部56Aは、ビデオストリームのSEIからtone_mapping_infoを抽出し、グラフィックス復号処理部56Bに供給する。グラフィックス復号処理部56Bのトーンマップ保持部80は、ビデオ復号処理部56Aから供給されるtone_mapping_infoを保持する。
ステップS62において、ビデオ復号処理部56Aは、ビデオストリームに含まれる符号化データをHEVC方式で復号し、HDRビデオを生成する。
ステップS63において、グラフィックス復号処理部56Bは、グラフィックスストリームを復号する。具体的には、グラフィックス復号処理部56Bは、PIDフィルタ71によりグラフィックスストリームを抽出する。そして、グラフィックス復号処理部56Bは、グラフィックスストリームから、TSバッファ72、ESバッファ73、プロセッサ74、デコーダバッファ75、グラフィックス生成部76、コンポジッションバッファ77、グラフィックスコントローラ78、およびCLUT79を介して、HDRグラフィックスのY,Cr,Cbの値を生成する。HDRグラフィックスのY,Cr,Cbの値は、トーン変換部81に供給される。
ステップS64において、コントローラ51は、レジスタ53Aに記憶させておいた情報に基づいて、表示装置3が有するモニタがHDRモニタであるか否かを判定する。上述したように、レジスタ53Aには、表示装置3から読み出されたHDMIのEDIDに基づいて、表示装置3が有するモニタの性能に関する情報が記憶されている。
表示装置3が有するモニタがHDRモニタであるとステップS64において判定された場合、処理はステップS65に進む。
ステップS65において、ビデオ復号処理部56Aは、コントローラ51から供給されるPlayListに記述されるビデオストリームのtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoを、抽出されたtone_mapping_infoから選択する。また、グラフィックス復号処理部56Bのトーン変換部81は、PlayListに記述されるグラフィックスストリームのtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoを、トーンマップ保持部80に保持されているtone_mapping_infoから選択し、読み出す。
ステップS66において、ビデオ復号処理部56Aは、HDRビデオを、選択されたビデオストリームのHDR情報とともに出力する。また、グラフィックス復号処理部56Bのトーン変換部81は、HDRグラフィックスを、選択されたグラフィックスストリームのHDR情報とともに出力する。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS64において判定された場合、処理はステップS67に進む。
ステップS67において、ビデオ復号処理部56Aは、コントローラ51から供給されるPlayListに記述されるビデオストリームのtone_mapping_info_refをtone_map_idとして含むtone mapping定義情報であるtone_mapping_infoを、抽出されたtone_mapping_infoから選択する。また、グラフィックス復号処理部56Bのトーン変換部81は、PlayListに記述されるグラフィックスストリームのtone_mapping_info_refをtone_map_idとして含むtone mapping定義情報であるtone_mapping_infoを、トーンマップ保持部80に保持されているtone_mapping_infoから選択し、読み出す。
ステップS68において、ビデオ復号処理部56Aは、選択されたビデオストリームのHDR-STD変換用のtone mapping定義情報に基づいて、復号の結果得られるHDRビデオをSTDビデオに変換する。また、グラフィックス復号処理部56Bのトーン変換部81は、選択されたグラフィックスストリームのHDR-STD変換用のtone mapping定義情報に基づいて、復号の結果得られるHDRグラフィックスをSTDグラフィックスに変換する。
ステップS69において、ビデオ復号処理部56Aは、変換によって得られたSTDビデオを出力する。また、グラフィックス復号処理部56Bのトーン変換部81は、変換によって得られたSTDグラフィックスを出力する。
ステップS66においてHDRデータが出力された後、またはステップS69においてSTDデータが出力された後、ステップS70において、コントローラ51は、再生終了か否かを判定する。
再生終了ではないとステップS70において判定した場合、コントローラ51は、ステップS61に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS70において判定された場合、図32のステップS44に戻り、それ以降の処理が行われる。
次に、図34のフローチャートを参照して、図32のステップS45において行われるmode-iiでの復号処理について説明する。
ステップS81において、ビデオ復号処理部56Aは、ビデオストリームのSEIからtone_mapping_infoを抽出し、グラフィックス復号処理部56Bに供給する。グラフィックス復号処理部56Bのトーンマップ保持部80は、ビデオ復号処理部56Aから供給されるtone_mapping_infoを保持する。
ステップS82において、ビデオ復号処理部56Aは、ビデオストリームに含まれる符号化データをHEVC方式で復号し、STDビデオを生成する。
ステップS83において、グラフィックス復号処理部56Bは、グラフィックスストリームを復号する。復号の結果得られるSTDグラフィックスのY,Cr,Cbの値は、トーン変換部81に供給される。
ステップS84において、コントローラ51は、レジスタ53Aに記憶させておいた情報に基づいて、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS84において判定された場合、処理はステップS85に進む。
ステップS85において、ビデオ復号処理部56Aは、コントローラ51から供給されるPlayListに記述されるビデオストリームのtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを、抽出されたtone_mapping_infoから選択する。また、トーン変換部81は、PlayListに記述されるグラフィックスストリームのtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを、トーンマップ保持部80に保持されているtone_mapping_infoから選択し、読み出す。
ステップS86において、ビデオ復号処理部56Aは、選択されたビデオストリームのSTD-HDR変換用のtone mapping定義情報に基づいて、復号の結果得られるSTDビデオをHDRビデオに変換する。また、トーン変換部81は、選択されたグラフィックスストリームのSTD-HDR変換用のtone mapping定義情報に基づいて、復号の結果得られるSTDグラフィックスをHDRグラフィックスに変換する。
ステップS87において、ビデオ復号処理部56Aは、変換によって得られたHDRビデオを、選択されたビデオストリームのHDR情報とともに出力する。また、トーン変換部81は、変換によって得られたHDRグラフィックスを、選択されたグラフィックスストリームのHDR情報とともに出力する。
一方、表示装置3が有するモニタがSTDモニタであるとステップS84において判定された場合、処理はステップS88に進む。ステップS88において、ビデオ復号処理部56Aは、復号の結果得られるSTDビデオを出力し、トーン変換部81は、復号の結果得られるSTDグラフィックスを出力する。
ステップS87においてHDRデータが出力された後、またはステップS88においてSTDデータが出力された後、ステップS89において、コントローラ51は、再生終了か否かを判定する。
再生終了ではないとステップS89において判定した場合、コントローラ51は、ステップS81に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS89において判定された場合、図32のステップS45に戻り、それ以降の処理が行われる。
(表示処理)
次に、図35のフローチャートを参照して、表示装置3の表示処理について説明する。
ここでは、表示装置3が有するモニタ104がHDRモニタである場合について説明する。HDRモニタを有する表示装置3に対しては、HDR情報が付加されたHDRデータが再生装置2から送信されてくる。
ステップS101において、表示装置3のHDMI通信部102は、再生装置2から送信されてきたHDRデータとHDR情報を受信する。
ステップS102において、コントローラ101は、HDR情報を参照し、再生装置2から送信されてきたHDRデータをそのまま表示可能であるか否かを判定する。HDR情報には、マスターのHDRデータ、すなわち再生装置2から送信されてきたHDRデータの輝度の特性を示す情報が含まれる。ステップS102における判定は、HDR情報により特定されるHDRデータの輝度の特性と、モニタ104の表示性能を比較することによって行われる。
例えば、HDR情報により特定されるHDRデータのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-500%(例えば100%の明るさを100cd/m2とすると500cd/m2)である場合、HDRデータをそのまま表示可能であると判定される。一方、HDR情報により特定されるHDRデータのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-300%である場合、HDRデータをそのまま表示することができないと判定される。
HDRデータをそのまま表示可能であるとステップS102において判定された場合、ステップS103において、信号処理部103は、HDRデータの映像を、HDR情報により指定される輝度に従ってモニタ104に表示させる。例えば、図12の曲線L12で示す輝度の特性がHDR情報により指定されている場合、各輝度値は曲線L12で示す0-400%の範囲の明るさを表す。
一方、HDRデータをそのまま表示させることができないとステップS102において判定された場合、ステップS104において、信号処理部103は、モニタ104の表示性能に応じて輝度を調整し、輝度を調整したHDRデータの映像を表示させる。例えば、図12の曲線L12で示す輝度の特性がHDR情報により指定されており、モニタ104のダイナミックレンジが0-300%である場合、各輝度値が0-300%の範囲の明るさを表すように圧縮される。
ステップS103、またはステップS104においてHDRデータの映像が表示された後、ステップS105において、コントローラ101は、表示を終了するか否かを判定し、終了しないと判定した場合、ステップS101以降の処理を繰り返す。ステップS105において表示を終了すると判定した場合、コントローラ101は、処理を終了させる。
以上の一連の処理により、記録装置1は、マスターのHDRデータをHDRデータのまま光ディスク11に記録し、再生装置2に再生させてHDRデータの映像を表示装置3に表示させることができる。
また、記録装置1は、マスターのHDRデータをSTDデータに変換して光ディスク11に記録し、再生装置2にHDRデータに復元させてHDRデータの映像を表示装置3に表示させることができる。
HDRデータを再生する際、マスターのHDRデータの輝度の特性をHDR情報によって指定することができるようにすることにより、コンテンツのオーサーは、意図したとおりの輝度でHDRデータの映像を表示させることが可能になる。
また、記録装置1は、グラフィックスストリームのtone_mapping_infoを識別するtone_map_idをtone_mapping_info_refとしてPlayListに記述する。従って、再生装置2は、そのtone_map_idに基づいて、ビデオストリームに挿入されたtone_mapping_infoのうちのグラフィックスストリームのtone_mapping_infoを特定することができる。
<第2実施の形態>
(AVストリームの構成例)
図36は、本技術を適用した記録・再生システムの第2実施の形態におけるAVストリームの構成例を示す図である。
図36に示すように、第2実施の形態では、tone_mapping_infoがビデオストリームに含まれるのではなく、新しいストリームとしてAVストリームに含まれる。即ち、第2実施の形態のAVストリームには、主映像のビデオストリームと、それと同期して再生されるオーディオストリーム、副映像のビデオストリーム、PGストリーム、Text-STストリーム、およびIGストリームだけでなく、tone_mapping_infoのストリームが多重化される。
tone_mapping_infoのストリームであるTone_mapストリームには、1以上のtone_mapping_infoが含まれる。Tone_mapストリームに含まれるtone_mapping_infoは、そのTone_mapストリームに多重化されるビデオストリームやグラフィックスストリームの再生時に用いられる。
第2実施の形態におけるPGストリーム、Text-STストリーム、およびIGストリームの構成は、第1実施の形態におけるPGストリーム、Text-STストリーム、およびIGストリームの構成と同一である。
(Tone_mapストリームのシンタクス)
図37は、Tone_mapストリームのシンタクスを示す図である。
図37の4行目に示すように、Tone_mapストリームには、そのTone_mapストリームに含まれるtone_mapping_infoの数を表すnumber_of_tone_mapping_infoが記述される。また、6〜9行目に示すように、Tone_mapストリームには、1以上のtone_mapping_infoが記述される。tone_mapping_infoのシンタクスは、図7に示したものと同一である。
(Clip Informationファイルのシンタクス)
図38は、第2実施の形態におけるClip InformationファイルのStreamCodingInfoのシンタクスを示す図である。
図38Aに示すように、第2実施の形態におけるStreamCodingInfoには、図17で説明した[Video Block]、 [Audio Block]、および[Graphics Block]のほかに、7行目の[ToneMap Block]が記述される。即ち、第2実施の形態では、AVストリームにTone_mapストリームが含まれるため、Tone_mapストリームの符号化に関する情報を表す[ToneMap Block]も記述される。
図38Bの6行目に示すように、[ToneMap Block]には、Tone_mapストリームに含まれるtone_mapping_infoの数を表すnumber_of_tone_mapping_info_refが記述される。また、7〜10行目に示すように、[ToneMap Block]には、Tone_mapストリームに含まれるtone_mapping_infoのtone_map_idを表すtone_mapping_info_refも記述される。
このように、Clip InformationファイルにTone_mapストリームに含まれるtone_mapping_infoの数が記述されることにより、再生装置2は、Tone_mapストリームの有無をビデオストリームやグラフィックスストリームの再生前に認識することができる。
第2実施の形態におけるPlayListファイルのSTN_tableのシンタクスは、図16のSTN_tableのシンタクスと同一である。
(符号化処理部22の構成)
図39は、本技術を適用した記録・再生システムの第2実施の形態の記録装置1の符号化処理部22の構成例を示す図である。
図39に示す構成のうち、図22の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図39の符号化処理部22の構成は、ストリーム生成部36の代わりにストリーム生成部121が設けられる点が、図22の構成と異なる。
ストリーム生成部121は、HDR情報生成部31から供給されたビデオストリームのHDR情報を含むtone_mapping_infoと、定義情報生成部34から供給されたビデオストリームのtone mapping定義情報であるtone_mapping_infoの数をコントローラ21に供給する。また、ストリーム生成部121は、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。
ビデオストリームのtone_mapping_infoの数は、Data Base情報生成部21AによりPlayListファイルのSTN_table(図16)の主映像のビデオストリームのnumber_of_tone_mapping_info_refとして記述される。また、ビデオストリームのtone_map_idは、Data Base情報生成部21AによりSTN_tableのビデオストリームのtone_mapping_info_refとして記述される。
また、ストリーム生成部121は、HDR情報生成部31から供給されたグラフィックスストリームのHDR情報を含むtone_mapping_infoと、定義情報生成部34から供給されたグラフィックスストリームのtone mapping定義情報であるtone_mapping_infoの数をコントローラ21に供給する。また、ストリーム生成部121は、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。
グラフィックスストリームのtone_mapping_infoの数は、Data Base情報生成部21AによりPlayListファイルのSTN_tableのグラフィックスストリームのnumber_of_tone_mapping_info_refとして記述される。また、グラフィックスストリームのtone_map_idは、Data Base情報生成部21AによりSTN_tableのグラフィックスストリームのtone_mapping_info_refとして記述される。
さらに、ストリーム生成部121は、ビデオストリームとグラフィックスストリームのtone_mapping_infoの数およびtone_map_idを、Tone_mapストリームに挿入されるtone_mapping_infoの数およびtone_map_idとしてコントローラ21に供給する。ビデオストリームに挿入されるtone_mapping_infoの数は、Data Base情報生成部21AによりClip Informationファイルの[ToneMap Block](図38)のnumber_of_tone_mapping_info_refとして記述される。また、ビデオストリームに挿入されるtone_mapping_infoのtone_map_idは、Data Base情報生成部21Aにより[ToneMap Block]のtone_mapping_info_refとして記述される。
ストリーム生成部121は、ビデオストリームとグラフィックスストリームのtone_mapping_infoを含むTone_mapストリームを生成し、HEVCエンコーダ32から供給される符号化データを含むビデオストリームを生成する。ストリーム生成部121は、生成したTone_mapストリームおよびビデオストリームとエンコーダ35から供給されるグラフィックスストリームとをディスクドライブ23に出力する。
これにより、Tone_mapストリーム、ビデオストリーム、およびグラフィックスストリームを格納するストリームファイルが、図15のディレクトリ構造に従って光ディスク11に記録される。
(再生装置2の構成)
図40は、本技術を適用した記録・再生システムの第2実施の形態の再生装置2の構成例を示す図である。
図40に示す構成のうち、図25の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図40の再生装置2の構成は、復号処理部56の代わりに復号処理部131が設けられる点が、図25の構成と異なる。
復号処理部131は、ビデオ復号処理部131Aとグラフィックス復号処理部131Bにより構成される。ビデオ復号処理部131Aは、ディスクドライブ52により読み出され、供給されるAVストリームのうちのビデオストリームを抽出し、ビデオストリームに含まれる符号化データをHEVC方式で復号する。
ビデオ復号処理部131Aは、ディスクドライブ52により読み出され、供給されるストリームのうちのTone_mapストリームを抽出する。ビデオ復号処理部131Aは、コントローラ51から供給されるビデオストリームのtone_mapping_info_refに基づいて、Tone_mapストリームからビデオストリームのtone_mapping_infoを抽出する。
ビデオ復号処理部131Aは、必要に応じて、復号の結果得られるHDRビデオまたはSTDビデオを、抽出されたtone_mapping_infoであるtone mapping定義情報を参照してSTDビデオまたはHDRビデオに変換し、HDMI通信部58に出力する。ビデオ復号処理部131Aは、HDRビデオを出力する場合、HDRビデオとともに、抽出されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
グラフィックス復号処理部131Bは、ディスクドライブ52により読み出され、供給されるAVストリームのうちのグラフィックスストリームを抽出し、復号する。また、グラフィックス復号処理部131Bは、ディスクドライブ52により読み出され、供給されるストリームのうちのTone_mapストリームを抽出する。
グラフィックス復号処理部131Bは、コントローラ51から供給されるグラフィックスストリームのtone_mapping_info_refに基づいて、Tone_mapストリームからグラフィックスストリームのtone_mapping_infoを抽出する。グラフィックス復号処理部131Bは、必要に応じて、復号の結果得られるHDRグラフィックスまたはSTDグラフィックスを、抽出されたtone_mapping_infoであるtone mapping定義情報を参照してSTDグラフィックスまたはHDRグラフィックスに変換し、HDMI通信部58に出力する。グラフィックス復号処理部131Bは、HDRグラフィックスを出力する場合、HDRグラフィックスとともに、抽出されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
(グラフィックス復号処理部131Bの構成)
図41は、図40のグラフィックス復号処理部131Bの構成例を示すブロック図である。
図41に示す構成のうち、図26の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図41のグラフィックス復号処理部131Bの構成は、PIDフィルタ71、トーンマップ保持部80の代わりに、PIDフィルタ141、トーンマップ保持部142が設けられる点が、図26の構成と異なる。
PIDフィルタ141は、ディスクドライブ52から供給されるビデオストリーム、グラフィックスストリーム、およびTone_mapストリームの各パケットのパケットIDに基づいて、グラフィックスストリームとTone_mapストリームのパケットを抽出する。上述したように、PIDは、パケットを構成するデータの種類に固有のIDであるため、Tone_mapストリームのパケットには、ビデオストリーム、グラフィックスストリーム等の他のAVストリームのPIDとは異なるPIDが付加されている。
PIDフィルタ141は、グラフィックスストリームのTSパケットをTSバッファ72に供給し、保持させる。また、PIDフィルタ141は、抽出されたTone_mapストリームに含まれるtone_mapping_infoをトーンマップ保持部142に供給する。
トーンマップ保持部142は、PIDフィルタ141から供給されるtone_mapping_infoを保持する。
(記録処理)
図42は、記録装置1の第2の実施の形態による記録処理を説明するフローチャートである。図42の記録処理は、マスターのHDRデータが記録装置1に入力されたときに開始される。
ステップS111において、記録装置1のコントローラ21は、図28のステップS1の処理と同様に記録モードがmode-iであるか否かを判定する。
記録モードがmode-iであるとステップS111において判定された場合、ステップS112において、符号化処理部22はmode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたビデオストリーム、グラフィックスストリーム、およびTone_mapストリームはディスクドライブ23に供給される。
一方、記録モードがmode-iiであるとステップS111において判定された場合、ステップS113において、符号化処理部22はmode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたビデオストリーム、グラフィックスストリーム、およびTone_mapストリームはディスクドライブ23に供給される。
ステップS114において、Data Base情報生成部21AはData Base情報生成処理を行う。Data Base情報生成処理により生成されたData Base情報はディスクドライブ23に供給される。
ステップS115において、ディスクドライブ23は、ビデオストリーム、グラフィックスストリーム、Tone_mapストリーム、およびData Base情報を格納するファイルを光ディスク11に記録する。その後、処理は終了される。
図43は、図42のステップS112において行われるmode-iでの符号化処理を説明するフローチャートである。
図43のステップS121乃至S125の処理は、図29のステップS11乃至S15の処理と同様であるので、説明は省略する。
ステップS126において、ストリーム生成部121は、HDR情報生成部31により生成されたHDR情報を含むtone_mapping_infoと、定義情報生成部34により生成されたtone mapping定義情報であるtone_mapping_infoを含むTone_mapストリームを生成する。ストリーム生成部121は、Tone_mapストリームをディスクドライブ23に供給する。
また、ストリーム生成部121は、ビデオストリームのHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoの数、および、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。さらに、ストリーム生成部121は、グラフィックスストリームのHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoの数、および、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。また、ストリーム生成部121は、ビデオストリームとグラフィックスストリームのtone_mapping_infoの数およびtone_map_idを、Tone_mapストリームに挿入されるtone_mapping_infoの数およびtone_map_idとしてコントローラ21に供給する。
ステップS127において、ストリーム生成部121は、HEVCエンコーダ32から供給される符号化データを含むビデオストリームを生成し、ディスクドライブ23に供給する。その後、図42のステップS112に戻り、それ以降の処理が行われる。
図44は、図42のステップS113において行われるmode-iiでの符号化処理を説明するフローチャートである。
図44のステップS141乃至S145の処理は、図30のステップS21乃至S25の処理と同様であるので、説明は省略する。ステップS146およびS147の処理は、図43のステップS126およびS127と同様であるので、説明は省略する。
図45は、図42のステップS114において行われるData Base情報生成処理を説明するフローチャートである。
図45のステップS161において、コントローラ21のData Base情報生成部21Aは、図31のステップS31の処理と同様に、ビデオストリームおよびグラフィックスストリームのnumber_of_tone_mapping_info_refとtone_mapping_info_refを含むPlayListを生成する。
ステップS162において、Data Base情報生成部21Aは、図38を参照して説明した[ToneMap Block]にnumber_of_tone_mapping_info_refとtone_mapping_info_refを含むClip Informationを生成する。
具体的には、Data Base情報生成部21Aは、符号化処理部22から供給されるTone_mapストリームに含まれるtone_mapping_infoの数を、number_of_tone_mapping_info_refとしてClip Informationの[ToneMap Block]に記述する。また、Data Base情報生成部21Aは、符号化処理部22から供給されるTone_mapストリームに含まれるtone_mapping_infoのtone_map_idを、tone_mapping_info_refとしてClip Informationの[ToneMap Block]に記述する。なお、このClip Informationには、HDR_flagとmode_flagも含まれる。
記録装置1においては、以上の処理によって生成されたビデオストリーム、グラフィックスストリーム、Tone_mapストリーム、およびData Base情報が光ディスク11に記録される。
(再生処理)
図46は、再生装置2の第2実施の形態による再生処理を説明するフローチャートである。
光ディスク11の再生を開始する前などの所定のタイミングにおいて、再生装置2のコントローラ51は、HDMI通信部58を制御して表示装置3と通信を行い、表示装置3のメモリ101AからEDIDを読み出す。コントローラ51は、表示装置3が有するモニタの性能を表す情報をレジスタ53Aに記憶させて管理する。
ステップS171において、コントローラ51は、ディスクドライブ52を制御し、Data Base情報であるPlayListとClip Informationを光ディスク11から読み出す。また、コントローラ51は、再生するビデオストリーム、グラフィックスストリーム、およびTone_mapストリームをPlayListに含まれる情報に基づいて特定する。コントローラ51は、特定したビデオストリーム、グラフィックスストリーム、およびTone_mapストリームを、ディスクドライブ52を制御して光ディスク11から読み出す。
ステップS172およびS173の処理は、図32のステップS42およびS43の処理と同様であるので、説明は省略する。
記録モードがmode-iであるとステップS173において判定された場合、ステップS174において、復号処理部131はmode-iでの復号処理を行う。このmode-iでの復号処理の詳細は、後述する図47を参照して説明する。
一方、記録モードがmode-iiであるとステップS173において判定された場合、ステップS175において、復号処理部131はmode-iiでの復号処理を行う。このmode-iiでの復号処理の詳細は、後述する図48を参照して説明する。
ステップS174またはステップS175において復号処理が行われた後、処理は終了される。
図47は、図46のステップS174において行われるmode-iでの復号処理を説明するフローチャートである。
ステップS181において、ビデオ復号処理部131Aは、ディスクドライブ52から供給されるTone_mapストリームから、tone_mapping_infoを抽出する。グラフィックス復号処理部131Bは、PIDフィルタ141によりTone_mapストリームを抽出し、そのTone_mapストリームからtone_mapping_infoを抽出してトーンマップ保持部142に保持させる。
ステップS182乃至S190の処理は、図33のステップS62乃至S70の処理と同様であるので、説明は省略する。ステップS190の処理後、処理は図46のステップS174に戻り、それ以降の処理が行われる。
図48は、図46のステップS175においてmode-iiでの復号処理の詳細を説明するフローチャートである。
ステップS201の処理は、図47のステップS181の処理と同様であり、ステップS202乃至S209の処理は、図34のステップS82乃至S89の処理と同様であるので、説明は省略する。
<第3実施の形態>
(PGストリームとIGストリームの構成)
図49は、第3実施の形態におけるPGストリームとIGストリームのディスプレイセットの構成例を示す図である。
第3実施の形態では、PGストリームとIGストリームのtone_mapping_infoが、ビデオストリームやTone_mapストリームに含まれるのではなく、それぞれ、そのPGストリーム、IGストリームに含まれる。
具体的には、図49Aに示すように、PGストリームのディスプレイセットのセグメントとして、1画面分の字幕のtone_mapping_infoを記述するセグメントであるTDS(Tone_mapping_info Definition Segment)が用意される。また、図49Bに示すように、IGストリームのディスプレイセットのセグメントとして、1画面分のメニューボタンのtone_mapping_infoを記述するセグメントであるTDSが用意される。
また、PGストリームのXPDSには、図20の記述のほかに、TDSに含まれるtone_mapping_infoの数とODSに対応する字幕のtone_mapping_infoを識別するtone_map_idが記述される。IGストリームのXPDSについても同様である。
(XPDSのシンタクス)
図50は、図49のXPDSのシンタクスの例を示す図である。
図50のXPDSには、図20の記述のほかに、6行目のnumber_of_tone_mapping_info_refと7〜10行目のtone_mapping_info_refが記述される。number_of_tone_mapping_info_refは、このnumber_of_tone_mapping_info_refを含むXPDSと同一のディスプレイセット内のTDSに含まれるtone_mapping_infoの数を表す。tone_mapping_info_refは、このnumber_of_tone_mapping_info_refを含むXPDSと同一のディスプレイセット内のODSに対応するtone_mapping_infoを識別するtone_map_idを表す。
このように、第3実施の形態では、IGストリームやPGストリーム内にtone_mapping_infoが配置されるため、number_of_tone_mapping_info_refとtone_mapping_info_refもグラフィックスストリーム内に配置される。従って、PlayListには、グラフィックスストリームのnumber_of_tone_mapping_info_refとtone_mapping_info_refを配置する必要がない。よって、第3実施の形態では、PlayListに、グラフィックスストリームのnumber_of_tone_mapping_info_refとtone_mapping_info_refが配置されないものとするが、配置されるようにしてもよい。
(TDSのシンタクス)
図51は、図49のTDSのシンタクスの例を示す図である。
図51の4行目に示すように、TDSには、tone_mapping_infoが記述される。このtone_mapping_infoのシンタクスは、図7に示したものと同一である。
なお、第3実施の形態では、Text-STストリームにはtone_mapping_infoが含まれないものとするが、含まれるようにしてもよい。この場合、例えば、Text-STストリームのDSSに、number_of_tone_mapping_info_refとtone_mapping_info_refが記述される。また、Text-STストリームにTDSが用意される。
また、第3実施の形態のPlayListのシンタクスは、図16のSTN_tableを含む第1実施の形態のPlayListのシンタクスと同一である。但し、PG_text_ST_tone_mapping_flagとIG_tone_mapping_flagは0に設定される。なお、Text-STストリームのtone_mapping_infoがビデオストリームに含まれる場合には、PG_text_ST_tone_mapping_flagは1に設定され、tone_mapping_infoの数と、そのtone_mapping_infoのtone_map_idが設定される。
第3実施の形態のStreamCodingInfoは、図17および図18に示した第1実施の形態のStreamCodingInfoと同一である。従って、再生装置2は、[Graphics Block]に含まれるnumber_of_tone_mapping_infoにより、グラフィックスストリームの再生前にグラフィックスストリームにtone_mapping_infoが含まれているかを認識することができる。
(符号化処理部22の構成)
図52は、本技術を適用した記録・再生システムの第3実施の形態の記録装置1の符号化処理部22の構成例を示す図である。
図52に示す構成のうち、図22の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図52の符号化処理部22の構成は、HDR情報生成部31、定義情報生成部34、エンコーダ35、ストリーム生成部36の代わりに、HDR情報生成部160、定義情報生成部161、エンコーダ162、ストリーム生成部163が設けられる点が、図22の構成と異なる。
HDR情報生成部160は、入力されたマスターのHDRデータの輝度を検出し、図12を参照して説明した各情報を含むHDR情報を生成する。HDR情報生成部160は、生成したHDR情報のうちのビデオストリームのHDR情報をストリーム生成部163に供給し、グラフィックスストリームのHDR情報をエンコーダ162に出力する。
定義情報生成部161は、図22の定義情報生成部34と同様に、HDR-STD変換部33から供給された情報に基づいて、ビデオストリームとグラフィックスストリームのHDR-STD変換用のtone mapping定義情報を生成する。定義情報生成部161は、グラフィックスストリームのHDR-STD変換用のtone mapping定義情報をエンコーダ162に供給し、ビデオストリームのHDR-STD変換用のtone mapping定義情報をストリーム生成部163に供給する。
エンコーダ162は、記録モードがmode-iである場合、入力されたマスターのHDRグラフィックスを符号化し、グラフィックスストリームを生成する。また、エンコーダ162は、記録モードがmode-iiである場合、HDR-STD変換部33から供給されたSTDグラフィックスを符号化し、グラフィックスストリームを生成する。
エンコーダ162は、定義情報生成部161から供給されるグラフィックスストリームのHDR-STD変換用のtone mapping定義情報であるtone_mapping_infoと、HDR情報生成部160から供給されるグラフィックスストリームのHDR情報を含むtone_mapping_infoとを含むTDSを生成する。
エンコーダ162は、HDRグラフィックスまたはSTDグラフィックスのグラフィックスストリームにTDSを挿入し、ストリーム生成部163に出力する。また、エンコーダ162は、グラフィックスストリームのtone_mapping_infoの数とtone_map_idをコントローラ21に供給する。
ストリーム生成部163は、HDR情報生成部160から供給されたビデオストリームのHDR情報を含むtone_mapping_infoと、定義情報生成部161から供給されたビデオストリームのtone mapping定義情報であるtone_mapping_infoの数をコントローラ21に供給する。また、ストリーム生成部163は、それらのtone_mapping_infoのtone_map_idをコントローラ21に供給する。
また、ストリーム生成部163は、ビデオストリームのtone_mapping_infoをSEIとして符号化データに挿入し、ビデオストリームを生成する。ストリーム生成部163は、生成したビデオストリームとエンコーダ162から供給されるグラフィックスストリームをディスクドライブ23に出力する。
(再生装置2の構成)
図53は、本技術を適用した記録・再生システムの第3実施の形態の再生装置2の構成例を示す図である。
図53に示す構成のうち、図25の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図53の再生装置2の構成は、復号処理部56の代わりに復号処理部171が設けられる点が、図25の構成と異なる。
復号処理部171は、ビデオ復号処理部171Aとグラフィックス復号処理部171Bにより構成される。ビデオ復号処理部171Aは、ディスクドライブ52により読み出され、供給されるAVストリームのうちのビデオストリームを抽出する。ビデオ復号処理部171Aは、ビデオストリームのSEIからHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを抽出する。ビデオ復号処理部171Aは、ビデオストリームに含まれる符号化データをHEVC方式で復号する。
ビデオ復号処理部171Aは、コントローラ51から供給されるビデオストリームのtone_mapping_info_refに基づいて、ビデオストリームのtone_mapping_infoを選択する。ビデオ復号処理部171Aは、必要に応じて、復号の結果得られるHDRビデオまたはSTDビデオを、選択されたtone_mapping_infoであるtone mapping定義情報を参照してSTDビデオまたはHDRビデオに変換し、HDMI通信部58に出力する。ビデオ復号処理部171Aは、HDRビデオを出力する場合、HDRビデオとともに、選択されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
グラフィックス復号処理部171Bは、ディスクドライブ52により読み出され、供給されるAVストリームのうちのグラフィックスストリームを抽出し、グラフィックスストリームのTDSからtone_mapping_infoを抽出する。また、グラフィックス復号処理部171Bは、グラフィックスストリームのODSを復号する。
グラフィックス復号処理部171Bは、必要に応じて、復号の結果得られるHDRグラフィックスまたはSTDグラフィックスを、tone_mapping_infoであるtone mapping定義情報を参照してSTDグラフィックスまたはHDRグラフィックスに変換し、HDMI通信部58に出力する。グラフィックス復号処理部171Bは、HDRグラフィックスを出力する場合、HDRグラフィックスとともに、tone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
(グラフィックス復号処理部171Bの構成)
図54は、図53のグラフィックス復号処理部171Bの構成例を示すブロック図である。
図54に示す構成のうち、図26の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図54のグラフィックス復号処理部171Bの構成は、プロセッサ74、コンポジッションバッファ77、グラフィックスコントローラ78、トーンマップ保持部80、トーン変換部81の代わりに、プロセッサ180、コンポジッションバッファ181、グラフィックスコントローラ182、トーンマップ保持部183、トーン変換部184に代わる点が、図26の構成と異なる。
プロセッサ180は、ESバッファ73からESを読み出し、そのESに含まれるグラフィックスの制御データをコンポジッションバッファ181に供給する。例えば、ESがPGストリームである場合、プロセッサ180は、PGストリームに含まれるPCS,WDS,XPDS、およびTDSをコンポジッションバッファ181に供給する。一方、ESがIGストリームである場合、プロセッサ180は、IGストリームに含まれるICS,XPDS、およびTDSをコンポジッションバッファ181に供給する。また、プロセッサ180は、ESに含まれるODSを復号し、デコーダバッファ75に供給する。
コンポジッションバッファ181は、プロセッサ180から供給される制御データを保持する。
上述したように、[Graphics Block]に含まれるnumber_of_tone_mapping_infoにより、グラフィックスストリームの再生前にグラフィックスストリームにtone_mapping_infoが含まれているかを認識することができる。従って、コンポジッションバッファ181は、グラフィックスストリームにtone_mapping_infoが含まれていると認識した場合にのみ、そのtone_mapping_infoの容量として想定される容量を記憶容量として確保する。これにより、コンポジッションバッファ181において無駄に記憶容量を確保することを防止することができる。
グラフィックスコントローラ182は、コンポジッションバッファ181から制御データを読み出す。グラフィックスコントローラ182は、その制御データのうちのPCSやWDSに基づいて、デコーダバッファ75とグラフィックス生成部76における読み出しタイミングを制御する。また、グラフィックスコントローラ182は、XPDSをCLUT79に供給する。
また、グラフィックスコントローラ182は、TDSからtone_mapping_infoを抽出し、トーンマップ保持部183に供給する。グラフィックスコントローラ182は、XPDSに含まれるtone_mapping_info_refをトーン変換部184に供給する。
トーンマップ保持部183は、グラフィックスコントローラ182から供給されるtone_mapping_infoを保持する。
トーン変換部184は、グラフィックスコントローラ182から供給されるtone_mapping_info_refに基づいて、トーンマップ保持部183から、そのtone_mapping_info_refをtone_map_idとして記述するtone_mapping_infoを読み出す。
トーン変換部184にはまた、トーン変換部81と同様に、例えば、Clip Informationに含まれるmode_flagにより特定される記録モードを表す情報と、表示装置3から取得された情報により特定される、表示装置3が有するモニタの性能に関する情報がコントローラ51から供給される。
トーン変換部184は、トーン変換部81と同様に、HDR情報や、STDグラフィックスまたはHDRグラフィックスを、HDMI通信部58に出力する。
(記録処理)
記録装置1の第3実施の形態による記録処理は、ステップS2のmode-iでの符号化処理、ステップS3のmode-iiでの符号化処理、およびステップS4のData Base情報生成処理を除いて、図28の記録処理と同様である。従って、mode-iでの符号化処理、mode-iiでの符号化処理、およびData Base情報生成処理についてのみ説明する。
図55は、図52の符号化処理部22のmode-iでの符号化処理を説明するフローチャートである。
図55のステップS221乃至S225の処理は、図29のステップS11乃至S15の処理と同様であるので、説明は省略する。
ステップS226において、ストリーム生成部163は、符号化データのSEIとして、HDR情報生成部160により生成されたビデオストリームのHDR情報を含むtone_mapping_infoと、定義情報生成部161により生成されたビデオストリームのtone mapping定義情報であるTone_mapping_infoを符号化データに挿入し、ビデオストリームを生成する。
ステップS227において、エンコーダ162は、HDR情報生成部160から供給されるグラフィックスストリームのHDR情報を含むtone_mapping_infoと定義情報生成部161から供給されるグラフィックスストリームのtone mapping定義情報であるtone_mapping_infoとを含むTDSを生成する。
ステップS228において、エンコーダ162は、グラフィックスストリームにTDSを挿入し、ストリーム生成部163に出力する。また、エンコーダ162は、グラフィックスストリームのtone_mapping_infoの数とtone_map_idをコントローラ21に供給する。そして、処理は終了する。
図56は、図52の符号化処理部22のmode-iiでの符号化処理を説明するフローチャートである。
図56のステップS241乃至S245の処理は、図30のステップS21乃至S25の処理と同様であり、ステップS246乃至S248の処理は、図55のステップS226乃至S228の処理と同様であるので、説明は省略する。
図57は、Data Base情報生成部21AのData Base情報生成処理を説明するフローチャートである。
ステップS261において、Data Base情報生成部21Aは、図16を参照して説明したビデオストリームのnumber_of_tone_mapping_info_refとtone_mapping_info_refを含むPlayListを生成する。具体的には、Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームのtone_mapping_infoの数を、number_of_tone_mapping_info_refとしてPlayListに記述する。また、Data Base情報生成部21Aは、符号化処理部22から供給されるビデオストリームのtone_map_idをtone_mapping_info_refとしてPlayListに記述する。
ステップS262において、Data Base情報生成部21Aは、図17と図18を参照して説明した[Graphics Block]にnumber_of_tone_mapping_info_refとtone_mapping_info_refを含むClip Informationを生成する。
具体的には、Data Base情報生成部21Aは、符号化処理部22から供給されるグラフィックスストリームのtone_mapping_infoの数を、number_of_tone_mapping_info_refとしてClip Informationの[Graphics Block]に記述する。また、Data Base情報生成部21Aは、符号化処理部22から供給されるグラフィックスストリームのtone_mapping_infoのtone_map_idを、tone_mapping_info_refとしてClip Informationの[Graphics Block]に記述する。なお、このClip Informationには、HDR_flagとmode_flagも含まれる。
記録装置1においては、以上の処理によって生成されたビデオストリーム、グラフィックスストリーム、およびData Base情報が光ディスク11に記録される。
(再生処理)
再生装置2の第3実施の形態による再生処理は、ステップS44のmode-iでの復号処理とステップS45のmode-iiでの復号処理を除いて、図32の再生処理と同様である。従って、mode-iでの復号処理とmode-iiでの復号処理についてのみ説明する。
図58は、図53の復号処理部171のmode-iでの復号処理を説明するフローチャートである。
ステップS281において、ビデオ復号処理部171Aは、ビデオストリームのSEIからtone_mapping_infoを抽出する。
ステップS282において、ビデオ復号処理部171Aは、ビデオストリームに含まれる符号化データをHEVC方式で復号し、HDRビデオを生成する。
ステップS283において、グラフィックス復号処理部171Bは、グラフィックスストリームのTDSからtone_mapping_infoを抽出する。具体的には、グラフィックス復号処理部171Bは、PIDフィルタ71によりグラフィックスストリームを抽出し、TSバッファ72、ESバッファ73、プロセッサ180を介してコンポジッションバッファ181に制御データを保持させる。グラフィックスコントローラ182は、コンポジッションバッファ181から制御データのうちのTDSを読み出し、そのTDSからtone_mapping_infoを抽出する。そして、グラフィックスコントローラ182は、抽出されたtone_mapping_infoをトーンマップ保持部183に供給して保持させる。
また、グラフィックスコントローラ182は、制御データのうちのXPDSに含まれるtone_mapping_info_refをトーン変換部184に供給する。
ステップS284において、グラフィックス復号処理部171Bは、グラフィックスストリームのODSを復号し、HDRグラフィックスのY,Cr,Cbの値を生成する。HDRグラフィックスのY,Cr,Cbの値は、トーン変換部184に供給される。
ステップS285において、コントローラ51は、レジスタ53Aに記憶させておいた情報に基づいて、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS285において判定された場合、処理はステップS286に進む。
ステップS286において、ビデオ復号処理部171Aは、コントローラ51から供給されるPlayListに記述されるビデオストリームのtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoを、抽出されたtone_mapping_infoから選択する。また、グラフィックス復号処理部171Bのトーン変換部184は、グラフィックスコントローラ182から供給されるtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoを、トーンマップ保持部183に保持されているtone_mapping_infoから選択し、読み出す。
ステップS287において、ビデオ復号処理部171Aは、HDRビデオを、選択されたビデオストリームのHDR情報とともに出力する。また、トーン変換部184は、HDRグラフィックスを、選択されたグラフィックスストリームのHDR情報とともに出力する。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS285において判定された場合、処理はステップS288に進む。
ステップS288において、ビデオ復号処理部171Aは、コントローラ51から供給されるPlayListに記述されるビデオストリームのtone_mapping_info_refをtone_map_idとして含むtone mapping定義情報であるtone_mapping_infoを、抽出されたtone_mapping_infoから選択する。また、トーン変換部184は、グラフィックスコントローラ182から供給されるtone_mapping_info_refをtone_map_idとして含むtone mapping定義情報であるtone_mapping_infoを、トーンマップ保持部183に保持されているtone_mapping_infoから選択し、読み出す。
ステップS289乃至S291の処理は、図33のステップS68乃至S70の処理と同様であるので、説明は省略する。
図59は、図53の復号処理部171のmode-iiでの復号処理を説明するフローチャートである。
ステップS301乃至S305の処理は、図58のステップS281乃至S285の処理と同様であるので、説明は省略する。
ステップS306において、ビデオ復号処理部171Aは、コントローラ51から供給されるPlayListに記述されるビデオストリームのtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを、抽出されたtone_mapping_infoから選択する。また、トーン変換部184は、グラフィックスコントローラ182から供給されるtone_mapping_info_refをtone_map_idとして含み、HDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを、トーンマップ保持部183に保持されているtone_mapping_infoから選択し、読み出す。
ステップS307乃至S310の処理は、図34のステップS86乃至S89の処理と同様であるので、説明は省略する。
<第4実施の形態>
(BDJオブジェクトについて)
図60は、BDJオブジェクトに基づいて生成される画面を説明する図である。
図60に示すように、BDJオブジェクトに記述されたBDJアプリケーションのコマンドにより生成可能な画面(以下、BDJ画面という)は、グラフィックスと背景画像の画面である。BDJオブジェクトにより生成されるグラフィックスの画面(BDJ Graphics plane)は、ビデオの画面(video plane)より手前側に表示され、背景の画面(Background plane)は、ビデオの画面より奥側に表示される。
本技術を適用した第4実施の形態では、BDJオブジェクトにより生成される画面の再生時にtone_mapping_infoを用いる。
(ビデオ再生時のtone_mapping_infoについて)
図61は、本技術を適用した第4実施の形態におけるビデオ再生時のtone_mapping_infoを説明する図である。
図61に示すように、第4実施の形態においても、第1実施の形態と同様に、ビデオストリームにはtone_mapping_infoが配置されている。図61の例では、3つのtone_mapping_info#1乃至#3が配置されている。
また、第1実施の形態と同様に、PlayListにおいて、ビデオストリームやPGストリームのtone_mapping_infoのtone_map_idが指定される。図61の例では、例えば、主映像のビデオストリームのtone_mapping_infoとしてtone_mapping_info#3が指定され、PGストリームのtone_mapping_infoとしてtone_mapping_info#2が指定されている。
このようにビデオストリームにtone_mapping_infoが配置されている場合、BDJオブジェクトのコマンドによりPlayListにしたがってビデオストリームが再生されているときには、BDJ画面のtone_mapping_infoを、ビデオストリームから取得することができる。
従って、ビデオ再生時のBDJ画面のtone_mapping_infoは、ビデオストリームに挿入され、BDJオブジェクトにおいて、そのtone_mapping_infoを識別するtone_map_idが指定される。図61の例では、BDJ画面のtone_mapping_infoのtone_map_idとして1が指定されており、tone_mapping_info#1がBDJ画面の再生時に用いられる。
図62は、BDJオブジェクトに記述されるビデオストリームに挿入されたBDJ画面のtone_mapping_infoを識別するtone_map_idを指定するコマンドの例を示す図である。
なお、図62の左側の行番号とコロン(:)は説明の便宜上示すものであり、コマンドに含まれるものではない。このことは、後述する図64についても同様である。
図62の例では、4行目に示すように、BDJ画面のtone_mapping_infoのtone_map_idとして、1と2が指定されている。
(ビデオ停止時のtone_mapping_infoについて)
図63は、本技術を適用した第4実施の形態におけるビデオ停止時のtone_mapping_infoを説明する図である。
第1実施の形態と同様にビデオストリームにtone_mapping_infoが配置されている場合、ビデオ停止時には、BDJ画面のtone_mapping_infoを、ビデオストリームから取得することができない。従って、ビデオ停止時のBDJ画面のtone_mapping_infoを生成するコマンド、および、そのtone_mapping_info のうちの再生対象のBDJ画面のtone_mapping_infoを識別するtone_map_idを指定するコマンドがBDJオブジェクトに記述される。
図63の例では、tone_mapping_info#1乃至#3を生成するコマンドがBDJオブジェクトに記述されている。再生装置2では、そのコマンドにしたがって、tone_mapping_info#1乃至#3が生成され、再生装置2内のBDJオブジェクト用のメモリであるBDJメモリ191に保持される。
また、図63の例では、再生対象のBDJ画面のtone_mapping_infoのtone_map_idとして1と2を指定するコマンドがBDJオブジェクトに記述されている。再生装置2では、そのコマンドにしたがってtone_mapping_info#1とtone_mapping_info#2が、再生装置2内のBDJ画面用のメモリであるBDJ画面メモリ192に保持される。そして、再生対象のBDJ画面の再生時に、そのtone_mapping_info#1とtone_mapping_info#2が用いられる。
図64は、BDJオブジェクトに記述される、ビデオ停止時のBDJ画面のtone_mapping_infoを生成するコマンド、および、そのtone_mapping_infoのうちの再生対象のBDJ画面のtone_mapping_infoを識別するtone_map_idを指定するコマンドの例を示す図である。
図64の2行目乃至8行目のコマンドは、ビデオ停止時のBDJ画面のtone_mapping_infoとして、tone_map_model_id=0とtone_map_model_id=4のtone_mapping_infoを生成するコマンドである。
9行目乃至12行目のコマンドは、生成されたtone_mapping_infoのtone_map_idを再生対象のBDJ画面のtone_mapping_infoのtone_map_idとして指定するコマンドである。
図65および図66は、図62および図64のコマンドを実行するために必要なBDJアプリケーションのクラス構造を示す図である。
図65のorg.blurayx.hdr.ToneMapControlは、BDJオブジェクトにより生成されるグラフィックスの画面のtone_mapping_infoを設定するクラスである。org.blurayx.hdr.BackgroundToneMapControlは、BDJオブジェクトにより生成される背景の画面のtone_mapping_infoを設定するクラスである。org.blurayx.hdr.ToneMapFactoryは、tone_mapping_infoを生成するクラスである。
図66のorg.blurayx.hdr.ToneMapは、全てのtone mapのモデルに共通の情報をtone_mapping_infoに記述するクラスである。org.blurayx.hdr.ToneMapLinearは、tone_map_model_id=0に関する記述を行うクラスである。org.blurayx.hdr.ToneMapSigmoidalは、tone_map_model_id=1に関する記述を行うクラスである。org.blurayx.hdr.ToneMapUserDefinedTableは、tone_map_model_id=2に関する記述を行うクラスである。
org.blurayx.hdr.ToneMapPieceWiseLinearは、tone_map_model_id=3に関する記述を行うクラスである。org.blurayx.hdr.ToneMapLuminanceDynamicRangeInfoは、tone_map_model_id=4に関する記述を行うクラスである。
(記録装置1の構成)
図67は、本技術を適用した記録・再生システムの第4実施の形態の記録装置1の構成例を示す図である。
図67の記録装置1は、コントローラ201、符号化処理部202、およびディスクドライブ203から構成される。マスターのHDRビデオが符号化処理部202に入力される。
コントローラ201は、CPU、ROM、RAMなどより構成される。コントローラ201は、所定のプログラムを実行し、記録装置1の全体の動作を制御する。
コントローラ201においては、所定のプログラムが実行されることによってData Base情報生成部201AとBDJオブジェクト生成部201Bが実現される。Data Base情報生成部201Aは、符号化処理部202から供給されるビデオストリームのtone_mapping_infoの数をPlayListの主映像のビデオストリームのnumber_of_tone_mapping_info_refとして記述し、tone_map_idをtone_mapping_info_refとして記述する。
また、Data Base情報生成部201Aは、符号化処理部202から供給されるビデオストリームに挿入されるtone_mapping_infoの数を、Clip Informationの[Video Block]のnumber_of_tone_mapping_info_refに記述し、tone_map_idをtone_mapping_info_refとして記述する。Data Base情報生成部201Aは、以上のようにして各種の情報を記述することによりData Base情報であるPlayListとClip Informationを生成し、ディスクドライブ203に出力する。
また、BDJオブジェクト生成部201Bは、BDJ画面やプレイリストにしたがうAVストリームを再生する再生コマンドを記述するBDJオブジェクトを生成する。BDJオブジェクト生成部201Bは、ビデオ再生時のBDJ画面のtone mapping定義情報とHDR情報を必要に応じて生成し、符号化処理部202に供給する。BDJオブジェクト生成部201Bは、符号化処理部202から供給される、ビデオ再生時のBDJ画面のtone_mapping_infoのtone_map_idを取得する。
BDJオブジェクト生成部201Bは、取得されたtone_map_idを指定するコマンドを、図62を参照して説明したようにBDJオブジェクトにさらに記述する。BDJオブジェクト生成部201Bは、ビデオ停止時のBDJ画面のtone mapping定義情報であるtone_mapping_infoとHDR情報を含むtone_mapping_infoを生成する。
BDJオブジェクト生成部201Bは、そのビデオ停止時のBDJ画面のtone_mapping_infoを生成するコマンドと、そのtone_mapping_infoのtone_map_idを指定するコマンドを、図63を参照して説明したようにBDJオブジェクトにさらに記述する。BDJオブジェクト生成部201Bは、BDJオブジェクトをディスクドライブ203に出力する。
符号化処理部202は、コントローラ201から供給されるtone_mapping_infoにtone_map_idを付与する。符号化処理部202は、マスターのHDRビデオの符号化を行う。符号化処理部202は、マスターのHDRビデオを符号化して得られた符号化データに、コントローラ201から供給されるtone_mapping_infoとビデオストリームのtone_mapping_infoをSEIとして挿入し、ディスクドライブ203に出力する。また、符号化処理部202は、ビデオストリームのtone_mapping_infoの数およびtone_map_id、並びに、ビデオ再生時のBDJ画面のtone_mapping_infoに付与されたtone_map_idをコントローラ201に供給する。
ディスクドライブ203は、コントローラ201から供給されたPlayList、Clip Information、およびBDJオブジェクトと、符号化処理部202から供給されたビデオストリームを格納するファイルを図15のディレクトリ構造に従って光ディスク11に記録する。
(符号化処理部202の構成)
図68は、図67の符号化処理部202の構成例を示すブロック図である。
図68の符号化処理部202の構成は、HDR情報生成部31、HDR-STD変換部33、ストリーム生成部36の代わりに、HDR情報生成部211、HDR-STD変換部212、ストリーム生成部213を設ける点、および、エンコーダ35を設けない点で、図22の符号化処理部22の構成と異なる。
HDR情報生成部211は、入力されたマスターのHDRビデオの輝度を検出し、図12を参照して説明した各情報を含むHDR情報を生成する。HDR情報生成部211は、生成したHDR情報をストリーム生成部213に出力する。
HDR-STD変換部212は、入力されたマスターのHDRビデオをSTDビデオに変換する。HDR-STD変換部212による変換は、適宜、オーサーにより入力された変換パラメータに従って行われる。HDR-STD変換部212は、HDRビデオのRGB信号をinput data、STDビデオのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報を定義情報生成部34に出力する。
また、HDR-STD変換部212は、記録モードがmode-iiである場合、HDRビデオを変換して得られたSTDビデオをHEVCエンコーダ32に出力する。
ストリーム生成部213は、HDR情報生成部211から供給されたHDR情報を含むtone_mapping_infoと、定義情報生成部34から供給されたtone mapping定義情報であるtone_mapping_infoの数を、ビデオストリームのtone_mapping_infoの数として図67のコントローラ201に供給する。また、ストリーム生成部213は、それらのtone_mapping_infoのtone_map_idをビデオストリームのtone_map_idとしてコントローラ201に供給する。
また、ストリーム生成部213は、コントローラ201から供給されるビデオ再生時のBDJ画面のtone mapping定義情報であるtone_mapping_infoと、HDR情報を含むtone_mapping_infoを生成する。ストリーム生成部213は、生成されたtone_mapping_infoのtone_map_idをコントローラ201に供給する。
さらに、ストリーム生成部213は、ビデオストリームとビデオ再生時のBDJ画面のtone_mapping_infoの数およびtone_map_idを、ビデオストリームに挿入されるtone_mapping_infoの数およびtone_map_idとしてコントローラ201に供給する。ストリーム生成部213は、ビデオストリームとビデオ再生時のBDJ画面のtone_mapping_infoをSEIとして符号化データに挿入し、ビデオストリームを生成する。ストリーム生成部213は、生成したビデオストリームを図67のディスクドライブ203に出力する。
(再生装置2の構成)
図69は、本技術を適用した再生装置2の第4実施の形態の構成例を示すブロック図である。
図69の再生装置2の構成は、コントローラ51、復号処理部56、メモリ53の代わりにコントローラ221、復号処理部222、メモリ223が設けられる点で、図25の構成と異なる。
コントローラ221は、CPU、ROM、RAMなどより構成される。コントローラ221は、所定のプログラムを実行し、再生装置2の全体の動作を制御する。例えば、コントローラ221は、ディスクドライブ52から供給されるPlayListに記述されているビデオストリームのtone_mapping_info_refを、復号処理部222に供給する。
また、コントローラ221においては、ディスクドライブ52から供給されるBDJオブジェクトが実行されることによってBDJオブジェクト実行部221Aが実現される。BDJオブジェクト実行部221Aは、再生コマンドにしたがってHDRのBDJ画面(以下、HDR画面という)またはSTDのBDJ画面(以下、STD画面という)を生成する。また、ビデオ再生時、BDJオブジェクト実行部221Aは、コマンドにより指定されたtone_map_idのtone_mapping_infoを復号処理部222から取得する。
BDJオブジェクト実行部221Aは、必要に応じて、生成されたHDR画面またはSTD画面を、取得されたtone_mapping_infoであるtone_mapping_info定義情報を参照して、STD画面またはHDR画面に変換し、HDMI通信部58に供給する。BDJオブジェクト実行部221Aは、HDR画面を出力する場合、HDR画面とともに、取得されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
一方、ビデオ停止時、BDJオブジェクト実行部221Aは、コマンドにしたがってBDJ画面のtone_mapping_infoを生成し、メモリ223に供給してBDJメモリ191に保持させる。また、BDJオブジェクト実行部221Aは、コマンドにより指定された再生対象のBDJ画面のtone_mapping_infoのtone_map_idに基づいて、メモリ223に保持されているtone_mapping_infoから、そのtone_map_idのtone_mapping_infoを選択し、BDJ画面メモリ192に保持させる。
BDJオブジェクト実行部221Aは、必要に応じて、BDJ画面メモリ192からtone_mapping_infoを読み出す。BDJオブジェクト実行部221Aは、生成されたHDR画面またはSTD画面を、読み出されたtone_mapping_infoであるtone_mapping_info定義情報を参照して、STD画面またはHDR画面に変換し、HDMI通信部58に供給する。BDJオブジェクト実行部221Aは、HDR画面を出力する場合、HDR画面とともに、読み出されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
復号処理部222は、ディスクドライブ52から供給されたビデオストリームのSEIからtone_mapping_infoを抽出する。復号処理部222は、BDJオブジェクト実行部221Aからの要求に応じて、抽出されたtone_mapping_infoのうちの所定のtone_map_idのtone_mapping_infoをBDJオブジェクト実行部221Aに供給する。
復号処理部222は、ビデオストリームに含まれる符号化データをHEVC方式で復号する。復号処理部222は、コントローラ221から供給されるビデオストリームのtone_mapping_info_refに基づいて、ビデオストリームのtone_mapping_infoを選択する。ビデオ復号処理部222Aは、必要に応じて、復号の結果得られるHDRビデオまたはSTDビデオを、選択されたtone_mapping_infoであるtone mapping定義情報を参照してSTDビデオまたはHDRビデオに変換し、HDMI通信部58に出力する。ビデオ復号処理部222Aは、HDRビデオを出力する場合、HDRビデオとともに、選択されたtone_mapping_infoに含まれるHDR情報をHDMI通信部58に出力する。
メモリ223は、コントローラ221が各種の処理を実行する上において必要なデータなどを記憶する。メモリ223には、PSRであるレジスタ223Aが形成される。レジスタ223Aには、BD Playerである再生装置2が光ディスク11の再生時に参照する各種の情報が記憶される。レジスタ223Aは、例えば、BDJメモリ191とBDJ画面メモリ192を形成する。
BDJメモリ191は、BDJオブジェクト実行部221Aから供給されるtone_mapping_infoを保持する。BDJ画面メモリ192は、BDJメモリ191に保持されているtone_mapping_infoのうちの、BDJオブジェクト実行部221Aにより選択されたtone_mapping_infoを保持する。
(記録処理)
図70は、図67の記録装置1の記録処理を説明するフローチャートである。この記録処理は、マスターのHDRビデオが記録装置1に入力されたときに開始される。
ステップS321において、記録装置1のBDJオブジェクト生成部201Bは、再生コマンドをBDJオブジェクトに記述する。
ステップS322において、BDJオブジェクト生成部201Bは、BDJ画面のビデオ再生時とビデオ停止時のHDR情報とtone mapping定義情報を生成する。BDJオブジェクト生成部201Bは、ビデオ再生時のHDR情報とtone mapping定義情報を符号化処理部202に供給する。
ステップS323において、BDJオブジェクト生成部201Bは、ビデオ停止時のHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを生成するコマンドと、そのtone_mapping_infoのtone_map_idを指定するコマンドをBDJオブジェクトに記述する。
ステップS324において、コントローラ201は、記録モードがmode-iであるか否かを判定する。記録モードは例えばオーサーにより設定される。
記録モードがmode-iであるとステップS324において判定された場合、ステップS325において、符号化処理部202はmode-iでの符号化処理を行う。具体的には、符号化処理部202は、図29のステップS11,S12、S14、およびS15の処理をビデオについて行う。そして、処理はステップS327に進む。
一方、記録モードがmode-iiであるとステップS324において判定された場合、ステップS326において、符号化処理部202はmode-iiでの符号化処理を行う。具体的には、符号化処理部202は、図30のステップS21乃至S24の処理をビデオについて行う。そして、処理はステップS327に進む。
ステップS327において、符号化処理部202のストリーム生成部213は、符号化データのSEIとして、HDR情報生成部211により生成されたHDR情報を含むtone_mapping_infoと、定義情報生成部34により生成されたtone mapping定義情報であるtone_mapping_infoを、符号化データに挿入する。また、ストリーム生成部213は、コントローラ201から供給されるビデオ再生時のBDJ画面のHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを生成し、符号化データのSEIとして、符号化データに挿入する。
以上により、ストリーム生成部213は、tone_mapping_infoが符号化データに挿入されたビデオストリームを生成する。ストリーム生成部213は、ビデオストリームをディスクドライブ23に供給する。また、ストリーム生成部213は、ビデオ再生時のHDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoのtone_map_idをコントローラ201に供給する。
さらに、ストリーム生成部213は、ビデオストリームのtone_mapping_infoの数とtone_map_id、並びに、ビデオストリームに挿入されるtone_mapping_infoの数およびtone_map_idをコントローラ201に供給する。
ステップS328において、BDJオブジェクト生成部201Bは、ストリーム生成部213から供給されるビデオ再生時のtone_mapping_infoのtone_map_idを指定するコマンドをBDJオブジェクトに記述する。
ステップS329において、Data Base情報生成部201AはData Base情報生成処理を行う。具体的には、Data Base情報生成部201Aは、図31のステップS31およびS32の処理をビデオについて行う。Data Base情報生成処理により生成されたPlayListファイルとClip Informationファイルはディスクドライブ203に供給される。
ステップS330において、ディスクドライブ23は、ビデオストリーム、Data Base情報、およびBDJオブジェクトを格納するファイルを光ディスク11に記録する。その後、処理は終了される。
(再生処理)
図69の再生装置2のビデオストリームを再生する処理は、図32の再生処理のうちのビデオについての処理と同様であるので、説明は省略する。この処理は、BDJオブジェクトに記述されたプレイリストにしたがうビデオストリームを再生する再生コマンドに応じて行われる。
図71は、図69の再生装置2のBDJ画面の再生処理を説明するフローチャートである。
ステップS340において、BDJオブジェクト実行部221Aは、BDJ画面を再生する再生コマンドにしたがってBDJ画面を生成する。
ステップS341において、BDJオブジェクト実行部221Aは、ビデオストリームの再生中であるかどうかを判定する。ステップS341でビデオストリームの再生中であると判定された場合、処理はステップS342に進む。
ステップS342において、BDJオブジェクト実行部221Aは、BDJオブジェクトに記述されたコマンドにより指定されるtone_map_idのtone_mapping_infoを、復号処理部222でSEIから抽出されたtone_mapping_infoから選択して取得する。そして、処理はステップS345に進む。
ステップS341でビデオストリームの再生中であると判定された場合、処理はステップS343に進む。ステップS343において、BDJオブジェクト実行部221Aは、BDJオブジェクトに記述されたコマンドにしたがって、HDR情報を含むtone_mapping_infoとtone mapping定義情報であるtone_mapping_infoを生成し、BDJメモリ191に保持させる。
ステップS344において、BDJオブジェクト実行部221Aは、BDJオブジェクトに記述されたコマンドで指定されるtone_map_idのtone_mapping_infoを、BDJメモリ191に保持されているtone_mapping_infoから選択してBDJ画面メモリ192に保持させる。BDJオブジェクト実行部221Aは、BDJ画面メモリ192に保持されているtone_mapping_infoを読み出し、処理をステップS345に進める。
ステップS345において、BDJオブジェクト実行部221Aは、表示装置3が有するモニタの種類に応じて、tone_mapping_infoであるがHDRモニタであり、ステップS340で生成されたBDJ画面がSTD画面である場合、または、モニタがSTDモニタであり、生成されたBDJ画面がHDR画面である場合、tone mapping定義情報を参照してHDR画面またはSTD画面に変換する。
一方、BDJオブジェクト実行部221Aは、tone_mapping_infoであるがHDRモニタであり、ステップS340で生成されたBDJ画面がHDR画面である場合、または、モニタがSTDモニタであり、生成されたBDJ画面がSTD画面である場合、BDJ画面の変換は行わない。
そして、BDJオブジェクト実行部221Aは、変換後のHDR画面またはSTD画面、もしくは、変換されないHDR場面またはSTD画面をHDMI通信部58に供給する。また、BDJオブジェクト実行部221Aは、モニタがHDRモニタである場合、tone_mapping_infoに含まれるHDR情報をHDMI通信部58に供給する。
ステップS346において、コントローラ221は、再生終了か否かを判定する。
再生終了ではないとステップS346において判定した場合、コントローラ221は、ステップS340に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS346において判定された場合、処理は終了する。
<第5実施の形態>
(コンピュータの構成)
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図72は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU501、ROM502、RAM503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウスなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507が接続される。また、入出力インタフェース505には、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、リムーバブルメディア511を駆動するドライブ510が接続される。
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを入出力インタフェース505及びバス504を介してRAM503にロードして実行することにより、上述した一連の処理が行われる。
CPU501が実行するプログラムは、例えばリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部508にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、HDR_flagとmode_flagは、ビデオとグラフィックスで独立に設定されるようにしてもよい。また、HDR_flagとmode_flagは、予め固定されている場合には、光ディスク11に記録されなくてもよい。再生装置2は、HDRデータを表示装置3に送信する場合であってもHDR情報を表示装置3に送信しなくてもよい。再生装置2は、携帯端末によって構成されてもよい。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本技術は、符号化方式としてMPEG4(Moving Picture Experts Group phase 4)方式が採用された記録・再生システムにも適用することもできる。
本技術は、以下のような構成をとることもできる。
(1)
第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリーム、および、前記拡張グラフィックスのグラフィックスストリームを記録した記録媒体から、前記Tone_mapストリームと前記グラフィックスストリームを読み出す読み出し部と、
前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換する変換部と、
前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する出力部と
を備える再生装置。
(2)
前記Tone_mapストリームと前記グラフィックスストリームは多重化されて前記記録媒体に記録される
前記(1)に記載の再生装置。
(3)
前記Tone_mapストリームと前記グラフィックスストリームのパケットには、異なるパケットIDが付加される
前記(1)または(2)に記載の再生装置。
(4)
前記輝度変換定義情報は、tone_map_model_idの値として0,2,3のうちのいずれかの値が設定された第1のtone_mapping_infoであり、
前記HDR情報は、tone_map_model_idの値として4が設定された第2のtone_mapping_infoである
前記(1)乃至(3)のいずれかに記載の再生装置。
(5)
前記Tone_mapストリームは、第3の輝度範囲と異なるより広い第4の輝度範囲のビデオである拡張ビデオの輝度の特性を示すHDR情報と、前記拡張ビデオから前記第3の輝度範囲のビデオである標準ビデオへの輝度変換を行うときに用いられる輝度変換定義情報を含み、
前記変換部は、前記Tone_mapストリームに含まれる前記拡張ビデオの輝度変換定義情報に基づいて、前記拡張ビデオを前記標準ビデオに変換し、
前記出力部は、前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオおよび前記Tone_mapストリームに含まれる前記拡張ビデオのHDR情報を出力し、前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオを出力する
前記(1)乃至(4)のいずれかに記載の再生装置。
(6)
再生装置が、
第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリーム、および、前記拡張グラフィックスのグラフィックスストリームを記録した記録媒体から、前記Tone_mapストリームと前記グラフィックスストリームを読み出す読み出しステップと、
前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換する変換ステップと、
前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する出力ステップと
を含む再生方法。
(7)
第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリームと、
前記拡張グラフィックスのグラフィックスストリームと
を記録した記録媒体であって、
前記記録媒体を再生する再生装置においては、
前記Tone_mapストリームと前記グラフィックスストリームを前記記録媒体から読み出し、
前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換し、
前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する
処理が行われる記録媒体。
1 記録装置, 2 再生装置, 11 光ディスク, 52 ディスクドライブ, 56 復号処理部, 56A ビデオ復号処理部, 58 HDMI通信部, 81 トーン変換部, 131 復号処理部, 131A ビデオ復号処理部, 171 復号処理部, 184 トーン変換部, 221A BDJオブジェクト実行部

Claims (7)

  1. 第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリーム、および、前記拡張グラフィックスのグラフィックスストリームを記録した記録媒体から、前記Tone_mapストリームと前記グラフィックスストリームを読み出す読み出し部と、
    前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換する変換部と、
    前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する出力部と
    を備える再生装置。
  2. 前記Tone_mapストリームと前記グラフィックスストリームは多重化されて前記記録媒体に記録される
    請求項1に記載の再生装置。
  3. 前記Tone_mapストリームと前記グラフィックスストリームのパケットには、異なるパケットIDが付加される
    請求項1に記載の再生装置。
  4. 前記輝度変換定義情報は、tone_map_model_idの値として0,2,3のうちのいずれかの値が設定された第1のtone_mapping_infoであり、
    前記HDR情報は、tone_map_model_idの値として4が設定された第2のtone_mapping_infoである
    請求項1に記載の再生装置。
  5. 前記Tone_mapストリームは、第3の輝度範囲と異なるより広い第4の輝度範囲のビデオである拡張ビデオの輝度の特性を示すHDR情報と、前記拡張ビデオから前記第3の輝度範囲のビデオである標準ビデオへの輝度変換を行うときに用いられる輝度変換定義情報を含み、
    前記変換部は、前記Tone_mapストリームに含まれる前記拡張ビデオの輝度変換定義情報に基づいて、前記拡張ビデオを前記標準ビデオに変換し、
    前記出力部は、前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオおよび前記Tone_mapストリームに含まれる前記拡張ビデオのHDR情報を出力し、前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオを出力する
    請求項1に記載の再生装置。
  6. 再生装置が、
    第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリーム、および、前記拡張グラフィックスのグラフィックスストリームを記録した記録媒体から、前記Tone_mapストリームと前記グラフィックスストリームを読み出す読み出しステップと、
    前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換する変換ステップと、
    前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する出力ステップと
    を含む再生方法。
  7. 第1の輝度範囲と異なるより広い第2の輝度範囲のグラフィックスである拡張グラフィックスの輝度の特性を示すHDR情報と、前記拡張グラフィックスから前記第1の輝度範囲のグラフィックスである標準グラフィックスへの輝度変換を行うときに用いられる輝度変換定義情報とを含むTone_mapストリームと、
    前記拡張グラフィックスのグラフィックスストリームと
    を記録した記録媒体であって、
    前記記録媒体を再生する再生装置においては、
    前記Tone_mapストリームと前記グラフィックスストリームを前記記録媒体から読み出し、
    前記Tone_mapストリームに含まれる前記拡張グラフィックスの輝度変換定義情報に基づいて、前記拡張グラフィックスを前記標準グラフィックスに変換し、
    前記拡張グラフィックスを表示可能な表示装置に対して、前記拡張グラフィックスおよび前記Tone_mapストリームに含まれる前記拡張グラフィックスのHDR情報を出力し、前記拡張グラフィックスを表示することができない表示装置に対して、前記標準グラフィックスを出力する
    処理が行われる記録媒体。
JP2013132019A 2013-06-24 2013-06-24 再生装置、再生方法、および記録媒体 Pending JP2015008361A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013132019A JP2015008361A (ja) 2013-06-24 2013-06-24 再生装置、再生方法、および記録媒体
PCT/JP2014/065552 WO2014208346A1 (ja) 2013-06-24 2014-06-12 再生装置、再生方法、および記録媒体
CN201480034530.6A CN105324987B (zh) 2013-06-24 2014-06-12 再现装置、再现方法以及记录媒体
KR1020157034581A KR102225977B1 (ko) 2013-06-24 2014-06-12 재생 장치, 재생 방법 및 기록 매체
US14/898,434 US9832440B2 (en) 2013-06-24 2014-06-12 Reproduction device, reproduction method, and recording medium that display graphics based on tone mapping

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013132019A JP2015008361A (ja) 2013-06-24 2013-06-24 再生装置、再生方法、および記録媒体

Publications (1)

Publication Number Publication Date
JP2015008361A true JP2015008361A (ja) 2015-01-15

Family

ID=52141690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013132019A Pending JP2015008361A (ja) 2013-06-24 2013-06-24 再生装置、再生方法、および記録媒体

Country Status (5)

Country Link
US (1) US9832440B2 (ja)
JP (1) JP2015008361A (ja)
KR (1) KR102225977B1 (ja)
CN (1) CN105324987B (ja)
WO (1) WO2014208346A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132976A1 (ja) * 2015-02-17 2016-08-25 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2016140293A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2016152684A1 (ja) * 2015-03-24 2016-09-29 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2017069937A (ja) * 2015-10-01 2017-04-06 日立マクセル株式会社 放送受信装置
JP2017085203A (ja) * 2015-10-22 2017-05-18 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2017103622A (ja) * 2015-12-02 2017-06-08 日本電気株式会社 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
JP2018537030A (ja) * 2015-11-09 2018-12-13 トムソン ライセンシングThomson Licensing エレメンタリーストリームから復号されたビデオコンテンツをディスプレイの特性に適応させる方法およびデバイス
JP2020074572A (ja) * 2019-04-25 2020-05-14 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3016379B1 (en) 2013-06-24 2020-04-22 Sony Corporation Playback device, playback method, and recording medium
CN111901599A (zh) * 2014-06-27 2020-11-06 松下知识产权经营株式会社 再现装置
JP2016062637A (ja) * 2014-09-12 2016-04-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置、および再生方法
HUE056171T2 (hu) * 2014-12-29 2022-01-28 Sony Group Corp Adókészülék, adási eljárás, vevõkészülék és vételi eljárás
JP6663214B2 (ja) * 2015-05-26 2020-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
JP6574270B2 (ja) * 2015-06-05 2019-09-11 アップル インコーポレイテッドApple Inc. 高ダイナミックレンジのコンテンツのレンダリング及び表示
TWI631505B (zh) * 2016-08-26 2018-08-01 晨星半導體股份有限公司 應用於播放裝置的影像處理方法及相關的電路
JP7117558B2 (ja) * 2017-07-07 2022-08-15 パナソニックIpマネジメント株式会社 映像表示装置及び映像表示方法
KR102062681B1 (ko) 2019-04-25 2020-01-07 신정선 미세먼지 집진용 고전압 정전기 발생장치
KR20200136531A (ko) 2019-05-27 2020-12-08 신정선 정전기를 이용한 미세먼지 집진 및 유입방지 장치

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560285B1 (en) * 1998-03-30 2003-05-06 Sarnoff Corporation Region-based information compaction as for digital images
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
JP4412720B2 (ja) * 2004-06-24 2010-02-10 キヤノン株式会社 映像処理方法及び装置
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
US8880571B2 (en) * 2006-05-05 2014-11-04 Microsoft Corporation High dynamic range data format conversions for digital media
JP5072489B2 (ja) 2007-08-30 2012-11-14 株式会社ジャパンディスプレイウェスト 表示装置およびその駆動方法、電子機器
JP5242111B2 (ja) 2007-10-02 2013-07-24 株式会社ソニー・コンピュータエンタテインメント 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法
US8831340B2 (en) * 2010-01-27 2014-09-09 Adobe Systems Incorporated Methods and apparatus for tone mapping high dynamic range images
KR101496755B1 (ko) * 2010-11-23 2015-02-27 돌비 레버러토리즈 라이쎈싱 코오포레이션 고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상
JP5992997B2 (ja) * 2011-04-28 2016-09-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 映像符号化信号を発生する方法及び装置
KR102061349B1 (ko) * 2011-05-10 2019-12-31 코닌클리케 필립스 엔.브이. 높은 다이내믹 레인지 이미지 신호의 생성 및 처리
RU2605435C2 (ru) * 2011-06-14 2016-12-20 Конинклейке Филипс Н.В. Графическая обработка для видео с расширенным динамическим диапазоном
AU2012313935B9 (en) * 2011-09-27 2017-05-04 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
MX337444B (es) * 2012-03-26 2016-03-07 Koninkl Philips Nv Aparatos basados en la region de brillo y metodos para la codificacion y decodificacion de imagenes de rango dinamico alto.
US9064313B2 (en) * 2012-09-28 2015-06-23 Intel Corporation Adaptive tone map to a region of interest to yield a low dynamic range image
JP6459969B2 (ja) * 2013-09-27 2019-01-30 ソニー株式会社 再生装置、再生方法
JP5995129B2 (ja) * 2014-09-22 2016-09-21 パナソニックIpマネジメント株式会社 再生方法および再生装置

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170120578A (ko) * 2015-02-17 2017-10-31 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
US11838564B2 (en) 2015-02-17 2023-12-05 Sony Group Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
KR102423434B1 (ko) 2015-02-17 2022-07-22 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
US11178434B2 (en) 2015-02-17 2021-11-16 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
US10390057B2 (en) 2015-02-17 2019-08-20 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
WO2016132976A1 (ja) * 2015-02-17 2016-08-25 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JPWO2016132976A1 (ja) * 2015-02-17 2017-11-24 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JPWO2016140293A1 (ja) * 2015-03-05 2017-12-14 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10574864B2 (en) 2015-03-05 2020-02-25 Sony Corporation Transmitting device, transmitting method, receiving device, and receiving method
JP7396401B2 (ja) 2015-03-05 2023-12-12 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US11057547B2 (en) 2015-03-05 2021-07-06 Sony Corporation Transmitting device, transmitting method, receiving device, and receiving method
JP2021129325A (ja) * 2015-03-05 2021-09-02 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US10027856B2 (en) 2015-03-05 2018-07-17 Sony Corporation Devices and methods for transmitting transmission video data
WO2016140293A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2022125280A (ja) * 2015-03-05 2022-08-26 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP2020123974A (ja) * 2015-03-05 2020-08-13 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP7103475B2 (ja) 2015-03-05 2022-07-20 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
WO2016152684A1 (ja) * 2015-03-24 2016-09-29 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016195450A (ja) * 2015-03-24 2016-11-17 ソニー株式会社 送信装置および送信方法
JP2018007231A (ja) * 2015-03-24 2018-01-11 ソニー株式会社 受信装置および受信方法
JPWO2016152684A1 (ja) * 2015-03-24 2018-01-11 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2020162171A (ja) * 2015-03-24 2020-10-01 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2019024269A (ja) * 2015-10-01 2019-02-14 マクセル株式会社 表示制御方法および受信装置
JP2020102850A (ja) * 2015-10-01 2020-07-02 マクセル株式会社 表示制御方法
JP2019024270A (ja) * 2015-10-01 2019-02-14 マクセル株式会社 番組コンテンツの伝送、受信、および表示方法、および送受信システム
JP2020080566A (ja) * 2015-10-01 2020-05-28 マクセル株式会社 表示制御方法
JP2017069937A (ja) * 2015-10-01 2017-04-06 日立マクセル株式会社 放送受信装置
US11317170B2 (en) 2015-10-22 2022-04-26 Sony Corporation Transmission device, transmission method, reception device, and reception method
JP2017085203A (ja) * 2015-10-22 2017-05-18 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2021184617A (ja) * 2015-11-09 2021-12-02 インターデジタル ヴイシー ホールディングス, インコーポレイテッド エレメンタリーストリームから復号されたビデオコンテンツをディスプレイの特性に適応させる方法およびデバイス
US11711569B2 (en) 2015-11-09 2023-07-25 Interdigital Vc Holdings, Inc. Method and device for adapting the video content decoded from elementary streams to the characteristics of a display
JP7370360B2 (ja) 2015-11-09 2023-10-27 インターデジタル ヴイシー ホールディングス, インコーポレイテッド エレメンタリーストリームから復号されたビデオコンテンツをディスプレイの特性に適応させる方法およびデバイス
JP2018537030A (ja) * 2015-11-09 2018-12-13 トムソン ライセンシングThomson Licensing エレメンタリーストリームから復号されたビデオコンテンツをディスプレイの特性に適応させる方法およびデバイス
US10645421B2 (en) 2015-12-02 2020-05-05 Nec Corporation Video encoding method, video encoding device, video decoding method, video decoding device, program, and video system
JP2017103622A (ja) * 2015-12-02 2017-06-08 日本電気株式会社 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
US10827201B2 (en) 2015-12-02 2020-11-03 Nec Corporation Video encoding method, video encoding device, video decoding method, video decoding device, program, and video system
JP2020074572A (ja) * 2019-04-25 2020-05-14 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Also Published As

Publication number Publication date
KR20160023674A (ko) 2016-03-03
US9832440B2 (en) 2017-11-28
KR102225977B1 (ko) 2021-03-10
WO2014208346A1 (ja) 2014-12-31
US20160142695A1 (en) 2016-05-19
CN105324987A (zh) 2016-02-10
CN105324987B (zh) 2019-12-24

Similar Documents

Publication Publication Date Title
JP6628117B2 (ja) 再生装置、再生方法
JP7458736B2 (ja) 表示装置
KR102225977B1 (ko) 재생 장치, 재생 방법 및 기록 매체
KR102246838B1 (ko) 재생 장치, 재생 방법 및 기록 매체
JP6617940B2 (ja) 再生装置、再生方法
EP3013041A1 (en) Reproduction device, reproduction method, and recording medium
JP6241683B2 (ja) 再生装置、再生方法、および記録媒体
WO2014208347A1 (ja) 再生装置、再生方法、および記録媒体