JP6617940B2 - 再生装置、再生方法 - Google Patents

再生装置、再生方法 Download PDF

Info

Publication number
JP6617940B2
JP6617940B2 JP2018246876A JP2018246876A JP6617940B2 JP 6617940 B2 JP6617940 B2 JP 6617940B2 JP 2018246876 A JP2018246876 A JP 2018246876A JP 2018246876 A JP2018246876 A JP 2018246876A JP 6617940 B2 JP6617940 B2 JP 6617940B2
Authority
JP
Japan
Prior art keywords
video
information
display device
hdr
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018246876A
Other languages
English (en)
Other versions
JP2019071161A (ja
Inventor
山本 和夫
和夫 山本
高橋 邦明
邦明 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2019071161A publication Critical patent/JP2019071161A/ja
Application granted granted Critical
Publication of JP6617940B2 publication Critical patent/JP6617940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

本技術は、再生装置、再生方法に関し、特に、輝度のダイナミックレンジが広いコンテンツを適切な明るさで表示させることができるようにした再生装置、再生方法に関する。
映画などのコンテンツの記録メディアとしてBlu-ray(登録商標) Disc(以下、適宜、BDという)がある。従来、BDに収録するビデオのオーサリングは、標準の輝度(100nit=100cd/m2)のモニタで視聴することを前提に、マスターのビデオのダイナミックレンジを圧縮して行われている。
マスターとなるビデオは、高品質なカメラで撮影されたものであり、標準の輝度のモニタで表示可能なダイナミックレンジ以上のダイナミックレンジを有している。圧縮されることにより、マスターのビデオのダイナミックレンジは当然損なわれることになる。
特開2009−58692号公報 特開2009−89209号公報
有機EL(Electroluminescence)ディスプレイやLCD(Liquid Crystal Display)等のディスプレイ技術の進歩により、500nitや1000nitといったような、標準よりも明るいモニタが市販されている。このような広いダイナミックレンジを有するモニタの性能を活かすようなコンテンツに対する要求がある。
本技術はこのような状況に鑑みてなされたものであり、輝度のダイナミックレンジが広いコンテンツを適切な明るさで表示させることができるようにするものである。
本技術の一側面の再生装置は、第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第2の符号化データを記録した記録媒体から、前記第2の符号化データを読み出す読み出し部と、前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得する第1の取得部と、前記拡張ビデオの輝度の調整に用いられる、前記表示装置の仕様に応じた輝度調整用データとして、前記記録媒体に記録されている複数の前記輝度調整用データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データを取得する第2の取得部と、前記第2の符号化データを復号する復号部と、前記第2の符号化データを復号して得られた前記拡張ビデオの輝度を、前記輝度調整用データに基づいて調整する調整部と、輝度調整後の前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する出力部とを備える。
前記第1の取得部には、前記表示装置の仕様を表す仕様情報を前記表示装置から取得させ、前記第2の取得部には、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データがない場合、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度調整用データを取得させることができる。
本技術の他の側面の再生装置は、第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第1の符号化データを記録した記録媒体から、前記第1の符号化データを読み出す読み出し部と、前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得する第1の取得部と、前記標準ビデオを前記拡張ビデオに変換することに用いられる、前記表示装置の仕様に応じた輝度変換定義データとして、前記記録媒体に記録されている複数の前記輝度変換定義データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データを取得する第2の取得部と、前記第1の符号化データを復号する復号部と、前記第1の符号化データを復号して得られた前記標準ビデオを、前記輝度変換定義データに基づいて前記拡張ビデオに変換する変換部と、輝度変換を行うことによって得られた前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する出力部とを備える。
前記第1の取得部には、前記表示装置の仕様を表す仕様情報を前記表示装置から取得させ、前記第2の取得部には、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データがない場合、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度変換定義データを取得させることができる。
本技術の一側面においては、第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第2の符号化データを記録した記録媒体から、前記第2の符号化データが読み出され、前記拡張ビデオを表示可能な表示装置から、前記表示装置の識別情報が取得される。また、前記拡張ビデオの輝度の調整に用いられる、前記表示装置の仕様に応じた輝度調整用データとして、前記記録媒体に記録されている複数の前記輝度調整用データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データが取得され、前記第2の符号化データを復号して得られた前記拡張ビデオの輝度が、前記輝度調整用データに基づいて調整される。輝度調整後の前記拡張ビデオのデータが、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力される。
本技術の他の側面においては、第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第1の符号化データを記録した記録媒体から、前記第1の符号化データが読み出され、前記拡張ビデオを表示可能な表示装置から、前記表示装置の識別情報が取得される。また、前記標準ビデオを前記拡張ビデオに変換することに用いられる、前記表示装置の仕様に応じた輝度変換定義データとして、前記記録媒体に記録されている複数の前記輝度変換定義データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データが取得され、前記第1の符号化データを復号して得られた前記標準ビデオが、前記輝度変換定義データに基づいて前記拡張ビデオに変換される。輝度変換を行うことによって得られた前記拡張ビデオのデータが、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力される。
ここで、ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。
また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであっても良い。
本技術によれば、輝度のダイナミックレンジが広いコンテンツを適切な明るさで表示させることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係る記録・再生システムの構成例を示す図である。 mode-iにおける信号処理の例を示す図である。 mode-iにおいて処理される信号の流れを示す図である。 mode-iiにおける信号処理の例を示す図である。 mode-iiにおいて処理される信号の流れを示す図である。 HEVCのアクセスユニットの構成を示す図である。 Tone mapping informationのシンタクスを示す図である。 tone mapping定義情報とHDR情報として用いられる情報の例を示す図である。 tone_map_model_id=0のTone mapping informationにより示されるトーンカーブの例を示す図である。 tone_map_model_id=2のTone mapping informationにより示される階段関数の例を示す図である。 tone_map_model_id=3のTone mapping informationにより示される折れ線関数の例を示す図である。 HDR情報に含まれる各情報の例を示す図である。 BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。 Main PathとSub Pathの構造を示す図である。 ファイルの管理構造の例を示す図である。 PlayListファイルのシンタクスを示す図である。 Clip Informationファイルのシンタクスを示す図である。 図17のProgramInfo()のシンタクスを示す図である。 図18のStreamCodingInfoのシンタクスを示す図である。 記録装置の構成例を示すブロック図である。 図20の符号化処理部の構成例を示すブロック図である。 HDR-STD変換部による信号処理の例を示す図である。 tone mappingの例を示す図である。 再生装置の構成例を示すブロック図である。 図24の復号処理部の構成例を示すブロック図である。 表示装置の構成例を示すブロック図である。 記録装置の記録処理について説明するフローチャートである。 図27のステップS2において行われるmode-iでの符号化処理について説明するフローチャートである。 図27のステップS3において行われるmode-iiでの符号化処理について説明するフローチャートである。 図27のステップS4において行われるData Base情報生成処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 図31のステップS44において行われるmode-iでの復号処理について説明するフローチャートである。 図31のステップS45において行われるmode-iiでの復号処理について説明するフローチャートである。 表示装置の表示処理について説明するフローチャートである。 記録・再生システムの他の構成例を示す図である。 データベースの例を示す図である。 記録モードがmode-iである場合の処理の例を示す図である。 記録モードがmode-iである場合の各情報の例を示す図である。 記録モードがmode-iiである場合の処理の例を示す図である。 記録モードがmode-iiである場合の各情報の例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 管理サーバの機能構成例を示すブロック図である。 再生装置の構成例を示すブロック図である。 図44の復号処理部の構成例を示すブロック図である。 情報処理装置のtone mapping table生成処理について説明するフローチャートである。 管理サーバのtone mapping table登録処理について説明するフローチャートである。 管理サーバのtone mapping table提供処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 図49のステップS147,S152において行われる、記録モードがmode-iである場合の復号処理について説明するフローチャートである。 図49のステップS147,S152において行われる、記録モードがmode-iiである場合の復号処理について説明するフローチャートである。 表示装置の表示処理について説明するフローチャートである。 記録モードがmode-iである場合の他の処理の例を示す図である。 記録モードがmode-iiである場合の他の処理の例を示す図である。 図53、図54に示す記録・再生システムにおける記録装置の構成例を示すブロック図である。 記録装置の記録処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 再生装置の再生処理について説明する、図58に続くフローチャートである。 記録・再生システムにおける他の処理の例を示す図である。 図60の記録・再生システムにおける再生装置の復号処理について説明するフローチャートである。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.記録・再生システムについて
2.HEVCについて
3.BDフォーマットについて
4.各装置の構成について
5.各装置の動作について
6.tone mapping tableがサーバに用意される例
7.tone mapping tableが光ディスクに用意される例
8.tone mapping tableが管理サーバまたは光ディスクに用意される例
9.管理サーバから取得したデータに基づいてHDRビデオの表示を実現する例
10.変形例
<1.記録・再生システムについて>
図1は、本技術の一実施形態に係る記録・再生システムの構成例を示す図である。
図1の記録・再生システムは、記録装置1、再生装置2、および表示装置3から構成される。再生装置2と表示装置3は、HDMI(登録商標)(High Definition Multimedia Interface)などの所定の規格のケーブルであるケーブル4を介して接続される。再生装置2と表示装置3が他の規格のケーブルを介して接続されるようにしてもよいし、無線による通信を介して接続されるようにしてもよい。
記録装置1はコンテンツを記録し、再生装置2はコンテンツを再生する。記録装置1から再生装置2に対するコンテンツの提供は光ディスク11を用いて行われる。光ディスク11は、例えばBD-ROM(Blu-ray(登録商標) Disc Read-Only)フォーマットでコンテンツが記録されたディスクである。
光ディスク11に対するコンテンツの記録がBD-R,-REなどの他のフォーマットで行われるようにしてもよい。また、記録装置1から再生装置2に対するコンテンツの提供が、フラッシュメモリを搭載したメモリカードなどの、光ディスク以外のリムーバブルメディアを用いて行われるようにしてもよい。
光ディスク11がBD-ROMのディスクである場合、記録装置1は例えばコンテンツのオーサーが使う装置となる。以下、適宜、記録装置1によってコンテンツが記録された光ディスク11が再生装置2に提供されるものとして説明するが、実際には、記録装置1によりコンテンツが記録されたマスター盤に基づいて光ディスクが複製され、その一つである光ディスク11が再生装置2に提供される。
記録装置1に対しては、標準の輝度のモニタで表示可能なダイナミックレンジ(輝度範囲)以上のダイナミックレンジを有するビデオであるHDR(High Dynamic Range)ビデオが入力される。標準の輝度は例えば100cd/m2(=100nit)である。
記録装置1は、入力されたマスターのHDRビデオをHDRビデオのまま、すなわち標準の輝度を有するモニタで表示可能なダイナミックレンジ以上のダイナミックレンジを有するビデオのまま、光ディスク11に記録する。この場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、HDRビデオをSTDビデオに変換するときに用いられる情報も記録される。
STDビデオ(standardビデオ)は、標準の輝度を有するモニタで表示可能なダイナミックレンジのビデオである。STDビデオのダイナミックレンジを0-100%とすると、HDRビデオのダイナミックレンジは0-500%、0-1000%といったような、0%から101%以上の範囲として表される。
また、記録装置1は、入力されたマスターのHDRビデオをSTDビデオに変換して、すなわち標準の輝度を有するモニタで表示可能なダイナミックレンジを有するビデオに変換して、光ディスク11に記録する。この場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、STDビデオをHDRビデオに変換するときに用いられる情報も記録される。
記録装置1が記録するHDRビデオ、またはHDRビデオを変換して得られたSTDビデオは、例えば、横×縦の解像度が4096×2160、3840×2160画素などのいわゆる4K解像度のビデオである。記録装置1によるビデオデータの符号化には例えばHEVC(High Efficiency Video Coding)が用いられる。
マスターのHDRビデオの輝度の特性を示す情報と、HDRビデオをSTDビデオに、またはSTDビデオをHDRビデオに変換するときに用いられる情報は、SEI(Supplemental Enhancement Information)としてHEVCの符号化データに挿入される。HEVCの符号化データにSEIを挿入したHEVCストリームが、BDフォーマットで光ディスク11に記録される。
再生装置2は、ケーブル4を介して表示装置3と通信を行い、表示装置3の表示性能に関する情報を取得する。再生装置2は、表示装置3がHDRビデオの表示が可能なモニタであるHDRモニタを有する装置であるのか、STDビデオの表示しかできないモニタであるSTDモニタを有する装置であるのかを特定する。
また、再生装置2は、ドライブを駆動し、光ディスク11に記録されたHEVCストリームを読み出して復号する。
例えば、再生装置2は、復号して得られたビデオデータがHDRビデオのデータであり、表示装置3がHDRモニタを有する場合、HEVCストリームを復号して得られたHDRビデオのデータを表示装置3に出力する。この場合、再生装置2は、HDRビデオのデータとともに、マスターのHDRビデオの輝度の特性を示す情報を表示装置3に出力する。
一方、再生装置2は、復号して得られたビデオデータがHDRビデオのデータであり、表示装置3がSTDモニタを有する場合、HEVCストリームを復号して得られたHDRビデオをSTDビデオに変換し、STDビデオのデータを出力する。HDRビデオのSTDビデオへの変換は、光ディスク11に記録されている、HDRビデオをSTDビデオに変換するときに用いられる情報を用いて行われる。
再生装置2は、復号して得られたビデオデータがSTDビデオのデータであり、表示装置3がHDRモニタを有する場合、HEVCストリームを復号して得られたSTDビデオをHDRビデオに変換し、HDRビデオのデータを表示装置3に出力する。STDビデオのHDRビデオへの変換は、光ディスク11に記録されている、STDビデオをHDRビデオに変換するときに用いられる情報を用いて行われる。この場合、再生装置2は、HDRビデオとともに、マスターのHDRビデオの輝度の特性を示す情報を表示装置3に出力する。
一方、再生装置2は、復号して得られたビデオデータがSTDビデオのデータであり、表示装置3がSTDモニタを有する場合、HEVCストリームを復号して得られたSTDビデオのデータを表示装置3に出力する。
表示装置3は、再生装置2から送信されたビデオデータを受信し、コンテンツの映像をモニタに表示する。再生装置2からはコンテンツのオーディオデータも送信されてくる。表示装置3は、再生装置2から送信されてきたオーディオデータに基づいて、コンテンツの音声をスピーカから出力させる。
例えば、表示装置3は、マスターのHDRビデオの輝度の特性を示す情報がビデオデータとともに送信されてきた場合、再生装置2から送信されてきたビデオデータがHDRビデオのデータであるとして認識する。上述したように、HDRモニタを有する表示装置3に対しては、HDRビデオのデータとともに、マスターのHDRビデオの輝度の特性を示す情報が送信されてくる。
この場合、表示装置3は、HDRビデオの映像を、マスターのHDRビデオの輝度の特性を示す情報により指定される特性に従って表示する。すなわち、表示装置3は、自身が有するモニタが0-500%のダイナミックレンジを有するモニタであり、マスターのHDRビデオの輝度の特性を示す情報により、HDRビデオのダイナミックレンジが0-500%の所定の特性であると指定された場合、その所定の特性に従って、0-500%の範囲で輝度を調整して映像を表示する。
マスターのHDRビデオの輝度の特性を指定することができるようにすることにより、コンテンツのオーサー(Author)は、意図したとおりの輝度で映像を表示させることが可能になる。
通常、TVなどの表示装置は、外部から入力されたビデオを0-100%のダイナミックレンジを有するビデオとして認識する。また、表示装置は、自身のモニタがそれより広いダイナミックレンジを有する場合には、モニタの特性に応じて輝度を自ら拡張して映像を表示させてしまう。輝度の特性を指定し、指定した特性に従ってHDRビデオの輝度を調整させることにより、オーサーの意図しない輝度調整が表示装置側で行われるのを防ぐことが可能になる。
また、通常、TVなどの表示装置にビデオを出力する再生装置は、伝送路の特性に応じて輝度を変換してからビデオを出力する。そのビデオを受信した表示装置は、受信したビデオの輝度をモニタの特性に応じて変換し、映像を表示させることになる。再生装置2において輝度の変換を行わずに、再生装置2からHDRビデオのまま表示装置3に出力させることにより、輝度変換の回数を減らすことができ、マスターにより近い輝度の映像を表示装置3に表示させることが可能になる。
一方、表示装置3は、再生装置2から送信されたビデオデータがSTDビデオのデータである場合、STDビデオの映像を表示する。再生装置2からSTDビデオが送信されてくるということは、表示装置3はSTDモニタを有する装置である。
以下、適宜、マスターのHDRビデオをHDRビデオのまま光ディスク11に記録するモードをmode-iという。mode-iの場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、HDRビデオをSTDビデオに変換するときに用いられる情報が記録される。
また、マスターのHDRビデオをSTDビデオに変換して光ディスク11に記録するモードをmode-iiという。mode-iiの場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、STDビデオをHDRビデオに変換するときに用いられる情報が記録される。
〔mode-iにおける信号処理〕
図2は、mode-iにおける信号処理の例を示す図である。
実線L1で囲んで示す左側の処理が記録装置1において行われる符号化処理を示し、実線L2で囲んで示す右側の処理が再生装置2において行われる復号処理を示す。
マスターのHDRビデオが入力された場合、記録装置1は、マスターのHDRビデオの輝度を検出し、矢印#1の先に示すように、マスターのHDRビデオの輝度の特性を示す情報であるHDR情報を生成する。また、記録装置1は、矢印#2の先に示すように、マスターのHDRビデオをHEVCで符号化する。
記録装置1は、矢印#3の先に示すように、マスターのHDRビデオをSTDビデオに変換する。変換して得られたSTDビデオの映像は図示せぬモニタに表示される。HDRビデオのSTDビデオへの変換は、適宜、変換後のSTDビデオの映像をオーサーが目で確認し、変換パラメータを調整しながら行われる。
オーサーによる調整に基づいて、記録装置1は、矢印#4の先に示すように、HDRビデオをSTDビデオに変換するときに用いられる情報であるHDR-STD変換用のtone mapping定義情報を生成する。
tone mapping定義情報は、標準のダイナミックレンジより広い0-400%などのダイナミックレンジの明るさを示す各画素値と、標準のダイナミックレンジである0-100%のダイナミックレンジの明るさを示す各画素値の対応関係を定義する情報である。
記録装置1は、矢印#5の先に示すように、HDR情報とtone mapping定義情報をSEIとしてHEVCの符号化データに挿入し、HEVCストリームを生成する。記録装置1は、生成したHEVCストリームをBDフォーマットで光ディスク11に記録し、矢印#11に示すように再生装置2に提供する。
このように、マスターのHDRビデオの輝度の特性を示す情報とHDRビデオをSTDビデオに変換するときに用いられる情報は、HEVCのSEIを用いて、ストリーム中に挿入する形で再生装置2に提供される。
再生装置2は、光ディスク11からHEVCストリームを読み出し、矢印#21,#22の先に示すように、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#23の先に示すように、HEVCの符号化データを復号する。再生装置2は、表示装置3がHDRモニタを有する場合、矢印#24の先に示すように、符号化データを復号して得られたHDRビデオのデータにHDR情報を付加し、矢印#25の先に示すように表示装置3に出力する。
一方、再生装置2は、表示装置3がSTDモニタを有する場合、矢印#26の先に示すように、HEVCストリームから抽出されたHDR-STD変換用のtone mapping定義情報を用いて、符号化データを復号して得られたHDRビデオをSTDビデオに変換する。再生装置2は、矢印#27の先に示すように、変換して得られたSTDビデオのデータを表示装置3に出力する。
このように、HEVCの符号化データを復号して得られたHDRビデオのデータは、HDR情報とともに、HDRモニタを有する表示装置3に出力される。また、HEVCの符号化データを復号して得られたHDRビデオのデータは、STDビデオに変換された後、STDモニタを有する表示装置3に出力される。
図3は、マスターのHDRビデオが記録装置1に入力されてから、再生装置2からビデオデータが出力されるまでの処理の流れを示す図である。
マスターのHDRビデオは、白抜き矢印#51の先に示すように、マスターのHDRビデオに基づいて記録装置1において生成されたHDR情報とHDR-STD変換用のtone mapping定義情報とともに再生装置2に提供される。HDR情報には例えばダイナミックレンジが0-400%の範囲に拡張されていることを表す情報が含まれる。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#52,#53の先に示すように、HEVCの符号化データを復号して得られたHDRビデオのデータにHDR情報が付加される。また、HDR情報が付加されたHDRビデオのデータが矢印#54の先に示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#55,#56の先に示すように、HEVCの符号化データを復号して得られたHDRビデオがHDR-STD変換用のtone mapping定義情報を用いてSTDビデオに変換される。また、変換して得られたSTDビデオのデータが矢印#57の先に示すように表示装置3に出力される。図3において、HDRビデオを示す波形の振幅とSTDビデオを示す波形の振幅はそれぞれダイナミックレンジを示す。
このように、mode-iにおいては、マスターのHDRビデオがHDRビデオのまま光ディスク11に記録される。また、出力先となる表示装置3の性能に応じて、符号化データを復号して得られたHDRビデオをそのままHDR情報を付加して出力するのか、HDRビデオをSTDビデオに変換して出力するのかが切り替えられる。
〔mode-iiにおける信号処理〕
図4は、mode-iiにおける信号処理の例を示す図である。
マスターのHDRビデオが入力された場合、記録装置1は、マスターのHDRビデオの輝度を検出し、矢印#71の先に示すようにHDR情報を生成する。
記録装置1は、矢印#72の先に示すように、マスターのHDRビデオをSTDビデオに変換する。変換して得られたSTDビデオの映像は図示せぬモニタに表示される。
オーサーによる調整に基づいて、記録装置1は、矢印#73の先に示すように、STDビデオをHDRビデオに変換するときに用いられる情報であるSTD-HDR変換用のtone mapping定義情報を生成する。
また、記録装置1は、矢印#74の先に示すように、マスターのHDRビデオを変換して得られたSTDビデオをHEVCで符号化する。
記録装置1は、矢印#75の先に示すように、HDR情報とtone mapping定義情報をSEIとしてHEVCの符号化データに挿入し、HEVCストリームを生成する。記録装置1は、生成したHEVCストリームをBDフォーマットで光ディスク11に記録し、矢印#91に示すように再生装置2に提供する。
再生装置2は、光ディスク11からHEVCストリームを読み出し、矢印#101,#102の先に示すように、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#103の先に示すように、HEVCの符号化データを復号する。再生装置2は、表示装置3がSTDモニタを有する場合、矢印#104の先に示すように、符号化データを復号して得られたSTDビデオのデータを表示装置3に出力する。
一方、再生装置2は、表示装置3がHDRモニタを有する場合、矢印#105の先に示すように、HEVCストリームから抽出されたSTD-HDR変換用のtone mapping定義情報を用いて、符号化データを復号して得られたSTDビデオをHDRビデオに変換する。再生装置2は、矢印#106の先に示すように、変換して得られたHDRビデオのデータにHDR情報を付加し、矢印#107の先に示すように表示装置3に出力する。
このように、HEVCの符号化データを復号して得られたSTDビデオのデータは、HDRビデオに変換された後、HDR情報とともに、HDRモニタを有する表示装置3に出力される。また、HEVCの符号化データを復号して得られたSTDビデオのデータは、STDモニタを有する表示装置3にそのまま出力される。
図5は、マスターのHDRビデオが記録装置1に入力されてから、再生装置2からビデオデータが出力されるまでの処理の流れを示す図である。
マスターのHDRビデオは、白抜き矢印#121の先に示すように、STDビデオに変換された後、マスターのHDRビデオに基づいて記録装置1において生成されたHDR情報とSTD-HDR変換用のtone mapping定義情報とともに再生装置2に提供される。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#122,#123の先に示すように、HEVCの符号化データを復号して得られたSTDビデオがSTD-HDR変換用のtone mapping定義情報を用いてHDRビデオに変換される。また、矢印#124,#125の先に示すように、STDビデオを変換して得られたHDRビデオのデータにHDR情報が付加され、矢印#126の先に示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#127の先に示すように、HEVCの符号化データを復号して得られたSTDビデオが表示装置3に出力される。
このように、mode-iiにおいては、マスターのHDRビデオがSTDビデオに変換されて光ディスク11に記録される。また、出力先となる表示装置3の性能に応じて、符号化データを復号して得られたSTDビデオがHDRビデオに変換され、HDR情報を付加して出力するのか、STDビデオをそのまま出力するのかが切り替えられる。
以上のような記録装置1と再生装置2の構成と動作の詳細については後述する。
<2.HEVCについて>
ここで、HEVCについて説明する。
図6は、HEVCのアクセスユニットの構成を示す図である。
HEVCストリームは、NAL(Network Abstraction Layer)ユニットの集まりであるアクセスユニットから構成される。1つのアクセスユニットには1ピクチャのビデオデータが含まれる。
図6に示すように、1つのアクセスユニットは、AUデリミタ(Access Unit delimiter)、VPS(Video Parameter Set)、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI、VCL(Video Coding Layer)、EOS(End of Sequence)、およびEOS(End of Stream)から構成される。
AUデリミタは、アクセスユニットの先頭を示す。VPSは、ビットストリームの内容を表すメタデータを含む。SPSは、ピクチャサイズ、CTB(Coding Tree Block)サイズなどの、HEVCデコーダがシーケンスの復号処理を通じて参照する必要のある情報を含む。PPSは、HEVCデコーダがピクチャの復号処理を実行するために参照する必要のある情報を含む。VPS,SPS,PPSがヘッダ情報として用いられる。
SEIは、各ピクチャのタイミング情報やランダムアクセスに関する情報などを含む補助情報である。HDR情報とtone mapping定義情報は、SEIの一つであるTone mapping informationに含まれる。VCLは1ピクチャのデータである。EOS(End of Sequence)はシーケンスの終了位置を示し、EOS(End of Stream)はストリームの終了位置を示す。
図7は、Tone mapping informationのシンタクスを示す図である。
Tone mapping informationを用いて、デコードして得られたピクチャの明るさや色が、ピクチャの出力先となるモニタの性能に合わせて変換される。なお、図7の左側の行番号とコロン(:)は説明の便宜上示すものであり、Tone mapping informationに含まれる情報ではない。Tone mapping informationに含まれる主な情報について説明する。
2行目のtone_map_idは、Tone mapping informationの識別情報である。tone_map_idにより、Tone mapping informationの目的が識別される。
例えば、mode-i用のIDとmode-ii用のIDが確保される。記録モードがmode-iである場合、HDRビデオの符号化データのSEIに挿入されるTone mapping informationのtone_map_idにはmode-i用のIDが設定される。また、記録モードがmode-iiである場合、STDビデオの符号化データのSEIに挿入されるTone mapping informationのtone_map_idにはmode-ii用のIDが設定される。光ディスク11には、mode-i用のIDとmode-ii用のIDのうちのいずれかのIDがtone_map_idに設定される。
8行目のtone_map_model_idは、符号化データ(coded data)の変換に用いるtone mapのモデルを表す。
記録装置1においては、tone_map_model_idとして0,2,3のうちのいずれかの値が設定された1つのTone mapping informationと、tone_map_model_idとして4の値が設定された1つのTone mapping informationが生成される。
図8に示すように、tone_map_model_idとして0,2,3のうちのいずれかの値が設定されたTone mapping informationが、HDR-STD変換用またはSTD-HDR変換用のtone mapping定義情報として用いられる。また、tone_map_model_idとして4の値が設定されたTone mapping informationに含まれる情報が、HDR情報として用いられる。
図7の9〜11行目がtone_map_model_id=0に関する記述である。tone_map_model_id=0である場合、min_valueとmax_valueが記述される。
図9は、tone_map_model_id=0のTone mapping informationにより示されるトーンカーブの例を示す図である。
図9の横軸がcoded_data(変換前のRGB値)を示し、縦軸がtarget_data(変換後のRGB値)を示す。図9のトーンカーブを用いた場合、符号化データD1以下のRGB値は、白抜き矢印#151で示すようにmin_valueにより示されるRGB値に変換される。また、符号化データD2以上のRGB値は、白抜き矢印#152で示すようにmax_valueにより示されるRGB値に変換される。
tone_map_model_id=0のTone mapping informationは、HDR-STD変換用のtone mapping定義情報として用いられる。tone_map_model_id=0のTone mapping informationを用いた場合、max_value以上とmin_value以下の輝度(RGB値により表される輝度)が失われることになるが、変換処理の負荷は軽くなる。
図7の15〜17行目がtone_map_model_id=2に関する記述である。tone_map_model_id=2である場合、階段関数を表す、max_target_dataの数と同じ数のstart_of_coded_interval[i]が記述される。
図10は、tone_map_model_id=2のTone mapping informationにより示される階段関数の例を示す図である。
図10の階段関数を用いた場合、例えばcoded_data=5はtarget_data=3に変換される。start_of_coded_interval[i]が{1,3,4,5,5,5,7,7,・・・}であるとすると、coded_data-target_data変換テーブルは{0,1,1,2,3,5,5,・・・}として表される。
tone_map_model_id=2のTone mapping informationは、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられる。tone_map_model_id=2のTone mapping informationは、データ量が多いことから、その作成時に変換テーブルへの畳み込みを行う必要があるが、変換処理の負荷は軽い。
図7の18〜23行目がtone_map_model_id=3に関する記述である。tone_map_model_id=3である場合、折れ線関数を表す、num_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]が記述される。
図11は、tone_map_model_id=3のTone mapping informationにより示される折れ線関数の例を示す図である。
図11の折れ線関数を用いた場合、例えばcoded_data=D11はtarget_data=D11’に変換され、coded_data=D12はtarget_data=D12’に変換される。tone_map_model_id=3のTone mapping informationは、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられる。
このように、tone_map_model_idとして0,2,3のいずれかの値が設定されたTone mapping informationが、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられ、記録装置1から再生装置2に伝送される。
図7の24〜39行目がtone_map_model_id=4に関する記述である。tone_map_model_id=4に関する情報のうち、ref_screen_luminance_white、extended_range_white_level、nominal_black_level_code_value、nominal_white_level_code_value、およびextended_white_level_code_valueが、HDR情報を構成するパラメータとなる。
図12は、HDR情報に含まれる各情報の例を示す図である。
図12の横軸は、RGBの各画素値を示す。ビット長が10bitである場合、各画素値は0-1023の値となる。図12の縦軸は明るさ(輝度)を示す。関数F1が、標準の輝度のモニタにおける画素値と明るさの関係を示すガンマ関数となる。標準の輝度のモニタのダイナミックレンジは0-100%である。
ref_screen_luminance_whiteは、標準となるモニタの明るさ(cd/m2)を示す。extended_range_white_levelは、拡張後のダイナミックレンジの明るさの最大値を示す。図12の例の場合、extended_range_white_levelの値として400が設定される。
nominal_black_level_code_valueは、黒(明るさ0%)の画素値を示し、nominal_white_level_code_valueは、標準の輝度のモニタにおける白(明るさ100%)の画素値を示す。extended_white_level_code_valueは、拡張後のダイナミックレンジにおける白の画素値を示す。
図12の例の場合、白抜き矢印#161で示すように、0-100%のダイナミックレンジは、extended_range_white_levelの値に従って、0-400%のダイナミックレンジに拡張される。また、400%の明るさに相当する画素値が、extended_white_level_code_valueにより指定される。
HDRビデオの輝度の特性は、nominal_black_level_code_value、nominal_white_level_code_value、extended_white_level_code_valueの値がそれぞれ明るさ0%、100%、400%を示す特性となる。このHDRビデオの輝度の特性が、HDRビデオのガンマ関数である関数F2により表される。
このように、tone_map_model_idとして4の値が設定されたTone mapping informationにより、マスターのHDRビデオの輝度の特性が示され、記録装置1から再生装置2に伝送される。
<3.BDフォーマットについて>
ここで、BD-ROMフォーマットについて説明する。
〔データの管理構造〕
図13は、BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。
HEVCストリームを含むAVストリームの管理は、PlayListとClipの2つのレイヤを用いて行われる。AVストリームは、光ディスク11だけでなく、再生装置2のローカルストレージに記録されることもある。
1つのAVストリームと、それに付随する情報であるClip Informationのペアが1つのオブジェクトとして管理される。AVストリームとClip InformationのペアをClipという。
AVストリームは時間軸上に展開され、各Clipのアクセスポイントは、主に、タイムスタンプでPlayListにおいて指定される。Clip Informationは、AVストリーム中のデコードを開始すべきアドレスを見つけるためなどに使用される。
PlayListはAVストリームの再生区間の集まりである。AVストリーム中の1つの再生区間はPlayItemと呼ばれる。PlayItemは、時間軸上の再生区間のIN点とOUT点のペアで表される。図13に示すように、PlayListは1つまたは複数のPlayItemにより構成される。
図13の左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照される。
左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照される。
左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照される。
例えば、左から1番目のPlayListに含まれる左側のPlayItemが再生対象としてディスクナビゲーションプログラムにより指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームの再生を制御するための再生制御情報として用いられる。
PlayListの中で、1つ以上のPlayItemの並びによって作られる再生パスをメインパス(Main Path)という。また、PlayListの中で、Main Pathに並行して、1つ以上のSubPlayItemの並びによって作られる再生パスをサブパス(Sub Path)という。
図14は、Main PathとSub Pathの構造を示す図である。
PlayListは、1つのMain Pathと1つ以上のSub Pathを持つ。図14のPlayListは、3つのPlayItemの並びにより作られる1つのMain Pathと3つのSub Pathを有する。
Main Pathを構成するPlayItemには、先頭から順番にそれぞれIDが設定される。Sub Pathにも、先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2のIDが設定される。
図14の例においては、Subpath_id=0のSub Pathには1つのSubPlayItemが含まれ、Subpath_id=1のSub Pathには2つのSubPlayItemが含まれる。また、Subpath_id=2のSub Pathには1つのSubPlayItemが含まれる。
1つのPlayItemが参照するAVストリームには、少なくともビデオストリーム(メイン画像データ)が含まれる。AVストリームには、AVストリームに含まれるビデオストリームと同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームに含まれるビデオストリームと同期して再生されるビットマップの字幕データ(PG(Presentation Graphic))のストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームファイルに含まれるビデオストリームと同期して再生されるIG(Interactive Graphic)のストリームが1つ以上含まれてもよいし、含まれなくてもよい。IGのストリームは、ユーザにより操作されるボタンなどのグラフィックを表示させるために用いられる。
1つのPlayItemが参照するAVストリームには、ビデオストリームと、それと同期して再生されるオーディオストリーム、PGストリーム、およびIGストリームが多重化される。
また、1つのSubPlayItemは、PlayItemが参照するAVストリームとは異なるストリームの、ビデオストリーム、オーディオストリーム、PGストリームなどを参照する。
このように、HEVCストリームを含むAVストリームの再生はPlayListとClip Informationを用いて行われる。AVストリームの再生に関する情報を含むPlayListとClip Informationを、適宜、Data Base情報という。
〔ディレクトリ構造〕
図15は、光ディスク11に記録されるファイルの管理構造の例を示す図である。
光ディスク11に記録される各ファイルはディレクトリ構造により階層的に管理される。光ディスク11上には1つのrootディレクトリが作成される。
rootディレクトリの下にはBDMVディレクトリが置かれる。
BDMVディレクトリの下には、「Index.bdmv」の名前が設定されたファイルであるIndexファイルと、「MovieObject.bdmv」の名前が設定されたファイルであるMovieObjectファイルが格納される。
BDMVディレクトリの下には、PLAYLISTディレクトリ、CLIPINFディレクトリ、STREAMディレクトリ等が設けられる。
PLAYLISTディレクトリには、PlayListを記述したPlayListファイルが格納される。各PlayListファイルには、5桁の数字と拡張子「.mpls」を組み合わせた名前が設定される。図15に示す1つのPlayListファイルには「00000.mpls」のファイル名が設定されている。
CLIPINFディレクトリにはClip Informationファイルが格納される。各Clip Informationファイルには、5桁の数字と拡張子「.clpi」を組み合わせた名前が設定される。図15の3つのClip Informationファイルには、それぞれ、「00001.clpi」、「00002.clpi」、「00003.clpi」のファイル名が設定されている。
STREAMディレクトリにはストリームファイルが格納される。各ストリームファイルには、5桁の数字と拡張子「.m2ts」を組み合わせた名前が設定される。図15の3つのストリームファイルには、それぞれ、「00001.m2ts」、「00002.m2ts」、「00003.m2ts」のファイル名が設定されている。
同じ5桁の数字がファイル名に設定されているClip Informationファイルとストリームファイルが1つのClipを構成するファイルとなる。「00001.m2ts」のストリームファイルの再生時には「00001.clpi」のClip Informationファイルが用いられ、「00002.m2ts」のストリームファイルの再生時には「00002.clpi」のClip Informationファイルが用いられる。後述するように、HEVCストリームを含むAVストリームの再生に用いられるClip InformationファイルにはHDRビデオの処理に関する情報が含まれる。
〔各ファイルのシンタクス〕
ここで、各ファイルのシンタクスの主な記述について説明する。
図16は、PlayListファイルのシンタクスを示す図である。
PlayListファイルは、図15のPLAYLISTディレクトリに格納される、拡張子「.mpls」が設定されるファイルである。
AppInfoPlayList()には、再生制限などの、PlayListの再生コントロールに関するパラメータが格納される。
PlayList()には、Main PathやSub Pathに関するパラメータが格納される。
PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納される。
図17は、Clip Informationファイルのシンタクスを示す図である。
Clip Informationファイルは、図15のCLIPINFディレクトリに格納される、拡張子「.clpi」が設定されるファイルである。
ClipInfo()には、Clipを構成するAVストリームのタイプを示す情報、AVストリームの記録レートを示す情報などが格納される。
SequenceInfo()には、AVストリームを構成するsource packetの時間軸上の位置を示す情報、表示時刻を示す情報などが含まれる。
ProgramInfo()には、Clipを構成するAVストリームのPID、AVストリームの符号化に関する情報などが含まれる。
図18は、図17のProgramInfo()のシンタクスを示す図である。
number_of_program_sequencesは、ProgramInfo()に記述されるプログラムシーケンスの数を示す。プログラムシーケンスは、プログラムを構成するソースパケットの並びにより構成される。
SPN_program_sequence_start[i]は、プログラムシーケンスの先頭のソースパケットの番号(source packet number)を示す。
StreamCodingInfoには、Clipを構成するAVストリームの符号化に関する情報が含まれる。
図19は、図18のStreamCodingInfoのシンタクスを示す図である。
stream_coding_typeは、AVストリームに含まれるelementary streamの符号化方式を示す。例えば、HEVCストリームの再生に用いられるClip InformationのStreamCodingInfoにおいては、符号化方式がHEVCであることを示す値がstream_coding_typeとして設定される。
video_formatは、ビデオの走査方式を示す。HEVCストリームの再生に用いられるvideo_formatには、2160p(2160ラインプログレッシブ)などの4Kの走査方式を示す値がstream_coding_typeとして設定される。
frame_rateは、ビデオストリームのフレームレートを示す。
aspect_ratioは、ビデオのアスペクト比を示す。
cc_flagは1ビットのフラグであり、クローズドキャプションのデータがビデオストリームに含まれているか否かを示す。
HDR_flagは1ビットのフラグであり、HDRビデオをマスターとした記録が行われているか否かを示す。例えば、HDR_flag=1は、HDRビデオをマスターとした記録が行われていることを示す。また、HDR_flag=0は、STDビデオをマスターとした記録が行われていることを示す。
mode_flagは1ビットのフラグであり、HEVCストリームの記録モードを示す。mode_flagは、HDR_flag=1である場合に有効になる。例えば、mode_flag=1は、記録モードがmode-iであることを示す。また、mode_flag=0は、記録モードがmode-iiであることを示す。
このように、Clip Informationには、そのClip Informationを用いて再生が行われるAVストリームに含まれるHEVCストリームがマスターをHDRビデオとするストリームであるか否かを示すフラグ、およびHEVCストリームの記録モードを示すフラグが含まれる。
再生装置2は、Clip Informationに含まれるフラグを参照することにより、HEVCストリームを実際に解析することなく、マスターのビデオがHDRビデオであるかなどを特定することが可能になる。
<4.各装置の構成について>
ここで、各装置の構成について説明する。
〔記録装置1の構成〕
図20は、記録装置1の構成例を示すブロック図である。
記録装置1は、コントローラ21、符号化処理部22、およびディスクドライブ23から構成される。マスターのHDRビデオが符号化処理部22に入力される。
コントローラ21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などより構成される。コントローラ21は、所定のプログラムを実行し、記録装置1の全体の動作を制御する。
コントローラ21においては、所定のプログラムが実行されることによってData Base情報生成部21Aが実現される。Data Base情報生成部21Aは、Data Base情報であるPlayListとClip Informationを生成し、ディスクドライブ23に出力する。
符号化処理部22は、マスターのHDRビデオの符号化を行う。符号化処理部22は、マスターのHDRビデオを符号化して得られたHEVCストリームをディスクドライブ23に出力する。
ディスクドライブ23は、コントローラ21から供給されたPlayList、Clip Informationと、符号化処理部22から供給されたHEVCストリームを格納するファイルを図15のディレクトリ構造に従って光ディスク11に記録する。
図21は、図20の符号化処理部22の構成例を示すブロック図である。
符号化処理部22は、HDR情報生成部31、HEVCエンコーダ32、HDR-STD変換部33、定義情報生成部34、およびHEVCストリーム生成部35から構成される。
HDR情報生成部31は、入力されたマスターのHDRビデオの輝度を検出し、図12を参照して説明した各情報を含むHDR情報を生成する。HDR情報生成部31は、生成したHDR情報をHEVCストリーム生成部35に出力する。
HEVCエンコーダ32は、記録モードがmode-iである場合、入力されたマスターのHDRビデオをHEVCで符号化する。また、HEVCエンコーダ32は、記録モードがmode-iiである場合、HDR-STD変換部33から供給されたSTDビデオをHEVCで符号化する。HEVCエンコーダ32は、HDRビデオの符号化データ、またはSTDビデオの符号化データをHEVCストリーム生成部35に出力する。
HDR-STD変換部33は、入力されたマスターのHDRビデオをSTDビデオに変換する。HDR-STD変換部33による変換は、適宜、オーサーにより入力された変換パラメータに従って行われる。HDR-STD変換部33は、HDRビデオのRGB信号をinput data、STDビデオのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報を定義情報生成部34に出力する。
図22は、HDR-STD変換部33による信号処理の例を示す図である。
HDR-STD変換部33は、矢印#201の先に示すように、入力されたマスターのHDRビデオのYCrCb信号をRGB信号に変換し、RGBの各信号を対象として、STDビデオのRGBの各信号への変換(tone mapping)を行う。
HDR-STD変換部33は、input dataであるHDRビデオのRGB信号とoutput dataであるSTDビデオのRGB信号の対応関係を示す情報を定義情報生成部34に出力する。定義情報生成部34に出力された情報は、矢印#202の先に示すようにtone mapping定義情報の生成に用いられる。
また、HDR-STD変換部33は、矢印#203の先に示すように、STDビデオのRGB信号をYCrCb信号に変換し、出力する。
図23は、tone mappingの例を示す図である。
HDRビデオのRGB信号は、例えば図23に示すように、高輝度成分を圧縮し、中・低域輝度成分を伸張するようにしてSTDビデオのRGB信号に変換される。図23に示すようなHDRビデオのRGB信号とSTDビデオのRGB信号を対応付ける関数Fを示す情報が、定義情報生成部34により生成される。なお、図23に示す関数Fは、図11を参照して説明した、coded_dataとtarget_dataの関係を折れ線関数により示すtone_map_model_id=3のTone mapping informationである。
図21の説明に戻り、また、HDR-STD変換部33は、記録モードがmode-iiである場合、HDRビデオを変換して得られたSTDビデオをHEVCエンコーダ32に出力する。
定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいて、HDR-STD変換用、またはSTD-HDR変換用のtone mapping定義情報を生成する。
例えば、定義情報生成部34は、tone_map_model_id=0が用いられる場合、図9のmin_valueとmax_valueの値を含むTone mapping informationをtone mapping定義情報として生成する。
また、定義情報生成部34は、tone_map_model_id=2が用いられる場合、図10のstart_of_coded_interval[i]を含むTone mapping informationをtone mapping定義情報として生成する。
さらに、定義情報生成部34は、tone_map_model_id=3が用いられる場合、図11のnum_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]を含むTone mapping informationをtone mapping定義情報として生成する。
HEVCストリーム生成部35は、HDR情報生成部31から供給されたHDR情報を含むTone mapping informationと、定義情報生成部34から供給されたtone mapping定義情報を含むTone mapping informationのtone_map_idに、記録モードに応じた同じ値を設定する。また、HEVCストリーム生成部35は、HDR情報を含むTone mapping informationとtone mapping定義情報を含むTone mapping informationをSEIとして符号化データに挿入し、HEVCストリームを生成する。HEVCストリーム生成部35は、生成したHEVCストリームをディスクドライブ23に出力する。
〔再生装置2の構成〕
図24は、再生装置2の構成例を示すブロック図である。
再生装置2は、コントローラ51、ディスクドライブ52、メモリ53、ローカルストレージ54、ネットワークインタフェース55、復号処理部56、操作入力部57、およびHDMI通信部58から構成される。
コントローラ51は、CPU、ROM、RAMなどより構成される。コントローラ51は、所定のプログラムを実行し、再生装置2の全体の動作を制御する。
ディスクドライブ52は、光ディスク11からデータを読み出し、読み出したデータを、コントローラ51、メモリ53、または復号処理部56に出力する。例えば、ディスクドライブ52は、光ディスク11から読み出したData Base情報をコントローラ51に出力し、HEVCストリームを復号処理部56に出力する。
メモリ53は、コントローラ51が各種の処理を実行する上において必要なデータなどを記憶する。メモリ53には、PSR(Player Status Register)であるレジスタ53Aが形成される。レジスタ53Aには、BD Playerである再生装置2が光ディスク11の再生時に参照する各種の情報が記憶される。
ローカルストレージ54は例えばHDD(Hard Disk Drive)により構成される。ローカルストレージ54には、サーバからダウンロードされたストリームなどが記録される。
ネットワークインタフェース55は、インターネットなどのネットワークを介してサーバと通信を行い、サーバからダウンロードしたデータをローカルストレージ54に供給する。
復号処理部56は、ディスクドライブ52から供給されたHEVCストリームを復号し、HDRビデオまたはSTDビデオのデータをHDMI通信部58に出力する。復号処理部56は、HDRビデオを出力する場合、HDRビデオのデータとともに、HDR情報をHDMI通信部58に出力する。
操作入力部57は、ボタン、キー、タッチパネルなどの入力デバイスや、所定のリモートコマンダから送信される赤外線などの信号を受信する受信部により構成される。操作入力部57はユーザの操作を検出し、検出した操作の内容を表す信号をコントローラ51に供給する。
HDMI通信部58は、ケーブル4を介して表示装置3との間で通信を行う。例えば、HDMI通信部58は、表示装置3が有するモニタの性能に関する情報を取得し、コントローラ51に出力する。また、HDMI通信部58は、復号処理部56から供給されたHDRビデオまたはSTDビデオのデータを表示装置3に出力する。
図25は、図24の復号処理部56の構成例を示すブロック図である。
復号処理部56は、パラメータ抽出部71、HEVCデコーダ72、HDR-STD変換部73、STD-HDR変換部74、および出力部75から構成される。出力部75は、HDRビデオ出力部75AとSTDビデオ出力部75Bから構成される。
ディスクドライブ52により読み出されたHEVCストリームはパラメータ抽出部71に入力される。復号処理部56に対しては、例えば、Clip Informationに含まれるmode_flagにより特定される記録モードを表す情報と、表示装置3から取得された情報により特定される、表示装置3が有するモニタの性能に関する情報がコントローラ51から供給される。
パラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。例えば、パラメータ抽出部71は、記録モードがmode-iであり、表示装置3にHDRビデオを出力する場合、HDR情報をHDRビデオ出力部75Aに出力する。また、パラメータ抽出部71は、記録モードがmode-iであり、表示装置3にSTDビデオを出力する場合、HDR-STD変換用のtone mapping定義情報をHDR-STD変換部73に出力する。
一方、パラメータ抽出部71は、記録モードがmode-iiであり、表示装置3にHDRビデオを出力する場合、HDR情報をHDRビデオ出力部75Aに出力するとともに、STD-HDR変換用のtone mapping定義情報をSTD-HDR変換部74に出力する。記録モードがmode-iiであり、表示装置3にSTDビデオを出力する場合、抽出されたHDR情報とtone mapping定義情報は用いられない。
また、パラメータ抽出部71は、HEVCストリームに含まれる符号化データをHEVCデコーダ72に出力する。
HEVCデコーダ72は、パラメータ抽出部71から供給されたHEVCの符号化データを復号する。HEVCデコーダ72は、記録モードがmode-iである場合、復号して得られたHDRビデオをHDR-STD変換部73とHDRビデオ出力部75Aに出力する。また、HEVCデコーダ72は、記録モードがmode-iiである場合、復号して得られたSTDビデオをSTD-HDR変換部74とSTDビデオ出力部75Bに出力する。
HDR-STD変換部73は、HEVCデコーダ72から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR-STD変換用のtone mapping定義情報に基づいてSTDビデオに変換する。HDR-STD変換部73は、変換して得られたSTDビデオをSTDビデオ出力部75Bに出力する。
STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、パラメータ抽出部71から供給されたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。STD-HDR変換部74は、変換して得られたHDRビデオをHDRビデオ出力部75Aに出力する。
出力部75のHDRビデオ出力部75Aは、表示装置3にHDRビデオを出力する場合、HEVCデコーダ72から供給されたHDRビデオ、またはSTD-HDR変換部74から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR情報とともに出力する。
STDビデオ出力部75Bは、表示装置3にSTDビデオを出力する場合、HEVCデコーダ72から供給されたSTDビデオ、またはHDR-STD変換部73から供給されたSTDビデオを出力する。
HDRビデオ出力部75AとSTDビデオ出力部75Bから出力されたデータは、HDMI通信部58により、表示装置3に送信される。
〔表示装置3の構成〕
図26は、表示装置3の構成例を示すブロック図である。
表示装置3は、コントローラ101、HDMI通信部102、信号処理部103、およびモニタ104から構成される。コントローラ101はメモリ101Aを有する。
コントローラ101は、CPU、ROM、RAMなどより構成される。コントローラ101は、所定のプログラムを実行し、表示装置3の全体の動作を制御する。
例えば、コントローラ101は、モニタ104の性能を表すEDID(Extended display identification data)をメモリ101Aに記憶させて管理する。コントローラ101は、再生装置2との認証時、メモリ101Aに記憶させているEDIDをHDMI通信部102に出力し、再生装置2に対して送信させる。EDIDに基づいて、表示装置3のモニタ104の性能が再生装置2により特定される。
HDMI通信部102は、ケーブル4を介して再生装置2との間で通信を行う。HDMI通信部102は、再生装置2から送信されてきたビデオデータを受信し、信号処理部103に出力する。また、HDMI通信部102は、コントローラ101から供給されたEDIDを再生装置2に送信する。
信号処理部103は、HDMI通信部102から供給されたビデオデータの処理を行い、映像をモニタ104に表示させる。
<5.各装置の動作について>
ここで、以上のような構成を有する各装置の動作について説明する。
〔記録処理〕
はじめに、図27のフローチャートを参照して、記録装置1の記録処理について説明する。図27の処理は、マスターのHDRビデオが記録装置1に入力されたときに開始される。
ステップS1において、記録装置1のコントローラ21は、記録モードがmode-iであるか否かを判定する。記録モードは例えばオーサーにより設定される。
記録モードがmode-iであるとステップS1において判定された場合、ステップS2において、符号化処理部22はmode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたHEVCストリームはディスクドライブ23に供給される。
一方、記録モードがmode-iiであるとステップS1において判定された場合、ステップS3において、符号化処理部22はmode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたHEVCストリームはディスクドライブ23に供給される。
ステップS4において、Data Base情報生成部21AはData Base情報生成処理を行う。Data Base情報生成処理により生成されたPlayListファイルとClip Informationファイルはディスクドライブ23に供給される。
ステップS5において、ディスクドライブ23は、PlayListファイル、Clip Informationファイル、およびHEVCストリームを格納するストリームファイルを光ディスク11に記録する。その後、処理は終了される。
次に、図28のフローチャートを参照して、図27のステップS2において行われるmode-iでの符号化処理について説明する。
ステップS11において、符号化処理部22のHDR情報生成部31は、マスターのHDRビデオの輝度を検出し、HDR情報を生成する。
ステップS12において、HEVCエンコーダ32は、マスターのHDRビデオを対象としてHEVCによる符号化を行い、HDRビデオの符号化データを生成する。
ステップS13において、HDR-STD変換部33は、入力されたマスターのHDRビデオをSTDビデオに変換する。HDRビデオのRGB信号をinput data、STDビデオのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報は定義情報生成部34に供給される。
ステップS14において、定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいてHDR-STD変換用のtone mapping定義情報を生成する。
ステップS15において、HEVCストリーム生成部35は、HDR情報生成部31により生成されたHDR情報を含むTone mapping informationと、定義情報生成部34により生成されたtone mapping定義情報を含むTone mapping informationのtone_map_idに、mode-i用のIDを設定する。また、HEVCストリーム生成部35は、HDR情報を含むTone mapping informationとtone mapping定義情報を含むTone mapping informationを符号化データに挿入し、HEVCストリームを生成する。その後、図27のステップS2に戻り、それ以降の処理が行われる。
次に、図29のフローチャートを参照して、図27のステップS3において行われるmode-iiでの符号化処理について説明する。
ステップS21において、符号化処理部22のHDR情報生成部31は、マスターのHDRビデオの輝度を検出し、HDR情報を生成する。
ステップS22において、HDR-STD変換部33は、入力されたマスターのHDRビデオをSTDビデオに変換する。HDRビデオのRGB信号をinput data、STDビデオのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報は定義情報生成部34に供給される。
ステップS23において、定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいてSTD-HDR変換用のtone mapping定義情報を生成する。
ステップS24において、HEVCエンコーダ32は、マスターのHDRビデオを変換して得られたSTDビデオを対象としてHEVCによる符号化を行い、STDビデオの符号化データを生成する。
ステップS25において、HEVCストリーム生成部35は、HDR情報生成部31により生成されたHDR情報を含むTone mapping informationと、定義情報生成部34により生成されたtone mapping定義情報を含むTone mapping informationのtone_map_idに、mode-ii用のIDを設定する。また、HEVCストリーム生成部35は、HDR情報を含むTone mapping informationとtone mapping定義情報を含むTone mapping informationを符号化データに挿入し、HEVCストリームを生成する。その後、図27のステップS3に戻り、それ以降の処理が行われる。
次に、図30のフローチャートを参照して、図27のステップS4において行われるData Base情報生成処理について説明する。
ステップS31において、コントローラ21のData Base情報生成部21Aは、図16を参照して説明した各情報を含むPlayListを生成する。Data Base情報生成部21Aが生成するPlayListには、HEVCストリームを再生区間として指定するPlayItemに関する情報が含まれる。
ステップS32において、Data Base情報生成部21Aは、HDR_flagとmode_flagをProgramInfo()のStreamCodingInfoに含むClip Informationを生成する。この例においてはマスターのビデオがHDRビデオであるから、Data Base情報生成部21Aは、HDR_flagの値として、そのことを示す値である1を設定する。
また、図27のステップS2においてmode-iでの符号化処理が行われている場合、Data Base情報生成部21Aは、mode_flagの値として、記録モードがmode-iであることを示す値である1を設定する。一方、Data Base情報生成部21Aは、図27のステップS3においてmode-iiでの符号化処理が行われている場合、mode_flagの値として、記録モードがmode-iiであることを示す値である0を設定する。その後、図27のステップS4に戻り、それ以降の処理が行われる。
記録装置1においては、以上の処理によって生成されたHEVCストリームとData Base情報が光ディスク11に記録される。
〔再生処理〕
次に、図31のフローチャートを参照して、再生装置2の再生処理について説明する。
光ディスク11の再生を開始する前などの所定のタイミングにおいて、再生装置2のコントローラ51は、HDMI通信部58を制御して表示装置3と通信を行い、表示装置3のメモリ101AからEDIDを読み出す。コントローラ51は、表示装置3が有するモニタの性能を表す情報をレジスタ53Aに記憶させて管理する。
ステップS41において、コントローラ51は、ディスクドライブ52を制御し、Data Base情報であるPlayListとClip Informationを光ディスク11から読み出す。また、コントローラ51は、再生するHEVCストリームをPlayListに含まれる情報に基づいて特定し、特定したHEVCストリームを含むAVストリームを、ディスクドライブ52を制御して光ディスク11から読み出す。
ステップS42において、コントローラ51は、Clip Informationに含まれるHDR_flagとmode_flagを参照する。この例においては、マスターをHDRビデオとした記録が行われていることを示す値がHDR_flagに設定されている。これにより、記録装置1の状態は、HDRビデオ、または、HDRビデオを変換して得られたSTDビデオを再生する状態となる。
ステップS43において、コントローラ51は、記録モードがmode-iであるか否かをmode_flagの値に基づいて判定する。
記録モードがmode-iであるとステップS43において判定された場合、ステップS44において、復号処理部56はmode-iでの復号処理を行う。
一方、記録モードがmode-iiであるとステップS43において判定された場合、ステップS45において、復号処理部56はmode-iiでの復号処理を行う。
ステップS44またはステップS45において復号処理が行われた後、処理は終了される。
なお、ここでは、記録モードがmode-iであるか否かの判定がmode_flagの値に基づいて行われるものとしたが、HEVCストリームに挿入されているTone mapping informationのtone_map_idに基づいて行われるようにしてもよい。
次に、図32のフローチャートを参照して、図31のステップS44において行われるmode-iでの復号処理について説明する。
ステップS61において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれるHEVCの符号化データをHEVCデコーダ72に出力する。
ステップS62において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたHDRビデオをHDR-STD変換部73とHDRビデオ出力部75Aに出力する。
ステップS63において、コントローラ51は、レジスタ53Aに記憶させておいた情報に基づいて、表示装置3が有するモニタがHDRモニタであるか否かを判定する。上述したように、レジスタ53Aには、表示装置3から読み出されたHDMIのEDIDに基づいて、表示装置3が有するモニタの性能に関する情報が記憶されている。
表示装置3が有するモニタがHDRモニタであるとステップS63において判定された場合、ステップS64において、HDRビデオ出力部75Aは、HEVCデコーダ72から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR情報とともに出力する。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS63において判定された場合、ステップS65において、HDR-STD変換部73は、HEVCデコーダ72から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR-STD変換用のtone mapping定義情報に基づいてSTDビデオに変換する。
ステップS66において、STDビデオ出力部75Bは、HDR-STD変換部73により変換が行われることによって得られたSTDビデオを出力する。
ステップS64においてHDRビデオが出力された後、またはステップS66においてSTDビデオが出力された後、ステップS67において、コントローラ51は、再生終了か否かを判定する。
再生終了ではないとステップS67において判定した場合、コントローラ51は、ステップS61に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS67において判定された場合、図31のステップS44に戻り、それ以降の処理が行われる。
次に、図33のフローチャートを参照して、図31のステップS45において行われるmode-iiでの復号処理について説明する。
ステップS81において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれる、HEVCの符号化データをHEVCデコーダ72に出力する。
ステップS82において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたSTDビデオをSTD-HDR変換部74とSTDビデオ出力部75Bに出力する。
ステップS83において、コントローラ51は、レジスタ53Aに記憶させておいた情報に基づいて、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS83において判定された場合、ステップS84において、STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、パラメータ抽出部71から供給されたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。
ステップS85において、HDRビデオ出力部75Aは、STD-HDR変換部74により変換が行われることによって得られたHDRビデオを、パラメータ抽出部71から供給されたHDR情報とともに出力する。
一方、表示装置3が有するモニタがSTDモニタであるとステップS83において判定された場合、ステップS86において、STDビデオ出力部75Bは、HEVCデコーダ72から供給されたSTDビデオを出力する。
ステップS85においてHDRビデオが出力された後、またはステップS86においてSTDビデオが出力された後、ステップS87において、コントローラ51は、再生終了か否かを判定する。
再生終了ではないとステップS87において判定した場合、コントローラ51は、ステップS81に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS87において判定された場合、図31のステップS45に戻り、それ以降の処理が行われる。
〔表示処理〕
次に、図34のフローチャートを参照して、表示装置3の表示処理について説明する。
ここでは、表示装置3が有するモニタ104がHDRモニタである場合について説明する。HDRモニタを有する表示装置3に対しては、HDR情報が付加されたHDRビデオが再生装置2から送信されてくる。
ステップS91において、表示装置3のHDMI通信部102は、再生装置2から送信されてきたHDRビデオとHDR情報を受信する。
ステップS92において、コントローラ101は、HDR情報を参照し、再生装置2から送信されてきたHDRビデオをそのまま表示可能であるか否かを判定する。HDR情報には、マスターのHDRビデオ、すなわち再生装置2から送信されてきたHDRビデオの輝度の特性を示す情報が含まれる。ステップS92における判定は、HDR情報により特定されるHDRビデオの輝度の特性と、モニタ104の表示性能を比較することによって行われる。
例えば、HDR情報により特定されるHDRビデオのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-500%(例えば100%の明るさを100cd/m2とすると500cd/m2)である場合、HDRビデオをそのまま表示可能であると判定される。一方、HDR情報により特定されるHDRビデオのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-300%である場合、HDRビデオをそのまま表示することができないと判定される。
HDRビデオをそのまま表示可能であるとステップS92において判定された場合、ステップS93において、信号処理部103は、HDRビデオの映像を、HDR情報により指定される輝度に従ってモニタ104に表示させる。例えば、図12の関数F2で示す輝度の特性がHDR情報により指定されている場合、各輝度値は関数F2で示す0-400%の範囲の明るさを表す。
一方、HDRビデオをそのまま表示させることができないとステップS92において判定された場合、ステップS94において、信号処理部103は、モニタ104の表示性能に応じて輝度を調整し、輝度を調整したHDRビデオの映像を表示させる。例えば、図12の関数F2で示す輝度の特性がHDR情報により指定されており、モニタ104のダイナミックレンジが0-300%である場合、各輝度値が0-300%の範囲の明るさを表すように圧縮される。
ステップS93、またはステップS94においてHDRビデオの映像が表示された後、ステップS95において、コントローラ101は、表示を終了するか否かを判定し、終了しないと判定した場合、ステップS91以降の処理を繰り返す。ステップS95において表示を終了すると判定した場合、コントローラ101は、処理を終了させる。
以上の一連の処理により、記録装置1は、マスターのHDRビデオをHDRビデオのまま光ディスク11に記録し、再生装置2に再生させてHDRビデオの映像を表示装置3に表示させることができる。
また、記録装置1は、マスターのHDRビデオをSTDビデオに変換して光ディスク11に記録し、再生装置2にHDRビデオに復元させてHDRビデオの映像を表示装置3に表示させることができる。
HDRビデオを再生する際、マスターのHDRビデオの輝度の特性をHDR情報によって指定することができるようにすることにより、コンテンツのオーサーは、意図したとおりの輝度でHDRビデオの映像を表示させることが可能になる。
<6.tone mapping tableがサーバに用意される例>
図35は、記録・再生システムの他の構成例を示す図である。
図35の記録・再生システムは、記録装置1、再生装置2、表示装置3の他に、情報処理装置151、および管理サーバ152から構成される。管理サーバ152は、インターネットなどよりなるネットワーク153に接続される。再生装置2は、ネットワーク153を介して管理サーバ152と通信を行うことが可能とされる。
図35の記録・再生システムにおいては、HDRビデオを表示装置3に出力する場合、光ディスク11の記録モードがmode-iであるときには、表示装置3の仕様に応じて輝度が調整されたHDRビデオが出力される。また、光ディスク11の記録モードがmode-iiであるときには、表示装置3の仕様に応じたtone mapping定義情報を用いて生成されたHDRビデオが出力される。以下、表示装置3が有するモニタ104がHDRモニタであるものとして説明する。
情報処理装置151は、マスターのHDRビデオと、各表示装置の仕様を表す情報である仕様情報を取得し、HDRビデオ毎に、各表示装置の仕様に応じた輝度調整用データまたはSTD-HDR変換用のtone mapping定義情報を生成する。
輝度調整用データは、HDRビデオの輝度の調整に用いられるデータである。HDRビデオの出力先となる表示装置毎に、最大輝度などのモニタの輝度の特性が異なることから、各表示装置の仕様に応じて最適なHDRビデオを再生装置2から出力するための情報が情報処理装置151により生成される。情報処理装置151はコンテンツのオーサーが管理する装置である。
情報処理装置151は、マスターのHDRビデオがmode-iで記録される場合には、各表示装置の仕様に応じた輝度調整用データを生成する。また、情報処理装置151は、マスターのHDRビデオがmode-iiで記録される場合には、各表示装置の仕様に応じたtone mapping定義情報を生成する。なお、後者の場合、光ディスク11に実際に記録されるビデオはマスターのHDRビデオを変換して得られたSTDビデオである。
情報処理装置151により生成される輝度調整用データとtone mapping定義情報を区別する必要がない場合、まとめてtone mapping tableという。
情報処理装置151は、生成したtone mapping tableを、ディスクID、モニタID、および仕様情報とともに管理サーバ152に出力する。
ディスクIDは光ディスク11の識別情報である。ディスクIDとして、例えばAACS(Advanced Access Content System)のContent Certificate IDが用いられる。BD-ROM規格の光ディスクである光ディスク11には、Content Certificate IDが割り当てられる。
モニタIDは表示装置の識別情報である。モニタIDとして、例えばCEA-861で定義されたVender/Product IDが用いられる。HDMI規格の通信に対応する表示装置3には、Vender/Product IDを格納するEDID(Extended Display Identification Data)や、仕様情報を格納するEDIDが保持される。
また、情報処理装置151は、適宜、HDR情報を生成し、管理サーバ152に出力する。情報処理装置151と管理サーバ152の間のデータの送受信は、ネットワーク153を介して行われるようにしてもよいし、有線の通信やリムーバブルメディアを介して行われるようにしてもよい。
管理サーバ152は、情報処理装置151により生成されたtone mapping tableと、ディスクID、モニタID、および仕様情報を対応付けたデータベースを管理する。データベースには、HDR情報も適宜登録される。管理サーバ152は、再生装置2からの要求に応じて、例えば、光ディスク11のディスクID、HDRビデオの出力先となる表示装置3のモニタIDと対応付けてデータベースに管理しているtone mapping tableを再生装置2に送信する。再生装置2からの要求には、光ディスク11のディスクIDと表示装置3のモニタIDが含まれる。
図36は、管理サーバ152が管理するデータベースの例を示す図である。
管理サーバ152が管理するデータベースにおいては、ディスクID、モニタID、仕様情報、およびtone mapping tableが対応付けて管理される。
図36の例において、ID1のディスクIDが割り当てられた光ディスクは、mode-iでコンテンツが記録された光ディスクである。ID1に対しては、#a、#b、#c、...の各モニタIDにより識別される表示装置用のデータとして、輝度調整用データであるtone mapping table T1,T2,T3が対応付けて管理される。
一方、ID2のディスクIDが割り当てられた光ディスクは、mode-iiでコンテンツが記録された光ディスクである。ID2に対しては、#a、#b、#c、...の各モニタIDにより識別される表示装置用のデータとして、tone mapping定義情報であるtone mapping table T11,T12,T13が対応付けて管理される。
なお、#a、#b、#c、...のモニタIDにより識別される各表示装置の最大輝度は、X cd/m2、Y cd/m2、Z cd/m2、...とされている。
例えば、光ディスク11のディスクIDがID1であり、表示装置3のモニタIDが#aである場合、輝度調整用データであるtone mapping table T1が再生装置2に提供される。HDR情報がID1のディスクIDと対応付けて管理されている場合、そのHDR情報も再生装置2に対して提供される。
また、光ディスク11のディスクIDがID2であり、表示装置3のモニタIDが#bである場合、tone mapping定義情報であるtone mapping table T12が再生装置2に提供される。HDR情報がID2のディスクIDと対応付けて管理されている場合、そのHDR情報も再生装置2に対して提供される。
図35の説明に戻り、再生装置2は、光ディスク11の記録モードがmode-iである場合、光ディスク11に記録されているHEVCストリームを復号して得られたHDRビデオの輝度を、管理サーバ152から送信されてきた輝度調整用データを用いて調整する。再生装置2は、輝度調整後のHDRビデオを、管理サーバ152から送信されてきたHDR情報とともに表示装置3に出力する。
表示装置3に出力されるHDRビデオは、表示装置3用の輝度調整用データに基づいて輝度の調整が行われたHDRビデオである。再生装置2は、HDRビデオをモニタ104に応じた最適な輝度で表示させることが可能になる。
一方、再生装置2は、光ディスク11の記録モードがmode-iiである場合、光ディスク11に記録されているHEVCストリームを復号して得られたSTDビデオを、管理サーバ152から送信されてきたtone mapping定義情報を用いてHDRビデオに変換する。再生装置2は、変換して得られたHDRビデオを、管理サーバ152から送信されてきたHDR情報とともに表示装置3に出力する。
表示装置3に出力されるHDRビデオは、表示装置3用のtone mapping定義情報に基づいて得られたHDRビデオである。この場合においても、再生装置2は、HDRビデオをモニタ104に応じた最適な輝度で表示させることが可能になる。
〔mode-iの信号処理〕
図37は、記録モードがmode-iである場合の処理の例を示す図である。図37に示す処理のうち、図2等を参照して説明した処理と同様の処理については適宜説明を省略する。
矢印#301の先に示すように、情報処理装置151に対しては、例えばオーサーにより、記録装置1に入力されるマスターのHDRビデオと同じHDRビデオが入力される。情報処理装置151に対しては、マスターのHDRビデオが記録される光ディスクのディスクID、各表示装置のモニタIDと仕様情報なども入力される。
情報処理装置151は、各表示装置の仕様に基づいて輝度調整用データを生成する。また、情報処理装置151は、記録装置1と同様に、HDRビデオの輝度を検出し、HDR情報を生成する。情報処理装置151は、矢印#302の先に示すように、生成した輝度調整用データとHDR情報を、ディスクID、モニタID、仕様情報とともに管理サーバ152に出力し、データベースに登録する。
再生装置2は、光ディスク11の再生時、矢印#303に示すように、HDRモニタ(モニタ104)を有する表示装置3と通信を行い、表示装置3のモニタIDと仕様情報を取得する。図37の例においては、表示装置3のモニタIDは#aとされている。
また、再生装置2は、矢印#304に示すように、ネットワーク153を介して管理サーバ152にアクセスし、取得したディスクIDとモニタIDを送信することによって、tone mapping tableの送信を要求する。再生装置2は、要求に応じて管理サーバ152から送信されてきた輝度調整用データとHDR情報を取得する。管理サーバ152からは、データベースに登録されているデータのうち、再生装置2が送信したディスクIDおよびモニタID#aと対応付けて登録されている輝度調整用データとHDR情報が送信されてくる。
再生装置2は、矢印#305の先に示すように、HEVCの符号化データを復号して得られたHDRビデオの輝度を、管理サーバ152から取得した輝度調整用データに基づいて調整する。再生装置2は、矢印#306の先に示すように、輝度調整後のHDRビデオのデータにHDR情報を付加し、矢印#307に示すように表示装置3に出力する。
例えば、HDRビデオのデータに付加されるHDR情報として、管理サーバ152からHDR情報が送信されてきた場合にはそのHDR情報が用いられ、送信されてきていない場合には、HEVCストリームから抽出されたHDR情報が用いられる。
図38は、記録モードがmode-iである場合の各情報の例を示す図である。
マスターのHDRビデオは、白抜き矢印#321の先に示すように、マスターのHDRビデオに基づいて記録装置1において生成されたHDR情報とHDR-STD変換用のtone mapping定義情報とともに再生装置2に提供される。
再生装置2においては、矢印#322,#323の先に示すように、HEVCの符号化データを復号して得られたHDRビデオの輝度が、管理サーバ152から取得されたtone mapping tableである輝度調整用データに基づいて調整される。
図38の中央上方に示す、表示装置3(モニタID#a)用の輝度調整用データを示す座標の横軸はtone mapping前の画素値を表し、縦軸はtone mapping後の画素値を表す。表示装置3用の輝度調整用データは、高輝度域のデータ(画素値が大きいデータ)の輝度を抑えるようにトーンマッピングを行う関数となっている。
矢印#324,#325の先に示すように、輝度調整後のHDRビデオのデータにHDR情報が付加され、矢印#326の先に示すように表示装置3に出力される。なお、STDモニタを有する表示装置に対してSTDビデオを出力する場合の処理は、図3を参照して説明した処理と同じ処理である。
このように、光ディスク11の記録モードがmode-iである場合、符号化データを復号して得られたHDRビデオの輝度が、出力先となる表示装置3の仕様に応じて調整され、輝度調整後のHDRビデオが出力される。
〔mode-iiの信号処理〕
図39は、記録モードがmode-iiである場合の処理の例を示す図である。図39に示す処理のうち、図4等を参照して説明した処理と同様の処理については適宜説明を省略する。
矢印#341の先に示すように、情報処理装置151に対しては、マスターのHDRビデオと同じHDRビデオが入力される。情報処理装置151に対しては、マスターのHDRビデオが記録される光ディスクのディスクID、各表示装置のモニタIDと仕様情報なども入力される。
情報処理装置151は、記録装置1と同様にHDRビデオをSTDビデオに変換し、各表示装置の仕様に応じたSTD-HDR変換用のtone mapping定義情報を生成する。また、情報処理装置151は、HDRビデオの輝度を検出し、HDR情報を生成する。情報処理装置151は、矢印#342の先に示すように、生成したtone mapping定義情報とHDR情報を、ディスクID、モニタID、仕様情報とともに管理サーバ152に出力し、データベースに登録する。
再生装置2は、光ディスク11の再生時、矢印#343に示すように、HDRモニタを有する表示装置3と通信を行い、表示装置3のモニタIDと仕様情報を取得する。
また、再生装置2は、矢印#344に示すように管理サーバ152にアクセスし、取得したディスクIDとモニタIDを送信することによって、tone mapping tableの送信を要求する。再生装置2は、要求に応じて管理サーバ152から送信されてきたtone mapping定義情報とHDR情報を取得する。管理サーバ152からは、データベースに登録されているデータのうち、再生装置2が送信したディスクIDおよびモニタID#aと対応付けて登録されているtone mapping定義情報とHDR情報が送信されてくる。
再生装置2は、矢印#345の先に示すように、HEVCの符号化データを復号して得られたSTDビデオを、管理サーバ152から送信されてきたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。再生装置2は、矢印#346の先に示すように、変換を行うことによって得られたHDRビデオのデータにHDR情報を付加し、矢印#347に示すように表示装置3に出力する。
mode-iiの場合においても、HDRビデオのデータに付加されるHDR情報として、管理サーバ152からHDR情報が送信されてきた場合にはそのHDR情報が用いられ、送信されてきていない場合には、HEVCストリームから抽出されたHDR情報が用いられる。
図40は、記録モードがmode-iiである場合の各情報の例を示す図である。
マスターのHDRビデオは、白抜き矢印#361の先に示すように、STDビデオに変換された後、記録装置1において生成されたHDR情報とSTD-HDR変換用のtone mapping定義情報とともに再生装置2に提供される。記録装置1から再生装置2に対して提供されるSTD-HDR変換用のtone mapping定義情報は、特定の表示装置用のデータではなく、汎用のデータとなる。
再生装置2においては、矢印#362,#363の先に示すように、HEVCの符号化データを復号して得られたSTDビデオが、管理サーバ152から取得されたSTD-HDR変換用のtone mapping定義情報を用いてHDRビデオに変換される。
図40において破線で囲んで示すSTD-HDR変換用のtone mapping定義情報は、光ディスク11に記録されたHEVCストリームから抽出された汎用のデータではなく、管理サーバ152から取得された表示装置3用のデータである。表示装置3用のtone mapping定義情報を示す座標の横軸は入力となるSTDビデオの画素値を表し、縦軸は出力となるHDRビデオの画素値を表す。表示装置3用のtone mapping定義情報は、低輝度域のデータの輝度を抑えるとともに、最大値に近い高輝度域のデータの輝度を抑えるようにトーンマッピングを行う関数となっている。
また、矢印#364,#365の先に示すように、STDビデオを変換して得られたHDRビデオのデータにHDR情報が付加され、矢印#366の先に示すように表示装置3に出力される。なお、STDモニタを有する表示装置に対してSTDビデオを出力する場合の処理は、図5を参照して説明した処理と同じ処理である。
このように、光ディスク11の記録モードがmode-iiである場合、符号化データを復号して得られたSTDビデオが、出力先となる表示装置3の性能に応じたtone mapping定義情報を用いてHDRビデオに変換され、出力される。
〔各装置の構成例〕
ここで、図35の記録・再生システムの各装置の構成について説明する。上述した説明と重複する説明については適宜省略する。
・情報処理装置151の構成
図41は、情報処理装置151のハードウェア構成例を示すブロック図である。
CPU161、ROM162、RAM163は、バス164により相互に接続される。バス164には、入出力インタフェース165が接続される。入出力インタフェース165には、キーボード、マウスなどよりなる入力部166、ディスプレイ、スピーカなどよりなる出力部167が接続される。また、入出力インタフェース165には、ハードディスクや不揮発性のメモリなどよりなる記憶部168、ネットワークインタフェースなどよりなる通信部169、リムーバブルメディア171を駆動するドライブ170が接続される。
管理サーバ152も、図41に示す情報処理装置151の構成と同じ構成を有している。以下、適宜、図41の構成を管理サーバ152の構成として引用して説明する。
図42は、情報処理装置151の機能構成例を示すブロック図である。図42に示す機能部のうちの少なくとも一部は、図41のCPU161により所定のプログラムが実行されることによって実現される。
情報処理装置151においては、HDRビデオ取得部181、モニタ情報取得部182、tone mapping table生成部183、HDR情報生成部184、および出力部185が実現される。
HDRビデオ取得部181は、例えばドライブ170を制御し、リムーバブルメディア171を用いて入力されたマスターのHDRビデオのデータを取得する。情報処理装置151に対しては、例えばHDRビデオとともに、HDRビデオの記録モードを表す情報とHDRビデオのディスクIDも入力される。
HDRビデオ取得部181は、取得したHDRビデオをtone mapping table生成部183とHDR情報生成部184に出力する。
モニタ情報取得部182は、モニタID、仕様情報などの、各メーカーから販売されている複数の表示装置に関する情報を取得し、tone mapping table生成部183と出力部185に出力する。
tone mapping table生成部183は、HDRビデオ取得部181により取得されたHDRビデオの記録モードに応じたtone mapping tableを生成し、出力部185に出力する。
すなわち、tone mapping table生成部183は、記録モードがmode-iである場合、モニタ情報取得部182により取得された仕様情報により表される各表示装置の仕様に基づいて、各表示装置用の輝度調整用データを生成する。また、tone mapping table生成部183は、記録モードがmode-iiである場合、モニタ情報取得部182により取得された仕様情報により表される各表示装置の仕様に基づいて、各表示装置用のSTD-HDR変換用のtone mapping定義情報を生成する。
HDR情報生成部184は、HDRビデオ取得部181により取得されたHDRビデオの輝度を検出し、図12を参照して説明した各情報を含むHDR情報を生成する。HDR情報生成部184は、生成したHDR情報を出力部185に出力する。各表示装置の仕様情報がHDR情報生成部184に対して供給され、各表示装置の仕様に応じたHDR情報が生成されるようにしてもよい。
出力部185は、通信部169を制御するなどして管理サーバ152と通信を行う。出力部185は、tone mapping tableを、ディスクID、モニタID、仕様情報、およびHDR情報とともに管理サーバ152に出力する。
・管理サーバ152の構成
図43は、管理サーバ152の機能構成例を示すブロック図である。図43に示す機能部のうちの少なくとも一部は、管理サーバ152のCPU161(図41)により所定のプログラムが実行されることによって実現される。
管理サーバ152においては、tone mapping table取得部191とデータベース管理部192が実現される。
tone mapping table取得部191は、例えば通信部169を制御し、情報処理装置151から送信されてきた情報を取得する。tone mapping table取得部191は、取得したtone mapping table、ディスクID、モニタID、仕様情報、およびHDR情報をデータベース管理部192に出力する。
データベース管理部192は、tone mapping table取得部191から供給された情報からなる、図36に示すようなデータベースを記憶部168に記憶させ、管理する。データベース管理部192は、再生装置2からの要求に応じて、例えば再生装置2から送信されてきたディスクIDおよびモニタIDと対応付けてデータベースに登録しているtone mapping tableとHDR情報を再生装置2に送信する。
・再生装置2の構成
図44は、再生装置2の構成例を示すブロック図である。
図44に示す再生装置2の構成は、コントローラ51においてtone mapping table取得部51Aが実現される点を除いて図24に示す構成と同じである。
tone mapping table取得部51Aは、光ディスク11の再生時、ディスクドライブ52を制御し、ディスクIDを光ディスク11から読み出す。また、tone mapping table取得部51Aは、HDMI通信部58によって表示装置3から取得されたEDIDに含まれるモニタIDと仕様情報を取得する。
tone mapping table取得部51Aは、ネットワークインタフェース55を制御して管理サーバ152にアクセスし、取得したディスクID、モニタID、および仕様情報を管理サーバ152に送信する。後述するように、管理サーバ152においては、表示装置の仕様情報に基づいてtone mapping tableが選択されることがある。tone mapping table取得部51Aは、管理サーバ152から送信されてきたtone mapping tableを取得し、復号処理部56に出力する。
HDMI通信部58は、ケーブル4を介して表示装置3との間で通信を行う。HDMI通信部58は、モニタの最大輝度を表す情報、最大拡張レベルを表す情報などを含む、表示装置3の仕様情報を含むEDIDと、表示装置3のモニタIDを含むEDIDを取得し、それぞれのEDIDに含まれる情報をコントローラ51に出力する。HDMI通信部58は、HDRビデオの出力先となる表示装置3に関する情報の取得部としての機能を有する。なお、モニタの最大輝度を表す情報、最大拡張レベルを表す情報を含むEDIDは新たに定義されるEDIDである。
図45は、図44の復号処理部56の構成例を示すブロック図である。
図45に示す構成は、HEVCデコーダ72とHDRビデオ出力部75Aの間に輝度調整部201が設けられる点を除いて図25に示す構成と同じである。光ディスク11の記録モードがmode-iである場合にtone mapping tableとしてtone mapping table取得部51Aから供給された輝度調整用データは輝度調整部201に入力される。また、光ディスク11の記録モードがmode-iiである場合にtone mapping tableとしてtone mapping table取得部51Aから供給されたtone mapping定義情報はSTD-HDR変換部74に入力される。
輝度調整部201は、HEVCデコーダ72から供給されたHDRビデオの輝度をtone mapping table取得部51Aから供給された輝度調整用データに基づいて調整する。輝度調整部201は、輝度調整後のHDRビデオをHDRビデオ出力部75Aに出力する。
STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、tone mapping table取得部51Aから供給されたtone mapping定義情報に基づいてHDRビデオに変換する。この場合、パラメータ抽出部71により抽出されたtone mapping定義情報は用いられない。STD-HDR変換部74は、変換して得られたHDRビデオをHDRビデオ出力部75Aに出力する。
〔各装置の動作〕
ここで、図35の各装置の動作について説明する。
・情報処理装置151の処理
はじめに、図46のフローチャートを参照して、tone mapping tableを生成する情報処理装置151の処理について説明する。
ステップS101において、情報処理装置151のHDRビデオ取得部181は、マスターのHDRビデオのデータを取得する。
ステップS102において、モニタ情報取得部182は、表示装置毎のモニタIDと仕様情報を取得する。
ステップS103において、tone mapping table生成部183は、各表示装置の仕様に基づいて、各表示装置用のtone mapping tableを生成する。tone mapping table生成部183は、HDRビデオ取得部181により取得されたHDRビデオの記録モードがmode-iである場合、輝度調整用データを生成し、mode-iiである場合、tone mapping定義情報を生成する。tone mapping table生成部183は、生成したtone mapping tableを出力部185に出力する。
ステップS104において、HDR情報生成部184は、HDRビデオの輝度を検出するなどしてHDR情報を生成する。
ステップS105において、出力部185は、tone mapping tableを、ディスクID、モニタID、仕様情報、およびHDR情報とともに管理サーバ152に送信し、処理を終了させる。例えば、このような情報処理装置151の処理と並行して、記録装置1において図27の処理が行われる。
・管理サーバ152の処理
次に、図47のフローチャートを参照して、tone mapping tableをデータベースに登録する管理サーバ152の処理について説明する。
ステップS111において、管理サーバ152のtone mapping table取得部191は、情報処理装置151から送信されてきた情報を受信する。
ステップS112において、データベース管理部192は、tone mapping table取得部191により受信されたtone mapping tableを、ディスクID、モニタID、仕様情報、HDR情報と対応付けて記憶し、処理を終了させる。データベースに登録されたtone mapping tableは、光ディスク11を再生する再生装置2からの要求に応じて提供される。
次に、図48のフローチャートを参照して、tone mapping tableを提供する管理サーバ152の処理について説明する。
ステップS121において、データベース管理部192は、再生装置2から送信されてきたディスクID、モニタID、仕様情報を受信する。仕様情報には表示装置3の最大輝度を表す情報が含まれる。
ステップS122において、データベース管理部192は、記憶部168のデータベースを参照し、再生装置2から送信されてきたディスクIDに対応するデータ(対応付けて登録されているデータ)があるか否かを判定する。
そのようなデータがあるとステップS122において判定した場合、ステップS123において、データベース管理部192は、ディスクIDに対応するデータの中に、再生装置2から送信されてきたモニタIDに対応するデータがあるか否かを判定する。
モニタIDに対応するデータがあるとステップS123において判定した場合、ステップS124において、データベース管理部192は、ディスクIDおよびモニタIDに対応するtone mapping tableを再生装置2に送信する。光ディスク11の記録モードがmode-iである場合、輝度調整用データが送信され、mode-iiである場合、tone mapping定義情報が送信される。
一方、ディスクIDに対応するデータの中にモニタIDに対応するデータがないとステップS123において判定した場合、ステップS125において、データベース管理部192は、表示装置3の最大輝度に対応するデータがあるか否かを判定する。
最大輝度に対応するデータがあるとステップS125において判定した場合、ステップS126において、データベース管理部192は、ディスクIDに対応するデータのうち、表示装置3の最大輝度に応じたtone mapping tableを再生装置2に送信する。表示装置3のモニタIDがデータベースに登録されていない場合であっても、表示装置3と同じ最大輝度の表示装置用のtone mapping tableが表示装置3に提供されることになる。
ステップS124またはステップS126においてtone mapping tableが送信された後、処理は終了される。なお、情報処理装置151により生成されたHDR情報がtone mapping tableとともに登録されている場合、HDR情報も再生装置2に対して送信される。
一方、ステップS122においてディスクIDに対応するデータがないと判定された場合、ステップS127において、エラー情報が送信され、その後、処理は終了される。エラー情報は、該当するデータがないことを表す。ステップS125において表示装置3の最大輝度に対応するデータがないと判定された場合も同様に、ステップS127においてエラー情報が送信され、処理は終了される。
・再生装置2の処理
次に、図49のフローチャートを参照して、再生装置2の再生処理について説明する。
ステップS141において、再生装置2のtone mapping table取得部51Aは、ディスクドライブ52を制御し、ディスクIDを光ディスク11から読み出す。
ステップS142において、HDMI通信部58は、表示装置3と通信を行い、モニタIDを含むEDIDと仕様情報を含むEDIDを取得する。表示装置3の仕様情報には最大輝度を表す情報も含まれる。
ステップS143において、tone mapping table取得部51Aは、tone mapping tableの提供元となるサーバのURLが光ディスク11に記録されているか否かを判定する。この例においては、管理サーバ152の他に、tone mapping tableの提供元となるサーバをオーサーが任意に用意することができるようになされている。オーサーが任意に用意したサーバにおいても、管理サーバ152と同様の処理が行われ、アクセスしてきた再生装置に対してtone mapping tableを提供することが可能とされる。
なお、tone mapping tableの提供元となるサーバのURLは、例えばPlayListファイルに記述される。光ディスク11に記録されている他のファイルにURLが記述されるようにしてもよい。
サーバのURLが記録されているとステップS143において判定した場合、ステップS144において、tone mapping table取得部51Aは、光ディスク11に記録されているURLに基づいてサーバにアクセスする。また、tone mapping table取得部51Aは、ディスクID、モニタID、および仕様情報を送信する。
ステップS145において、tone mapping table取得部51Aは、サーバからtone mapping tableが送信されてきたか否かを判定する。再生装置2がアクセスしたサーバにおいては、図48の処理と同様の処理が行われる。
tone mapping tableが送信されてきたとステップS145において判定した場合、ステップS146において、tone mapping table取得部51Aは、サーバから送信されてきたtone mapping tableを受信する。tone mapping tableとともにHDR情報が送信されてきた場合、tone mapping table取得部51AはHDR情報をも受信する。
tone mapping tableが受信された後、ステップS147において復号処理が行われ、処理が終了される。復号処理においては、サーバから送信されてきたtone mapping tableとHDR情報が用いられる。復号処理の詳細については図50、図51のフローチャートを参照して後述する。
tone mapping tableが送信されてきていないとステップS145において判定した場合、ステップS148において、tone mapping table取得部51Aは、サーバから送信されたエラー情報を受信する。エラー情報が送信されてきた場合、再生装置2においては、図32、図33の処理と同様の処理が行われ、表示装置3に対してHDRビデオが出力される。その後、処理は終了される。
一方、サーバのURLが記録されていないとステップS143において判定した場合、ステップS149において、tone mapping table取得部51Aは、管理サーバ152にアクセスする。また、tone mapping table取得部51Aは、ディスクID、モニタID、および仕様情報を送信し、tone mapping tableの送信を要求する。
管理サーバ152は、オーサーにより任意に用意されたサーバのURLが光ディスク11に記録されていない場合のデフォルトのアクセス先となる。デフォルトのアクセス先としての管理サーバ152のURLが、PlayListファイルなどの光ディスク11内のファイルに記述されるようにしてもよい。
ステップS150において、tone mapping table取得部51Aは、tone mapping tableが管理サーバ152から送信されてきたか否かを判定する。
tone mapping tableが送信されてきたとステップS150において判定した場合、ステップS151において、tone mapping table取得部51Aは、管理サーバ152から送信されてきたtone mapping tableを受信する。tone mapping tableとともにHDR情報が送信されてきた場合、tone mapping table取得部51Aは、HDR情報をも受信する。
tone mapping tableが受信された後、ステップS152において復号処理が行われ、処理が終了される。復号処理においては、管理サーバ152から送信されてきたtone mapping tableとHDR情報が用いられる。
一方、tone mapping tableが送信されてきていないとステップS150において判定した場合、ステップS153において、tone mapping table取得部51Aは、管理サーバ152から送信されたエラー情報を受信する。エラー情報が送信されてきた場合、再生装置2においては、図32、図33の処理と同様の処理が行われ、表示装置3に対してHDRビデオが出力される。その後、処理は終了される。
次に、図50のフローチャートを参照して、図49のステップS147,S152において行われる、記録モードがmode-iである場合の復号処理について説明する。
ステップS161において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報を抽出し、HDRビデオ出力部75Aに出力する。パラメータ抽出部71は、HEVCストリームに含まれるHEVCの符号化データをHEVCデコーダ72に出力する。
ステップS162において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたHDRビデオを輝度調整部201に出力する。
ステップS163において、輝度調整部201は、tone mapping tableとして管理サーバ152などのサーバから送信されてきた輝度調整用データに基づいてHDRビデオの輝度を調整する。
ステップS164において、HDRビデオ出力部75Aは、輝度調整用データとともにHDR情報がサーバから送信されてきたか否かを判定する。HDR情報が送信されてきた場合、送信されてきたHDR情報はtone mapping table取得部51Aにより取得され、HDRビデオ出力部75Aに供給される。
HDR情報がサーバから送信されてきたとステップS164において判定した場合、ステップS165において、HDRビデオ出力部75Aは、輝度調整後のHDRビデオを、サーバから送信されてきたHDR情報とともに出力する。
一方、HDR情報がサーバから送信されてきていないとステップS164において判定した場合、ステップS166において、HDRビデオ出力部75Aは、輝度調整後のHDRビデオを、パラメータ抽出部71により抽出されたHDR情報とともに出力する。
ステップS165、またはステップS166においてHDRビデオが出力された後、ステップS167において、コントローラ51は再生終了か否かを判定する。
再生終了ではないとステップS167において判定した場合、コントローラ51は、ステップS161に戻り、以上の処理を繰り返し実行させる。再生終了であるとステップS167において判定された場合、図49のステップS147,S152に戻り、それ以降の処理が行われる。
次に、図51のフローチャートを参照して、図49のステップS147,S152において行われる、記録モードがmode-iiである場合の復号処理について説明する。
ステップS181において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれるHEVCの符号化データをHEVCデコーダ72に出力する。
ステップS182において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたSTDビデオをSTD-HDR変換部74に出力する。
ステップS183において、STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、tone mapping tableとしてサーバから送信されてきたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。
ステップS184において、HDRビデオ出力部75Aは、tone mapping定義情報とともにHDR情報がサーバから送信されてきたか否かを判定する。
HDR情報がサーバから送信されてきたとステップS184において判定した場合、ステップS185において、HDRビデオ出力部75Aは、変換して得られたHDRビデオを、サーバから送信されてきたHDR情報とともに出力する。
一方、HDR情報がサーバから送信されてきていないとステップS184において判定した場合、ステップS186において、HDRビデオ出力部75Aは、変換して得られたHDRビデオを、パラメータ抽出部71により抽出されたHDR情報とともに出力する。
ステップS185、またはステップS186においてHDRビデオが出力された後、ステップS187において、コントローラ51は再生終了か否かを判定する。
再生終了ではないとステップS187において判定した場合、コントローラ51は、ステップS181に戻り、以上の処理を繰り返し実行させる。再生終了であるとステップS187において判定された場合、図49のステップS147,S152に戻り、それ以降の処理が行われる。
・表示装置3の処理
次に、図52のフローチャートを参照して、表示装置3の表示処理について説明する。
ステップS201において、コントローラ101(図26)は、HDMI通信部102を制御して再生装置2と通信を行い、モニタIDを含むEDIDと仕様情報を含むEDIDを送信する。その後、再生装置2においては図49等を参照して説明した処理が行われ、表示装置3に対してHDRビデオが出力される。
ステップS202において、HDMI通信部102は、再生装置2から送信されてきたHDRビデオとHDR情報を受信する。
ステップS203において、信号処理部103は、HDRビデオの映像を、HDR情報により指定される輝度に従ってモニタ104に表示させ、処理を終了させる。すなわち、この場合、輝度の調整などは表示装置3においては行われない。
以上の一連の処理により、再生装置2は、自身に接続されている表示装置3に最適な輝度のHDRビデオを再生することが可能となる。
<7.tone mapping tableが光ディスクに用意される例>
〔mode-iの信号処理〕
以上においては、各表示装置用のtone mapping tableが管理サーバ152から提供されるものとしたが、光ディスク11に記録した形で再生装置2に提供されるようにしてもよい。再生装置2は、光ディスク11に記録されている複数のtone mapping tableの中から表示装置3用のtone mapping tableを選択する。
図53は、記録モードがmode-iである場合の処理の例を示す図である。図53に示す処理のうち、図37等を参照して説明した処理と同様の処理については適宜説明を省略する。
矢印#401の先に示すように、情報処理装置151に対してマスターのHDRビデオが入力される。情報処理装置151に対しては、各表示装置のモニタIDと仕様情報などもオーサーにより入力される。情報処理装置151は、各表示装置の仕様に基づいて輝度調整用データを生成し、矢印#402の先に示すように記録装置1に出力する。
記録装置1は、情報処理装置151から供給された各表示装置用の輝度調整用データを、HDRビデオを符号化することによって得られたHEVCストリーム、HDR情報とともに光ディスク11に記録する。
再生装置2は、光ディスク11の再生時、矢印#403に示すように、表示装置3と通信を行い、表示装置3のモニタID#aと仕様情報を取得する。
また、再生装置2は、矢印#404の先に示すように、光ディスク11に記録した形で提供された輝度調整用データのうち、表示装置3のモニタID#aに対応する輝度調整用データを選択する。光ディスク11に記録されているコンテンツをコンテンツ#Aとすると、光ディスク11には、コンテンツ#Aの再生時に用いる各表示装置用の輝度調整用データが記録されている。再生装置2は、その中から、モニタID#aと対応付けて記録されている輝度調整用データを選択する。
再生装置2は、矢印#405の先に示すように、HEVCの符号化データを復号して得られたHDRビデオの輝度を、光ディスク11から選択して読み出した表示装置3用の輝度調整用データに基づいて調整する。再生装置2は、矢印#406の先に示すように、輝度調整後のHDRビデオのデータにHDR情報を付加し、矢印#407に示すように表示装置3に出力する。
〔mode-iiの信号処理〕
図54は、記録モードがmode-iiである場合の処理の例を示す図である。図54に示す処理のうち、図39等を参照して説明した処理と同様の処理については適宜説明を省略する。
矢印#411の先に示すように、情報処理装置151に対してマスターのHDRビデオが入力される。情報処理装置151に対しては、各表示装置のモニタIDと仕様情報などもオーサーにより入力される。情報処理装置151は、HDRビデオをSTDビデオに変換することによって、各表示装置の仕様に応じたSTD-HDR変換用のtone mapping定義情報を生成し、矢印#412の先に示すように記録装置1に出力する。
記録装置1は、情報処理装置151から供給された各表示装置用のtone mapping定義情報を、STDビデオを符号化することによって得られたHEVCストリーム、HDR情報とともに光ディスク11に記録する。
再生装置2は、光ディスク11の再生時、矢印#413に示すように、表示装置3と通信を行い、表示装置3のモニタID#aと仕様情報を取得する。
また、再生装置2は、矢印#414の先に示すように、光ディスク11に記録した形で提供されたtone mapping定義情報のうち、表示装置3のモニタID#aに対応するtone mapping定義情報を選択する。光ディスク11には、コンテンツ#Aの再生時に用いる各表示装置用のtone mapping定義情報が記録されている。再生装置2は、その中から、モニタID#aと対応付けて記録されているtone mapping定義情報を選択する。
再生装置2は、矢印#415の先に示すように、光ディスク11から選択して読み出したtone mapping定義情報を用いて、符号化データを復号して得られたSTDビデオをHDRビデオに変換する。再生装置2は、矢印#416の先に示すように、変換を行うことによって得られたHDRビデオのデータにHDR情報を付加し、矢印#417に示すように表示装置3に出力する。
なお、図53、図54の場合において、情報処理装置151により生成された各表示装置用のHDR情報がtone mapping tableとともに光ディスク11に記録されるようにしてもよい。この場合、再生装置2は、光ディスク11に記録されているHDR情報のうち、モニタID#aに基づいて特定される表示装置3用のHDR情報を輝度調整後のHDRビデオのデータに付加し、表示装置3に出力する。
〔記録装置の構成例〕
図55は、図53、図54に示す記録・再生システムにおける記録装置1の構成例を示すブロック図である。
図55に示す記録装置1の構成は、コントローラ21においてtone mapping table取得部21Bが実現される点と、通信部211が設けられる点を除いて図20の構成と同じである。
tone mapping table取得部21Bは、通信部211を制御することによって情報処理装置151と通信を行い、情報処理装置151により生成された各表示装置用のtone mapping tableを取得する。tone mapping table取得部21Bは、取得したtone mapping tableをディスクドライブ23に出力し、HEVCストリーム、Data Base情報とともに光ディスク11に記録させる。
〔各装置の動作〕
図56のフローチャートを参照して、図55に示す構成を有する記録装置1の記録処理について説明する。図56の処理は、図27の処理と基本的に同様の処理である。
ステップS201において、記録装置1のコントローラ21は、記録モードがmode-iであるか否かを判定する。
記録モードがmode-iであるとステップS201において判定された場合、ステップS202において、符号化処理部22はmode-iでの符号化処理を行う。図28を参照して説明したmode-iでの符号化処理により生成されたHEVCストリームはディスクドライブ23に供給される。
一方、記録モードがmode-iiであるとステップS201において判定された場合、ステップS203において、符号化処理部22はmode-iiでの符号化処理を行う。図29を参照して説明したmode-iiでの符号化処理により生成されたHEVCストリームはディスクドライブ23に供給される。
ステップS204において、Data Base情報生成部21AはData Base情報生成処理を行う。図30を参照して説明したData Base情報生成処理により生成されたPlayListファイルとClip Informationファイルはディスクドライブ23に供給される。
ステップS205において、tone mapping table取得部21Bは、通信部211を制御し、情報処理装置151により生成されたtone mapping tableを取得する。情報処理装置151からは、情報処理装置151において生成された表示装置毎のtone mapping tableが、各表示装置のモニタID、仕様情報などともに送信されてくる。光ディスク11の記録モードがmode-iである場合、各表示装置用の輝度調整用データが送信され、mode-iiである場合、各表示装置用のtone mapping定義情報が送信されてくる。tone mapping table取得部21Bは、各表示装置用のtone mapping tableをモニタID、仕様情報などとともに対応付けて登録したデータベースファイルをディスクドライブ23に出力する。
ステップS206において、ディスクドライブ23は、PlayListファイル、Clip Informationファイル、HEVCストリームファイル、tone mapping tableを含むデータベースファイルを光ディスク11に記録する。その後、処理は終了される。
次に、図57のフローチャートを参照して、再生装置2の処理について説明する。図57の処理は、例えば、図56の処理によってデータが記録された光ディスク11の再生時に開始される。
ステップS211において、HDMI通信部58は、表示装置3と通信を行い、モニタIDを含むEDIDと仕様情報を含むEDIDを取得する。表示装置3の仕様情報には最大輝度を表す情報も含まれる。
ステップS212において、tone mapping table取得部51Aは、光ディスク11に記録されているデータベースファイルを読み出し、再生装置2から送信されてきたモニタIDに対応するデータがあるか否かを判定する。
モニタIDに対応するデータがあるとステップS212において判定した場合、ステップS213において、tone mapping table取得部51Aは、モニタIDに対応するtone mapping tableをデータベースファイルから読み出す。
一方、モニタIDに対応するデータがないとステップS212において判定した場合、ステップS214において、tone mapping table取得部51Aは、表示装置3の最大輝度に対応するデータがあるか否かを判定する。
最大輝度に対応するデータがあるとステップS214において判定した場合、ステップS215において、tone mapping table取得部51Aは、表示装置3の最大輝度に応じたtone mapping tableをデータベースファイルから読み出す。
ステップS213またはS215においてtone mapping tableが読み出された後、ステップS216において、復号処理部56は復号処理を行う。復号処理においては、データベースファイルから読み出されたtone mapping tableを用いて、記録モードがmode-iである場合の図50の復号処理、または、記録モードがmode-iiである場合の図51の復号処理と同様の処理が行われる。
一方、最大輝度に対応するデータがないとステップS214において判定した場合、ステップS217において、復号処理部56は通常の復号処理を行う。ステップS217において行われる復号処理は、図32または図33を参照して説明した処理と同様の処理である。
すなわち、光ディスク11の記録モードがmode-iである場合には、HEVCストリームを復号して得られたHDRビデオがHEVCストリームから抽出されたHDR情報とともに表示装置3に出力される。また、光ディスク11の記録モードがmode-iiである場合には、HEVCストリームを復号して得られたSTDビデオが、HEVCストリームから抽出されたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換される。また、変換して得られたHDRビデオが、HEVCストリームから抽出されたHDR情報とともに表示装置3に出力される。
ステップS216またはステップS217において復号処理が行われた後、処理は終了される。
このように、光ディスク11に記録した形で各表示装置用のtone mapping tableが再生装置2に提供されるようにしてもよい。これによっても、再生装置2は、表示装置3の仕様に応じて最適な輝度のHDRビデオを表示させることが可能となる。
<8.tone mapping tableが管理サーバまたは光ディスクに用意される例>
以上においては、tone mapping tableを管理サーバ152から、または光ディスク11から取得するものとしたが、両方から取得することができるようにしてもよい。
例えば、HDRビデオの出力先となる表示装置3用のtone mapping tableが管理サーバ152に用意されているときには、管理サーバ152から取得されたtone mapping tableを用いて再生処理が行われる。また、表示装置3用のtone mapping tableが管理サーバ152に用意されていないときには、光ディスク11に記録されている表示装置3用のtone mapping tableを用いて再生処理が行われる。
図58および図59のフローチャートを参照して、コンテンツを再生する再生装置2の処理について説明する。
ステップS231において、再生装置2のtone mapping table取得部51Aは、ディスクドライブ52を制御し、ディスクIDを光ディスク11から読み出す。
ステップS232において、HDMI通信部58は、表示装置3と通信を行い、表示装置3のモニタIDを含むEDIDと仕様情報を含むEDIDを取得する。表示装置3の仕様情報には最大輝度を表す情報も含まれる。
ステップS233において、tone mapping table取得部51Aは、tone mapping tableの提供元となるサーバのURLが光ディスク11に記録されているか否かを判定する。
サーバのURLが記録されているとステップS233において判定した場合、ステップS234において、tone mapping table取得部51Aは、光ディスク11に記録されているURLに基づいてサーバにアクセスする。また、tone mapping table取得部51Aは、ディスクID、モニタID、および仕様情報を送信する。
ステップS235において、tone mapping table取得部51Aは、ディスクIDと対応付けて登録されているデータであって、モニタIDに対応するtone mapping tableがサーバから送信されてきたか否かを判定する。再生装置2がアクセスしたサーバにおいては、図48の処理と同様の処理が行われる。例えばディスクIDに対応するデータがある場合、ディスクIDに対応するデータのうち、モニタIDにも対応するtone mapping table、または最大輝度に応じたtone mapping tableがサーバから送信されてくる。
モニタIDに対応するデータが送信されてきたとステップS235において判定した場合、ステップS236において、tone mapping table取得部51Aは、サーバから送信されてきたtone mapping tableを受信する。tone mapping tableとともにHDR情報が送信されてきた場合、tone mapping table取得部51AはHDR情報をも受信する。
tone mapping tableが受信された後、ステップS237において復号処理が行われ、処理が終了される。ステップS237において行われる復号処理は、図50、図51を参照して説明した処理であり、サーバから送信されてきたtone mapping tableとHDR情報が用いられる。
モニタIDに対応するデータが送信されてきていないとステップS235において判定した場合、ステップS238において、tone mapping table取得部51Aは、最大輝度に対応するデータがサーバから送信されてきたか否かを判定する。
最大輝度に対応するデータが送信されてきたとステップS238において判定した場合、ステップS239において、tone mapping table取得部51Aは、光ディスク11に記録されているデータベースファイルを読み出す。また、tone mapping table取得部51Aは、モニタIDに対応するtone mapping tableがデータベースファイルに記録されているか否かを判定する。
tone mapping tableが記録されているとステップS239において判定した場合、ステップS240において、tone mapping table取得部51Aは、モニタIDに対応するtone mapping tableをデータベースファイルから読み出して取得する。
一方、モニタIDに対応するtone mapping tableが記録されていないとステップS239において判定した場合、ステップS241において、tone mapping table取得部51Aは、サーバから送信されてきた最大輝度に対応するtone mapping tableを受信する。
ステップS240において光ディスク11からtone mapping tableが取得された後、または、ステップS241において最大輝度に対応するtone mapping tableが受信された後、ステップS237において復号処理が行われる。その後、処理が終了される。光ディスク11から取得されたモニタIDに対応するtone mapping tableと、サーバから取得された最大輝度に対応するtone mapping tableとでは前者が優先して用いられることになる。
一方、最大輝度に対応するデータが送信されてきていないとステップS238において判定した場合、ステップS242において、tone mapping table取得部51Aは、サーバから送信されてきたエラー情報を受信する。エラー情報が送信されてきた場合、再生装置2においては、図32、図33の処理と同様の処理が行われ、表示装置3に対してHDRビデオが出力される。
一方、サーバのURLが光ディスク11に記録されていないとステップS233において判定した場合、ステップS243(図59)において、tone mapping table取得部51Aは管理サーバ152にアクセスする。また、tone mapping table取得部51Aは、ディスクID、モニタID、および仕様情報を管理サーバ152に送信し、tone mapping tableの送信を要求する。
ステップS244において、tone mapping table取得部51Aは、ディスクIDと対応付けて登録されているデータであって、モニタIDに対応するtone mapping tableが管理サーバ152から送信されてきたか否かを判定する。管理サーバ152においては、図48の処理と同様の処理が行われる。
モニタIDに対応するデータが送信されてきたとステップS244において判定した場合、ステップS245において、tone mapping table取得部51Aは、管理サーバ152から送信されてきたtone mapping tableを受信する。tone mapping tableとともにHDR情報が送信されてきた場合、tone mapping table取得部51AはHDR情報をも受信する。
tone mapping tableが受信された後、ステップS246において復号処理が行われ、処理が終了される。ステップS246において行われる復号処理は、図50、図51を参照して説明した処理であり、管理サーバ152から送信されてきたtone mapping tableとHDR情報が用いられる。
モニタIDに対応するデータが送信されてきていないとステップS244において判定した場合、ステップS247において、tone mapping table取得部51Aは、最大輝度に対応するデータが管理サーバ152から送信されてきたか否かを判定する。
最大輝度に対応するデータが送信されてきたとステップS247において判定した場合、ステップS248において、tone mapping table取得部51Aは、光ディスク11に記録されているデータベースファイルを読み出す。また、tone mapping table取得部51Aは、モニタIDに対応するtone mapping tableがデータベースファイルに記録されているか否かを判定する。
tone mapping tableが記録されているとステップS248において判定した場合、ステップS249において、tone mapping table取得部51Aは、モニタIDに対応するtone mapping tableをデータベースファイルから読み出して取得する。
一方、モニタIDに対応するtone mapping tableが記録されていないとステップS248において判定した場合、ステップS250において、tone mapping table取得部51Aは、管理サーバ152から送信されてきた最大輝度に対応するtone mapping tableを受信する。
ステップS249において光ディスク11からtone mapping tableが取得された後、または、ステップS250において最大輝度に対応するtone mapping tableが受信された後、ステップS246において復号処理が行われる。その後、処理が終了される。
一方、最大輝度に対応するデータが送信されてきていないとステップS247において判定した場合、ステップS251において、tone mapping table取得部51Aは、管理サーバ152から送信されてきたエラー情報を受信する。エラー情報が送信されてきた場合、再生装置2においては、図32、図33の処理と同様の処理が行われ、表示装置3に対してHDRビデオが出力される。
このように、サーバから送信されてきたtone mapping tableと光ディスク11に記録されているtone mapping tableを適宜切り替えて用いるようにすることも可能である。
<9.管理サーバから取得したデータに基づいてHDRビデオの表示を実現する例>
図60は、記録・再生システムにおける他の処理の例を示す図である。
図60の例においては、STDビデオが記録された光ディスク11が再生装置2により再生される。また、STDビデオのHDRビデオへの変換が、管理サーバ152から取得されたSTD-HDR変換用のtone mapping定義情報を用いて行われる。すなわち、この例においては、STD-HDR変換用のtone mapping定義情報は光ディスク11には記録されず、光ディスク11に記録されたSTDビデオのデータと管理サーバ152から取得された情報を用いてHDRビデオの再生が行われる。
マスターのHDRビデオが入力された場合、記録装置1は、矢印#431の先に示すように、マスターのHDRビデオをSTDビデオに変換する。変換して得られたSTDビデオの映像は図示せぬモニタに表示される。
また、記録装置1は、矢印#432の先に示すように、マスターのHDRビデオを変換して得られたSTDビデオをHEVCで符号化する。
記録装置1は、HEVCで符号化することによって得られたHEVCストリームをBDフォーマットで光ディスク11に記録し、矢印#433に示すように再生装置2に提供する。HEVCストリームのSEIには、tone mapping定義情報やHDR情報などのHDRビデオに関する情報は記録されない。
一方、矢印#434の先に示すように、情報処理装置151に対してはマスターのHDRビデオが入力される。情報処理装置151に対しては、光ディスク11のディスクID、各表示装置のモニタIDと仕様情報などもオーサーにより入力される。
情報処理装置151は、HDRビデオをSTDビデオに変換し、各表示装置の仕様に応じたSTD-HDR変換用のtone mapping定義情報を生成する。また、情報処理装置151は、HDRビデオの輝度を検出し、HDR情報を生成する。情報処理装置151は、矢印#435の先に示すように、生成したtone mapping定義情報とHDR情報を、ディスクID、各表示装置のモニタID、仕様情報とともに管理サーバ152に出力し、データベースに登録する。
再生装置2は、光ディスク11の再生時、矢印#436に示すように、表示装置3と通信を行い、表示装置3のモニタIDと仕様情報を取得する。
また、再生装置2は、矢印#437に示すように管理サーバ152にアクセスし、光ディスク11のディスクIDと、表示装置3のモニタID、仕様情報を送信することによってtone mapping tableの送信を要求する。再生装置2は、要求に応じて管理サーバ152から送信されてきたtone mapping定義情報とHDR情報を取得する。管理サーバ152からは、データベースに登録されている情報のうち、例えば、再生装置2が送信したディスクIDおよびモニタIDと対応付けて登録されているtone mapping定義情報とHDR情報が送信されてくる。
再生装置2は、矢印#438の先に示すように、管理サーバ152から送信されてきたSTD-HDR変換用のtone mapping定義情報を用いて、符号化データを復号して得られたSTDビデオをHDRビデオに変換する。再生装置2は、矢印#439の先に示すように、変換を行うことによって得られたHDRビデオのデータに、管理サーバ152から送信されてきたHDR情報を付加し、矢印#440に示すように表示装置3に出力する。
これにより、HDRビデオに関する情報が光ディスク11に用意されていない場合であっても、光ディスク11に記録されているSTDビデオに基づいてHDRビデオを表示させることが可能となる。オーサー側としても、HDRビデオやHDRビデオに関する情報を光ディスク11に記録させておく必要がないため、HDRビデオを用いたコンテンツを容易に提供することができる。
表示装置3のモニタIDや仕様情報を用いずに、ディスクIDのみに基づいてSTD-HDR変換用のtone mapping定義情報とHDR情報が再生装置2に提供されるようにしてもよい。この場合、管理サーバ152においては、ディスクID、STD-HDR変換用のtone mapping定義情報、およびHDR情報を対応付けたデータベースが管理される。また、再生装置2から送信されてきたディスクIDに対応するSTD-HDR変換用のtone mapping定義情報とHDR情報が再生装置2に対して提供される。
ここで、図61のフローチャートを参照して、図60の記録・再生システムにおける再生装置2の復号処理について説明する。
図61の復号処理は、管理サーバ152から送信されてきたSTD-HDR変換用のtone mapping定義情報とHDR情報が受信された後、図49のステップS147,S152において行われる。tone mapping table取得部51A(図44)により取得されたSTD-HDR変換用のtone mapping定義情報は復号処理部56のSTD-HDR変換部74に出力され、HDR情報はHDRビデオ出力部75Aに出力される。
なお、図60に示す記録・再生システムの再生装置2においては、ステップS147,S152の復号処理を除いて、図49の処理と同様の処理が行われる。エラー情報がサーバから送信されてきた場合には、光ディスク11に記録されているSTDビデオの再生が行われる。
ステップS301において、復号処理部56のHEVCデコーダ72は、光ディスク11から読み出されたHEVCの符号化データを復号し、復号して得られたSTDビデオをSTD-HDR変換部74に出力する。
ステップS302において、STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、tone mapping tableとしてサーバから送信されてきたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。
ステップS303において、HDRビデオ出力部75Aは、変換して得られたHDRビデオを、サーバから送信されてきたHDR情報とともに出力する。
ステップS304において、コントローラ51は再生終了か否かを判定し、再生終了ではないと判定した場合、ステップS301に戻り、以上の処理を繰り返し実行させる。再生終了であるとステップS304において判定された場合、図49のステップS147,S152に戻り、それ以降の処理が行われる。
なお、情報処理装置151においては、図46を参照して説明した処理が行われる。また、管理サーバ152においては、図47、図48を参照して説明した処理が行われる。
<10.変形例>
以上においては、情報処理装置151と管理サーバ152が異なる装置として設けられるものとしたが、双方の機能が1つの装置上で実現されるようにしてもよい。記録装置1の機能と情報処理装置151の機能が1つの装置上で実現されるようにすることも可能である。
また、以上においては、ディスクIDとしてAACSのContent Certificate IDが用いられ、モニタIDとしてCEA-861で定義されたVender/Product IDが用いられるものとしたが、他の識別情報が用いられるようにしてもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図41のリムーバブルメディア171に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM162や記憶部168に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
〔構成の組み合わせ例〕
本技術は、以下のような構成をとることもできる。
(1)
第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第2の符号化データを記録した記録媒体から、前記第2の符号化データを読み出す読み出し部と、
前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得する第1の取得部と、
前記表示装置の識別情報に基づいて、前記拡張ビデオの輝度の調整に用いられる、前記表示装置の仕様に応じた輝度調整用データを取得する第2の取得部と、
前記第2の符号化データを復号する復号部と、
前記第2の符号化データを復号して得られた前記拡張ビデオの輝度を、前記輝度調整用データに基づいて調整する調整部と、
輝度調整後の前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する出力部と
を備える再生装置。
(2)
前記第2の取得部は、ネットワークを介して接続されるサーバから前記輝度調整用データを取得する
前記(1)に記載の再生装置。
(3)
前記記録媒体はブルーレイディスクであり、
前記サーバのURLは、前記記録媒体に記録されているPlayListファイルまたは他のファイルに記述される
前記(2)に記載の再生装置。
(4)
前記読み出し部は、前記記録媒体の識別情報を前記記録媒体から読み出し、
前記第2の取得部は、前記記録媒体の識別情報と前記表示装置の識別情報を前記サーバに送信し、前記サーバにおいて前記記録媒体の識別情報および前記表示装置の識別情報と対応付けて管理されている前記輝度調整用データを取得する
前記(2)または(3)に記載の再生装置。
(5)
前記読み出し部は、前記記録媒体の識別情報を前記記録媒体から読み出し、
前記第1の取得部は、前記表示装置の仕様を表す仕様情報を前記表示装置から取得し、 前記第2の取得部は、前記記録媒体の識別情報、前記表示装置の識別情報、および前記仕様情報を前記サーバに送信し、前記サーバにおいて前記記録媒体の識別情報と対応付けて管理されている前記輝度調整用データのうち、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度調整用データを取得する
前記(2)または(3)に記載の再生装置。
(6)
前記第2の符号化データは前記輝度特性情報を補助情報として含み、
前記第2の取得部は、前記サーバにおいて前記輝度特性情報が管理されている場合、前記輝度調整用データとともに前記輝度特性情報を取得し、
前記出力部は、前記第2の取得部により前記輝度特性情報が取得された場合、前記第2の取得部により取得された前記輝度特性情報を出力し、前記第2の取得部により前記輝度特性情報が取得されていない場合、前記第2の符号化データに含まれる前記輝度特性情報を出力する
前記(2)乃至(5)のいずれかに記載の再生装置。
(7)
前記第2の取得部は、前記記録媒体に記録されている複数の前記輝度調整用データのうち、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データを取得する
前記(1)に記載の再生装置。
(8)
前記第1の取得部は、前記表示装置の仕様を表す仕様情報を前記表示装置から取得し、 前記第2の取得部は、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データがない場合、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度調整用データを取得する
前記(7)に記載の再生装置。
(9)
第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第2の符号化データを記録した記録媒体から、前記第2の符号化データを読み出し、
前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得し、
前記表示装置の識別情報に基づいて、前記拡張ビデオの輝度の調整に用いられる、前記表示装置の仕様に応じた輝度調整用データを取得し、
前記第2の符号化データを復号し、
前記第2の符号化データを復号して得られた前記拡張ビデオの輝度を、前記輝度調整用データに基づいて調整し、
輝度調整後の前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する
ステップを含む再生方法。
(10)
第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第2の符号化データを記録した記録媒体であって、
前記記録媒体の再生装置においては、
前記第2の符号化データを読み出し、
前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得し、
前記表示装置の識別情報に基づいて、前記拡張ビデオの輝度の調整に用いられる、前記表示装置の仕様に応じた輝度調整用データを取得し、
前記第2の符号化データを復号し、
前記第2の符号化データを復号して得られた前記拡張ビデオの輝度を、前記輝度調整用データに基づいて調整し、
輝度調整後の前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する
処理が行われる
記録媒体。
(11)
第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第1の符号化データを記録した記録媒体から、前記第1の符号化データを読み出す読み出し部と、
前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得する第1の取得部と、
前記表示装置の識別情報に基づいて、前記標準ビデオを前記拡張ビデオに変換することに用いられる、前記表示装置の仕様に応じた輝度変換定義データを取得する第2の取得部と、
前記第1の符号化データを復号する復号部と、
前記第1の符号化データを復号して得られた前記標準ビデオを、前記輝度変換定義データに基づいて前記拡張ビデオに変換する変換部と、
輝度変換を行うことによって得られた前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する出力部と
を備える再生装置。
(12)
前記第2の取得部は、ネットワークを介して接続されるサーバから前記輝度変換定義データを取得する
前記(11)に記載の再生装置。
(13)
前記記録媒体はブルーレイディスクであり、
前記サーバのURLは、前記記録媒体に記録されているPlayListファイルまたは他のファイルに記述される
前記(12)に記載の再生装置。
(14)
前記読み出し部は、前記記録媒体の識別情報を前記記録媒体から読み出し、
前記第2の取得部は、前記記録媒体の識別情報と前記表示装置の識別情報を前記サーバに送信し、前記サーバにおいて前記記録媒体の識別情報および前記表示装置の識別情報と対応付けて管理されている前記輝度変換定義データを取得する
前記(12)または(13)に記載の再生装置。
(15)
前記読み出し部は、前記記録媒体の識別情報を前記記録媒体から読み出し、
前記第1の取得部は、前記表示装置の仕様を表す仕様情報を前記表示装置から取得し、 前記第2の取得部は、前記記録媒体の識別情報、前記表示装置の識別情報、および前記仕様情報を前記サーバに送信し、前記サーバにおいて前記記録媒体の識別情報と対応付けて管理されている前記輝度変換定義データのうち、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度変換定義データを取得する
前記(12)または(13)に記載の再生装置。
(16)
前記第1の符号化データは前記輝度特性情報を補助情報として含み、
前記第2の取得部は、前記サーバにおいて前記輝度特性情報が管理されている場合、前記輝度変換定義データとともに前記輝度特性情報を取得し、
前記出力部は、前記第2の取得部により前記輝度特性情報が取得された場合、前記第2の取得部により取得された前記輝度特性情報を出力し、前記第2の取得部により前記輝度特性情報が取得されていない場合、前記第1の符号化データに含まれる前記輝度特性情報を出力する
前記(12)乃至(15)のいずれかに記載の再生装置。
(17)
前記第2の取得部は、前記記録媒体に記録されている複数の前記輝度変換定義データのうち、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データを取得する
前記(11)に記載の再生装置。
(18)
前記第1の取得部は、前記表示装置の仕様を表す仕様情報を前記表示装置から取得し、 前記第2の取得部は、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データがない場合、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度変換定義データを取得する
前記(17)に記載の再生装置。
(19)
第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第1の符号化データを記録した記録媒体から、前記第1の符号化データを読み出し、
前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得し、
前記表示装置の識別情報に基づいて、前記標準ビデオを前記拡張ビデオに変換することに用いられる、前記表示装置の仕様に応じた輝度変換定義データを取得し、
前記第1の符号化データを復号し、
前記第1の符号化データを復号して得られた前記標準ビデオを、前記輝度変換定義データに基づいて前記拡張ビデオに変換し、
輝度変換を行うことによって得られた前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する
ステップを含む再生方法。
(20)
第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第1の符号化データを記録した記録媒体であって、
前記記録媒体の再生装置においては、
前記第1の符号化データを読み出し、
前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得し、
前記表示装置の識別情報に基づいて、前記標準ビデオを前記拡張ビデオに変換することに用いられる、前記表示装置の仕様に応じた輝度変換定義データを取得し、
前記第1の符号化データを復号し、
前記第1の符号化データを復号して得られた前記標準ビデオを、前記輝度変換定義データに基づいて前記拡張ビデオに変換し、
輝度変換を行うことによって得られた前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する
処理が行われる
記録媒体。
1 記録装置, 2 再生装置, 3 表示装置, 11 光ディスク, 21 コントローラ, 21A Data Base情報生成部, 21B tone mapping table取得部, 22 符号化処理部, 23 ディスクドライブ, 31 HDR情報生成部, 32 HEVCエンコーダ, 33 HDR-STD変換部, 34 定義情報生成部, 35 HEVCストリーム生成部, 51 コントローラ, 51A tone mapping table取得部, 52 ディスクドライブ, 53 メモリ, 56 復号処理部, 58 HDMI通信部, 71 パラメータ抽出部, 72 HEVCデコーダ, 73 HDR-STD変換部, 74 STD-HDR変換部, 75 出力部

Claims (6)

  1. 第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第2の符号化データを記録した記録媒体から、前記第2の符号化データを読み出す読み出し部と、
    前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得する第1の取得部と、
    前記拡張ビデオの輝度の調整に用いられる、前記表示装置の仕様に応じた輝度調整用データとして、前記記録媒体に記録されている複数の前記輝度調整用データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データを取得する第2の取得部と、
    前記第2の符号化データを復号する復号部と、
    前記第2の符号化データを復号して得られた前記拡張ビデオの輝度を、前記輝度調整用データに基づいて調整する調整部と、
    輝度調整後の前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する出力部と
    を備える再生装置。
  2. 前記第1の取得部は、前記表示装置の仕様を表す仕様情報を前記表示装置から取得し、
    前記第2の取得部は、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データがない場合、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度調整用データを取得する
    請求項に記載の再生装置。
  3. 第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第2の符号化データを記録した記録媒体から、前記第2の符号化データを読み出し、
    前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得し、
    前記拡張ビデオの輝度の調整に用いられる、前記表示装置の仕様に応じた輝度調整用データとして、前記記録媒体に記録されている複数の前記輝度調整用データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度調整用データを取得し、
    前記第2の符号化データを復号し、
    前記第2の符号化データを復号して得られた前記拡張ビデオの輝度を、前記輝度調整用データに基づいて調整し、
    輝度調整後の前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する
    ステップを含む再生方法。
  4. 第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第1の符号化データを記録した記録媒体から、前記第1の符号化データを読み出す読み出し部と、
    前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得する第1の取得部と、
    前記標準ビデオを前記拡張ビデオに変換することに用いられる、前記表示装置の仕様に応じた輝度変換定義データとして、前記記録媒体に記録されている複数の前記輝度変換定義データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データを取得する第2の取得部と、
    前記第1の符号化データを復号する復号部と、
    前記第1の符号化データを復号して得られた前記標準ビデオを、前記輝度変換定義データに基づいて前記拡張ビデオに変換する変換部と、
    輝度変換を行うことによって得られた前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する出力部と
    を備える再生装置。
  5. 前記第1の取得部は、前記表示装置の仕様を表す仕様情報を前記表示装置から取得し、
    前記第2の取得部は、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データがない場合、前記仕様情報により表される前記表示装置の仕様に応じた前記輝度変換定義データを取得する
    請求項に記載の再生装置。
  6. 第1の輝度範囲のビデオである標準ビデオの第1の符号化データと前記第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの第2の符号化データのうちの前記第1の符号化データを記録した記録媒体から、前記第1の符号化データを読み出し、
    前記拡張ビデオを表示可能な表示装置と通信を行い、前記表示装置の識別情報を取得し、
    前記標準ビデオを前記拡張ビデオに変換することに用いられる、前記表示装置の仕様に応じた輝度変換定義データとして、前記記録媒体に記録されている複数の前記輝度変換定義データのうちの、前記表示装置の識別情報と対応付けて記録されている前記輝度変換定義データを取得し、
    前記第1の符号化データを復号し、
    前記第1の符号化データを復号して得られた前記標準ビデオを、前記輝度変換定義データに基づいて前記拡張ビデオに変換し、
    輝度変換を行うことによって得られた前記拡張ビデオのデータを、前記拡張ビデオの輝度の特性を表す輝度特性情報とともに前記表示装置に出力する
    ステップを含む再生方法。
JP2018246876A 2013-09-27 2018-12-28 再生装置、再生方法 Active JP6617940B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013202437 2013-09-27
JP2013202437 2013-09-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015539112A Division JP6459969B2 (ja) 2013-09-27 2014-09-12 再生装置、再生方法

Publications (2)

Publication Number Publication Date
JP2019071161A JP2019071161A (ja) 2019-05-09
JP6617940B2 true JP6617940B2 (ja) 2019-12-11

Family

ID=52743058

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015539112A Active JP6459969B2 (ja) 2013-09-27 2014-09-12 再生装置、再生方法
JP2018246876A Active JP6617940B2 (ja) 2013-09-27 2018-12-28 再生装置、再生方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015539112A Active JP6459969B2 (ja) 2013-09-27 2014-09-12 再生装置、再生方法

Country Status (9)

Country Link
US (1) US20160232937A1 (ja)
EP (1) EP3051535B1 (ja)
JP (2) JP6459969B2 (ja)
KR (1) KR102285049B1 (ja)
CN (1) CN105556606B (ja)
CA (1) CA2924784C (ja)
MX (1) MX356133B (ja)
TW (1) TWI657438B (ja)
WO (1) WO2015045916A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015008361A (ja) * 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
EP3051535B1 (en) * 2013-09-27 2020-12-30 Sony Corporation Reproduction device, reproduction method, and recording medium
JP2016100039A (ja) * 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
CN107113457B (zh) * 2014-12-29 2020-12-04 索尼公司 发送装置、发送方法、接收装置和接收方法
JP6702300B2 (ja) 2015-03-05 2020-06-03 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6425813B2 (ja) * 2015-06-25 2018-11-21 三菱電機株式会社 映像再生装置および映像再生方法
US10200690B2 (en) * 2015-09-22 2019-02-05 Qualcomm Incorporated Video decoder conformance for high dynamic range (HDR) video coding using a core video standard
US20170353704A1 (en) * 2016-06-01 2017-12-07 Apple Inc. Environment-Aware Supervised HDR Tone Mapping
JP2018006877A (ja) * 2016-06-28 2018-01-11 シャープ株式会社 映像伝送装置、表示装置、映像表示システム、映像配信装置、映像配信システム、映像送受信システム、プログラム、記録媒体、および映像伝送方法
CN109691117B (zh) 2017-07-07 2022-05-27 松下知识产权经营株式会社 影像处理系统及影像处理方法
KR102445544B1 (ko) * 2018-04-02 2022-09-21 삼성전자 주식회사 전자장치, 그 제어방법 및 기록매체

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
JP2006260611A (ja) * 2005-03-15 2006-09-28 Toshiba Corp 情報記憶媒体、情報再生装置、情報再生方法、及びネットワーク通信システム
TWI466093B (zh) * 2007-06-26 2014-12-21 Apple Inc 用於視訊播放的管理技術
JP5072489B2 (ja) 2007-08-30 2012-11-14 株式会社ジャパンディスプレイウェスト 表示装置およびその駆動方法、電子機器
JP5242111B2 (ja) 2007-10-02 2013-07-24 株式会社ソニー・コンピュータエンタテインメント 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法
WO2010021705A1 (en) * 2008-08-22 2010-02-25 Thomson Licensing Method and system for content delivery
JP2012526451A (ja) * 2009-05-06 2012-10-25 トムソン ライセンシング 提示装置の能力に応じて最適化されたマルチメディアコンテンツを配信する方法及びシステム
JP5343785B2 (ja) * 2009-09-17 2013-11-13 ソニー株式会社 画像信号処理装置、送信装置、画像信号処理方法、プログラム、および画像信号処理システム
PL2543181T3 (pl) * 2010-03-03 2016-03-31 Koninklijke Philips Nv Urządzenia i sposoby definiowania systemu kolorów
US9021880B2 (en) * 2010-04-30 2015-05-05 Qualcomm Mems Technologies, Inc. Micromachined piezoelectric three-axis gyroscope and stacked lateral overlap transducer (slot) based three-axis accelerometer
CN103119936B (zh) * 2010-09-16 2017-06-13 皇家飞利浦电子股份有限公司 用于图像的改进的编码的设备和方法
US8736674B2 (en) * 2010-09-23 2014-05-27 Dolby Laboratories Licensing Corporation Method and system for 3D display calibration with feedback determined by a camera device
US20120124126A1 (en) * 2010-11-17 2012-05-17 Microsoft Corporation Contextual and task focused computing
CN103098108B (zh) * 2010-11-25 2017-09-08 松下电器(美国)知识产权公司 通信设备
WO2012147018A2 (en) * 2011-04-28 2012-11-01 Koninklijke Philips Electronics N.V. Apparatuses and methods for hdr image encoding and decoding
MX2013012976A (es) * 2011-05-10 2013-12-06 Koninkl Philips Nv Generacion y procesamiento de señal de imagen de intervalo dinamico alto.
WO2012164688A1 (ja) * 2011-05-31 2012-12-06 Necディスプレイソリューションズ株式会社 表示装置、表示方法
UA116082C2 (uk) * 2011-09-27 2018-02-12 Конінклійке Філіпс Н.В. Пристрій та спосіб для перетворення динамічного діапазону зображень
JP5221745B2 (ja) * 2011-11-30 2013-06-26 株式会社東芝 画像処理装置、制御プログラム、及び画像処理装置の制御方法
US20130278834A1 (en) * 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Display power reduction using extended nal unit header information
US20140253601A1 (en) * 2013-03-11 2014-09-11 Samsung Electronics Co., Ltd. Display power reduction using sei information
CA2914978C (en) * 2013-06-20 2022-05-03 Sony Corporation Reproduction device, reproduction method, and recording medium
JP2015005878A (ja) * 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
EP3021573B1 (en) * 2013-07-12 2019-09-04 Sony Corporation Player device, play method, and recording medium
US20150035993A1 (en) * 2013-08-05 2015-02-05 Sonic Ip, Inc. Systems, methods, and media for calibrating a display device
EP3051535B1 (en) * 2013-09-27 2020-12-30 Sony Corporation Reproduction device, reproduction method, and recording medium

Also Published As

Publication number Publication date
EP3051535A1 (en) 2016-08-03
US20160232937A1 (en) 2016-08-11
WO2015045916A1 (ja) 2015-04-02
EP3051535A4 (en) 2017-05-03
EP3051535B1 (en) 2020-12-30
JPWO2015045916A1 (ja) 2017-03-09
MX356133B (es) 2018-05-14
TW201528256A (zh) 2015-07-16
MX2016003558A (es) 2016-07-21
CN105556606B (zh) 2020-01-17
JP2019071161A (ja) 2019-05-09
JP6459969B2 (ja) 2019-01-30
CN105556606A (zh) 2016-05-04
CA2924784A1 (en) 2015-04-02
CA2924784C (en) 2022-08-30
KR20160064091A (ko) 2016-06-07
KR102285049B1 (ko) 2021-08-04
TWI657438B (zh) 2019-04-21

Similar Documents

Publication Publication Date Title
JP6617940B2 (ja) 再生装置、再生方法
JP7458736B2 (ja) 表示装置
JP6628117B2 (ja) 再生装置、再生方法
WO2014203747A1 (ja) 再生装置、再生方法、および記録媒体
WO2014208346A1 (ja) 再生装置、再生方法、および記録媒体
JP6241683B2 (ja) 再生装置、再生方法、および記録媒体
WO2014208345A1 (ja) 再生装置、再生方法、および記録媒体
JP6149777B2 (ja) 再生装置、再生方法、プログラム、および記録媒体
JP2017143546A (ja) 再生装置、記録媒体、表示装置、および情報処理方法
WO2014208347A1 (ja) 再生装置、再生方法、および記録媒体
JP6583501B2 (ja) 再生装置、表示装置、情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191030

R151 Written notification of patent or utility model registration

Ref document number: 6617940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151