JP6598966B2 - 表示装置、表示制御方法 - Google Patents

表示装置、表示制御方法 Download PDF

Info

Publication number
JP6598966B2
JP6598966B2 JP2018216198A JP2018216198A JP6598966B2 JP 6598966 B2 JP6598966 B2 JP 6598966B2 JP 2018216198 A JP2018216198 A JP 2018216198A JP 2018216198 A JP2018216198 A JP 2018216198A JP 6598966 B2 JP6598966 B2 JP 6598966B2
Authority
JP
Japan
Prior art keywords
hdr
video
information
luminance
hdr video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018216198A
Other languages
English (en)
Other versions
JP2019071613A (ja
Inventor
和夫 山本
俊也 浜田
邦明 高橋
しのぶ 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saturn Licensing LLC
Original Assignee
Saturn Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saturn Licensing LLC filed Critical Saturn Licensing LLC
Publication of JP2019071613A publication Critical patent/JP2019071613A/ja
Priority to JP2019181459A priority Critical patent/JP7458736B2/ja
Application granted granted Critical
Publication of JP6598966B2 publication Critical patent/JP6598966B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • G09G2320/0276Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping for the purpose of adaptation to the characteristics of a display device, i.e. gamma correction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Receiver Circuits (AREA)

Description

本技術は、表示装置、表示制御方法に関し、特に、輝度のダイナミックレンジが広いコンテンツを適切な明るさで表示させることができるようにした表示装置、表示制御方法に関する。
映画などのコンテンツの記録メディアとしてBlu-ray(登録商標) Disc(以下、適宜、BDという)がある。従来、BDに収録するビデオのオーサリングは、標準の輝度(100nit=100cd/m2)のモニタで視聴することを前提に、マスターのビデオのダイナミックレンジを圧縮して行われている。
マスターとなるビデオは、高品質なカメラで撮影されたものであり、標準の輝度のモニタで表示可能なダイナミックレンジ以上のダイナミックレンジを有している。圧縮されることにより、マスターのビデオのダイナミックレンジは当然損なわれることになる。
特開2009−58692号公報 特開2009−89209号公報
有機EL(Electroluminescence)ディスプレイやLCD(Liquid Crystal Display)等のディスプレイ技術の進歩により、500nitや1000nitといったような、標準よりも明るいモニタが市販されている。このような広いダイナミックレンジを有するモニタの性能を活かすようなコンテンツに対する要求がある。
本技術はこのような状況に鑑みてなされたものであり、輝度のダイナミックレンジが広いコンテンツを適切な明るさで表示させることができるようにするものである。
本技術の一側面の表示装置は、HDRビデオの表示に対応した表示部と、前記表示部の輝度の性能情報に基づいて再生装置により再生され、前記再生装置から出力されたHDRビデオと、輝度の特性を示す輝度特性情報とを受信する通信部と、前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有している場合、前記再生装置から出力されたHDRビデオの輝度を圧縮しないで前記表示部に映像を表示させ、前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有していない場合、前記再生装置から出力されたHDRビデオの輝度を前記輝度特性情報に基づいて圧縮した後、前記表示部に映像を表示させる制御部とを備える。
本技術の一側面においては、前記表示部の輝度の性能情報に基づいて再生装置により再生され、前記再生装置から出力されたHDRビデオと、輝度の特性を示す輝度特性情報とが受信され、前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有している場合、前記再生装置から出力されたHDRビデオの輝度を圧縮しないで前記表示部に映像を表示させ、前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有していない場合、前記再生装置から出力されたHDRビデオの輝度を前記輝度特性情報に基づいて圧縮した後、前記表示部に映像を表示させる処理が行われる。
本技術によれば、輝度のダイナミックレンジが広いコンテンツを適切な明るさで表示させることができる。
本技術の一実施形態に係る記録・再生システムの構成例を示す図である。 mode-iにおける信号処理の例を示す図である。 mode-iにおいて処理される信号の流れを示す図である。 mode-iiにおける信号処理の例を示す図である。 mode-iiにおいて処理される信号の流れを示す図である。 HEVCのアクセスユニットの構成を示す図である。 Tone mapping informationのシンタクスを示す図である。 tone mapping定義情報とHDR情報として用いられる情報の例を示す図である。 tone_map_model_id=0のTone mapping informationにより示されるトーンカーブの例を示す図である。 tone_map_model_id=2のTone mapping informationにより示される階段関数の例を示す図である。 tone_map_model_id=3のTone mapping informationにより示される折れ線関数の例を示す図である。 HDR情報に含まれる各情報の例を示す図である。 BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。 Main PathとSub Pathの構造を示す図である。 ファイルの管理構造の例を示す図である。 PlayListファイルのシンタクスを示す図である。 Clip Informationファイルのシンタクスを示す図である。 図17のProgramInfo()のシンタクスを示す図である。 図18のStreamCodingInfoのシンタクスを示す図である。 記録装置の構成例を示すブロック図である。 図20の符号化処理部の構成例を示すブロック図である。 HDR-STD変換部による信号処理の例を示す図である。 tone mappingの例を示す図である。 再生装置の構成例を示すブロック図である。 図24の復号処理部の構成例を示すブロック図である。 表示装置の構成例を示すブロック図である。 記録装置の記録処理について説明するフローチャートである。 図27のステップS2において行われるmode-iでの符号化処理について説明するフローチャートである。 図27のステップS3において行われるmode-iiでの符号化処理について説明するフローチャートである。 図27のステップS4において行われるData Base情報生成処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 図31のステップS44において行われるmode-iでの復号処理について説明するフローチャートである。 図31のステップS45において行われるmode-iiでの復号処理について説明するフローチャートである。 表示装置の表示処理について説明するフローチャートである。 図16のPlayListファイルに含まれるAppInfoPlayList()のシンタクスの例を示す図である。 図16のPlayListファイルに含まれるPlayList()のシンタクスを示す図である。 図36のPlayItem()のシンタクスを示す図である。 図37のSTN_table()のシンタクスを示す図である。 図38のstream_attributes()のシンタクスを示す図である。 PSRの割り当ての例を示す図である。 HDRビデオの輝度の調整が再生装置側で行われる場合のmode-iにおける信号処理の例を示す図である。 HDRビデオの輝度の調整が再生装置側で行われる場合のmode-iiにおける信号処理の例を示す図である。 図25のHDRビデオ出力部の構成例を示すブロック図である。 図31のステップS44において行われるmode-iでの復号処理について説明するフローチャートである。 図31のステップS45において行われるmode-iiでの復号処理について説明するフローチャートである。 表示装置の表示処理について説明するフローチャートである。 HDMI経由で送受信される情報に基づく認識の例を示す図である。 HDMI経由で送受信される情報に基づく認識の他の例を示す図である。 HDR EDIDの例を示す図である。 HDR InfoFrameの例を示す図である。 表示装置のHDR EDID設定処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 図52のステップS227において行われるHDR・raw出力処理について説明するフローチャートである。 図52のステップS228において行われるHDR・cooked出力処理について説明するフローチャートである。 図52のステップS229において行われるSTD出力処理について説明するフローチャートである。 表示装置の表示処理について説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.記録・再生システムについて
2.HEVCについて
3.BDフォーマットについて
4.各装置の構成について
5.各装置の動作について
6.変形例
7.再生装置側で輝度を調整する場合の例
8.HDMIに適用した例
9.他の変形例
<1.記録・再生システムについて>
図1は、本技術の一実施形態に係る記録・再生システムの構成例を示す図である。
図1の記録・再生システムは、記録装置1、再生装置2、および表示装置3から構成される。再生装置2と表示装置3はHDMI(登録商標)(High Definition Multimedia Interface)ケーブル4を介して接続される。再生装置2と表示装置3が他の規格のケーブルを介して接続されるようにしてもよいし、無線による通信を介して接続されるようにしてもよい。
記録装置1はコンテンツを記録し、再生装置2はコンテンツを再生する。記録装置1から再生装置2に対するコンテンツの提供は光ディスク11を用いて行われる。光ディスク11は、例えばBD-ROM(Blu-ray(登録商標) Disc Read-Only)フォーマットでコンテンツが記録されたディスクである。
光ディスク11に対するコンテンツの記録がBD-R,-REなどの他のフォーマットで行われるようにしてもよい。また、記録装置1から再生装置2に対するコンテンツの提供が、フラッシュメモリを搭載したメモリカードなどの、光ディスク以外のリムーバブルメディアを用いて行われるようにしてもよい。
光ディスク11がBD-ROMのディスクである場合、記録装置1は例えばコンテンツのオーサーが使う装置となる。以下、適宜、記録装置1によってコンテンツが記録された光ディスク11が再生装置2に提供されるものとして説明するが、実際には、記録装置1によりコンテンツが記録されたマスター盤に基づいて光ディスクが複製され、その一つである光ディスク11が再生装置2に提供される。
記録装置1に対しては、標準の輝度のモニタで表示可能なダイナミックレンジ(輝度範囲)以上のダイナミックレンジを有するビデオであるHDR(High Dynamic Range)ビデオが入力される。標準の輝度は例えば100cd/m2(=100nit)である。
記録装置1は、入力されたマスターのHDRビデオをHDRビデオのまま、すなわち標準の輝度を有するモニタで表示可能なダイナミックレンジ以上のダイナミックレンジを有するビデオのまま、光ディスク11に記録する。この場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、HDRビデオをSTDビデオに変換するときに用いられる情報も記録される。
STDビデオ(standardビデオ)は、標準の輝度を有するモニタで表示可能なダイナミックレンジのビデオである。STDビデオのダイナミックレンジを0-100%とすると、HDRビデオのダイナミックレンジは0-500%、0-1000%といったような、0%から101%以上の範囲として表される。
また、記録装置1は、入力されたマスターのHDRビデオをSTDビデオに変換して、すなわち標準の輝度を有するモニタで表示可能なダイナミックレンジを有するビデオに変換して、光ディスク11に記録する。この場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、STDビデオをHDRビデオに変換するときに用いられる情報も記録される。
記録装置1が記録するHDRビデオ、またはHDRビデオを変換して得られたSTDビデオは、例えば、横×縦の解像度が4096×2160、3840×2160画素などのいわゆる4K解像度のビデオである。記録装置1によるビデオデータの符号化には例えばHEVC(High Efficiency Video Coding)が用いられる。
マスターのHDRビデオの輝度の特性を示す情報と、HDRビデオをSTDビデオに、またはSTDビデオをHDRビデオに変換するときに用いられる情報は、SEI(Supplemental Enhancement Information)としてHEVCの符号化データに挿入される。HEVCの符号化データにSEIを挿入したHEVCストリームが、BDフォーマットで光ディスク11に記録される。
再生装置2は、HDMIケーブル4を介して表示装置3と通信を行い、表示装置3の表示性能に関する情報を取得する。再生装置2は、表示装置3がHDRビデオの表示が可能なモニタであるHDRモニタを有する装置であるのか、STDビデオの表示しかできないモニタであるSTDモニタを有する装置であるのかを特定する。
また、再生装置2は、ドライブを駆動し、光ディスク11に記録されたHEVCストリームを読み出して復号する。
例えば、再生装置2は、復号して得られたビデオデータがHDRビデオのデータであり、表示装置3がHDRモニタを有する場合、HEVCストリームを復号して得られたHDRビデオのデータを表示装置3に出力する。この場合、再生装置2は、HDRビデオのデータとともに、マスターのHDRビデオの輝度の特性を示す情報を表示装置3に出力する。
一方、再生装置2は、復号して得られたビデオデータがHDRビデオのデータであり、表示装置3がSTDモニタを有する場合、HEVCストリームを復号して得られたHDRビデオをSTDビデオに変換し、STDビデオのデータを出力する。HDRビデオのSTDビデオへの変換は、光ディスク11に記録されている、HDRビデオをSTDビデオに変換するときに用いられる情報を用いて行われる。
再生装置2は、復号して得られたビデオデータがSTDビデオのデータであり、表示装置3がHDRモニタを有する場合、HEVCストリームを復号して得られたSTDビデオをHDRビデオに変換し、HDRビデオのデータを表示装置3に出力する。STDビデオのHDRビデオへの変換は、光ディスク11に記録されている、STDビデオをHDRビデオに変換するときに用いられる情報を用いて行われる。この場合、再生装置2は、HDRビデオとともに、マスターのHDRビデオの輝度の特性を示す情報を表示装置3に出力する。
一方、再生装置2は、復号して得られたビデオデータがSTDビデオのデータであり、表示装置3がSTDモニタを有する場合、HEVCストリームを復号して得られたSTDビデオのデータを表示装置3に出力する。
表示装置3は、再生装置2から送信されたビデオデータを受信し、コンテンツの映像をモニタに表示する。再生装置2からはコンテンツのオーディオデータも送信されてくる。表示装置3は、再生装置2から送信されてきたオーディオデータに基づいて、コンテンツの音声をスピーカから出力させる。
例えば、表示装置3は、マスターのHDRビデオの輝度の特性を示す情報がビデオデータとともに送信されてきた場合、再生装置2から送信されてきたビデオデータがHDRビデオのデータであるとして認識する。上述したように、HDRモニタを有する表示装置3に対しては、HDRビデオのデータとともに、マスターのHDRビデオの輝度の特性を示す情報が送信されてくる。
この場合、表示装置3は、HDRビデオの映像を、マスターのHDRビデオの輝度の特性を示す情報により指定される特性に従って表示する。すなわち、表示装置3は、自身が有するモニタが0-500%のダイナミックレンジを有するモニタであり、マスターのHDRビデオの輝度の特性を示す情報により、HDRビデオのダイナミックレンジが0-500%の所定の特性であると指定された場合、その所定の特性に従って、0-500%の範囲で輝度を調整して映像を表示する。
マスターのHDRビデオの輝度の特性を指定することができるようにすることにより、コンテンツのオーサー(Author)は、意図したとおりの輝度で映像を表示させることが可能になる。
通常、TVなどの表示装置は、外部から入力されたビデオを0-100%のダイナミックレンジを有するビデオとして認識する。また、表示装置は、自身のモニタがそれより広いダイナミックレンジを有する場合には、モニタの特性に応じて輝度を自ら拡張して映像を表示させてしまう。輝度の特性を指定し、指定した特性に従ってHDRビデオの輝度を調整させることにより、オーサーの意図しない輝度調整が表示装置側で行われるのを防ぐことが可能になる。
また、通常、TVなどの表示装置にビデオを出力する再生装置は、伝送路の特性に応じて輝度を変換してからビデオを出力する。そのビデオを受信した表示装置は、受信したビデオの輝度をモニタの特性に応じて変換し、映像を表示させることになる。再生装置2において輝度の変換を行わずに、再生装置2からHDRビデオのまま表示装置3に出力させることにより、輝度変換の回数を減らすことができ、マスターにより近い輝度の映像を表示装置3に表示させることが可能になる。
一方、表示装置3は、再生装置2から送信されたビデオデータがSTDビデオのデータである場合、STDビデオの映像を表示する。再生装置2からSTDビデオが送信されてくるということは、表示装置3はSTDモニタを有する装置である。
以下、適宜、マスターのHDRビデオをHDRビデオのまま光ディスク11に記録するモードをmode-iという。mode-iの場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、HDRビデオをSTDビデオに変換するときに用いられる情報が記録される。
また、マスターのHDRビデオをSTDビデオに変換して光ディスク11に記録するモードをmode-iiという。mode-iiの場合、光ディスク11には、マスターのHDRビデオの輝度の特性を示す情報と、STDビデオをHDRビデオに変換するときに用いられる情報が記録される。
[mode-iにおける信号処理]
図2は、mode-iにおける信号処理の例を示す図である。
実線L1で囲んで示す左側の処理が記録装置1において行われる符号化処理を示し、実線L2で囲んで示す右側の処理が再生装置2において行われる復号処理を示す。
マスターのHDRビデオが入力された場合、記録装置1は、マスターのHDRビデオの輝度を検出し、矢印#1の先に示すように、マスターのHDRビデオの輝度の特性を示す情報であるHDR情報を生成する。また、記録装置1は、矢印#2の先に示すように、マスターのHDRビデオをHEVCで符号化する。
記録装置1は、矢印#3の先に示すように、マスターのHDRビデオをSTDビデオに変換する。変換して得られたSTDビデオの映像は図示せぬモニタに表示される。HDRビデオのSTDビデオへの変換は、適宜、変換後のSTDビデオの映像をオーサーが目で確認し、変換パラメータを調整しながら行われる。
オーサーによる調整に基づいて、記録装置1は、矢印#4の先に示すように、HDRビデオをSTDビデオに変換するときに用いられる情報であるHDR-STD変換用のtone mapping定義情報を生成する。
tone mapping定義情報は、標準のダイナミックレンジより広い0-400%などのダイナミックレンジの明るさを示す各画素値と、標準のダイナミックレンジである0-100%のダイナミックレンジの明るさを示す各画素値の対応関係を定義する情報である。
記録装置1は、矢印#5の先に示すように、HDR情報とtone mapping定義情報をSEIとしてHEVCの符号化データに挿入し、HEVCストリームを生成する。記録装置1は、生成したHEVCストリームをBDフォーマットで光ディスク11に記録し、矢印#11に示すように再生装置2に提供する。
このように、マスターのHDRビデオの輝度の特性を示す情報とHDRビデオをSTDビデオに変換するときに用いられる情報は、HEVCのSEIを用いて、ストリーム中に挿入する形で再生装置2に提供される。
再生装置2は、光ディスク11からHEVCストリームを読み出し、矢印#21,#22の先に示すように、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#23の先に示すように、HEVCの符号化データを復号する。再生装置2は、表示装置3がHDRモニタを有する場合、矢印#24の先に示すように、符号化データを復号して得られたHDRビデオのデータにHDR情報を付加し、矢印#25の先に示すように表示装置3に出力する。
一方、再生装置2は、表示装置3がSTDモニタを有する場合、矢印#26の先に示すように、HEVCストリームから抽出されたHDR-STD変換用のtone mapping定義情報を用いて、符号化データを復号して得られたHDRビデオをSTDビデオに変換する。再生装置2は、矢印#27の先に示すように、変換して得られたSTDビデオのデータを表示装置3に出力する。
このように、HEVCの符号化データを復号して得られたHDRビデオのデータは、HDR情報とともに、HDRモニタを有する表示装置3に出力される。また、HEVCの符号化データを復号して得られたHDRビデオのデータは、STDビデオに変換された後、STDモニタを有する表示装置3に出力される。
図3は、マスターのHDRビデオが記録装置1に入力されてから、再生装置2からビデオデータが出力されるまでの処理の流れを示す図である。
マスターのHDRビデオは、白抜き矢印#51の先に示すように、マスターのHDRビデオに基づいて記録装置1において生成されたHDR情報とHDR-STD変換用のtone mapping定義情報とともに再生装置2に提供される。HDR情報には例えばダイナミックレンジが0-400%の範囲に拡張されていることを表す情報が含まれる。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#52,#53の先に示すように、HEVCの符号化データを復号して得られたHDRビデオのデータにHDR情報が付加される。また、HDR情報が付加されたHDRビデオのデータが矢印#54の先に示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#55,#56の先に示すように、HEVCの符号化データを復号して得られたHDRビデオがHDR-STD変換用のtone mapping定義情報を用いてSTDビデオに変換される。また、変換して得られたSTDビデオのデータが矢印#57の先に示すように表示装置3に出力される。図3において、HDRビデオを示す波形の振幅とSTDビデオを示す波形の振幅はそれぞれダイナミックレンジを示す。
このように、mode-iにおいては、マスターのHDRビデオがHDRビデオのまま光ディスク11に記録される。また、出力先となる表示装置3の性能に応じて、符号化データを復号して得られたHDRビデオをそのままHDR情報を付加して出力するのか、HDRビデオをSTDビデオに変換して出力するのかが切り替えられる。
[mode-iiにおける信号処理]
図4は、mode-iiにおける信号処理の例を示す図である。
マスターのHDRビデオが入力された場合、記録装置1は、マスターのHDRビデオの輝度を検出し、矢印#71の先に示すようにHDR情報を生成する。
記録装置1は、矢印#72の先に示すように、マスターのHDRビデオをSTDビデオに変換する。変換して得られたSTDビデオの映像は図示せぬモニタに表示される。
オーサーによる調整に基づいて、記録装置1は、矢印#73の先に示すように、STDビデオをHDRビデオに変換するときに用いられる情報であるSTD-HDR変換用のtone mapping定義情報を生成する。
また、記録装置1は、矢印#74の先に示すように、マスターのHDRビデオを変換して得られたSTDビデオをHEVCで符号化する。
記録装置1は、矢印#75の先に示すように、HDR情報とtone mapping定義情報をSEIとしてHEVCの符号化データに挿入し、HEVCストリームを生成する。記録装置1は、生成したHEVCストリームをBDフォーマットで光ディスク11に記録し、矢印#91に示すように再生装置2に提供する。
再生装置2は、光ディスク11からHEVCストリームを読み出し、矢印#101,#102の先に示すように、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#103の先に示すように、HEVCの符号化データを復号する。再生装置2は、表示装置3がSTDモニタを有する場合、矢印#104の先に示すように、符号化データを復号して得られたSTDビデオのデータを表示装置3に出力する。
一方、再生装置2は、表示装置3がHDRモニタを有する場合、矢印#105の先に示すように、HEVCストリームから抽出されたSTD-HDR変換用のtone mapping定義情報を用いて、符号化データを復号して得られたSTDビデオをHDRビデオに変換する。再生装置2は、矢印#106の先に示すように、変換して得られたHDRビデオのデータにHDR情報を付加し、矢印#107の先に示すように表示装置3に出力する。
このように、HEVCの符号化データを復号して得られたSTDビデオのデータは、HDRビデオに変換された後、HDR情報とともに、HDRモニタを有する表示装置3に出力される。また、HEVCの符号化データを復号して得られたSTDビデオのデータは、STDモニタを有する表示装置3にそのまま出力される。
図5は、マスターのHDRビデオが記録装置1に入力されてから、再生装置2からビデオデータが出力されるまでの処理の流れを示す図である。
マスターのHDRビデオは、白抜き矢印#121の先に示すように、STDビデオに変換された後、マスターのHDRビデオに基づいて記録装置1において生成されたHDR情報とSTD-HDR変換用のtone mapping定義情報とともに再生装置2に提供される。
表示装置3がHDRモニタを有する場合、再生装置2においては、矢印#122,#123の先に示すように、HEVCの符号化データを復号して得られたSTDビデオがSTD-HDR変換用のtone mapping定義情報を用いてHDRビデオに変換される。また、矢印#124,#125の先に示すように、STDビデオを変換して得られたHDRビデオのデータにHDR情報が付加され、矢印#126の先に示すように表示装置3に出力される。
一方、表示装置3がSTDモニタを有する場合、再生装置2においては、矢印#127の先に示すように、HEVCの符号化データを復号して得られたSTDビデオが表示装置3に出力される。
このように、mode-iiにおいては、マスターのHDRビデオがSTDビデオに変換されて光ディスク11に記録される。また、出力先となる表示装置3の性能に応じて、符号化データを復号して得られたSTDビデオがHDRビデオに変換され、HDR情報を付加して出力するのか、STDビデオをそのまま出力するのかが切り替えられる。
以上のような記録装置1と再生装置2の構成と動作の詳細については後述する。
<2.HEVCについて>
ここで、HEVCについて説明する。
図6は、HEVCのアクセスユニットの構成を示す図である。
HEVCストリームは、NAL(Network Abstraction Layer)ユニットの集まりであるアクセスユニットから構成される。1つのアクセスユニットには1ピクチャのビデオデータが含まれる。
図6に示すように、1つのアクセスユニットは、AUデリミタ(Access Unit delimiter)、VPS(Video Parameter Set)、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI、VCL(Video Coding Layer)、EOS(End of Sequence)、およびEOS(End of Stream)から構成される。
AUデリミタは、アクセスユニットの先頭を示す。VPSは、ビットストリームの内容を表すメタデータを含む。SPSは、ピクチャサイズ、CTB(Coding Tree Block)サイズなどの、HEVCデコーダがシーケンスの復号処理を通じて参照する必要のある情報を含む。PPSは、HEVCデコーダがピクチャの復号処理を実行するために参照する必要のある情報を含む。VPS,SPS,PPSがヘッダ情報として用いられる。
SEIは、各ピクチャのタイミング情報やランダムアクセスに関する情報などを含む補助情報である。HDR情報とtone mapping定義情報は、SEIの一つであるTone mapping informationに含まれる。VCLは1ピクチャのデータである。EOS(End of Sequence)はシーケンスの終了位置を示し、EOS(End of Stream)はストリームの終了位置を示す。
図7は、Tone mapping informationのシンタクスを示す図である。
Tone mapping informationを用いて、デコードして得られたピクチャの明るさや色が、ピクチャの出力先となるモニタの性能に合わせて変換される。なお、図7の左側の行番号とコロン(:)は説明の便宜上示すものであり、Tone mapping informationに含まれる情報ではない。Tone mapping informationに含まれる主な情報について説明する。
2行目のtone_map_idは、Tone mapping informationの識別情報である。tone_map_idにより、Tone mapping informationの目的が識別される。
例えば、mode-i用のIDとmode-ii用のIDが確保される。記録モードがmode-iである場合、HDRビデオの符号化データのSEIに挿入されるTone mapping informationのtone_map_idにはmode-i用のIDが設定される。また、記録モードがmode-iiである場合、STDビデオの符号化データのSEIに挿入されるTone mapping informationのtone_map_idにはmode-ii用のIDが設定される。光ディスク11には、mode-i用のIDとmode-ii用のIDのうちのいずれかのIDがtone_map_idに設定される。
8行目のtone_map_model_idは、符号化データ(coded data)の変換に用いるtone mapのモデルを表す。
記録装置1においては、tone_map_model_idとして0,2,3のうちのいずれかの値が設定された1つのTone mapping informationと、tone_map_model_idとして4の値が設定された1つのTone mapping informationが生成される。
図8に示すように、tone_map_model_idとして0,2,3のうちのいずれかの値が設定されたTone mapping informationが、HDR-STD変換用またはSTD-HDR変換用のtone mapping定義情報として用いられる。また、tone_map_model_idとして4の値が設定されたTone mapping informationに含まれる情報が、HDR情報として用いられる。
図7の9〜11行目がtone_map_model_id=0に関する記述である。tone_map_model_id=0である場合、min_valueとmax_valueが記述される。
図9は、tone_map_model_id=0のTone mapping informationにより示されるトーンカーブの例を示す図である。
図9の横軸がcoded_data(変換前のRGB値)を示し、縦軸がtarget_data(変換後のRGB値)を示す。図9のトーンカーブを用いた場合、符号化データD1以下のRGB値は、白抜き矢印#151で示すようにmin_valueにより示されるRGB値に変換される。また、符号化データD2以上のRGB値は、白抜き矢印#152で示すようにmax_valueにより示されるRGB値に変換される。
tone_map_model_id=0のTone mapping informationは、HDR-STD変換用のtone mapping定義情報として用いられる。tone_map_model_id=0のTone mapping informationを用いた場合、max_value以上とmin_value以下の輝度(RGB値により表される輝度)が失われることになるが、変換処理の負荷は軽くなる。
図7の15〜17行目がtone_map_model_id=2に関する記述である。tone_map_model_id=2である場合、階段関数を表す、max_target_dataの数と同じ数のstart_of_coded_interval[i]が記述される。
図10は、tone_map_model_id=2のTone mapping informationにより示される階段関数の例を示す図である。
図10の階段関数を用いた場合、例えばcoded_data=5はtarget_data=3に変換される。start_of_coded_interval[i]が{1,3,4,5,5,5,7,7,・・・}であるとすると、coded_data-target_data変換テーブルは{0,1,1,2,3,5,5,・・・}として表される。
tone_map_model_id=2のTone mapping informationは、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられる。tone_map_model_id=2のTone mapping informationは、データ量が多いことから、その作成時に変換テーブルへの畳み込みを行う必要があるが、変換処理の負荷は軽い。
図7の18〜23行目がtone_map_model_id=3に関する記述である。tone_map_model_id=3である場合、折れ線関数を表す、num_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]が記述される。
図11は、tone_map_model_id=3のTone mapping informationにより示される折れ線関数の例を示す図である。
図11の折れ線関数を用いた場合、例えばcoded_data=D11はtarget_data=D11’に変換され、coded_data=D12はtarget_data=D12’に変換される。tone_map_model_id=3のTone mapping informationは、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられる。
このように、tone_map_model_idとして0,2,3のいずれかの値が設定されたTone mapping informationが、STD-HDR変換用またはHDR-STD変換用のtone mapping定義情報として用いられ、記録装置1から再生装置2に伝送される。
図7の24〜39行目がtone_map_model_id=4に関する記述である。tone_map_model_id=4に関する情報のうち、ref_screen_luminance_white、extended_range_white_level、nominal_black_level_code_value、nominal_white_level_code_value、およびextended_white_level_code_valueが、HDR情報を構成するパラメータとなる。
図12は、HDR情報に含まれる各情報の例を示す図である。
図12の横軸は、RGBの各画素値を示す。ビット長が10bitである場合、各画素値は0-1023の値となる。図12の縦軸は明るさ(輝度)を示す。曲線L11が、標準の輝度のモニタにおける画素値と明るさの関係を示す。標準の輝度のモニタのダイナミックレンジは0-100%である。
ref_screen_luminance_whiteは、標準となるモニタの明るさ(cd/m2)を示す。extended_range_white_levelは、拡張後のダイナミックレンジの明るさの最大値を示す。図12の例の場合、extended_range_white_levelの値として400が設定される。
nominal_black_level_code_valueは、黒(明るさ0%)の画素値を示し、nominal_white_level_code_valueは、標準の輝度のモニタにおける白(明るさ100%)の画素値を示す。extended_white_level_code_valueは、拡張後のダイナミックレンジにおける白の画素値を示す。
図12の例の場合、白抜き矢印#161で示すように、0-100%のダイナミックレンジは、extended_range_white_levelの値に従って、0-400%のダイナミックレンジに拡張される。また、400%の明るさに相当する画素値が、extended_white_level_code_valueにより指定される。
HDRビデオの輝度の特性は、nominal_black_level_code_value、nominal_white_level_code_value、extended_white_level_code_valueの値がそれぞれ明るさ0%、100%、400%をとる曲線L12により示される特性となる。
このように、tone_map_model_idとして4の値が設定されたTone mapping informationにより、マスターのHDRビデオの輝度の特性が示され、記録装置1から再生装置2に伝送される。
<3.BDフォーマットについて>
ここで、BD-ROMフォーマットについて説明する。
[データの管理構造]
図13は、BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。
HEVCストリームを含むAVストリームの管理は、PlayListとClipの2つのレイヤを用いて行われる。AVストリームは、光ディスク11だけでなく、再生装置2のローカルストレージに記録されることもある。
1つのAVストリームと、それに付随する情報であるClip Informationのペアが1つのオブジェクトとして管理される。AVストリームとClip InformationのペアをClipという。
AVストリームは時間軸上に展開され、各Clipのアクセスポイントは、主に、タイムスタンプでPlayListにおいて指定される。Clip Informationは、AVストリーム中のデコードを開始すべきアドレスを見つけるためなどに使用される。
PlayListはAVストリームの再生区間の集まりである。AVストリーム中の1つの再生区間はPlayItemと呼ばれる。PlayItemは、時間軸上の再生区間のIN点とOUT点のペアで表される。図13に示すように、PlayListは1つまたは複数のPlayItemにより構成される。
図13の左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照される。
左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照される。
左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照される。
例えば、左から1番目のPlayListに含まれる左側のPlayItemが再生対象としてディスクナビゲーションプログラムにより指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームの再生を管理するための再生管理情報として用いられる。
PlayListの中で、1つ以上のPlayItemの並びによって作られる再生パスをメインパス(Main Path)という。また、PlayListの中で、Main Pathに並行して、1つ以上のSubPlayItemの並びによって作られる再生パスをサブパス(Sub Path)という。
図14は、Main PathとSub Pathの構造を示す図である。
PlayListは、1つのMain Pathと1つ以上のSub Pathを持つ。図14のPlayListは、3つのPlayItemの並びにより作られる1つのMain Pathと3つのSub Pathを有する。
Main Pathを構成するPlayItemには、先頭から順番にそれぞれIDが設定される。Sub Pathにも、先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2のIDが設定される。
図14の例においては、Subpath_id=0のSub Pathには1つのSubPlayItemが含まれ、Subpath_id=1のSub Pathには2つのSubPlayItemが含まれる。また、Subpath_id=2のSub Pathには1つのSubPlayItemが含まれる。
1つのPlayItemが参照するAVストリームには、少なくともビデオストリーム(メイン画像データ)が含まれる。AVストリームには、AVストリームに含まれるビデオストリームと同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームに含まれるビデオストリームと同期して再生されるビットマップの字幕データ(PG(Presentation Graphic))のストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームファイルに含まれるビデオストリームと同期して再生されるIG(Interactive Graphic)のストリームが1つ以上含まれてもよいし、含まれなくてもよい。IGのストリームは、ユーザにより操作されるボタンなどのグラフィックを表示させるために用いられる。
1つのPlayItemが参照するAVストリームには、ビデオストリームと、それと同期して再生されるオーディオストリーム、PGストリーム、およびIGストリームが多重化される。
また、1つのSubPlayItemは、PlayItemが参照するAVストリームとは異なるストリームの、ビデオストリーム、オーディオストリーム、PGストリームなどを参照する。
このように、HEVCストリームを含むAVストリームの再生はPlayListとClip Informationを用いて行われる。AVストリームの再生に関する情報を含むPlayListとClip Informationを、適宜、Data Base情報という。
[ディレクトリ構造]
図15は、光ディスク11に記録されるファイルの管理構造の例を示す図である。
光ディスク11に記録される各ファイルはディレクトリ構造により階層的に管理される。光ディスク11上には1つのrootディレクトリが作成される。
rootディレクトリの下にはBDMVディレクトリが置かれる。
BDMVディレクトリの下には、「Index.bdmv」の名前が設定されたファイルであるIndexファイルと、「MovieObject.bdmv」の名前が設定されたファイルであるMovieObjectファイルが格納される。
BDMVディレクトリの下には、PLAYLISTディレクトリ、CLIPINFディレクトリ、STREAMディレクトリ等が設けられる。
PLAYLISTディレクトリには、PlayListを記述したPlayListファイルが格納される。各PlayListファイルには、5桁の数字と拡張子「.mpls」を組み合わせた名前が設定される。図15に示す1つのPlayListファイルには「00000.mpls」のファイル名が設定されている。
CLIPINFディレクトリにはClip Informationファイルが格納される。各Clip Informationファイルには、5桁の数字と拡張子「.clpi」を組み合わせた名前が設定される。図15の3つのClip Informationファイルには、それぞれ、「00001.clpi」、「00002.clpi」、「00003.clpi」のファイル名が設定されている。
STREAMディレクトリにはストリームファイルが格納される。各ストリームファイルには、5桁の数字と拡張子「.m2ts」を組み合わせた名前が設定される。図15の3つのストリームファイルには、それぞれ、「00001.m2ts」、「00002.m2ts」、「00003.m2ts」のファイル名が設定されている。
同じ5桁の数字がファイル名に設定されているClip Informationファイルとストリームファイルが1つのClipを構成するファイルとなる。「00001.m2ts」のストリームファイルの再生時には「00001.clpi」のClip Informationファイルが用いられ、「00002.m2ts」のストリームファイルの再生時には「00002.clpi」のClip Informationファイルが用いられる。後述するように、HEVCストリームを含むAVストリームの再生に用いられるClip InformationファイルにはHDRビデオの処理に関する情報が含まれる。
[各ファイルのシンタクス]
ここで、各ファイルのシンタクスの主な記述について説明する。
図16は、PlayListファイルのシンタクスを示す図である。
PlayListファイルは、図15のPLAYLISTディレクトリに格納される、拡張子「.mpls」が設定されるファイルである。
AppInfoPlayList()には、再生制限などの、PlayListの再生コントロールに関するパラメータが格納される。
PlayList()には、Main PathやSub Pathに関するパラメータが格納される。
PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納される。
図17は、Clip Informationファイルのシンタクスを示す図である。
Clip Informationファイルは、図15のCLIPINFディレクトリに格納される、拡張子「.clpi」が設定されるファイルである。
ClipInfo()には、Clipを構成するAVストリームのタイプを示す情報、AVストリームの記録レートを示す情報などが格納される。
SequenceInfo()には、AVストリームを構成するsource packetの時間軸上の位置を示す情報、表示時刻を示す情報などが含まれる。
ProgramInfo()には、Clipを構成するAVストリームのPID、AVストリームの符号化に関する情報などが含まれる。
図18は、図17のProgramInfo()のシンタクスを示す図である。
number_of_program_sequencesは、ProgramInfo()に記述されるプログラムシーケンスの数を示す。プログラムシーケンスは、プログラムを構成するソースパケットの並びにより構成される。
SPN_program_sequence_start[i]は、プログラムシーケンスの先頭のソースパケットの番号(source packet number)を示す。
StreamCodingInfoには、Clipを構成するAVストリームの符号化に関する情報が含まれる。
図19は、図18のStreamCodingInfoのシンタクスを示す図である。
stream_coding_typeは、AVストリームに含まれるelementary streamの符号化方式を示す。例えば、HEVCストリームの再生に用いられるClip InformationのStreamCodingInfoにおいては、符号化方式がHEVCであることを示す値がstream_coding_typeとして設定される。
video_formatは、ビデオの走査方式を示す。HEVCストリームの再生に用いられるvideo_formatには、2160p(2160ラインプログレッシブ)などの4Kの走査方式を示す値がstream_coding_typeとして設定される。
frame_rateは、ビデオストリームのフレームレートを示す。
aspect_ratioは、ビデオのアスペクト比を示す。
cc_flagは1ビットのフラグであり、クローズドキャプションのデータがビデオストリームに含まれているか否かを示す。
HDR_flagは1ビットのフラグであり、HDRビデオをマスターとした記録が行われているか否かを示す。例えば、HDR_flag=1は、HDRビデオをマスターとした記録が行われていることを示す。また、HDR_flag=0は、STDビデオをマスターとした記録が行われていることを示す。
mode_flagは1ビットのフラグであり、HEVCストリームの記録モードを示す。mode_flagは、HDR_flag=1である場合に有効になる。例えば、mode_flag=1は、記録モードがmode-iであることを示す。また、mode_flag=0は、記録モードがmode-iiであることを示す。
このように、Clip Informationには、そのClip Informationを用いて再生が行われるAVストリームに含まれるHEVCストリームがマスターをHDRビデオとするストリームであるか否かを示すフラグ、およびHEVCストリームの記録モードを示すフラグが含まれる。
再生装置2は、Clip Informationに含まれるフラグを参照することにより、HEVCストリームを実際に解析することなく、マスターのビデオがHDRビデオであるかなどを特定することが可能になる。
<4.各装置の構成について>
ここで、各装置の構成について説明する。
[記録装置1の構成]
図20は、記録装置1の構成例を示すブロック図である。
記録装置1は、コントローラ21、符号化処理部22、およびディスクドライブ23から構成される。マスターのHDRビデオが符号化処理部22に入力される。
コントローラ21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などより構成される。コントローラ21は、所定のプログラムを実行し、記録装置1の全体の動作を制御する。
コントローラ21においては、所定のプログラムが実行されることによってData Base情報生成部21Aが実現される。Data Base情報生成部21Aは、Data Base情報であるPlayListとClip Informationを生成し、ディスクドライブ23に出力する。
符号化処理部22は、マスターのHDRビデオの符号化を行う。符号化処理部22は、マスターのHDRビデオを符号化して得られたHEVCストリームをディスクドライブ23に出力する。
ディスクドライブ23は、コントローラ21から供給されたPlayList、Clip Informationと、符号化処理部22から供給されたHEVCストリームを格納するファイルを図15のディレクトリ構造に従って光ディスク11に記録する。
図21は、図20の符号化処理部22の構成例を示すブロック図である。
符号化処理部22は、HDR情報生成部31、HEVCエンコーダ32、HDR-STD変換部33、定義情報生成部34、およびHEVCストリーム生成部35から構成される。
HDR情報生成部31は、入力されたマスターのHDRビデオの輝度を検出し、図12を参照して説明した各情報を含むHDR情報を生成する。HDR情報生成部31は、生成したHDR情報をHEVCストリーム生成部35に出力する。
HEVCエンコーダ32は、記録モードがmode-iである場合、入力されたマスターのHDRビデオをHEVCで符号化する。また、HEVCエンコーダ32は、記録モードがmode-iiである場合、HDR-STD変換部33から供給されたSTDビデオをHEVCで符号化する。HEVCエンコーダ32は、HDRビデオの符号化データ、またはSTDビデオの符号化データをHEVCストリーム生成部35に出力する。
HDR-STD変換部33は、入力されたマスターのHDRビデオをSTDビデオに変換する。HDR-STD変換部33による変換は、適宜、オーサーにより入力された変換パラメータに従って行われる。HDR-STD変換部33は、HDRビデオのRGB信号をinput data、STDビデオのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報を定義情報生成部34に出力する。
図22は、HDR-STD変換部33による信号処理の例を示す図である。
HDR-STD変換部33は、矢印#201の先に示すように、入力されたマスターのHDRビデオのYCrCb信号をRGB信号に変換し、RGBの各信号を対象として、STDビデオのRGBの各信号への変換(tone mapping)を行う。
HDR-STD変換部33は、input dataであるHDRビデオのRGB信号とoutput dataであるSTDビデオのRGB信号の対応関係を示す情報を定義情報生成部34に出力する。定義情報生成部34に出力された情報は、矢印#202の先に示すようにtone mapping定義情報の生成に用いられる。
また、HDR-STD変換部33は、矢印#203の先に示すように、STDビデオのRGB信号をYCrCb信号に変換し、出力する。
図23は、tone mappingの例を示す図である。
HDRビデオのRGB信号は、例えば図23に示すように、高輝度成分を圧縮し、中・低域輝度成分を伸張するようにしてSTDビデオのRGB信号に変換される。図23に示すようなHDRビデオのRGB信号とSTDビデオのRGB信号を対応付ける関数Fを示す情報が、定義情報生成部34により生成される。なお、図23に示す関数Fは、図11を参照して説明した、coded_dataとtarget_dataの関係を折れ線関数により示すtone_map_model_id=3のTone mapping informationである。
図21の説明に戻り、また、HDR-STD変換部33は、記録モードがmode-iiである場合、HDRビデオを変換して得られたSTDビデオをHEVCエンコーダ32に出力する。
定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいて、HDR-STD変換用のtone mapping定義情報を生成する。
例えば、定義情報生成部34は、tone_map_model_id=0が用いられる場合、図9のmin_valueとmax_valueの値を含むTone mapping informationをHDR-STD変換用のtone mapping定義情報として生成する。
また、定義情報生成部34は、tone_map_model_id=2が用いられる場合、図10のstart_of_coded_interval[i]を含むTone mapping informationをHDR-STD変換用のtone mapping定義情報として生成する。
さらに、定義情報生成部34は、tone_map_model_id=3が用いられる場合、図11のnum_pivotsにより指定される数のcoded_pivot_value[i]とtarget_pivot_value[i]を含むTone mapping informationをHDR-STD変換用のtone mapping定義情報として生成する。
HEVCストリーム生成部35は、HDR情報生成部31から供給されたHDR情報を含むTone mapping informationと、定義情報生成部34から供給されたtone mapping定義情報を含むTone mapping informationのtone_map_idに、記録モードに応じた同じ値を設定する。また、HEVCストリーム生成部35は、HDR情報を含むTone mapping informationとtone mapping定義情報を含むTone mapping informationをSEIとして符号化データに挿入し、HEVCストリームを生成する。HEVCストリーム生成部35は、生成したHEVCストリームをディスクドライブ23に出力する。
[再生装置2の構成]
図24は、再生装置2の構成例を示すブロック図である。
再生装置2は、コントローラ51、ディスクドライブ52、メモリ53、ローカルストレージ54、ネットワークインタフェース55、復号処理部56、操作入力部57、およびHDMI通信部58から構成される。
コントローラ51は、CPU、ROM、RAMなどより構成される。コントローラ51は、所定のプログラムを実行し、再生装置2の全体の動作を制御する。
ディスクドライブ52は、光ディスク11からデータを読み出し、読み出したデータを、コントローラ51、メモリ53、または復号処理部56に出力する。例えば、ディスクドライブ52は、光ディスク11から読み出したData Base情報をコントローラ51に出力し、HEVCストリームを復号処理部56に出力する。
メモリ53は、コントローラ51が各種の処理を実行する上において必要なデータなどを記憶する。メモリ53には、PSR(Player Status Register)であるレジスタ53Aが形成される。レジスタ53Aには、BD Playerである再生装置2が光ディスク11の再生時に参照する各種の情報が記憶される。
ローカルストレージ54は例えばHDD(Hard Disk Drive)により構成される。ローカルストレージ54には、サーバからダウンロードされたストリームなどが記録される。
ネットワークインタフェース55は、インターネットなどのネットワークを介してサーバと通信を行い、サーバからダウンロードしたデータをローカルストレージ54に供給する。
復号処理部56は、ディスクドライブ52から供給されたHEVCストリームを復号し、HDRビデオまたはSTDビデオのデータをHDMI通信部58に出力する。復号処理部56は、HDRビデオを出力する場合、HDRビデオのデータとともに、HDR情報をHDMI通信部58に出力する。
操作入力部57は、ボタン、キー、タッチパネルなどの入力デバイスや、所定のリモートコマンダから送信される赤外線などの信号を受信する受信部により構成される。操作入力部57はユーザの操作を検出し、検出した操作の内容を表す信号をコントローラ51に供給する。
HDMI通信部58は、HDMIケーブル4を介して表示装置3との間で通信を行う。例えば、HDMI通信部58は、表示装置3が有するモニタの性能に関する情報を取得し、コントローラ51に出力する。また、HDMI通信部58は、復号処理部56から供給されたHDRビデオまたはSTDビデオのデータを表示装置3に出力する。
図25は、図24の復号処理部56の構成例を示すブロック図である。
復号処理部56は、パラメータ抽出部71、HEVCデコーダ72、HDR-STD変換部73、STD-HDR変換部74、および出力部75から構成される。出力部75は、HDRビデオ出力部75AとSTDビデオ出力部75Bから構成される。
ディスクドライブ52により読み出されたHEVCストリームはパラメータ抽出部71に入力される。復号処理部56に対しては、例えば、Clip Informationに含まれるmode_flagにより特定される記録モードを表す情報と、表示装置3から取得された情報により特定される、表示装置3が有するモニタの性能に関する情報がコントローラ51から供給される。
パラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。例えば、パラメータ抽出部71は、記録モードがmode-iであり、表示装置3にHDRビデオを出力する場合、HDR情報をHDRビデオ出力部75Aに出力する。また、パラメータ抽出部71は、記録モードがmode-iであり、表示装置3にSTDビデオを出力する場合、HDR-STD変換用のtone mapping定義情報をHDR-STD変換部73に出力する。
一方、パラメータ抽出部71は、記録モードがmode-iiであり、表示装置3にHDRビデオを出力する場合、HDR情報をHDRビデオ出力部75Aに出力するとともに、STD-HDR変換用のtone mapping定義情報をSTD-HDR変換部74に出力する。記録モードがmode-iiであり、表示装置3にSTDビデオを出力する場合、抽出されたHDR情報とtone mapping定義情報は用いられない。
また、パラメータ抽出部71は、HEVCストリームに含まれる符号化データをHEVCデコーダ72に出力する。
HEVCデコーダ72は、パラメータ抽出部71から供給されたHEVCの符号化データを復号する。HEVCデコーダ72は、記録モードがmode-iである場合、復号して得られたHDRビデオをHDR-STD変換部73とHDRビデオ出力部75Aに出力する。また、HEVCデコーダ72は、記録モードがmode-iiである場合、復号して得られたSTDビデオをSTD-HDR変換部74とSTDビデオ出力部75Bに出力する。
HDR-STD変換部73は、HEVCデコーダ72から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR-STD変換用のtone mapping定義情報に基づいてSTDビデオに変換する。HDR-STD変換部73は、変換して得られたSTDビデオをSTDビデオ出力部75Bに出力する。
STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、パラメータ抽出部71から供給されたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。STD-HDR変換部74は、変換して得られたHDRビデオをHDRビデオ出力部75Aに出力する。
出力部75のHDRビデオ出力部75Aは、表示装置3にHDRビデオを出力する場合、HEVCデコーダ72から供給されたHDRビデオ、またはSTD-HDR変換部74から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR情報とともに出力する。
STDビデオ出力部75Bは、表示装置3にSTDビデオを出力する場合、HEVCデコーダ72から供給されたSTDビデオ、またはHDR-STD変換部73から供給されたSTDビデオを出力する。
HDRビデオ出力部75AとSTDビデオ出力部75Bから出力されたデータは、HDMI通信部58により、表示装置3に送信される。
[表示装置3の構成]
図26は、表示装置3の構成例を示すブロック図である。
表示装置3は、コントローラ101、HDMI通信部102、信号処理部103、およびモニタ104から構成される。コントローラ101はメモリ101Aを有する。
コントローラ101は、CPU、ROM、RAMなどより構成される。コントローラ101は、所定のプログラムを実行し、表示装置3の全体の動作を制御する。
例えば、コントローラ101は、モニタ104の性能を表すEDID(Extended display identification data)をメモリ101Aに記憶させて管理する。コントローラ101は、再生装置2との認証時、メモリ101Aに記憶させているEDIDをHDMI通信部102に出力し、再生装置2に対して送信させる。EDIDに基づいて、表示装置3のモニタ104の性能が再生装置2により特定される。
HDMI通信部102は、HDMIケーブル4を介して再生装置2との間で通信を行う。HDMI通信部102は、再生装置2から送信されてきたビデオデータを受信し、信号処理部103に出力する。また、HDMI通信部102は、コントローラ101から供給されたEDIDを再生装置2に送信する。
信号処理部103は、HDMI通信部102から供給されたビデオデータの処理を行い、映像をモニタ104に表示させる。
<5.各装置の動作について>
ここで、以上のような構成を有する各装置の動作について説明する。
[記録処理]
はじめに、図27のフローチャートを参照して、記録装置1の記録処理について説明する。図27の処理は、マスターのHDRビデオが記録装置1に入力されたときに開始される。
ステップS1において、記録装置1のコントローラ21は、記録モードがmode-iであるか否かを判定する。記録モードは例えばオーサーにより設定される。
記録モードがmode-iであるとステップS1において判定された場合、ステップS2において、符号化処理部22はmode-iでの符号化処理を行う。mode-iでの符号化処理により生成されたHEVCストリームはディスクドライブ23に供給される。
一方、記録モードがmode-iiであるとステップS1において判定された場合、ステップS3において、符号化処理部22はmode-iiでの符号化処理を行う。mode-iiでの符号化処理により生成されたHEVCストリームはディスクドライブ23に供給される。
ステップS4において、Data Base情報生成部21AはData Base情報生成処理を行う。Data Base情報生成処理により生成されたPlayListファイルとClip Informationファイルはディスクドライブ23に供給される。
ステップS5において、ディスクドライブ23は、PlayListファイル、Clip Informationファイル、およびHEVCストリームを格納するストリームファイルを光ディスク11に記録する。その後、処理は終了される。
次に、図28のフローチャートを参照して、図27のステップS2において行われるmode-iでの符号化処理について説明する。
ステップS11において、符号化処理部22のHDR情報生成部31は、マスターのHDRビデオの輝度を検出し、HDR情報を生成する。
ステップS12において、HEVCエンコーダ32は、マスターのHDRビデオを対象としてHEVCによる符号化を行い、HDRビデオの符号化データを生成する。
ステップS13において、HDR-STD変換部33は、入力されたマスターのHDRビデオをSTDビデオに変換する。HDRビデオのRGB信号をinput data、STDビデオのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報は定義情報生成部34に供給される。
ステップS14において、定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいてHDR-STD変換用のtone mapping定義情報を生成する。
ステップS15において、HEVCストリーム生成部35は、HDR情報生成部31により生成されたHDR情報を含むTone mapping informationと、定義情報生成部34により生成されたtone mapping定義情報を含むTone mapping informationのtone_map_idに、mode-i用のIDを設定する。また、HEVCストリーム生成部35は、HDR情報を含むTone mapping informationとtone mapping定義情報を含むTone mapping informationを符号化データに挿入し、HEVCストリームを生成する。その後、図27のステップS2に戻り、それ以降の処理が行われる。
次に、図29のフローチャートを参照して、図27のステップS3において行われるmode-iiでの符号化処理について説明する。
ステップS21において、符号化処理部22のHDR情報生成部31は、マスターのHDRビデオの輝度を検出し、HDR情報を生成する。
ステップS22において、HDR-STD変換部33は、入力されたマスターのHDRビデオをSTDビデオに変換する。HDRビデオのRGB信号をinput data、STDビデオのRGB信号をoutput dataとしたinput dataとoutput dataの対応関係を示す情報は定義情報生成部34に供給される。
ステップS23において、定義情報生成部34は、HDR-STD変換部33から供給された情報に基づいてSTD-HDR変換用のtone mapping定義情報を生成する。
ステップS24において、HEVCエンコーダ32は、マスターのHDRビデオを変換して得られたSTDビデオを対象としてHEVCによる符号化を行い、STDビデオの符号化データを生成する。
ステップS25において、HEVCストリーム生成部35は、HDR情報生成部31により生成されたHDR情報を含むTone mapping informationと、定義情報生成部34により生成されたtone mapping定義情報を含むTone mapping informationのtone_map_idに、mode-ii用のIDを設定する。また、HEVCストリーム生成部35は、HDR情報を含むTone mapping informationとtone mapping定義情報を含むTone mapping informationを符号化データに挿入し、HEVCストリームを生成する。その後、図27のステップS3に戻り、それ以降の処理が行われる。
次に、図30のフローチャートを参照して、図27のステップS4において行われるData Base情報生成処理について説明する。
ステップS31において、コントローラ21のData Base情報生成部21Aは、図16を参照して説明した各情報を含むPlayListを生成する。Data Base情報生成部21Aが生成するPlayListには、HEVCストリームを再生区間として指定するPlayItemに関する情報が含まれる。
ステップS32において、Data Base情報生成部21Aは、HDR_flagとmode_flagをProgramInfo()のStreamCodingInfoに含むClip Informationを生成する。この例においてはマスターのビデオがHDRビデオであるから、Data Base情報生成部21Aは、HDR_flagの値として、そのことを示す値である1を設定する。
また、図27のステップS2においてmode-iでの符号化処理が行われている場合、Data Base情報生成部21Aは、mode_flagの値として、記録モードがmode-iであることを示す値である1を設定する。一方、Data Base情報生成部21Aは、図27のステップS3においてmode-iiでの符号化処理が行われている場合、mode_flagの値として、記録モードがmode-iiであることを示す値である0を設定する。その後、図27のステップS4に戻り、それ以降の処理が行われる。
記録装置1においては、以上の処理によって生成されたHEVCストリームとData Base情報が光ディスク11に記録される。
[再生処理]
次に、図31のフローチャートを参照して、再生装置2の再生処理について説明する。
光ディスク11の再生を開始する前などの所定のタイミングにおいて、再生装置2のコントローラ51は、HDMI通信部58を制御して表示装置3と通信を行い、表示装置3のメモリ101AからEDIDを読み出す。コントローラ51は、表示装置3が有するモニタの性能を表す情報をレジスタ53Aに記憶させて管理する。
ステップS41において、コントローラ51は、ディスクドライブ52を制御し、Data Base情報であるPlayListとClip Informationを光ディスク11から読み出す。また、コントローラ51は、再生するHEVCストリームをPlayListに含まれる情報に基づいて特定し、特定したHEVCストリームを含むAVストリームを、ディスクドライブ52を制御して光ディスク11から読み出す。
ステップS42において、コントローラ51は、Clip Informationに含まれるHDR_flagとmode_flagを参照する。この例においては、マスターをHDRビデオとした記録が行われていることを示す値がHDR_flagに設定されている。これにより、再生装置2の状態は、HDRビデオ、または、HDRビデオを変換して得られたSTDビデオを再生する状態となる。
ステップS43において、コントローラ51は、記録モードがmode-iであるか否かをmode_flagの値に基づいて判定する。
記録モードがmode-iであるとステップS43において判定された場合、ステップS44において、復号処理部56はmode-iでの復号処理を行う。
一方、記録モードがmode-iiであるとステップS43において判定された場合、ステップS45において、復号処理部56はmode-iiでの復号処理を行う。
ステップS44またはステップS45において復号処理が行われた後、処理は終了される。
なお、ここでは、記録モードがmode-iであるか否かの判定がmode_flagの値に基づいて行われるものとしたが、HEVCストリームに挿入されているTone mapping informationのtone_map_idに基づいて行われるようにしてもよい。
次に、図32のフローチャートを参照して、図31のステップS44において行われるmode-iでの復号処理について説明する。
ステップS61において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれるHEVCの符号化データをHEVCデコーダ72に出力する。
ステップS62において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたHDRビデオをHDR-STD変換部73とHDRビデオ出力部75Aに出力する。
ステップS63において、コントローラ51は、レジスタ53Aに記憶させておいた情報に基づいて、表示装置3が有するモニタがHDRモニタであるか否かを判定する。上述したように、レジスタ53Aには、表示装置3から読み出されたHDMIのEDIDに基づいて、表示装置3が有するモニタの性能に関する情報が記憶されている。
表示装置3が有するモニタがHDRモニタであるとステップS63において判定された場合、ステップS64において、HDRビデオ出力部75Aは、HEVCデコーダ72から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR情報とともに出力する。
一方、表示装置3が有するモニタがHDRモニタではなく、STDモニタであるとステップS63において判定された場合、ステップS65において、HDR-STD変換部73は、HEVCデコーダ72から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR-STD変換用のtone mapping定義情報に基づいてSTDビデオに変換する。
ステップS66において、STDビデオ出力部75Bは、HDR-STD変換部73により変換が行われることによって得られたSTDビデオを出力する。
ステップS64においてHDRビデオが出力された後、またはステップS66においてSTDビデオが出力された後、ステップS67において、コントローラ51は、再生終了か否かを判定する。
再生終了ではないとステップS67において判定した場合、コントローラ51は、ステップS61に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS67において判定された場合、図31のステップS44に戻り、それ以降の処理が行われる。
次に、図33のフローチャートを参照して、図31のステップS45において行われるmode-iiでの復号処理について説明する。
ステップS81において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれる、HEVCの符号化データをHEVCデコーダ72に出力する。
ステップS82において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたSTDビデオをSTD-HDR変換部74とSTDビデオ出力部75Bに出力する。
ステップS83において、コントローラ51は、レジスタ53Aに記憶させておいた情報に基づいて、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS83において判定された場合、ステップS84において、STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、パラメータ抽出部71から供給されたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。
ステップS85において、HDRビデオ出力部75Aは、STD-HDR変換部74により変換が行われることによって得られたHDRビデオを、パラメータ抽出部71から供給されたHDR情報とともに出力する。
一方、表示装置3が有するモニタがSTDモニタであるとステップS83において判定された場合、ステップS86において、STDビデオ出力部75Bは、HEVCデコーダ72から供給されたSTDビデオを出力する。
ステップS85においてHDRビデオが出力された後、またはステップS86においてSTDビデオが出力された後、ステップS87において、コントローラ51は、再生終了か否かを判定する。
再生終了ではないとステップS87において判定した場合、コントローラ51は、ステップS81に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS87において判定された場合、図31のステップS45に戻り、それ以降の処理が行われる。
[表示処理]
次に、図34のフローチャートを参照して、表示装置3の表示処理について説明する。
ここでは、表示装置3が有するモニタ104がHDRモニタである場合について説明する。HDRモニタを有する表示装置3に対しては、HDR情報が付加されたHDRビデオが再生装置2から送信されてくる。
ステップS101において、表示装置3のHDMI通信部102は、再生装置2から送信されてきたHDRビデオとHDR情報を受信する。
ステップS102において、コントローラ101は、HDR情報を参照し、再生装置2から送信されてきたHDRビデオをそのまま表示可能であるか否かを判定する。HDR情報には、マスターのHDRビデオ、すなわち再生装置2から送信されてきたHDRビデオの輝度の特性を示す情報が含まれる。ステップS102における判定は、HDR情報により特定されるHDRビデオの輝度の特性と、モニタ104の表示性能を比較することによって行われる。
例えば、HDR情報により特定されるHDRビデオのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-500%(例えば100%の明るさを100cd/m2とすると500cd/m2)である場合、HDRビデオをそのまま表示可能であると判定される。一方、HDR情報により特定されるHDRビデオのダイナミックレンジが0-400%であり、モニタ104のダイナミックレンジが0-300%である場合、HDRビデオをそのまま表示することができないと判定される。
HDRビデオをそのまま表示可能であるとステップS102において判定された場合、ステップS103において、信号処理部103は、HDRビデオの映像を、HDR情報により指定される輝度に従ってモニタ104に表示させる。例えば、図12の曲線L12で示す輝度の特性がHDR情報により指定されている場合、各画素値は曲線L12で示す0-400%の範囲の明るさを表す。
一方、HDRビデオをそのまま表示させることができないとステップS102において判定された場合、ステップS104において、信号処理部103は、モニタ104の表示性能に応じて輝度を調整し、輝度を調整したHDRビデオの映像を表示させる。例えば、図12の曲線L12で示す輝度の特性がHDR情報により指定されており、モニタ104のダイナミックレンジが0-300%である場合、各画素値が0-300%の範囲の明るさを表すように圧縮される。
ステップS103、またはステップS104においてHDRビデオの映像が表示された後、ステップS105において、コントローラ101は、表示を終了するか否かを判定し、終了しないと判定した場合、ステップS101以降の処理を繰り返す。ステップS105において表示を終了すると判定した場合、コントローラ101は、処理を終了させる。
以上の一連の処理により、記録装置1は、マスターのHDRビデオをHDRビデオのまま光ディスク11に記録し、再生装置2に再生させてHDRビデオの映像を表示装置3に表示させることができる。
また、記録装置1は、マスターのHDRビデオをSTDビデオに変換して光ディスク11に記録し、再生装置2にHDRビデオに復元させてHDRビデオの映像を表示装置3に表示させることができる。
HDRビデオを再生する際、マスターのHDRビデオの輝度の特性をHDR情報によって指定することができるようにすることにより、コンテンツのオーサーは、意図したとおりの輝度でHDRビデオの映像を表示させることが可能になる。
<6.変形例>
[フラグの格納位置]
以上においては、HDR_flagとmode_flagがClip Information中に格納されるものとしたが、PlayList中に格納されるようにしてもよい。
・格納位置の第1の例
図35は、図16のPlayListファイルに含まれるAppInfoPlayList()のシンタクスの例を示す図である。
上述したように、AppInfoPlayList()には、再生制限などの、PlayListの再生コントロールに関するパラメータが格納される。図35の例においては、MVC_Base_view_R_flagに続けて、HDR_flagとmode_flagが記述されている。
このように、PlayListファイルのAppInfoPlayList()にHDR_flagとmode_flagが記述されるようにすることも可能である。
・格納位置の第2の例
図36は、図16のPlayListファイルに含まれるPlayList()のシンタクスを示す図である。
number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す。図14の例の場合、PlayItemの数は3となる。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。
number_of_SubPathsは、PlayListの中にあるSub Pathの数を示す。図14の例の場合、Sub Pathの数は3である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。
図36に示すように、PlayList()には、PlayItemの数だけPlayItem()が記述され、Sub Pathの数だけSubPath()が記述される。
図37は、図36のPlayItem()のシンタクスを示す図である。
Clip_Information_file_name[0]は、PlayItemが参照するClipのClip Informationファイルの名前を表す。Clip_codec_identifier[0]はClipのコーデック方式を表す。
IN_timeはPlayItemの再生区間の開始位置を表し、OUT_timeは終了位置を表す。OUT_timeの後にはUO_mask_table()、PlayItem_random_access_mode、still_modeが含まれる。
STN_table()には、PlayItemが参照するAVストリームの情報が含まれる。PlayItemと関連付けて再生されるSub Pathがある場合、そのSub Pathを構成するSubPlayItemが参照するAVストリームの情報も含まれる。
図38は、図37のSTN_table()のシンタクスを示す図である。
number_of_video_stream_entriesは、STN_table()にエントリーされる(登録される)ビデオストリームの数を表す。number_of_audio_stream_entriesは、STN_table()にエントリーされる1stオーディオストリームのストリームの数を表す。number_of_audio_stream2_entriesは、STN_table()にエントリーされる2ndオーディオストリームのストリームの数を表す。
number_of_PG_textST_stream_entriesは、STN_table()にエントリーされるPG_textSTストリームの数を表す。PG_textSTストリームは、ビットマップ字幕をランレングス符号化したPG(Presentation Graphics)ストリームとテキスト字幕ファイル(textST)である。number_of_IG_stream_entriesは、STN_table()にエントリーされるIG(Interactive Graphics)ストリームの数を表す。
STN_table()には、それぞれのビデオストリーム、1stオーディオストリーム、2ndオーディオストリーム、PG_textSTストリーム、IGストリームの情報であるstream_entry()とstream_attributes()が記述される。stream_entry()にはストリームのPIDが含まれ、stream_attributes()にはストリームの属性情報が含まれる。
図39は、図38のstream_attributes()の記述のうち、ビデオストリームに関する記述の例を示す図である。
図39のstream_attributes()の例においては、ビデオストリームの属性情報としてstream_coding_type、video_format、frame_rateが記述され、その次に、HDR_flagとmode_flagが記述されている。なお、stream_coding_typeはビデオストリームの符号化方式を示し、video_formatはビデオフォーマットを示す。frame_rateはビデオのフレームレートを示す。
このように、PlayListファイルのSTN_table()にHDR_flagとmode_flagが記述されるようにすることも可能である。
AppInfoPlayList()とSTN_table()以外のPlayListファイル中の位置にHDR_flagとmode_flagが記述されるようにすることも可能である。同様に、図19を参照して説明したStreamCodingInfo以外のClip Informationファイル中の位置にHDR_flagとmode_flagが記述されるようにすることも可能である。
HDR_flagとmode_flagのうちの一方がClip Informationファイルに記述され、他方がPlayListファイルに記述されるといったように、HDR_flagとmode_flagの記述位置は任意である。
[PSR]
図40は、PSRの割り当ての例を示す図である。
上述したように、再生装置2のレジスタ53AはPSRとして用いられる。BDにおいては、PSRにはPSR numberが割り当てられ、各PSRの用途が規定される。
PSR numberが29のPSRであるPSR29にHDR_capability_flagが格納される。例えば、PSR29のHDR_capability_flagの値が1であることは、再生装置2がHDRビデオの再生に対応していることを示す。また、PSR29のHDR_capability_flagの値が0であることは、再生装置2がHDRビデオの再生に対応していないことを示す。
HDR_capability_flagは、例えばClip InformationのHDR_flagの値として1が設定された光ディスク、すなわちマスターをHDRビデオとした記録が行われた光ディスクが挿入されたとき、ディスクナビゲーションプログラムを実行するコントローラ51により参照される。HDR_capability_flagの値として0が設定されている場合、HDRビデオの処理に対応した表示装置を再生装置2に接続することを要求するメッセージが表示される。
PSR numberが25のPSRであるPSR25が、接続されたモニタのHDRビデオの対応状況を表す情報を記録するPSRとして用いられる。この場合、表示装置3から取得されたEDIDにより示される、表示装置3が有するモニタの性能を表す情報はPSR25に記憶される。
例えば、HDR Display Capability用途のPSR25には、HDR_display_capability_flag、輝度仕様を示す情報が格納される。HDR_display_capability_flagの値が1であることは、接続されたモニタがHDRビデオの表示が可能であることを示す。また、HDR_display_capability_flagの値が0であることは、接続されたモニタがHDRビデオの表示ができないことを示す。
輝度仕様を示す情報として、例えば、何%の明るさまでの表示が可能であるのかを示す情報などが格納される。
HDR Display Capability用途としてPSR25を用いるのではなく、Display Capability用途のPSRであるPSR23にHDR_display_capability_flagと輝度仕様を示す情報が格納されるようにしてもよい。
<7.再生装置側で輝度を調整する場合の例>
以上においては、再生装置2から送信されてきたHDRビデオをそのまま表示させることができない場合、表示装置3が自ら輝度を調整するものとしたが、HDRビデオの輝度の調整が再生装置2により行われるようにしてもよい。表示装置3は、再生装置2により輝度が調整されたHDRビデオを受信し、HDRビデオの映像を表示させることになる。
[mode-iにおける信号処理]
図41は、HDRビデオの輝度の調整が再生装置2により行われる場合のmode-iにおける信号処理の例を示す図である。
図41に示す処理のうち、記録装置1により行われる処理と、再生装置2により行われるSTDビデオの出力に関する処理は、図2を参照して説明した処理と同じである。重複する説明については適宜省略する。再生装置2のレジスタ53Aには、上述したHDR_display_capability_flag、輝度仕様を示す情報が格納されているものとする。
再生装置2は、光ディスク11からHEVCストリームを読み出し、矢印#21,#22の先に示すように、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#23の先に示すように、HEVCの符号化データを復号する。再生装置2は、表示装置3がHDRモニタを有しているが、HDRビデオをそのまま表示させることができない場合、矢印#301の先に示すように、符号化データを復号して得られたHDRビデオの輝度を調整する。
例えば、HDR情報により示されるHDRビデオのダイナミックレンジが0-400%であり、レジスタ53Aに記憶されている輝度仕様を示す情報により、モニタ104のダイナミックレンジが0-300%であることが示されている場合、再生装置2は輝度の調整を行う。この場合、各画素値の明るさが0-300%の範囲に圧縮される。
HDRビデオの輝度を調整した場合、再生装置2は、矢印#302の先に示すように、HDR情報の書き換えを行う。書き換え後のHDR情報は、輝度調整後のHDRビデオの輝度の特性を示す情報になる。
矢印#303の先に示すように、再生装置2は、輝度調整後のHDRビデオのデータにHDR情報を付加し、矢印#304の先に示すように表示装置3に出力する。
[mode-iiにおける信号処理]
図42は、HDRビデオの輝度の調整が再生装置2により行われた場合のmode-iiにおける信号処理の例を示す図である。
図42に示す処理のうち、記録装置1により行われる処理と、再生装置2により行われるSTDビデオの出力に関する処理は、図4を参照して説明した処理と同じである。重複する説明については適宜省略する。
再生装置2は、光ディスク11からHEVCストリームを読み出し、矢印#101,#102の先に示すように、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
また、再生装置2は、矢印#103の先に示すように、HEVCの符号化データを復号する。再生装置2は、表示装置3がHDRモニタを有する場合、矢印#105の先に示すように、HEVCストリームから抽出されたSTD-HDR変換用のtone mapping定義情報を用いて、符号化データを復号して得られたSTDビデオをHDRビデオに変換する。
再生装置2は、表示装置3がHDRモニタを有しているが、HDRビデオをそのまま表示させることができない場合、矢印#311の先に示すように、HDRビデオの輝度を調整し、矢印#312の先に示すように、HDR情報の書き換えを行う。
矢印#313の先に示すように、再生装置2は、輝度調整後のHDRビデオのデータにHDR情報を付加し、矢印#314の先に示すように表示装置3に出力する。
このように、HDRビデオの輝度の調整が再生装置2により行われた場合、調整後の輝度の特性を表すようにHDR情報が書き換えられ、HDRビデオのデータとともに表示装置3に対して送信される。
表示装置3は、HDRビデオが送信されてくることをHDR情報に基づいて認識し、HDRビデオの映像を、書き換え後のHDR情報により指定される輝度に従ってモニタ104に表示させることができる。
[再生装置2の構成]
図43は、図25のHDRビデオ出力部75Aの構成例を示すブロック図である。
HDRビデオ出力部75Aは、輝度調整部111と書き換え部112から構成される。HEVCデコーダ72から、またはSTD-HDR変換部74から供給されたHDRビデオは輝度調整部111に入力される。また、パラメータ抽出部71から供給されたHDR情報は書き換え部112に入力される。
輝度調整部111は、HDRビデオの輝度を調整し、輝度調整後のHDRビデオを出力する。
書き換え部112は、輝度調整部111による調整結果に基づいて、調整後の輝度の特性を表すようにHDR情報を書き換える。書き換え後のHDR情報は、輝度調整後のHDRビデオに付加され、表示装置3に送信される。
[再生装置2の復号処理]
ここで、図44のフローチャートを参照して、図31のステップS44において行われるmode-iでの復号処理について説明する。図44の処理においては、適宜、HDRビデオの輝度の調整が行われる。
図44に示す処理のうち、ステップS151乃至S153、S158乃至S160の処理は、それぞれ、図32のステップS61乃至S63、S65乃至S67の処理と同じ処理である。重複する説明については適宜省略する。
ステップS151において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
ステップS152において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたHDRビデオを出力する。
ステップS153において、コントローラ51は、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS153において判定した場合、ステップS154において、コントローラ51は、表示装置3のモニタ104にHDRビデオをそのまま表示させることができるか否かを判定する。
HDRビデオをそのまま表示させることができないとステップS154において判定した場合、ステップS155において、HDRビデオ出力部75Aの輝度調整部111は、HEVCデコーダ72により復号されたHDRビデオの輝度をモニタ104の表示性能に応じて調整する。
ステップS156において、書き換え部112は、輝度の調整結果に基づいてHDR情報の書き換えを行う。
ステップS157において、HDRビデオ出力部75Aは、輝度調整後のHDRビデオを書き換え後のHDR情報とともに出力する。
HDRビデオをそのまま表示させることができるとステップS154において判定された場合、ステップS155,S156の処理はスキップされる。この場合、ステップS157において、HDRビデオ出力部75Aは、HEVCデコーダ72により復号されたHDRビデオを、パラメータ抽出部71により抽出されたHDR情報とともに出力する。
ステップS160において再生終了か否かが判定され、再生終了であると判定された場合、処理は終了される。その後、図31のステップS44に戻り、それ以降の処理が行われる。
次に、図45のフローチャートを参照して、図31のステップS45において行われるmode-iiでの復号処理について説明する。図45の処理においては、適宜、HDRビデオの輝度の調整が行われる。
図45に示す処理のうち、ステップS171乃至S174、S179,S180の処理は、それぞれ、図33のステップS81乃至S84、S86,S87の処理と同じ処理である。重複する説明については適宜省略する。
ステップS171において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。
ステップS172において、HEVCデコーダ72は、HEVCの符号化データを復号し、復号して得られたSTDビデオを出力する。
ステップS173において、コントローラ51は、表示装置3が有するモニタがHDRモニタであるか否かを判定する。
表示装置3が有するモニタがHDRモニタであるとステップS173において判定された場合、ステップS174において、STD-HDR変換部74は、復号されたSTDビデオを、STD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。
ステップS175において、コントローラ51は、表示装置3のモニタ104に、STDビデオを変換して得られたHDRビデオをそのまま表示させることができるか否かを判定する。
HDRビデオをそのまま表示させることができないとステップS175において判定された場合、ステップS176において、HDRビデオ出力部75Aの輝度調整部111は、STDビデオを変換して得られたHDRビデオの輝度をモニタ104の表示性能に応じて調整する。
ステップS177において、書き換え部112は、輝度の調整結果に基づいてHDR情報の書き換えを行う。
ステップS178において、HDRビデオ出力部75Aは、輝度調整後のHDRビデオを書き換え後のHDR情報とともに出力する。
HDRビデオをそのまま表示させることができるとステップS175において判定された場合、ステップS176,S177の処理はスキップされる。この場合、ステップS178において、HDRビデオ出力部75Aは、STDビデオを変換して得られたHDRビデオを、パラメータ抽出部71により抽出されたHDR情報とともに出力する。
ステップS180において再生終了か否かが判定され、再生終了であると判定された場合、処理は終了される。その後、図31のステップS45に戻り、それ以降の処理が行われる。
[表示装置3の表示処理]
次に、図46のフローチャートを参照して、表示装置3の表示処理について説明する。
図46の処理は、再生装置2による図44または図45の処理の後に行われる。HDRモニタを有する表示装置3に対しては、HDR情報とともに、輝度の調整が行われていないオリジナルのHDRビデオ、または輝度調整後のHDRビデオが再生装置2から送信されてくる。
ステップS191において、表示装置3のHDMI通信部102は、再生装置2から送信されてきたHDRビデオとHDR情報を受信する。
ステップS192において、信号処理部103は、HDRビデオの映像を、HDR情報により指定される輝度に従ってモニタ104に表示させる。
ステップS193において、コントローラ101は、表示を終了するか否かを判定し、終了しないと判定した場合、ステップS191以降の処理を繰り返す。ステップS193において表示を終了すると判定した場合、コントローラ101は、処理を終了させる。
このように、輝度の調整が再生装置2により行われる場合、表示装置3は、再生装置2から送信されてきたHDRビデオをそのまま表示させることができるか否かの判定を行う必要がない。また、表示装置3は、HDRビデオの輝度を自ら調整する必要がない。
HDRビデオの輝度の調整が必要な場合に、輝度の調整を再生装置2側で行うか、表示装置3側で行うかを再生装置2のユーザが設定することができるようにしてもよい。
また、輝度の調整を再生装置2側で行うか、表示装置3側で行うかを、表示装置3が再生装置2に対して通知し、その通知に応じて再生装置2において行われる処理が切り替えられるようにしてもよい。例えば、表示装置3がHDRビデオの輝度の調整機能を有している場合、輝度の調整を表示装置3側で行うことが通知され、HDRビデオの輝度の調整機能を有していない場合、輝度の調整を再生装置2側で行うことが通知される。
輝度の調整を再生装置2側で行うことが表示装置3から通知された場合、再生装置2は、復号処理として図44または図45の処理を行う。また、輝度の調整を表示装置3側で行うことが表示装置3から通知された場合、再生装置2は、復号処理として図32または図33の処理を行う。
再生装置2が行う輝度調整と表示装置3が行う輝度調整は、調整に用いるパラメータに違いがあることがある。この場合、モニタ104を有し、モニタ104の特性により適した調整を行うことができる表示装置3に輝度の調整を行わせた方が画質の観点からは望ましいと考えられる。
輝度の調整を再生装置2側で行うか、表示装置3側で行うかを表示装置3に選択させることにより、画質のよいHDRビデオを表示させることが可能になる。輝度の調整を再生装置2側で行うか、表示装置3側で行うかの選択が、ユーザの操作に基づいて行われるようにすることが可能である。例えば、ユーザが、リモートコントローラ、または表示装置3の本体に設けられたボタンを操作してメニュー画面の表示を指示した場合、表示装置3のコントローラ101は、信号処理部103を制御するなどして、HDRビデオに関する設定の項目を含むメニュー画面をモニタ104に表示させる。HDRビデオに関する設定の項目が選択されたとき、輝度の調整を再生装置2側で行うか、表示装置3側で行うかの選択に用いられる画面が表示され、ユーザは、いずれかを選択することになる。表示装置3は、ユーザの選択内容を表す情報をHDMIケーブル4を介して再生装置2に送信することによって、HDRビデオの輝度の調整を再生装置2側で行うか、表示装置3側で行うかを再生装置2に通知する。
HDRビデオの輝度の調整を再生装置2側で行うか、表示装置3側で行うかの通知は、HDMIのEDIDを用いて実現することができる。
<8.HDMIに適用した例>
[HDR EDIDとHDR InfoFrame]
図47は、HDMI経由で送受信される情報に基づく認識の例を示す図である。
図47の左側に示すように、4K解像度のHDRビデオの処理に対応したBD Playerである再生装置2は、表示装置3のメモリ101Aに記憶されているEDIDを読み出す。表示装置3のメモリ101Aには、表示装置3のモニタ104の性能を表すEDIDなどの複数のEDIDが記憶されている。
再生装置2は、表示装置3から読み出したEDIDの中にHDR EDIDが含まれる場合、表示装置3がHDRモニタを有する装置であり、表示装置3に対してHDRビデオを出力することが可能であると認識する。HDR EDIDには、HDRビデオの出力に関する情報が含まれる。HDRビデオの輝度の調整を再生装置2側で行うか表示装置3側で行うかの通知が、HDR EDIDを用いて行われる。
図47の右側に示すように、再生装置2は、表示装置3に出力するHDRビデオの各フレームのデータにHDR InfoFrameを付加する。HDMI規格においては、ビデオの各フレームにInfoFrameが付加される。ビデオのInfoFrameには、ビデオデータがRGBのデータであるのかYCbCrのデータであるのかを示す情報、アスペクト比を示す情報などのビデオの仕様に関する情報が含まれる。
HDR InfoFrameは、HDRビデオの仕様に関する情報を含むInfoFrameである。HDRビデオの輝度の特性を示すHDR情報の伝送が、HDR InfoFrameを用いて行われる。再生装置2は、HDR InfoFrameを付加したHDRビデオのデータを表示装置3に出力する。
表示装置3は、再生装置2から送信されてきたビデオデータにHDR InfoFrameが付加されている場合、再生装置2から送信されてきたビデオデータがHDRビデオのデータであると認識する。その後、表示装置3は、HDRビデオの映像をHDRモニタに表示させる。
図48は、HDMI経由で送受信される情報に基づく認識の他の例を示す図である。
図48の左側に示すように、再生装置2は、表示装置3から読み出したEDIDの中にHDR EDIDが含まれていない場合、表示装置3がHDRモニタを有していない装置であると認識する。この場合、再生装置2は、STDビデオのデータのみを表示装置3に出力することになる。再生装置2が出力するSTDビデオのデータには、HDR InfoFrameは付加されない。
一方、図48の右側に示すように、表示装置3は、再生装置2から送信されてきたビデオデータにHDR InfoFrameが付加されていない場合、再生装置2から送信されてきたビデオデータがSTDビデオのデータであると認識する。その後、表示装置3は、STDビデオの映像をSTDモニタに表示させる。
このように、再生装置2から表示装置3に対するHDR情報の伝送を、HDMIのInfoFrameを用いて行うことが可能である。また、HDRビデオの輝度の調整を再生装置2側で行うか、表示装置3側で行うかの表示装置3から再生装置2に対する通知を、HDMIのEDIDを用いて行うことが可能である。
図49は、HDR EDIDの例を示す図である。
HDR EDIDには、モニタの最大輝度を示す情報、最大拡張レベルを示す情報、およびraw/cooked flag-1が含まれる。raw/cooked flag-1は、HDRビデオを未加工で出力するか、必要な場合にはHDRビデオの輝度の調整を行ってから出力するかを表す。
raw/cooked flag-1の値が1であることは、HDRビデオを未加工で出力すること、すなわち、輝度の調整を再生装置2側で行わないでHDRビデオを出力することを表示装置3が要求していることを表す。raw/cooked flag-1の値が1である場合、再生装置2は、HDRビデオのダイナミックレンジがモニタ104の表示性能を超える場合であっても、輝度の調整を行わないでHDRビデオを出力する。
表示装置3は、例えばHDRビデオの輝度を調整する機能を有している場合には、raw/cooked flag-1の値として1を設定する。
また、raw/cooked flag-1の値が0であることは、必要な場合にはHDRビデオの輝度の調整を再生装置2側で行ってから出力することを表示装置3が要求していることを表す。raw/cooked flag-1の値が0である場合、再生装置2は、HDRビデオのダイナミックレンジがモニタ104の表示性能を超えるときには、HDRビデオの輝度をモニタ104の表示性能に応じて調整し、調整後のHDRビデオを出力する。
表示装置3は、例えばHDRビデオの輝度を調整する機能を有していない場合には、raw/cooked flag-1の値として0を設定する。
輝度の調整を再生装置2側で行わないで表示装置3側で行う図32または図33の復号処理は、raw/cooked flag-1の値が1である場合の処理に相当する。また、輝度の調整を再生装置2側で行う図44または図45の復号処理は、raw/cooked flag-1の値が0である場合の処理に相当する。
以下、適宜、HDRビデオを未加工で再生装置2が出力することをraw出力という。また、必要な場合にHDRビデオの輝度の調整を再生装置2が行ってから出力することをcooked出力という。
図50は、HDR InfoFrameの例を示す図である。
HDR InfoFrameには、HDR情報のパラメータである、ref_screen_luminance_white、extended_range_white_level、nominal_black_level_code_value、nominal_white_level_code_value、extended_white_level_code_value、およびraw/cooked flag-2が含まれる。
また、HDR InfoFrameにはraw/cooked flag-2が含まれる。raw/cooked flag-2は、出力するHDRビデオが、輝度の調整を行っていない未加工のHDRビデオであるか、輝度調整後のHDRビデオであるか表す。
raw/cooked flag-2の値が1であることは、出力するHDRビデオが輝度の調整を再生装置2側で行っていない未加工のHDRビデオであることを表す。再生装置2は、例えば、HDR EDIDに含まれるraw/cooked flag-1の値が1である場合、raw/cooked flag-2の値として1を設定したHDR InfoFrameをHDRビデオのデータに付加して出力する。
また、raw/cooked flag-2の値が0であることは、出力するHDRビデオが輝度調整後のHDRビデオであることを表す。再生装置2は、例えば、HDR EDIDに含まれるraw/cooked flag-1の値が0であり、HDRビデオのダイナミックレンジがモニタ104の表示性能を超える場合、輝度の調整を行うとともに、raw/cooked flag-2の値として0を設定する。再生装置2は、raw/cooked flag-2の値として0を設定したHDR InfoFrameを、輝度調整後のHDRビデオのデータに付加して出力する。
輝度の調整を再生装置2側で行わない図32または図33の復号処理においては、HDR InfoFrameのraw/cooked flag-2には1の値が設定される。また、輝度の調整を再生装置2側で行うことがある図44または図45の復号処理においては、HDR InfoFrameのraw/cooked flag-2には0の値が設定されることがある。
[再生装置2と表示装置3の処理]
ここで、HDR EDIDとHDR InfoFrameを用いた再生装置2と表示装置3の処理について説明する。
はじめに、図51のフローチャートを参照して、HDR EDIDを設定する表示装置3の処理について説明する。
ステップS211において、表示装置3のコントローラ101は、raw/cooked flag-1に1または0の値を設定し、モニタの最大輝度を示す情報、最大拡張レベルを示す情報、およびraw/cooked flag-1からなるHDR EDIDをメモリ101Aに記憶させる。
ステップS212において、HDMI通信部102は、再生装置2からの要求に応じて、HDR EDIDを含む複数のEDIDをメモリ101Aから読み出し、再生装置2に送信する。
次に、図52のフローチャートを参照して、再生装置2の再生処理について説明する。図52の処理は、例えば、表示装置3において図51の処理が行われた後に開始される。
ステップS221において、コントローラ51は、ディスクドライブ52を制御し、Data Base情報であるPlayListとClip Informationを光ディスク11から読み出す。また、コントローラ51は、再生するHEVCストリームをPlayListに含まれる情報に基づいて特定し、特定したHEVCストリームを含むAVストリームを、ディスクドライブ52を制御して光ディスク11から読み出す。
ステップS222において、コントローラ51は、Clip Informationに含まれるHDR_flagとmode_flagを参照する。この例においては、マスターをHDRビデオとした記録が行われていることを示す値がHDR_flagに設定されている。
ステップS223において、コントローラ51は、HDMI通信部58を制御し、表示装置3からEDIDを読み出す。HDMI通信部58から再生装置2のHDMI通信部102に対してEDIDの読み出しが要求され、要求に応じて送信されてきた複数のEDIDがHDMI通信部58により取得される。
ステップS224において、コントローラ51は、表示装置3から読み出したEDIDの中にHDR EDIDが含まれているか否かを判定する。
HDR EDIDが含まれているとステップS224において判定した場合、コントローラ51は、表示装置3に対してHDRビデオを出力することが可能であると認識し、ステップS225において、モニタ104の表示性能を示す情報をレジスタ53Aに記憶させる。例えば、コントローラ51は、HDR EDIDに含まれるモニタの最大輝度を示す情報と最大拡張レベルを示す情報を、モニタの輝度仕様を示す情報としてPSR25に記憶させる。また、コントローラ51は、PSR25のHDR_display_capability_flagに、モニタ104がHDRビデオの表示が可能であることを示す値を設定する。
ステップS226において、コントローラ51は、HDR EDIDに含まれるraw/cooked flag-1に基づいて、表示装置3からraw出力が要求されているか否かを判定する。上述した例の場合、コントローラ51は、raw/cooked flag-1の値が1である場合にはraw出力が要求されていると判定し、0である場合にはcooked出力が要求されていると判定する。
raw出力が要求されているとステップS226において判定した場合、ステップS227において、コントローラ51は、HDRビデオをraw出力する処理であるHDR・raw出力処理を行う。
raw出力が要求されていないとステップS226において判定した場合、ステップS228において、コントローラ51は、HDRビデオをcooked出力する処理であるHDR・cooked出力処理を行う。
一方、HDR EDIDが含まれていないとステップS224において判定した場合、ステップS229において、コントローラ51は、STDビデオを出力する処理であるSTD出力処理を行う。STD出力処理によるSTDビデオの出力先は、表示装置3とは異なる、HDRモニタを有していない表示装置となる。
ステップS227,S228,S229においてビデオデータが出力された後、処理は終了される。
次に、図53のフローチャートを参照して、図52のステップS227において行われるHDR・raw出力処理について説明する。
ステップS241において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれるHEVCの符号化データをHEVCデコーダ72に出力する。
ステップS242において、HEVCデコーダ72は、HEVCの符号化データを復号する。記録モードがmode-iである場合、符号化データを復号することによって得られたHDRビデオのデータはHDRビデオ出力部75Aに供給される。また、記録モードがmode-iiである場合、符号化データを復号することによって得られたSTDビデオのデータはSTD-HDR変換部74に供給される。
ステップS243において、コントローラ51は、記録モードがmode-iであるか否かをmode_flagの値に基づいて判定する。
記録モードがmode-iiであるとステップS243において判定された場合、ステップS244において、STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、パラメータ抽出部71から供給されたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。記録モードがmode-iであるとステップS243において判定された場合、ステップS244の処理はスキップされる。
ステップS245において、HDRビデオ出力部75Aは、HDRビデオが輝度の調整を行っていない未加工のHDRビデオであることを示す1の値をraw/cooked flag-2に設定する。また、HDRビデオ出力部75Aは、パラメータ抽出部71により抽出されたHDR情報の各パラメータとraw/cooked flag-2を含むHDR InfoFrameを生成する。
ステップS246において、HDRビデオ出力部75Aは、HDR InfoFrameをHDRビデオの各フレームのデータに付加し、表示装置3に出力する。
ステップS247において、コントローラ51は、再生終了か否かを判定し、再生終了ではないと判定した場合、ステップS241に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS247において判定された場合、図52のステップS227に戻り、それ以降の処理が行われる。
次に、図54のフローチャートを参照して、図52のステップS228において行われるHDR・cooked出力処理について説明する。
ステップS261において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれるHEVCの符号化データをHEVCデコーダ72に出力する。
ステップS262において、HEVCデコーダ72は、HEVCの符号化データを復号する。記録モードがmode-iである場合、符号化データを復号することによって得られたHDRビデオのデータはHDRビデオ出力部75Aに供給される。また、記録モードがmode-iiである場合、符号化データを復号することによって得られたSTDビデオのデータはSTD-HDR変換部74に供給される。
ステップS263において、コントローラ51は、記録モードがmode-iであるか否かをmode_flagの値に基づいて判定する。
記録モードがmode-iiであるとステップS263において判定された場合、ステップS264において、STD-HDR変換部74は、HEVCデコーダ72から供給されたSTDビデオを、パラメータ抽出部71から供給されたSTD-HDR変換用のtone mapping定義情報に基づいてHDRビデオに変換する。記録モードがmode-iであるとステップS263において判定された場合、ステップS264の処理はスキップされる。
ステップS265において、コントローラ51は、HDR情報により示されるHDRビデオの輝度の特性と、HDR EDIDに含まれる情報により示されるモニタ104の性能を比較し、モニタ104にHDRビデオをそのまま表示させることができるか否かを判定する。
HDRビデオをそのまま表示させることができないとステップS265において判定した場合、ステップS266において、HDRビデオ出力部75Aの輝度調整部111は、HDRビデオの輝度をモニタ104の表示性能に応じて調整する。
ステップS267において、書き換え部112は、輝度の調整結果に基づいてHDR情報の書き換えを行う。HDRビデオをそのまま表示させることができるとステップS265において判定された場合、ステップS266,S267の処理はスキップされる。
ステップS268において、HDRビデオ出力部75Aは、raw/cooked flag-2に所定の値を設定し、HDR情報の各パラメータを含むHDR InfoFrameを生成する。
例えば、HDRビデオの輝度を調整していない場合、HDRビデオ出力部75Aは、そのことを示す1の値をraw/cooked flag-2に設定し、raw/cooked flag-2と、パラメータ抽出部71により抽出されたHDR情報の各パラメータを含むHDR InfoFrameを生成する。
一方、HDRビデオの輝度を調整した場合、HDRビデオ出力部75Aは、そのことを示す0の値をraw/cooked flag-2に設定し、raw/cooked flag-2と、書き換え後のHDR情報の各パラメータを含むHDR InfoFrameを生成する。
ステップS269において、HDRビデオ出力部75Aは、HDR InfoFrameをHDRビデオの各フレームのデータに付加し、表示装置3に出力する。
ステップS270において、コントローラ51は、再生終了か否かを判定し、再生終了ではないと判定した場合、ステップS261に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS270において判定された場合、図52のステップS228に戻り、それ以降の処理が行われる。
次に、図55のフローチャートを参照して、図52のステップS229において行われるSTD出力処理について説明する。
上述したように、図55の処理は、表示装置3とは異なる、HDRモニタを有していない表示装置にビデオデータを出力する処理である。
ステップS281において、復号処理部56のパラメータ抽出部71は、HEVCストリームのSEIからHDR情報とtone mapping定義情報を抽出する。パラメータ抽出部71は、HEVCストリームに含まれるHEVCの符号化データをHEVCデコーダ72に出力する。
ステップS282において、HEVCデコーダ72は、HEVCの符号化データを復号する。記録モードがmode-iである場合、符号化データを復号することによって得られたHDRビデオのデータはHDR-STD変換部73に供給される。また、記録モードがmode-iiである場合、符号化データを復号することによって得られたSTDビデオのデータはSTDビデオ出力部75Bに供給される。
ステップS283において、コントローラ51は、記録モードがmode-iであるか否かをmode_flagの値に基づいて判定する。
記録モードがmode-iであるとステップS283において判定された場合、ステップS284において、HDR-STD変換部73は、HEVCデコーダ72から供給されたHDRビデオを、パラメータ抽出部71から供給されたHDR-STD変換用のtone mapping定義情報に基づいてSTDビデオに変換する。記録モードがmode-iiであるとステップS283において判定された場合、ステップS284の処理はスキップされる。
ステップS285において、STDビデオ出力部75Bは、HEVCデコーダ72から供給されたSTDビデオ、またはHDR-STD変換部73から供給されたSTDビデオのデータを出力する。
ステップS286において、コントローラ51は、再生終了か否かを判定し、再生終了ではないと判定した場合、ステップS281に戻り、以上の処理を繰り返し実行する。再生終了であるとステップS286において判定された場合、図52のステップS229に戻り、それ以降の処理が行われる。
次に、図56のフローチャートを参照して、表示装置3の表示処理について説明する。
HDRモニタを有する表示装置3に対して再生装置2が送信するビデオデータにはHDR InfoFrameが付加されている。表示装置3のコントローラ101は、HDR InfoFrameに基づいて、再生装置2から送信されてくるビデオデータがHDRビデオのデータであると認識する。
ステップS301において、表示装置3のHDMI通信部102は、再生装置2から送信されてきたHDRビデオのデータを受信する。HDRビデオの各フレームのデータにはHDR InfoFrameが付加されている。
ステップS302において、コントローラ101は、HDR InfoFrameに含まれるraw/cooked flag-2に基づいて、HDRビデオのデータがraw出力されたデータであるか否かを判定する。
raw/cooked flag-2に1の値が設定されている場合、コントローラ101は、HDRビデオのデータがraw出力されたデータであると判定する。また、raw/cooked flag-2に0の値が設定されている場合、コントローラ101は、HDRビデオのデータが、cooked出力されたデータであると判定する。
HDRビデオのデータがraw出力されたデータであるとステップS302において判定された場合、ステップS303において、信号処理部103は、HDR InfoFrameに含まれるHDR情報を参照する。信号処理部103は、HDRビデオのダイナミックレンジがモニタ104の表示性能を超えているときには、適宜、HDRビデオの輝度を調整し、輝度調整後のHDRビデオの映像をモニタ104に表示させる。
一方、HDRビデオのデータがcooked出力されたデータであるとステップS302において判定された場合、ステップS304において、信号処理部103は、HDR InfoFrameに含まれるHDR情報に従って、HDRビデオの映像をモニタ104に表示させる。
ステップS303、またはステップS304においてHDRビデオの映像が表示された後、ステップS305において、コントローラ101は、HDRビデオの表示を終了するか否かを判定し、終了しないと判定した場合、ステップS301以降の処理を繰り返す。ステップS305において表示を終了すると判定した場合、コントローラ101は、処理を終了させる。
以上の一連の処理により、再生装置2は、HDMIのInfoFrameを用いてHDR情報を表示装置3に伝送することができる。また、表示装置3は、HDRビデオの輝度の調整を再生装置2側で行うか、表示装置3側で行うかを、HDMIのEDIDを用いて要求することができる。
<9.他の変形例>
HDRビデオのデータを再生装置2から表示装置3に送信する場合、HDR情報を付加して送信するものとしたが、HDR情報を付加しないで送信するようにしてもよい。
また、再生装置2がBD Playerである場合について主に説明したが、再生装置2が有する上述した機能を携帯端末に搭載するようにしてもよい。この場合、携帯端末が再生装置2としての役割を有することになる。
さらに、再生装置2が再生するコンテンツがリムーバブルメディアに記録されたコンテンツであるとしたが、上述した技術は、ネットワークを介して配信されたコンテンツを再生する場合にも適用可能である。この場合、再生装置2は、インターネットなどのネットワークを介して接続されたサーバから送信されてきたコンテンツを受信し、再生してHDRビデオを表示装置3に出力することになる。
[コンピュータの構成例]
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図57は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU501、ROM502、RAM503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウスなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507が接続される。また、入出力インタフェース505には、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、リムーバブルメディア511を駆動するドライブ510が接続される。
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを入出力インタフェース505及びバス504を介してRAM503にロードして実行することにより、上述した一連の処理が行われる。
CPU501が実行するプログラムは、例えばリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部508にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
[構成の組み合わせ例]
本技術は、以下のような構成をとることもできる。
(1)
第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの符号化データ、前記拡張ビデオの輝度の特性を示す輝度特性情報、および、前記拡張ビデオから前記第1の輝度範囲のビデオである標準ビデオへの輝度変換を行うときに用いられる輝度変換定義情報を記録した記録媒体から、前記符号化データ、前記輝度特性情報、および前記輝度変換定義情報を読み出す読み出し部と、
前記符号化データを復号する復号部と、
前記輝度変換定義情報に基づいて、前記符号化データを復号して得られた前記拡張ビデオを前記標準ビデオに変換する変換部と、
前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオのデータと前記輝度特性情報を出力し、前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオのデータを出力する出力部と
を備える再生装置。
(2)
前記輝度特性情報と前記輝度変換定義情報は、前記符号化データを含むストリームに前記符号化データの補助情報として挿入され、前記記録媒体に記録される
前記(1)に記載の再生装置。
(3)
前記符号化データはHEVCの符号化データであり、前記輝度特性情報と前記輝度変換定義情報はHEVCストリームのSEIである
前記(2)に記載の再生装置。
(4)
前記輝度変換定義情報は、tone_map_model_idの値として0,2,3のうちのいずれかの値が設定された第1のTone mapping informationであり、
前記輝度特性情報は、tone_map_model_idの値として4が設定された第2のTone mapping informationである
前記(3)に記載の再生装置。
(5)
前記第1のTone mapping informationと前記第2のTone mapping informationのtone_map_model_idには、前記記録媒体の記録モードを表す同じ値が設定される
前記(4)に記載の再生装置。
(6)
前記記録媒体には、前記拡張ビデオをマスターとした記録が行われているか否かを示すフラグを含む、前記符号化データの再生に関する情報がさらに記録されており、
前記復号部は、前記拡張ビデオをマスターとした記録が行われていることが前記フラグにより示される場合に、前記符号化データの復号を行う
前記(1)乃至(5)のいずれかに記載の再生装置。
(7)
前記記録媒体はブルーレイディスクであり、
前記フラグは、前記再生に関する情報としてのClip Informationファイルに含まれる
前記(6)に記載の再生装置。
(8)
前記記録媒体はブルーレイディスクであり、
前記フラグは、前記再生に関する情報としてのPlayListファイルに含まれる
前記(6)に記載の再生装置。
(9)
第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの符号化データ、前記拡張ビデオの輝度の特性を示す輝度特性情報、および、前記拡張ビデオから前記第1の輝度範囲のビデオである標準ビデオへの輝度変換を行うときに用いられる輝度変換定義情報を記録した記録媒体から、前記符号化データ、前記輝度特性情報、および前記輝度変換定義情報を読み出し、
前記符号化データを復号し、
前記輝度変換定義情報に基づいて、前記符号化データを復号して得られた前記拡張ビデオを前記標準ビデオに変換し、
前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオのデータと前記輝度特性情報を出力し、
前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオのデータを出力する
ステップを含む再生方法。
(10)
第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの符号化データと、 前記拡張ビデオの輝度の特性を示す輝度特性情報と、
前記拡張ビデオから前記第1の輝度範囲のビデオである標準ビデオへの輝度変換を行うときに用いられる輝度変換定義情報と
を記録した記録媒体であって、
前記記録媒体を再生する再生装置においては、
前記符号化データ、前記輝度特性情報、および前記輝度変換定義情報を前記記録媒体から読み出し、
前記符号化データを復号し、
前記輝度変換定義情報に基づいて、前記符号化データを復号して得られた前記拡張ビデオを前記標準ビデオに変換し、
前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオのデータと前記輝度特性情報を出力し、
前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオのデータを出力する
処理が行われる記録媒体。
(11)
第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの輝度変換を行って得られた、前記第1の輝度範囲のビデオである標準ビデオの符号化データ、前記拡張ビデオの輝度の特性を示す輝度特性情報、および、前記標準ビデオから前記拡張ビデオへの輝度変換を行うときに用いられる輝度変換定義情報を記録した記録媒体から、前記符号化データ、前記輝度特性情報、および前記輝度変換定義情報を読み出す読み出し部と、
前記符号化データを復号する復号部と、
前記輝度変換定義情報に基づいて、前記符号化データを復号して得られた前記標準ビデオを前記拡張ビデオに変換する変換部と、
前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオのデータと前記輝度特性情報を出力し、前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオのデータを出力する出力部と
を備える再生装置。
(12)
前記輝度特性情報と前記輝度変換定義情報は、前記符号化データを含むストリームに前記符号化データの補助情報として挿入され、前記記録媒体に記録される
前記(11)に記載の再生装置。
(13)
前記符号化データはHEVCの符号化データであり、前記輝度特性情報と前記輝度変換定義情報はHEVCストリームのSEIである
前記(12)に記載の再生装置。
(14)
前記輝度変換定義情報は、tone_map_model_idの値として0,2,3のうちのいずれかの値が設定された第1のTone mapping informationであり、
前記輝度特性情報は、tone_map_model_idの値として4が設定された第2のTone mapping informationである
前記(13)に記載の再生装置。
(15)
前記第1のTone mapping informationと前記第2のTone mapping informationのtone_map_model_idには、前記記録媒体の記録モードを表す同じ値が設定される
前記(14)に記載の再生装置。
(16)
前記記録媒体には、前記拡張ビデオをマスターとした記録が行われているか否かを示すフラグを含む、前記符号化データの再生に関する情報がさらに記録されており、
前記復号部は、前記拡張ビデオをマスターとした記録が行われていることが前記フラグにより示される場合に、前記符号化データの復号を行う
前記(11)乃至(15)のいずれかに記載の再生装置。
(17)
前記記録媒体はブルーレイディスクであり、
前記フラグは、前記再生に関する情報としてのClip Informationファイルに含まれる
前記(16)に記載の再生装置。
(18)
前記記録媒体はブルーレイディスクであり、
前記フラグは、前記再生に関する情報としてのPlayListファイルに含まれる
前記(16)に記載の再生装置。
(19)
第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの輝度変換を行って得られた、前記第1の輝度範囲のビデオである標準ビデオの符号化データ、前記拡張ビデオの輝度の特性を示す輝度特性情報、および、前記標準ビデオから前記拡張ビデオへの輝度変換を行うときに用いられる輝度変換定義情報を記録した記録媒体から、前記符号化データ、前記輝度特性情報、および前記輝度変換定義情報を読み出し、
前記符号化データを復号し、
前記輝度変換定義情報に基づいて、前記符号化データを復号して得られた前記標準ビデオを前記拡張ビデオに変換し、
前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオのデータと前記輝度特性情報を出力し、
前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオのデータを出力する
ステップを含む再生方法。
(20)
第1の輝度範囲より広い第2の輝度範囲のビデオである拡張ビデオの輝度変換を行って得られた、前記第1の輝度範囲のビデオである標準ビデオの符号化データと、
前記拡張ビデオの輝度の特性を示す輝度特性情報と、
前記標準ビデオから前記拡張ビデオへの輝度変換を行うときに用いられる輝度変換定義情報と
を記録した記録媒体であって、
前記記録媒体を再生する再生装置においては、
前記符号化データ、前記輝度特性情報、および前記輝度変換定義情報を前記記録媒体から読み出し、
前記符号化データを復号し、
前記輝度変換定義情報に基づいて、前記符号化データを復号して得られた前記標準ビデオを前記拡張ビデオに変換し、
前記拡張ビデオを表示可能な表示装置に対して、前記拡張ビデオのデータと前記輝度特性情報を出力し、
前記拡張ビデオを表示することができない表示装置に対して、前記標準ビデオのデータを出力する
処理が行われる記録媒体。
1 記録装置, 2 再生装置, 3 表示装置, 11 光ディスク, 21 コントローラ, 21A Data Base情報生成部, 22 符号化処理部, 23 ディスクドライブ, 31 HDR情報生成部, 32 HEVCエンコーダ, 33 HDR-STD変換部, 34 定義情報生成部, 35 HEVCストリーム生成部, 51 コントローラ, 52 ディスクドライブ, 53 メモリ, 56 復号処理部, 58 HDMI通信部, 71 パラメータ抽出部, 72 HEVCデコーダ, 73 HDR-STD変換部, 74 STD-HDR変換部, 75 出力部

Claims (8)

  1. HDRビデオの表示に対応した表示部と、
    前記表示部の輝度の性能情報に基づいて再生装置により再生され、前記再生装置から出力されたHDRビデオと、輝度の特性を示す輝度特性情報とを受信する通信部と、
    前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有している場合、前記再生装置から出力されたHDRビデオの輝度を圧縮しないで前記表示部に映像を表示させ、前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有していない場合、前記再生装置から出力されたHDRビデオの輝度を前記輝度特性情報に基づいて圧縮した後、前記表示部に映像を表示させる制御部と
    を備える表示装置。
  2. 前記輝度特性情報には、標準となるモニタの輝度を示すパラメータが含まれる
    請求項1に記載の表示装置。
  3. 前記輝度特性情報には、さらに、黒のレベルを示すパラメータと、白のレベルを示すパラメータが含まれる
    請求項2に記載の表示装置。
  4. 前記制御部は、前記輝度の性能情報により表される輝度範囲と、前記輝度特性情報により表される輝度範囲とを比較することによって、前記再生装置から出力されたHDRビデオの輝度の圧縮を行うか否かを決定する
    請求項1乃至3のいずれかに記載の表示装置。
  5. 前記再生装置から出力されたHDRビデオの輝度を前記輝度特性情報に基づいて圧縮する信号処理部をさらに備える
    請求項1乃至4のいずれかに記載の表示装置。
  6. 前記再生装置から出力されたHDRビデオは、前記輝度特性情報を含む符号化データをデコードして得られたHDRビデオ、または、前記輝度特性情報を含む符号化データをデコードして得られたビデオの輝度を拡張して得られたHDRビデオである
    請求項1乃至5のいずれかに記載の表示装置。
  7. 前記再生装置による輝度の拡張は、前記符号化データに含まれる輝度変換定義情報に基づいて行われる
    請求項6に記載の表示装置。
  8. HDRビデオの表示に対応した表示部を有する表示装置が、
    前記表示部の輝度の性能情報に基づいて再生装置により再生され、前記再生装置から出力されたHDRビデオと、輝度の特性を示す輝度特性情報とを受信し、
    前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有している場合、前記再生装置から出力されたHDRビデオの輝度を圧縮しないで前記表示部に映像を表示させ、
    前記再生装置から出力されたHDRビデオを表示可能な輝度の性能を前記表示部が有していない場合、前記再生装置から出力されたHDRビデオの輝度を前記輝度特性情報に基づいて圧縮した後、前記表示部に映像を表示させる
    表示制御方法。
JP2018216198A 2013-06-20 2018-11-19 表示装置、表示制御方法 Active JP6598966B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019181459A JP7458736B2 (ja) 2013-06-20 2019-10-01 表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013129993 2013-06-20
JP2013129993 2013-06-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015522747A Division JP6464083B2 (ja) 2013-06-20 2014-06-06 再生装置、再生方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019181459A Division JP7458736B2 (ja) 2013-06-20 2019-10-01 表示装置

Publications (2)

Publication Number Publication Date
JP2019071613A JP2019071613A (ja) 2019-05-09
JP6598966B2 true JP6598966B2 (ja) 2019-10-30

Family

ID=52104485

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2015522747A Active JP6464083B2 (ja) 2013-06-20 2014-06-06 再生装置、再生方法
JP2018216198A Active JP6598966B2 (ja) 2013-06-20 2018-11-19 表示装置、表示制御方法
JP2019181459A Active JP7458736B2 (ja) 2013-06-20 2019-10-01 表示装置
JP2022010704A Pending JP2022051787A (ja) 2013-06-20 2022-01-27 信号処理装置および方法
JP2024014890A Pending JP2024042071A (ja) 2013-06-20 2024-02-02 表示装置および表示制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015522747A Active JP6464083B2 (ja) 2013-06-20 2014-06-06 再生装置、再生方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2019181459A Active JP7458736B2 (ja) 2013-06-20 2019-10-01 表示装置
JP2022010704A Pending JP2022051787A (ja) 2013-06-20 2022-01-27 信号処理装置および方法
JP2024014890A Pending JP2024042071A (ja) 2013-06-20 2024-02-02 表示装置および表示制御方法

Country Status (14)

Country Link
US (6) US9774819B2 (ja)
EP (2) EP3896959A1 (ja)
JP (5) JP6464083B2 (ja)
KR (1) KR102294106B1 (ja)
CN (2) CN105284106B8 (ja)
AU (1) AU2014282416B2 (ja)
CA (1) CA2914978C (ja)
HK (1) HK1218479A1 (ja)
MX (1) MX353125B (ja)
MY (1) MY178948A (ja)
PH (1) PH12015502736A1 (ja)
RU (1) RU2656880C2 (ja)
TW (1) TWI607652B (ja)
WO (1) WO2014203746A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2914978C (en) * 2013-06-20 2022-05-03 Sony Corporation Reproduction device, reproduction method, and recording medium
JP2015008360A (ja) 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
CN110798641B (zh) 2013-06-24 2022-05-17 索尼公司 再现装置、再现方法以及记录介质
EP3021573B1 (en) * 2013-07-12 2019-09-04 Sony Corporation Player device, play method, and recording medium
EP3051535B1 (en) * 2013-09-27 2020-12-30 Sony Corporation Reproduction device, reproduction method, and recording medium
EP3157251B1 (en) * 2014-06-16 2019-08-21 Panasonic Intellectual Property Management Co., Ltd. Playback method and playback apparatus
CN105493490B (zh) * 2014-06-23 2019-11-29 松下知识产权经营株式会社 变换方法和变换装置
JP6466258B2 (ja) * 2014-08-07 2019-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
WO2016021120A1 (ja) 2014-08-07 2016-02-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、再生方法および記録媒体
EP3118854B1 (en) * 2014-09-10 2019-01-30 Panasonic Intellectual Property Corporation of America Recording medium, playback device, and playback method
WO2016039169A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
JP2016062637A (ja) * 2014-09-12 2016-04-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置、および再生方法
JP2020022179A (ja) * 2014-11-04 2020-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生方法、プログラムおよび再生装置
JP6591436B2 (ja) * 2014-11-04 2019-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生方法、再生装置およびプログラム
PL3217672T3 (pl) * 2014-11-07 2021-08-16 Sony Corporation Urządzenie nadawcze, sposób nadawania, urządzenie odbiorcze i sposób odbioru
CN107113457B (zh) * 2014-12-29 2020-12-04 索尼公司 发送装置、发送方法、接收装置和接收方法
KR102423434B1 (ko) * 2015-02-17 2022-07-22 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JP6702300B2 (ja) 2015-03-05 2020-06-03 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
EP3276949A4 (en) * 2015-03-27 2018-04-25 Panasonic Intellectual Property Management Co., Ltd. Signal processing device, record/replay device, signal processing method, and program
US20160307603A1 (en) * 2015-04-15 2016-10-20 Sony Corporation Information processing device, information recording medium, information processing method, and program
US10616617B2 (en) * 2015-04-23 2020-04-07 Lg Electronics Inc. Method and apparatus for transmitting or receiving broadcast signal
KR102337159B1 (ko) * 2015-05-21 2021-12-08 삼성전자주식회사 컨텐츠 출력 장치 및 방법과, 디스플레이 장치
US10477176B2 (en) * 2015-08-24 2019-11-12 Sharp Kabushiki Kaisha Reception device, broadcast system, reception method, and program
US20180241925A1 (en) * 2015-09-18 2018-08-23 Sharp Kabushiki Kaisha Reception device, reception method, and program
US10200690B2 (en) * 2015-09-22 2019-02-05 Qualcomm Incorporated Video decoder conformance for high dynamic range (HDR) video coding using a core video standard
WO2017051808A1 (ja) * 2015-09-25 2017-03-30 日立マクセル株式会社 放送受信装置
US10587852B2 (en) * 2015-10-06 2020-03-10 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
CN108702479A (zh) * 2016-02-19 2018-10-23 索尼公司 信息处理设备、信息处理方法和程序
WO2017145722A1 (ja) * 2016-02-26 2017-08-31 ソニー株式会社 情報処理装置、表示装置、情報記録媒体、および情報処理方法、並びにプログラム
JP6253036B2 (ja) * 2016-03-31 2017-12-27 シャープ株式会社 コンテンツ処理装置、テレビジョン受信装置、コンテンツ処理装置における情報処理方法、プログラム
US20170353704A1 (en) * 2016-06-01 2017-12-07 Apple Inc. Environment-Aware Supervised HDR Tone Mapping
JP6647162B2 (ja) * 2016-07-08 2020-02-14 三菱電機株式会社 映像記録装置、映像再生装置、記録方法、及び再生方法
EP3522527B1 (en) * 2016-09-29 2023-09-06 Panasonic Intellectual Property Management Co., Ltd. Reproduction method, creation method, reproduction device, and creation device
US10218952B2 (en) 2016-11-28 2019-02-26 Microsoft Technology Licensing, Llc Architecture for rendering high dynamic range video on enhanced dynamic range display devices
US10104334B2 (en) 2017-01-27 2018-10-16 Microsoft Technology Licensing, Llc Content-adaptive adjustment of display device brightness levels when rendering high dynamic range content
US10176561B2 (en) 2017-01-27 2019-01-08 Microsoft Technology Licensing, Llc Content-adaptive adjustments to tone mapping operations for high dynamic range content
CN109691119B (zh) * 2017-06-21 2022-04-19 松下知识产权经营株式会社 影像显示系统及影像显示方法
CN111344787B (zh) * 2017-11-17 2021-12-17 索尼公司 信息处理装置和方法、存储介质、回放装置、及回放方法
TW201946474A (zh) * 2018-04-30 2019-12-01 圓剛科技股份有限公司 影像錄製設定方法
TWI808970B (zh) 2018-04-30 2023-07-21 圓剛科技股份有限公司 影像訊號轉換裝置
US10957024B2 (en) 2018-10-30 2021-03-23 Microsoft Technology Licensing, Llc Real time tone mapping of high dynamic range image data at time of playback on a lower dynamic range display
JP7369574B2 (ja) * 2019-09-19 2023-10-26 日本放送協会 映像変換装置及びそのプログラム
EP4092132A4 (en) 2020-01-16 2024-03-20 Ricoh Co Ltd SAMPLE FOR EVALUATING THE PERFORMANCE OF A GENETIC TESTING APPARATUS, METHOD FOR PREPARING SAID SAMPLE, AND PERFORMANCE EVALUATION DEVICE, PERFORMANCE EVALUATION METHOD, PERFORMANCE EVALUATION PROGRAM, AND PERFORMANCE EVALUATION APPARATUS 'A GENETIC TESTING DEVICE
CN114827484B (zh) * 2022-04-22 2023-10-20 咪咕视讯科技有限公司 视频画质增强方法、装置、设备及存储介质

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933567A (en) * 1993-01-13 1999-08-03 Hitachi America, Ltd. Method and apparatus for controlling the position of the heads of a digital video tape recorder during trick play operation and for recording digital data on a tape
US20030128970A1 (en) 2002-01-10 2003-07-10 Koninklijke Philips Electronics N.V. System and method for providing high definition material on a standard definition compatible medium
JP2004102063A (ja) * 2002-09-11 2004-04-02 Canon Inc 画像表示装置とその制御方法並びにマルチディスプレイシステム
US20080101770A1 (en) * 2003-09-04 2008-05-01 Digital Networks North America, Inc. Method and Apparatus for Remotely Controlling a Receiver According to Content and User Selection
CN1860781A (zh) * 2003-09-29 2006-11-08 皇家飞利浦电子股份有限公司 通过调制视频信号亮度等级在视频信号中传输数据的系统和方法
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
JP4412720B2 (ja) 2004-06-24 2010-02-10 キヤノン株式会社 映像処理方法及び装置
CN101027726A (zh) * 2004-08-17 2007-08-29 Lg电子株式会社 再现记录介质和本地存储上所记录的数据的方法和装置
US8417099B2 (en) * 2005-08-26 2013-04-09 Panasonic Corporation Multiplexing method and recording medium
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
JP4208001B2 (ja) * 2006-08-22 2009-01-14 船井電機株式会社 動画像再生装置及びdvdプレイヤ
JP5142554B2 (ja) * 2007-02-26 2013-02-13 キヤノン株式会社 記録制御装置及び記録制御装置の制御方法
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
JP5072489B2 (ja) 2007-08-30 2012-11-14 株式会社ジャパンディスプレイウェスト 表示装置およびその駆動方法、電子機器
JP5242111B2 (ja) 2007-10-02 2013-07-24 株式会社ソニー・コンピュータエンタテインメント 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法
JP4715904B2 (ja) 2008-11-05 2011-07-06 ソニー株式会社 画像処理装置、画像処理方法、および通信システム
CN102077585A (zh) * 2009-03-26 2011-05-25 松下电器产业株式会社 影像加工装置、影像加工方法、影像加工集成电路、影像再现装置
JP4915459B2 (ja) * 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4984181B2 (ja) * 2009-06-22 2012-07-25 ソニー株式会社 再生装置および再生方法
JP5509892B2 (ja) * 2010-02-04 2014-06-04 ヤマハ株式会社 オーディオ・ビデオ機器
JP5577415B2 (ja) * 2010-02-22 2014-08-20 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
JP5594002B2 (ja) * 2010-04-06 2014-09-24 ソニー株式会社 画像データ送信装置、画像データ送信方法および画像データ受信装置
JP5577805B2 (ja) * 2010-04-08 2014-08-27 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US20110274156A1 (en) * 2010-05-05 2011-11-10 Cavium Networks System and method for transmitting multimedia stream
CN103180891B (zh) * 2010-07-22 2015-09-02 杜比实验室特许公司 显示器管理服务器
JP5783512B2 (ja) 2010-07-26 2015-09-24 シャープ株式会社 発光装置
WO2012147010A1 (en) * 2011-04-28 2012-11-01 Koninklijke Philips Electronics N.V. Method and apparatus for generating an image coding signal
MX2013012976A (es) * 2011-05-10 2013-12-06 Koninkl Philips Nv Generacion y procesamiento de señal de imagen de intervalo dinamico alto.
BR112013031870B1 (pt) * 2011-06-14 2022-05-10 Koninklijke Philips N.V. Dispositivo para processar informações de vídeo, sinal de vídeo para transferir informações de vídeo a um dispositivo de processamento de vídeo, portador de registro óptico, dispositivo para gerar informações de vídeo, método de processar informações de vídeo e método de gerar informações de vídeo para transferir a um dispositivo de processamento de vídeo
UA116082C2 (uk) * 2011-09-27 2018-02-12 Конінклійке Філіпс Н.В. Пристрій та спосіб для перетворення динамічного діапазону зображень
CA2914978C (en) * 2013-06-20 2022-05-03 Sony Corporation Reproduction device, reproduction method, and recording medium
US10271054B2 (en) * 2014-02-25 2019-04-23 Apple, Inc. Display-side adaptive video processing

Also Published As

Publication number Publication date
EP3896959A1 (en) 2021-10-20
CA2914978A1 (en) 2014-12-24
WO2014203746A1 (ja) 2014-12-24
CN105284106B (zh) 2019-09-10
EP3013040A1 (en) 2016-04-27
US20230040490A1 (en) 2023-02-09
HK1218479A1 (zh) 2017-02-17
AU2014282416A1 (en) 2015-12-24
US20210329194A1 (en) 2021-10-21
TW201509191A (zh) 2015-03-01
US20180338110A1 (en) 2018-11-22
JP2019071613A (ja) 2019-05-09
US20160269676A1 (en) 2016-09-15
US11516428B2 (en) 2022-11-29
JP7458736B2 (ja) 2024-04-01
CN105284106B8 (zh) 2020-01-24
JP6464083B2 (ja) 2019-02-06
CN110867198B (zh) 2022-02-25
JP2024042071A (ja) 2024-03-27
CN110867198A (zh) 2020-03-06
KR20160022305A (ko) 2016-02-29
BR112015030507A2 (pt) 2017-07-25
MY178948A (en) 2020-10-23
RU2015152131A (ru) 2017-06-08
RU2656880C2 (ru) 2018-06-07
CN105284106A (zh) 2016-01-27
US11089260B2 (en) 2021-08-10
US10638085B2 (en) 2020-04-28
MX353125B (es) 2017-12-20
US10070097B2 (en) 2018-09-04
JP2020005315A (ja) 2020-01-09
AU2014282416B2 (en) 2017-11-23
CA2914978C (en) 2022-05-03
EP3013040A4 (en) 2016-12-28
JP2022051787A (ja) 2022-04-01
US20160134832A1 (en) 2016-05-12
US9774819B2 (en) 2017-09-26
KR102294106B1 (ko) 2021-08-27
JPWO2014203746A1 (ja) 2017-02-23
MX2015017079A (es) 2016-03-16
PH12015502736A1 (en) 2016-03-07
US20200228749A1 (en) 2020-07-16
TWI607652B (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
JP6598966B2 (ja) 表示装置、表示制御方法
KR102266224B1 (ko) 재생 장치, 재생 방법 및 기록 매체
JP6628117B2 (ja) 再生装置、再生方法
JP6617940B2 (ja) 再生装置、再生方法
WO2014208346A1 (ja) 再生装置、再生方法、および記録媒体
JPWO2015005189A1 (ja) 再生装置、再生方法、および記録媒体
WO2014208345A1 (ja) 再生装置、再生方法、および記録媒体
JPWO2015025726A1 (ja) 再生装置、再生方法、および記録媒体
WO2014208347A1 (ja) 再生装置、再生方法、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R150 Certificate of patent or registration of utility model

Ref document number: 6598966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250