JP7117664B2 - 映像処理システム及び映像処理方法 - Google Patents

映像処理システム及び映像処理方法 Download PDF

Info

Publication number
JP7117664B2
JP7117664B2 JP2018551487A JP2018551487A JP7117664B2 JP 7117664 B2 JP7117664 B2 JP 7117664B2 JP 2018551487 A JP2018551487 A JP 2018551487A JP 2018551487 A JP2018551487 A JP 2018551487A JP 7117664 B2 JP7117664 B2 JP 7117664B2
Authority
JP
Japan
Prior art keywords
video
luminance
dynamic
hdr
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018551487A
Other languages
English (en)
Other versions
JPWO2019008818A1 (ja
Inventor
雅之 小塚
雅哉 山本
歳朗 西尾
和彦 甲野
吉一郎 柏木
健 廣田
洋 矢羽田
美裕 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2019008818A1 publication Critical patent/JPWO2019008818A1/ja
Application granted granted Critical
Publication of JP7117664B2 publication Critical patent/JP7117664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial
    • G09G2370/047Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial using display data channel standard [DDC] communication
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Picture Signal Circuits (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Television Receiver Circuits (AREA)

Description

本開示は、映像信号を処理する映像処理システム及び映像処理方法に関する。
特許文献1には、HDR(High Dynamic Range)映像において、動的HDRメタデータに基づいてHDR信号の表示方法を更新する表示装置について記載されている。
特開2017-184249号公報
White Paper Blu-ray Disc Read-Only Format (Ultra HD Blu-ray), Audio Visual Application Format Specifications for BD-ROM Version 3.1, August 2016(http://www.blu-raydisc.com/Assets/Downloadablefile/BD-ROM_Part3_V3.1_WhitePaper_160729_clean.pdf)
本開示は、表示する映像の質を向上できる映像処理システム又は映像処理方法を提供する。
本開示の一態様に係る映像処理システムは、主映像を含む映像データを取得する第1取得部と、表示装置が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する第2取得部と、前記映像データが示す映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成部と、前記生成部により生成された前記第1特性情報を出力する出力部と、を備える。
本開示は、表示する映像の質を向上できる映像処理システム又は映像処理方法を提供できる。
図1は、映像技術の進化について説明するための図である。 図2は、コンテンツに新たな映像表現を導入するときの、映像制作、配信方式、及び表示装置の関係について説明するための図である。 図3Aは、トーンマップの一例を示す図である。 図3Bは、トーンマップの一例を示す図である。 図4Aは、スタティックトーンマップの一例を示す図である。 図4Bは、ダイナミックトーンマップの一例を示す図である。 図5Aは、HDRおよびSDRのそれぞれに対応したEOTF(Electro-Optical Transfer Function)の例について示す図である。 図5Bは、HDRおよびSDRのそれぞれに対応した逆EOTFの例について示す図である。 図6は、動画にグラフィックスを重畳して表示する例を示す図である。 図7は、主映像にグラフィックスが重畳されたときのダイナミックトーンマップの影響を示す図である。 図8Aは、HDR方式の確認方法の一例を示すメインフローである。 図8Bは、図8Aのメインフローにおいて、主映像が対応している方式を確認する方法の一例を示すサブフローである。 図8Cは、図8Aのメインフローにおいて、映像表示装置が対応している方式を確認する方法の一例を示すサブフローである。 図9Aは、第1オプションに対応しているダイナミックメタデータの構成例を示す図である。 図9Bは、第2オプションに対応しているダイナミックメタデータの構成例を示す図である。 図10は、実施の形態1に係る映像処理システムの構成を示すブロック図である。 図11Aは、実施の形態1に係る映像再生装置の動作を示すフローチャートである。 図11Bは、実施の形態1に係る映像表示装置の動作を示すフローチャートである。 図12は、ダイナミックメタデータの他の構成例を示す図である。 図13は、実施の形態2に係る映像処理システムの構成を示すブロック図である。 図14は、実施の形態2に係る映像再生装置の動作を示すフローチャートである。 図15は、実施の形態3の第1の例に係る映像処理システムの構成を示すブロック図である。 図16は、実施の形態3の第1の例に係る映像表示装置の動作を示すフローチャートである。 図17は、実施の形態3の第2の例に係る映像処理システムの構成を示すブロック図である。 図18は、実施の形態3の第2の例に係る映像表示装置の動作を示すフローチャートである。 図19は、実施の形態4に係る映像処理システムの構成を示すブロック図である。 図20は、トーンマップ処理部の構成を示すブロック図である。 図21は、実施の形態4に係るダイナミックメタデータの構成例を示す図である。 図22Aは、グラフィックスが字幕である場合における、従来のダイナミックトーンマップによる字幕の輝度の変化を示す図である。 図22Bは、トーンマップによる輝度の変化を示す図である。 図23は、トーンマップによる輝度の変化を示す図である。 図24は、実施の形態5に係る映像処理システム100Eの構成を示すブロック図である。
本発明の一態様に係る映像処理システムは、主映像を含む映像データを取得する第1取得部と、表示装置が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する第2取得部と、前記映像データが示す映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成部と、前記生成部により生成された前記第1特性情報を出力する出力部と、を備える。
また、前記映像データは、さらに、前記主映像の前記動的輝度特性を示す第2特性情報を含み、前記生成部は、前記第2特性情報が示す第2動的輝度特性の輝度ダイナミックレンジの方式を、前記表示方式に変換することで、前記第1特性情報を生成してもよい。
また、前記生成部は、前記映像データの前記主映像を解析することで、前記主映像の前記動的輝度特性を示す第2動的輝度特性を抽出し、抽出した前記第2動的輝度特性の輝度ダイナミックレンジの方式を、前記表示方式に変換することで、前記第1特性情報を生成してもよい。
また、さらに、前記出力部により出力された前記第1特性情報が示す第1動的輝度特性に応じた変換カーブを用いて前記主映像の輝度を変換するトーンマップ処理を行うトーンマップ処理部と、前記トーンマップ処理後の映像を表示する表示部と、を備えてもよい。
また、さらに、前記主映像にグラフィックスを合成することで合成映像を生成する合成部と、前記グラフィックスの輝度特性を抽出する抽出部と、を備え、前記出力部は、さらに、前記合成映像と、前記グラフィックスの輝度特性を示す第3特性情報とを出力してもよい。
また、さらに、前記出力部により出力された前記第1特性情報が示す第1動的輝度特性に応じた変換カーブを用いて前記主映像の輝度を変換するトーンマップ処理を行うトーンマップ処理部と、前記トーンマップ処理後の映像を表示する表示部とを備え、前記トーンマップ処理部は、前記合成部において合成映像が生成される場合、前記第1特性情報が示す前記第1動的輝度特性が、前記第3特性情報が示す前記グラフィックスの輝度特性以上である映像の第1区間では、当該第1区間における前記主映像の輝度を当該第1区間における前記第1動的輝度特性に応じて、前記変換カーブを時系列に変更する第1トーンマップ処理を行い、前記第1動的輝度特性が前記グラフィックスの輝度特性未満である映像の第2区間では、当該第2区間における前記主映像の輝度を当該第2区間における前記第1動的輝度特性に依らず、一定の変換カーブを用いる第2トーンマップ処理を行ってもよい。
また、本発明の一態様に係る映像処理方法は、映像処理システムにおける映像処理方法であって、主映像を含む映像データを取得する第1取得ステップと、表示装置が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する第2取得ステップと、前記映像データが示す映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成ステップと、前記生成ステップにおいて生成された前記第1特性情報を出力する出力ステップと、を含む。
[1-1.背景]
まず、映像技術の変遷について、図1を用いて説明する。図1は、映像技術の進化について説明するための図である。
これまで、映像の高画質化としては、表示画素数の拡大に主眼がおかれ、Standard Definition(SD)の720×480画素から、High Definition(HD)の1920×1080画素の映像が普及している。
近年、更なる高画質化を目指して、Ultra High Definition(UHD)の3840×1920画素、あるいは、4Kの4096×2048画素の、所謂4K映像の導入が開始された。
4Kの導入と共に、ダイナミックレンジ拡張、色域拡大、又は、フレームレートの追加或いは向上なども検討されている。
その中でも、ダイナミックレンジについては、暗部階調を維持しつつ、現行のテレビ信号で表現不能な鏡面反射光などの明るい光を、より現実に近い明るさで表現するための方式として、HDR(High Dynamic Range)が注目されている。具体的には、これまでのテレビ信号は、SDR(Standard Dynamic Range)と呼ばれ、最高輝度が100nitであった。これに対して、HDRでは1000nit以上まで最高輝度を拡大することが想定されている。HDRは、SMPTE(Society of Motion Picture & Television Engineers)、及びITU-R(International Telecommunications Union Radiocommunications Sector)などにおいて、マスタリングディスプレー用規格の標準化が進行中である。
HDRの具体的な適用先としては、HD及びUHDと同様に、放送、パッケージメディア(Blu-ray(登録商標) Disc等)、及びインターネット配信などが想定されている。
[1-2.マスター生成、配信方式、及び表示装置の関係]
図2は、コンテンツに新たな映像表現を導入するときの、映像制作、配信方式、及び表示装置の関係について説明するための図である。
映像の高画質化のために新たな映像表現(画素数の増加等)を導入する場合には、図2に示すように、(1)映像制作側のHome Entertainment向けマスターを変更する必要がある。それに応じて、(2)放送、通信、及びパッケージメディア等の配信方式も、(3)その映像を表示するテレビ、又はプロジェクター等の表示装置も更新する必要がある。
[1-3.トーンマップ]
トーンマップ(Tone Mapping)は、HDR映像の輝度と映像表示装置の最大輝度(Display Peak Luminance:DPL)との関係から、映像の最大輝度(Maximum Content Luminance Level:MaxCLL)がDPLを超える場合に、映像の輝度を変換し、映像の輝度をDPL以内に収める処理である。この処理により、映像の最大輝度付近の情報を失うことなく映像を表示できる。この変換は、映像表示装置の特性にも依存し、どのように表示するかの考え方にも依存するので、映像表示装置毎に異なった変換カーブが用いられる。
図3A及び図3Bは、トーンマップの一例を示す図である。図3Aは、DPLが500nitの場合を示し、図3Bは、DPLが1000nitの場合を示す。また、図3A及び図3Bは、MaxCLLが1000nitの映像を表示した場合のトーンマップと、MaxCLLが4000nitの映像を表示した場合のトーンマップとの例である。
図3Aに示すように、DPLが500nitの場合、どちらの映像も500nit以下でMaxCLLまでを表示できるように、輝度が変換されるが、MaxCLLが高い映像のほうが変換の度合いは大きくなる。
図3Bに示すように、DPLが1000nitの場合、MaxCLLが1000nitの映像では、トーンマップが行われない。MaxCLLが4000nitの映像では、トーンマップが行われ、4000nitの輝度が1000nitに変換されて表示される。
[1-4.ダイナミックメタデータとダイナミックトーンマップ]
図4Aは、スタティックメタデータを用いたトーンマップの例を示す図である。図4Bは、ダイナミックメタデータを用いたダイナミックトーンマップの例を示す図である。
図4Aに示すように、スタティックメタデータ(MaxCLL)が用いられる場合、MaxCLLは一連の映像内で最も高い輝度を示すため、映像表示装置は、一連の映像に対して、固定的なトーンマップしか行えない。これに対して、映像表示装置は、図4Bの(a)に示すように、時間変化する輝度に合わせたメタデータ(ここではDynamic MaxCLLと称す)を用いることで、輝度が低い場合は、トーンマップを行わず(図4Bの(b))、輝度が高い場合はトーンマップを行う(図4Bの(c))というように、時間変化する輝度に合わせた最適なトーンマップを実現できる。ダイナミックメタデータは、映像の輝度特性の時系列の変化を示す動的輝度特性である。ダイナミックメタデータに用いられる映像の輝度特性は、例えば、映像の所定の区間ごとにおける最大輝度、平均輝度などである。本開示では、映像の輝度特性として、映像の最大輝度を例に説明する。映像の所定の区間とは、例えば、シーン、チャプター、フレームなどである。
[1-5.EOTFについて]
ここで、EOTFについて、図5Aおよび図5Bを用いて説明する。
図5Aは、HDRおよびSDRのそれぞれに対応したEOTF(Electro-Optical Transfer Function)の例について示す図である。
EOTFは、一般的にガンマカーブと呼ばれるものであり、コード値と輝度値との対応を示し、コード値を輝度値に変換するものである。つまり、EOTFは、複数のコード値と輝度値との対応関係を示す関係情報である。
また、図5Bは、HDRおよびSDRのそれぞれに対応した逆EOTFの例について示す図である。
逆EOTFは、輝度値とコード値との対応を示し、EOTFとは逆に輝度値を量子化してコード値に変換するものである。つまり、逆EOTFは、輝度値と複数のコード値との対応関係を示す関係情報である。例えば、HDRに対応した映像の輝度値を10ビットの階調のコード値で表現する場合、10000nitまでのHDRの輝度範囲における輝度値は、量子化されて、0~1023までの1024個の整数値にマッピングされる。つまり、逆EOTFに基づいて量子化することで、0~10000nitの輝度範囲の輝度値(HDRに対応した映像の輝度値)を、10ビットのコード値であるHDR信号に変換する。HDRに対応したEOTF(以下、「HDRのEOTF」という。)またはHDRに対応した逆EOTF(以下、「HDRの逆EOTF」という。)においては、SDRに対応したEOTF(以下、「SDRのEOTF」という。)またはSDRに対応した逆EOTF(以下、「SDRの逆EOTF」という。)よりも高い輝度値を表現することが可能である。例えば、図5Aおよび図5Bにおいては、輝度の最大値(ピーク輝度)は、10000nitである。つまり、HDRの輝度範囲は、SDRの輝度範囲を全て含み、HDRのピーク輝度は、SDRのピーク輝度より大きい。HDRの輝度範囲は、SDRの輝度範囲と比較して、その最大値である100nitを10000nitに拡大した輝度範囲である。
例えば、HDRのEOTFおよびHDRの逆EOTFは、一例として、米国映画テレビ技術者協会(SMPTE)で規格化されたSMPTE 2084がある。
[1-6.映像とグラフィックスとの合成]
図6は、動画にメニュー及び字幕などのグラフィックスを重畳して、映像表示装置で表示する例を示す図である。ここでは、Ultra HD Blu-rayの例を示す。
グラフィックスを重畳する前の動画を主映像と表現する。Ultra HD Blu-rayではグラフィックスは、HD解像度で準備される。映像再生装置は、HDのグラフィックスに対してHD-UHD変換を行うことでUHDのグラフィックスを生成する。そして、映像再生装置は、得られたUHDのグラフィックスと、UHD解像度の主映像とを合成する。そして、映像再生装置は、合成後の映像を、HDMI(登録商標)(High-Definition Multimedia Interface)を通じて映像表示装置に送る。映像表示装置は、送られてきた映像をHDRとして表示する。
また、映像再生装置は、ダイナミックメタデータを、主映像の輝度の時間変化に基づいて決定し、HDMIを通じて、映像表示装置に送る。映像表示装置は、送られてきたダイナミックメタデータに基づき、主映像に字幕及びメニューが重畳された映像信号に対して、ダイナミックトーンマップを施す。
この状況は、放送又は通信によるOTT(Over The Top)サービスでのHDR映像を表示する場合でも、主映像にメニュー又は字幕が重畳され、得られた映像が映像表示装置で表示される場合は同様である。
[1-7.動画にグラフィックスを重畳した映像データにダイナミックトーンマップを行う場合の課題]
ダイナミックメタデータ方式では、HDR映像の輝度分布などの輝度に関わるメタデータがフレーム毎に指定され、映像信号とともに、そのようなメタデータが、映像表示装置に送られる。映像表示装置は、当該映像表示装置の最大輝度などの表示能力に応じて、送られてきたメタデータを参考にして、輝度を変換するなどの処理を行う。このようなダイナミックメタデータ方式は、映像表示装置の輝度などの表示性能によらずできるだけ一定の品質の映像を表示する方式として、注目されている。
しかしながら、ダイナミックメタデータは、時間的に変化するために、本来一定であるべき映像の表示が、安定しないという問題がある。
表示すべき映像が、同時に編集、又は監修された映像、いわゆる動画だけであるならば、ある程度、映像の状況を考慮した処理が可能である。このような動画を主映像とし、同時に、本来一定であり、まったく変動しない、字幕又はメニューなどのグラフィックスデータが主映像に重畳されて表示されると、ダイナミックメタデータを使用した処理により、一定であるべきグラフィックスの輝度又は色が変化するという悪影響が出てくる。この悪影響は、主映像の輝度が高く、映像表示装置の輝度が低いほど顕著となる。
図7は、主映像にグラフィックスが重畳されたときのダイナミックトーンマップの影響を示す図である。ここで、図7の(a)に示すように、重畳されるグラフィックスの輝度を350nitと仮定する。図7の(b)に示すように主映像の輝度が低い区間では、トーンマップが行われず、グラフィックスは本来の輝度である350nitで映像表示装置に表示される。一方、図7の(c)に示すように、主映像の輝度が高い区間では、トーンマップが行われ、グラフィックスの輝度は、350nitより低い輝度で映像表示装置に表示される。このように、本来一定であるべきグラフィックスの輝度が時間的に変動することになり、好ましくない状態となる。ここでは輝度だけの影響としたが、実際の映像表示装置では、色成分も影響を受けるために色も影響を受けることもある。
[1-8.HDR方式の確認方法の例]
現在、ダイナミックトーンマップが可能なHDR方式としていくつかの方式が現在提案され、規格化されている。HDR方式は、輝度ダイナミックレンジの方式の一例である。このため、映像再生装置は、主映像、映像再生装置、映像表示装置のそれぞれが、どのHDR方式に対応しているかを確認し、映像表示装置が対応している主映像を再生し、再生した主映像を映像表示装置に出力する必要がある。
図8A~図8Cは、HDR方式の確認方法の一例を示すフローチャートである。図8Aは、HDR方式の確認方法の一例を示すメインフローである。図8Bは、図8Aのメインフローにおいて、主映像が対応している方式を確認する方法の一例を示すサブフローである。図8Cは、図8Aのメインフローにおいて、映像表示装置が対応している方式を確認する方法の一例を示すサブフローである。
Ultra HD Blu-rayディスクでは、HDR方式としてマンダトリHDRと複数のオプションHDRとが規定されている。このため、Ultra HD Blu-rayディスクには、マンダトリHDRのみに対応している主映像、または、マンダトリHDRおよびオプションHDRに対応している主映像が記録されている。オプションHDRが記録されている場合、複数のオプションHDRのうちの少なくとも一つが記録されている。オプションHDRの映像は、マンダトリHDRの映像よりも高品質な映像である。
図8Aに示すように、映像再生装置は、まず、主映像の輝度ダイナミックレンジの方式を確認する(S1)。
具体的には、図8Bに示すように、映像再生装置は、主映像の再生制御リストに記載されているHDR方式のフラグを確認する(S11)。このように、映像再生装置は、HDR方式のフラグを確認することで、主映像が対応しているHDR方式を確認する。
次に、映像再生装置は、映像表示装置が対応しているHDR方式(以下、「表示方式」という。)を確認する(S2)。つまり、映像再生装置は、映像表示装置が表示可能な輝度ダイナミックレンジの方式である表示方式を確認する。
具体的には、図8Cに示すように、映像再生装置は、HDMIを通じて、映像表示装置に、映像表示装置のEDIDの送信を要求する(S21)。
次に、映像再生装置は、HDMIを通じて、映像表示装置から映像表示装置のEDIDを取得する(S22)。
そして、映像再生装置は、取得したEDIDから映像表示装置の表示方式を確認する(S23)。
このように、ステップS1およびS2を行うことにより、映像再生装置は、主映像の再生に先立ち、主映像と、接続されている映像表示装置が対応しているHDR方式、つまり、ここではオプションHDRの状況を確認する。
その後、図8Aに戻り、映像再生装置は、映像再生装置が対応しているHDR方式が主映像のオプションHDRを含むか否かを判定する(S3)。
映像再生装置は、映像再生装置が対応しているHDR方式が主映像のオプションHDRを含むと判定した場合(S3でYes)、映像表示装置の表示方式が主映像のオプションHDRを含むか否かを判定する(S4)。この場合、ステップS4では、ステップS3において映像再生装置が対応しているHDR方式であり、かつ、主映像に含まれるオプションHDRについて、判定が行われる。
映像再生装置は、映像表示装置の表示方式が主映像のオプションHDRを含むと判定した場合(S4でYes)、当該オプションHDRの主映像を再生する(S5)。つまり、映像再生装置は、主映像、映像再生装置、および映像表示装置がすべて、同じオプションHDRに対応している場合、対応しているオプションHDRの主映像を再生する。
一方で、映像再生装置は、映像再生装置が対応しているHDR方式が主映像のオプションHDRを含まないと判定した場合(S3でNo)、または、映像表示装置の表示方式が主映像のオプションHDRを含まないと判定した場合(S4でNo)、マンダトリHDRの主映像を再生する。つまり、映像再生装置は、主映像、映像再生装置および映像表示装置のいずれかが、オプションHDRに対応していない場合、マンダトリHDRを再生する。なお、HDRに対応している機器は、マンダトリHDRに対応しているものとする。
[1-9.複数のHDR方式においてダイナミックトーンマップを行う場合の課題]
(課題1)
前述したように、オプションHDRに非対応の映像再生装置あるいは映像表示装置が互いに接続されている場合、マンダトリHDRでの主映像を再生して表示することとなり、ダイナミックトーンマップが実施できないという問題がある。また、一つのオプションHDRおいても、いくつかのパラメータがあり、その中でさらにオプションがある場合、主映像データには、第1オプションが記録されているが、映像表示装置で、第1オプションに対応せず、別のオプションである第2オプションに対応している状況も想定される。しかしながら、このような状況では、オプションHDR方式としては、主映像、映像再生装置、および映像表示装置で対応しているものの、同じオプションHDRの中のパラメータのオプションへの対応の状況により、オプションHDRとして表示できないことになる。これにより、このような映像処理システムでは、マンダトリHDRの主映像を再生して、表示することとなり、ダイナミックトーンマップができないことになる。あるいは、オプションHDRの中のマンダトリ部分だけの処理となり、期待よりも劣ったダイナミックトーンマップとなり、品質が劣った映像表示となる。
図9Aおよび図9Bは、オプションHDRの中でのオプションの違いの例を示す。図9Aは、それぞれ、第1オプションに対応しているダイナミックメタデータの構成例を示す図である。図9Bは、第2オプションに対応しているダイナミックメタデータの構成例を示す図である。なお、図9Aおよび図9Bでは、本開示に関連していない構成を省略している。
これらの図に示すように、第1オプションでは、例えば、基本トーンマップ情報の平均データ値およびデータ値の分布情報の値の意味が、データ値となっている一方、第2オプションでは輝度値となっている。また、ここでは示していないが、値の単位、値の意味は同じだが、値の個数が異なる、値それぞれの意味が異なる場合などもありえる。また、基本トーンマップ情報の平均データ値およびデータ値の分布情報の値などのようなデータ値または輝度値は、明るさの単位であるnitに直した値で記載する場合もある。
(課題2)
また、図9Aに示した第1オプションのダイナミックメタデータの例のようにデータ値に基づくメタデータの場合、主映像に重畳されるグラフィックスの輝度に基づく処理を行うことが困難になる。具体的には、グラフィックスの輝度に応じて、その輝度以下については、ダイナミックトーンマップを行わないと言う処理を行う場合、第1オプションのメタデータでは、輝度情報ではなく、データ値、つまり、RGB値に基づくものであるため、ダイナミックトーンマップを行う手段において、グラフィックスの輝度情報と、メタデータの輝度情報との単位をそろえる処理が必要となる。特に、ブルーレイの場合、ディスク上のグラフィックスデータは、RGB値ではなく、輝度情報および色情報から構成されている事から、困難さが増す。
(課題3)
課題1では、オプションHDRの1方式の中での複数のオプションがある場合の課題であったが、ダイナミックトーンマップに対応した複数のHDR方式に再生装置が対応している場合でも、再生する主映像が対応している第1HDR方式に、映像表示装置が対応していない場合、(i)第1HDR方式を表示する事ができない。あるいは、(ii)再生する主映像が対応している第1HDR方式がオプションHDRであり、主映像がマンダトリHDRを含む場合、マンダトリHDR方式でのみ表示することとなる。これにより、当該映像処理システムでは、オプションHDRの特徴の一つであるダイナミックトーンマップを実現できないという課題があった。
[1-10.解決方法]
本開示では以下の解決方法を用いる。
課題1を解決する第1の方法について説明する。第1の方法では、映像再生装置は、映像再生装置にHDMIケーブル等の映像信号伝送手段で接続されている映像表示装置が所定のHDR方式の第1オプションに対応せず、当該所定のHDR方式の第2オプションに対応している場合、映像再生装置で再生される主映像から取得したダイナミックメタデータの第1オプション部分から第2オプション部分を生成する。そして、映像再生装置は、(i)生成した第2オプション部分で、取得したダイナミックメタデータの第1オプション部分を置き換えるか、または、(ii)取得したダイナミックメタデータに、生成した第2オプション部分を追加する。その後、映像再生装置は、第2オプション部分を含むダイナミックメタデータを、映像信号伝送手段を通じて、映像表示装置に伝送する。映像表示装置は、第2オプション部分を含むダイナミックメタデータを取得し、取得したダイナミックメタデータの第2オプション部分を用いて、所定のHDR方式の第2オプションに従ったダイナミックトーンマップを実行する。
次に、課題1を解決する第2の方法について説明する。第2の方法では、映像再生装置は、映像再生装置にHDMIケーブル等の映像信号伝送手段で接続されている映像表示装置が所定のHDR方式の第1オプションに対応せず、第2オプションに対応している場合、映像再生装置で再生される主映像からダイナミックメタデータの第2オプション部分を生成する。そして、映像再生装置は、(i)生成した第2オプション部分で、主映像のダイナミックメタデータの第1オプション部分を置き換えるか、または、(ii)取得したダイナミックメタデータに、生成した第2オプション部分を追加する。その後、映像再生装置は、第2オプション部分を含むダイナミックメタデータを、映像信号伝送手段を通じて、映像表示装置に伝送する。映像表示装置は、第2オプション部分を含むダイナミックメタデータを取得し、取得したダイナミックメタデータの第2オプション部分を用いて、所定のHDR方式の第2オプションに従ったダイナミックトーンマップを実行する。
次に、課題1を解決する第3の方法について説明する。第3の方法では、第1の方法での第1オプション部分から第2オプション部分を生成する機能、または、第2の方法での主映像から第2オプション部分を生成する機能を映像表示装置が有する構成である。つまり、映像再生装置は、映像再生装置にHDMIケーブル等の映像信号伝送手段で接続されている映像表示装置が所定のHDR方式の第1オプションの主映像の表示処理機能を有さず、第2オプションの主映像の処理機能を有する場合、第1オプションの主映像を再生し、当該主映像の再生信号を出力する。映像表示装置は、(i)主映像とともに伝送されるダイナミックメタデータの第1オプション部分から第2オプション部分を生成するか、(ii)主映像から、第2オプション部分を生成するか、または、(i)および(ii)の両方の方法を用いて、第2オプション部分を生成する。そして、映像表示装置は、生成した第2オプション部分を用いたダイナミックトーンマップを実行する。
次に、課題2を解決する第4の方法について説明する。第4の方法では、第1の方法または第2の方法に加え、映像再生装置は、ダイナミックメタデータの第2オプション部分の生成時に、グラフィックスの輝度情報を含める。つまり、映像再生装置は、主映像に重畳されるグラフィックスの輝度情報を第2オプション部分に追加する。映像表示装置は、第2オプション部分を含むダイナミックメタデータを取得し、取得したダイナミックメタデータを用いて、第2オプションの主映像の輝度がグラフィックスの輝度以上の区間では、当該区間の第2オプション部分に応じて、変換カーブを時系列に変更する第1トーンマップ処理を行い、第2オプションの主映像の輝度がグラフィックスの輝度より暗い区間では、一定の変換カーブを用いる第2トーンマップ処理を行う。
次に、課題3を解決する第5の方法について説明する。第5の方法では、ダイナミックトーンマップに対応した複数のHDR方式に映像再生装置が対応している場合を考える。映像再生装置は、主映像が複数のHDR方式のうちの第1HDR方式に対応しており、映像再生装置に接続されている映像表示装置が複数のHDR方式のうちの第2HDR方式に対応している場合、主映像の再生時に、映像表示装置が対応している第2HDR方式に必要な、ダイナミックメタデータを再生中の主映像からダイナミックに生成し、生成したダイナミックメタデータを映像表示装置に送る。これにより、映像表示装置は、第2HDR方式に対応した主映像およびダイナミックメタデータを取得し、取得したダイナミックメタデータを用いて取得した主映像を第2HDR方式で表示する。
以上の方法により、放送、Blu-ray等のパッケージメディア、又はOTT等のインターネット配信により送られてきたHDR映像信号に対して、当該HDR映像信号が対応しているダイナミックトーンマップに対応したHDR方式に複数のオプションがある場合であって、HDR映像信号が第1オプションに対応し、映像表示装置が第1オプションに対応せず、第2オプションに対応している場合、映像再生装置は、ダイナミックメタデータの第1オプション部分、または、HDR映像信号から第2オプション部分を生成し、映像表示装置に第2オプション部分を含むダイナミックメタデータを送る。このため、映像表示装置は、当該映像表示装置が対応している第2オプション部分を用いて、当該HDR方式が提供しているダイナミックトーンマップを実現することができる。
また、映像表示装置は、ダイナミックトーンマップを行う場合、第1オプションでは困難なメニューや字幕などのグラフィックスに対するダイナミックトーンマップの影響を、第2オプションを使用する事で低減することが可能となり、安定した字幕またはメニューの表示が可能となる。
また、ダイナミックトーンマップに対応した複数のHDR方式がある場合、HDR映像信号が第1HDR方式であり、映像表示装置が第2HDR方式に対応している場合、映像再生装置は、第1HDR方式あるいはHDR映像信号から、第2HDR方式のダイナミックメタデータを生成する。このため、映像表示装置は、第2HDR方式でのダイナミックトーンマップを実現できる。
[2.実施の形態1]
本実施の形態では、映像再生装置は、映像再生装置にHDMIケーブルなどの映像信号伝送手段で接続されている映像表示装置が所定のHDR方式の第1のオプションに対応せず、第2のオプションに対応している場合、再生する主映像から取得したダイナミックメタデータの第1オプション部分から第2オプション部分を生成し、(i)生成した第2オプション部分で、取得したダイナミックメタデータの第1オプション部分を置き換えるか、または、(ii)取得したダイナミックメタデータに、第2オプション部分を追加する。その後、映像再生装置は、第2オプション部分を含むダイナミックメタデータを、映像信号伝送手段を通じて、映像表示装置に伝送する。映像表示装置は、第2オプション部分を含むダイナミックメタデータを取得し、取得したダイナミックメタデータの第2オプション部分を用いて、所定のHDR方式の第2オプションに従ったダイナミックトーンマップを実行する。
[2-1.映像処理システムの構成]
図10は、実施の形態1に係る映像処理システム100の構成を示すブロック図である。図10に示す映像処理システム100は、映像再生装置101と、映像表示装置102とを含む。
映像再生装置101は、映像を再生し、得られた映像を映像表示装置102に出力する。この映像再生装置101は、取得部111と、デマルチプレクサ112と、主映像デコード部113と、字幕デコード部114と、メニューデコード部115と、メタデータ取得部116と、方式取得部117と、生成部118と、グラフィックス合成部119と、主映像合成部120と、映像送出部121とを含む。
取得部111は、映像信号を取得する。例えば、映像再生装置101がディスク再生装置である場合には、取得部111は、ディスクを再生することで映像信号を取得する。また、映像再生装置101が放送受信装置である場合は、取得部111は、放送波を受信することで映像信号を取得する。また、映像再生装置101がインターネット放送受信装置である場合は、取得部111は、インターネット放送を受信することで映像信号を取得する。
デマルチプレクサ112は、映像信号に含まれる符号化された主映像信号、字幕信号及びメニュー信号をそれぞれ、主映像デコード部113、字幕デコード部114及びメニューデコード部115に出力する。
主映像デコード部113は、デマルチプレクサ112から出力された符号化された主映像信号を復号する。
字幕デコード部114は、デマルチプレクサ112から出力された符号化された字幕信号を復号する。また、字幕デコード部114は、ユーザの操作等に基づき、字幕を表示するか否か、及び表示する字幕の種別を選択し、字幕を表示する場合には、選択した字幕をグラフィックス合成部119に出力する。
メニューデコード部115は、デマルチプレクサ112から出力された符号化されたメニュー信号を復号する。また、メニューデコード部115は、ユーザの操作等に基づき、メニューを表示するか否か、及び表示するメニューの種別を選択し、メニューを表示する場合には、選択したメニューをグラフィックス合成部119に出力する。なお、メニューデコード部115は、映像信号からの情報だけでなく、映像再生装置101で動作するプログラムによりメニューを合成及び表示してもよい。
メタデータ取得部116は、主映像ダイナミックメタデータを取得する。例えば、メタデータ取得部116は、主映像信号に含まれる情報に基づき主映像ダイナミックメタデータを生成する。なお、メタデータ取得部116において、第1オプションに対応する主映像ダイナミックメタデータが取得されたとして説明する。
方式取得部117は、映像表示装置102から映像表示装置102が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する。ここでは、方式取得部117は、映像表示装置102の表示方式が対応するHDR方式のオプションが第2オプションであるため、第2オプションを示す表示方式を取得する。
生成部118は、メタデータ取得部116により取得された主映像ダイナミックメタデータが対応している方式(第1オプション)と、方式取得部117により取得された表示方式(第2オプション)とが異なるため、主映像ダイナミックメタデータの第1オプション部分から、第2オプション部分を生成する。そして、生成部118は、生成した第2オプション部分で、主映像ダイナミックメタデータの第1オプション部分を置き換えるか、または、主映像ダイナミックメタデータに、生成した第2オプション部分を追加する。このように、生成部118は、映像データが示す映像の輝度ダイナミックレンジの方式が映像表示装置の表示方式と異なる場合、主映像ダイナミックメタデータの方式を、表示方式に変換する。
グラフィックス合成部119は、字幕とメニューとを構成することでグラフィックス情報を生成する。なお、上述したようにグラフィックス合成部119は、字幕及びメニューの解像度を変換してもよい。例えば、Ultra HD Blu-rayの場合には、グラフィックス合成部119は、HDの字幕及びメニューをUHDの字幕及びメニューに変換する。
また、グラフィックス合成部119は、グラフィックス情報を生成し、生成したグラフィックス情報を主映像に重畳する場合、グラフィックス輝度情報を「0」でない値または、「グラフィックスがあることを示す値」として、映像送出部121に送る。また、グラフィックス合成部119は、グラフィックス情報を主映像に重畳しない場合、グラフィックス輝度情報を「0」または「グラフィックスが無いことを示す値」として、映像送出部121に送る。なお、グラフィックス輝度情報は、映像再生装置101内のプログラムにより生成されてもよいし、他の手段によって生成されてもよい。
主映像合成部120は、主映像デコード部113で得られた主映像と、グラフィックス合成部119で生成されたグラフィックス情報とを合成することで映像信号を生成する。
映像送出部121は、主映像合成部120で生成された映像信号と、ダイナミックメタデータとを、HDMIケーブル等の映像信号伝送手段を介して映像表示装置102に伝送する。ダイナミックメタデータは、メタデータ取得部116で取得された主映像ダイナミックメタデータと、グラフィックス合成部119で生成されたグラフィックス輝度情報とを含む。つまり、映像送出部121は、生成部118により生成された第2オプション部分を含む主映像ダイナミックメタデータを映像表示装置102に出力する。
次に、映像表示装置102の構成について説明する。映像表示装置102は、映像受信部131と、メタデータ取得部132と、トーンマップ処理部133と、表示部134と、通知部135とを備える。
映像受信部131は、映像再生装置101から送られてくる映像信号とダイナミックメタデータとを受け取る。映像受信部131は、映像信号とダイナミックメタデータとを分離し、映像信号をトーンマップ処理部133へ送り、ダイナミックメタデータをメタデータ取得部132に送る。メタデータ取得部132は、ダイナミックメタデータに含まれる主映像ダイナミックメタデータ及びグラフィックス輝度情報を制御信号として、トーンマップ処理部133へ送る。
トーンマップ処理部133は、主映像ダイナミックメタデータに従い、映像信号のトーンマップ処理を行う。トーンマップ処理部133は、出力された表示方式に対応するダイナミックメタデータの第2オプション部分に応じた変換カーブを用いて主映像の輝度を変換するトーンマップ処理を行う。具体的には、トーンマップ処理部133は、グラフィックス輝度情報が「0」または「グラフィックスが無いことを示す値]の場合には、主映像ダイナミックメタデータに従い、映像信号のトーンマップ処理(ダイナミックトーンマップ処理)を行う。一方、トーンマップ処理部133は、グラフィックス輝度情報が「0」でない値または「グラフィックスがあることを示す値」の場合は、重畳されているグラフィックスへのダイナミックトーンマップの影響を低減したトーンマップ処理を行う。表示部134は、トーンマップ処理後の映像信号を表示する。
通知部135は、映像表示装置102の表示方式を含むEDIDを映像再生装置101に送信する。通知部135は、例えば、映像再生装置101からのEDIDの送信要求を受信した場合、HDMIケーブルなどの映像信号伝送手段を通じて、映像再生装置101にEDIDを送信する。
[2-2.映像処理システムの動作]
ダイナミックメタデータの第1オプション部分および第2オプション部分の構成が、図9Aおよび図9Bに示されるものである場合、メタデータ取得部116は、主映像に含まれる情報に基づき、オプションHDRのマンダトリ部分と第1オプション部分とを含む主映像ダイナミックメタデータを取得する。
この場合の、映像処理システム100の動作の流れを説明する。図11Aは、実施の形態1に係る映像再生装置101の動作を示すフローチャートである。
映像再生装置101では、メタデータ取得部116は、映像の再生を開始した後、主映像のフレーム単位で、ダイナミックメタデータのマンダトリ部分と第1のオプション部分とを主映像から抽出する(S31)。
そして、生成部118は、メタデータ取得部116により抽出された、ダイナミックメタデータの第1オプション部分から第2オプション部分を生成する(S32)。
次に、生成部118は、生成した第2オプション部分で、主映像ダイナミックメタデータの第1オプション部分を置き換えるか、または、主映像ダイナミックメタデータに、生成した第2オプション部分を追加する(S33)。その後、生成部118は、マンダトリ部分および第2オプション部分を含む主映像ダイナミックメタデータを、映像送出部121に送る。そして、映像送出部121は、主映像ダイナミックメタデータを、主映像とともに、映像信号伝送手段で映像表示装置102に送る。
そして、映像再生装置101は、映像の再生が完了する、または、再生停止操作が行われるか否かを判定し(S34)、映像の再生が完了する、または、再生停止操作が行われると映像の再生を終了する。つまり、映像再生装置101は、映像の再生が完了する、または、再生停止操作が行われるまで、ステップS31~S34の処理を繰り返す。例えば、この処理は、1フレーム単位または複数フレーム単位で繰り返し行われる。
図11Bは、実施の形態1に係る映像表示装置102の動作を示すフローチャートである。
映像表示装置102では、映像受信部131は、映像信号およびダイナミックメタデータを受信する(S41)。映像受信部131は、受信した主映像としての映像信号をトーンマップ処理部133へ送り、ダイナミックメタデータをメタデータ取得部132に送る。
メタデータ取得部132は、第2オプション部分を含む主映像ダイナミックメタデータを取得する(S42)。
そして、トーンマップ処理部133は、映像表示の開始と同時に、第2オプション部分に応じてトーンマップ処理を開始する(S43)。
その後、表示部134は、トーンマップ処理部133においてトーンマップ処理後の映像を表示する(S44)。
そして、映像表示装置102は、映像の受信が完了する、または、表示OFF操作が行われるか否かを判定し(S45)、映像の受信が完了する、または、表示OFF操作が行われると映像の表示を終了する。つまり、映像表示装置102は、映像の受信が完了する、または、表示OFF操作が行われるまで、ステップS41~S45の処理を繰り返す。例えば、この処理は、1フレーム単位又は複数フレーム単位で繰り返し行われる。
図12は、ダイナミックメタデータの他の構成例を示す図である。なお、図12では、本開示に関連していない構成を省略している。
図12のダイナミックメタデータの構成例の、図9Aおよび図9Bの構成例との違いは、項目の記録位置によって、マンダトリ部分、第1オプション部分、および第2オプション部分が定められていることである。図12の構成例の場合、第1オプション部分としてのメタデータでは、第2オプション部分が「0」はまたは「無効を示す値」が入っている。第2オプション部分としてのメタデータでは、第1オプション部分が「0」はまたは「無効を示す値」が入っている。なお、第1オプション部分および第2オプション部分のどちらにも有効な値が入っていてもよい。
また、ダイナミックメタデータの第1オプション部分からの第2オプション部分の生成は、例えば、データ値の分布と平均データ値を用い、これらを、主映像が用いている映像仕様(つまり、第1オプションの主映像の映像使用および第2オプションの主映像の映像使用)に基づいて、第1オプションの値を第2オプションに対応する値に変換する事で求めることができる。第1オプション部分に、データ値として、RGBのそれぞれの値が指定されている場合、完全に、第2オプション部分に変換できる。図9Aおよび図9Bで示すダイナミックメタデータの構成と、図12で示すダイナミックメタデータの構成とのどちらでも、第1オプションの分布情報の数、および、第2オプションの分布情報の数は、一致しない場合がある。このような場合であっても、少なくとも第2オプション部分の生成に必要な分布情報が第1オプション部分に含まれていれば、直接的に変換できる。一方で、第2オプション部分の生成に必要な分布情報が第1オプション部分に含まれていない場合、第1オプションの分布情報から、必要な分布情報を補完することで得られた分布情報を用いることで、第1オプション部分から第2オプション部分に変換できる。
[3.実施の形態2]
実施の形態2について説明する。実施の形態1では、映像表示装置の表示方式に対応する第2オプション部分を主映像のダイナミックメタデータの第1オプション部分から生成するとしたがこれに限らない。実施の形態2では、主映像から生成する例について説明する。つまり、本実施の形態では、映像再生装置は、映像再生装置にHDMIケーブル等の映像信号伝送手段で接続されている映像表示装置が所定のHDR方式の第1オプションに対応せず、第2オプションに対応している場合、映像再生装置で再生される主映像からダイナミックメタデータの第2オプション部分を生成する。そして、映像再生装置は、(i)生成した第2オプション部分で、主映像のダイナミックメタデータの第1オプション部分を置き換えるか、または、(ii)取得したダイナミックメタデータに、生成した第2オプション部分を追加する。その後、映像再生装置は、第2オプション部分を含むダイナミックメタデータを、映像信号伝送手段を通じて、映像表示装置に伝送する。映像表示装置は、第2オプション部分を含むダイナミックメタデータを取得し、取得したダイナミックメタデータの第2オプション部分を用いて、所定のHDR方式の第2オプションに従ったダイナミックトーンマップを実行する。
[3-1.映像処理システムの構成]
図13は、実施の形態2に係る映像処理システム100Aの構成を示すブロック図である。本実施の形態に係る映像再生装置101Aは、実施の形態1の映像再生装置101と比較して、生成部118Aの機能が異なる。映像再生装置101Aの他の構成は、実施の形態1の映像再生装置101と同様であるため、詳細な説明を省略する。
生成部118Aは、メタデータ取得部116により取得された主映像ダイナミックメタデータが対応している方式(第1オプション)と、方式取得部117により取得された表示方式(第2オプション)とが異なるため、主映像デコード部113により出力された主映像からダイナミックメタデータの第2オプション部分を生成する。そして、生成部118Aは、生成した第2オプション部分で主映像ダイナミックメタデータの第1オプション部分を置き換えるか、または、主映像ダイナミックメタデータに、生成した第2オプション部分を追加する。このように、生成部118Aは、主映像を解析することで、主映像のダイナミックメタデータを抽出し、抽出したダイナミックメタデータの輝度ダイナミックレンジの方式を、表示方式に変換する。
[3-2.映像処理システムの動作]
ダイナミックメタデータの第1オプション部分および第2オプション部分の構成が、図9A及び図9Bに示されるものである場合、メタデータ取得部116は、オプションHDRのマンダトリ部分と第1オプション部分とを含む主映像ダイナミックメタデータ取得する。
この場合の、映像処理システム100Aの動作の流れを説明する。図14は、実施の形態2に係る映像再生装置101Aの動作を示すフローチャートである。なお、実施の形態2に係る映像再生装置101Aの動作では、実施の形態1に係る映像再生装置101の動作と比較して、ステップS32の代わりにステップS32Aを行う点が異なる。このため、ステップS32Aの説明を行い、その他のステップの説明を省略する。
映像処理システム100Aでは、ステップS31が終わると、生成部118Aは、主映像デコード部113により出力された主映像の輝度特性を解析し、解析した結果から、第2オプションに対応しているダイナミックメタデータ(つまり、第2オプション部分)を生成する(S32A)。
その後、映像再生装置101Aは、図11AのステップS33以降の処理と同様の処理を行う。
図12に示した、ダイナミックメタデータの他の構成例である場合と同様に、第1オプション部分としてのメタデータでは、第2のオプション部分が「0」はまたは「無効を示す値」が入っている。第2オプション部分としてのメタデータでは、第1オプション部分が「0」はまたは「無効を示す値」が入っている。なお、第1オプション部分および第2オプション部分のどちらにも有効な値が入っていてもよい。
また、主映像からのダイナミックメタデータの第2オプション部分の生成は、例えば、フレーム単位で、主映像のすべてのピクセルデータの輝度値を取得し、その分布を統計処理により求め、第2オプションの規定に従い、演算することで主映像からダイナミックメタデータの第2オプション部分を求めることができる。
なお、主映像のデータにおいて、第2オプションの各値の定義が、表示したときの輝度値を表すコード値である場合、次のようにダイナミックメタデータの第2オプション部分を求めてもよい。この場合、主映像のデータは、HDR方式により規定される入出力特性(EOTF:Electro-Optical Transfer Function)に従って表示処理をするときに、当該EOTFで所定の輝度に対応付けられているコード値である。このため、まず、EOTFに従った処理を行うことで、主映像のコード値を輝度値に変換し、変換した輝度値を用いて統計処理を行う。そして、統計処理の結果を用いて、第2オプションの規定に従い演算し、ダイナミックメタデータの第2オプション部分を求めてもよい。
[4.実施の形態3]
実施の形態3について説明する。実施の形態1および2では、映像再生装置において、映像表示装置の表示方式に対応する第2オプション部分を生成するとしたが、実施の形態3では、映像表示装置において、第2オプション部分を生成する例について説明する。つまり、本実施の形態では、映像再生装置は、映像再生装置にHDMIケーブル等の映像信号伝送手段で接続されている映像表示装置が所定のHDR方式の第1オプションの主映像の表示処理機能を有さず、第2オプションの主映像の処理機能を有する場合、第1オプションの主映像を再生し、当該主映像の再生信号を出力する。映像表示装置は、(i)主映像とともに伝送されるダイナミックメタデータの第1オプション部分から第2オプション部分を生成するか、(ii)主映像から、第2オプション部分を生成するか、または、(i)および(ii)の両方の方法を用いて、第2オプション部分を生成する。そして、映像表示装置は、生成した第2オプション部分を用いたダイナミックトーンマップを実行する。
[4-1.第1の例の映像処理システムの構成]
図15は、実施の形態3の第1の例に係る映像処理システム100Bの構成を示すブロック図である。
本実施の形態の第1の例に係る映像再生装置101Bは、実施の形態1の映像再生装置101と比較して、方式取得部117および生成部118を有していない点が異なる。このため、映像送出部121は、主映像合成部120で生成された映像信号と、第1オプション部分を含むダイナミックメタデータとを、HDMIケーブル等の映像信号伝送手段を介して映像表示装置102Bに伝送する。映像再生装置101Bの他の構成は、実施の形態1の映像再生装置101と同様であるので詳細な説明を省略する。
また、本実施の形態の第1の例に係る映像表示装置102Bは、実施の形態1の映像表示装置102と比較して、さらに、生成部136を有している点、および、通知部135を有していない点が異なる。映像表示装置102Bの他の構成は、実施の形態1の映像表示装置102と同様であるので詳細な説明を省略する。
生成部136は、メタデータ取得部132により取得された主映像ダイナミックメタデータ対応している方式(第1オプション)と、表示方式(第2オプション)とが異なるため、主映像ダイナミックメタデータの第1オプション部分から、第2オプション部分を生成する。そして、生成部136は、生成した第2オプション部分で、主映像ダイナミックメタデータの第1オプション部分を置き換える。このように、生成部136は、映像データが示す映像の輝度ダイナミックレンジの方式が映像表示装置の表示方式と異なる場合、主映像ダイナミックメタデータの方式を、表示方式に変換する。
[4-2.第1の例の映像処理システムの動作]
まず、映像再生装置101Bは、第1オプション部分を含む主映像ダイナミックメタデータを主映像とともに、HDMIケーブル等の映像信号伝送手段を通じて、映像表示装置102Bに送る。
図16は、実施の形態3の第1の例に係る映像表示装置102Bの動作を示すフローチャートである。なお、実施の形態3の第1の例に係る映像表示装置102Bの動作では、実施の形態1に係る映像表示装置102の動作と比較して、ステップS42の代わりに、ステップS51~S53を行う点が異なる。このため、ステップS51~S53の説明を行い、その他のステップの詳細な説明を省略する。
映像表示装置102Bでは、ステップS41が終わると、メタデータ取得部132は、第1オプション部分を含む主映像ダイナミックメタデータを取得する(S51)。
次に、生成部136は、主映像ダイナミックメタデータの第1オプション部分から、第2オプション部分を生成する(S52)。
そして、生成部136は、第2オプション部分を含む主映像ダイナミックデータをトーンマップ処理部133に出力する(S53)。
その後、実施の形態1に係る映像表示装置102のステップS43~S45が行われる。なお、映像表示装置102Bは、映像の受信が完了する、または、表示OFF操作が行われるまで、ステップS41、S51~S53、S43~S45の処理を繰り返す。例えば、この処理は、1フレーム単位又は複数フレーム単位で繰り返し行われる。
[4-3.第2の例の映像処理システムの構成]
図17は、実施の形態3の第2の例に係る映像処理システム100Cの構成を示すブロック図である。
本実施の形態の第2の例に係る映像処理システム100Cは、第1の例に係る映像処理システム100Cの映像表示装置102Bと比較して、映像表示装置102Cの生成部136Cの機能が異なる。映像表示装置102Cの他の構成は、第1の例の映像表示装置102Bと同様であるため、詳細な説明を省略する。
生成部136Cは、メタデータ取得部132により取得された主映像ダイナミックメタデータが対応している方式(第1オプション)と、表示方式(第2オプション)とが異なるため、映像受信部131により出力された主映像からダイナミックメタデータの第2オプション部分を生成する。そして、生成部136Cは、生成した第2オプション部分で主映像ダイナミックメタデータの第1オプション部分を置き換える。このように、生成部136Cは、主映像を解析することで、主映像のダイナミックメタデータを抽出し、抽出したダイナミックメタデータの輝度ダイナミックレンジの方式を、表示方式に変換する。
[4-4.第2の例の映像処理システムの動作]
図18は、実施の形態3の第2の例に係る映像表示装置102Cの動作を示すフローチャートである。なお、実施の形態3の第2の例に係る映像表示装置102Cの動作では、第1の例に係る映像表示装置102Bの動作と比較して、ステップS52の代わりにステップS52Cを行う点が異なる。このため、ステップS52Cの説明を行い、その他のステップの詳細な説明を省略する。
映像表示装置102Cでは、ステップS51が終わると、生成部136Cは、映像受信部131により出力された主映像の輝度特性を解析し、解析した結果から、第2オプションに対応しているダイナミックメタデータ(つまり、第2オプション部分)を生成する(S52C)。
その後、映像表示装置102Cは、図16のステップS53以降の処理と同様の処理を行う。
[5.実施の形態4]
実施の形態4について説明する。実施の形態4では、実施の形態1または実施の形態2に加え、映像再生装置は、ダイナミックメタデータの第2オプション部分の生成時に、グラフィックスの輝度情報を含める。つまり、映像再生装置は、主映像に重畳されるグラフィックスの輝度情報を第2のオプション部分に追加する。映像表示装置は、第2オプション部分を含むダイナミックメタデータを取得し、取得したダイナミックメタデータを用いて、第2オプションの主映像の輝度がグラフィックスの輝度以上の区間では、当該区間の第2オプション部分に応じて、変換カーブを時系列に変更する第1トーンマップ処理を行い、第2オプションの主映像の輝度がグラフィックスの輝度より暗い区間では、一定の変換カーブを用いる第2トーンマップ処理を行う。
[5-1.映像処理システムの構成]
図19は、実施の形態4に係る映像処理システム100Dの構成を示すブロック図である。本実施の形態に係る映像再生装置101Dは、実施の形態1の映像再生装置101と比較して、さらに、抽出部122を備える点が異なる。映像再生装置101Dの他の構成は、実施の形態1の映像再生装置101と同様であるため、詳細な説明を省略する。
抽出部122は、グラフィックスの輝度特性を抽出する。
また、本実施の形態に係る映像表示装置102Dは、実施の形態1の映像表示装置102と比較して、トーンマップ処理部133Dの機能が異なる。映像表示装置102Dの他の構成は、実施の形態1の映像表示装置102と同様であるため、詳細な説明を省略する。
図20は、トーンマップ処理部133Dの構成を示すブロック図である。
トーンマップ処理部133Dは、係数演算部141と、係数保持部142と、トーンマップ部143と、係数合成部144と、切替部SW2とを備える。
映像受信部131からの映像信号は、トーンマップ部143へ送られる。メタデータ取得部132からの主映像ダイナミックメタデータは、係数演算部141に送られる。
係数演算部141は、トーンマップ部143におけるトーンマップ処理で用いられるトーンマップ係数を、映像表示装置102Dの輝度などの映像表示能力に従って算出する。係数保持部142は、係数演算部141が算出したトーンマップ係数を保持する。ここで、トーンマップ係数とは、トーンマップ処理に用いられる変換カーブを示す関数に含まれる係数である。つまり、トーンマップ係数により変換カーブが決定される。
切替部SW2は、係数演算部141で算出されたトーンマップ係数(A)と、係数保持部142に保持されるトーンマップ係数(B)との一方を選択し、選択したトーンマップ係数を係数保持部142に入力する。つまり、切替部SW2は、係数保持部142に保持されるトーンマップ係数を、係数演算部141で新たに算出されたトーンマップ係数に更新するか(A)、現在保持しているトーンマップ係数を引き続き保持するか(B)を切り替える。
係数合成部144は、グラフィックス輝度情報が「0」あるいは「グラフィックスが無いことを示す値」である場合、係数演算部141により算出されたトーンマップ係数を用いるダイナミックトーンマップ処理を行う。一方、係数合成部144は、グラフィックス輝度情報が「0」でない、または、「グラフィックスがあることを示す値」である場合、つまり、グラフィックスが重畳されることを示す場合、グラフィックス輝度情報が示すグラフィックス輝度とダイナミックメタデータの第2オプション部分により示される輝度との比較を行う。そして、係数合成部144は、第2オプションの主映像の輝度がグラフィックスの輝度以上の場合、第2オプション部分に応じて、変換カーブを時系列に変更する第1トーンマップ処理を行い、第2オプションの主映像の輝度がグラフィックスの輝度より暗い場合、(1)トーンマップを固定する、(2)トーンマップ処理を行わない、(3)トーンマップの変動を抑える、又は(4)トーンマップの影響が人に感知できない程度とするなどの処理を行う。ここで、グラフィックス輝度とは、例えば、グラフィックスに用いられている輝度の最大値より高い輝度である。これにより、グラフィックスに用いられる輝度範囲においてトーンマップが変動することが抑制される。また、上記処理において、境界輝度以上の変換カーブと、境界輝度未満の変換カーブとの連続性を維持するために、係数合成部144は、これらの境界領域において変換カーブが滑らかに変化するように変換カーブを補正してもよい。
これにより、グラフィックスが重畳されている部分は、安定した表示が可能となる。
また、本構成は、一例であり、トーンマップ処理部133Dは、グラフィックス輝度情報がグラフィックスが重畳されることを示す場合、トーンマップ係数を特定の輝度以下で固定してもよいし、トーンマップ処理を行わないとしてもよい。
つまり、トーンマップ処理部133Dは、第1動的輝度特性としてのダイナミックメタデータの第2オプション部分が、グラフィックスの輝度以上である映像の第1区間では、当該第1区間における主映像の輝度を当該第1区間における第1動的輝度特性に応じて、変換カーブを時系列に変更する第1トーンマップ処理を行う。また、トーンマップ処理部133Dは、ダイナミックメタデータの第2オプション部分が、グラフィックスの輝度特性未満である映像の第2区間では、当該第2区間における主映像の輝度を当該第2区間におけるグラフィックスの輝度に依らず、一定の変換カーブを用いる第2トーンマップ処理を行う。
図21は、実施の形態4に係るダイナミックメタデータの構成例を示す図である。なお、図21では、本開示に関連していない構成を省略している。
図21のダイナミックメタデータの構成例の、図9A、図9B、および図12の構成例との違いは、グラフィックス輝度情報が追加されていることである。グラフィックス輝度情報の値は、主映像に重畳されるグラフィックス、つまり、字幕またはメニューの実効的な最大輝度を示す。映像表示装置102Dは、グラフィックス輝度情報が「0」または「グラフィックスが無いことを示す値」である場合、ダイナミックメタデータに従ったダイナミックトーンマップを行う。一方、映像表示装置102Dは、グラフィックス輝度情報が「0」でない、または、「グラフィックスがあることを示す値」である場合、グラフィックス輝度情報の輝度以上の輝度の主映像の区間については、ダイナミックトーンマップを実施し、グラフィックス輝度以下の主映像の区間については、トーンマップを固定する。
グラフィックス輝度情報は、第2オプションのトーンマップ情報の輝度値の分布の一部としてもよい。グラフィックス輝度情報は、例えば、Kneepointとして定義してある輝度値を用いてもよく、この場合、映像表示装置102Dは、グラフィックスの処理と通常のダイナミックトーンマップの処理とを共通化することが可能となる。つまり、映像表示装置102Dは、Kneepointで指定される輝度以下については、トーンマップを行わないことが期待値であることから、グラフィックスの輝度以下については、トーンマップを行わないと言う処理となる。よって、映像表示装置102Dは、グラフィックスが重畳されても、映像のうちのグラフィックスが重畳されている部分を安定した輝度で表示することができる。
[5-2.効果]
図22Aは、グラフィックスが字幕である場合における、従来のダイナミックトーンマップによる字幕の輝度の変化を示す図である。字幕の輝度レベルが200nit以下の場合において、時間的にトーンマップが変化すると、図22Aからわかるように、0から200nit付近の輝度も変化し、本来一定である字幕の輝度が変化する。
これに対し、所定の輝度を固定値とし所定の輝度を超える輝度に対してトーンマップを行うことで、所定の輝度以下の輝度に対して、トーンマップの時間変化が発生しないようにできる。これにより、図22Bからわかるように、字幕輝度である200nit以下の時間変化がなく、安定した輝度で字幕が表示される。ここで、所定の輝度は、例えば標準的な字幕の輝度レベルより高い固定値であり、変換カーブのKneepointも固定される。
しかしながら、所定の輝度が固定されると、ダイナミックトーンマップの変化幅が制限され、主映像に対して、ダイナミックトーンマップの効果が少なくなると言う課題がある。特に映像表示装置102の最大輝度(DPL)が低いときに問題が顕著である。もちろん、映像表示装置102において、グラフィックスデータの輝度を一定値以下に想定するなどダイナミックトーンマップの方法を工夫することにより、ダイナミックトーンマップの効果を大きくすることができる。しかしながら、この場合、想定以上の輝度のグラフィックスデータが表示される場合に、グラフィックスデータの表示がダイナミックトーンマップの影響を受けやすくなるなどの課題がある。
これに対し、字幕の輝度情報に基づいて所定の輝度を変化させるために、図23に示すように、より自由度が高いダイナミックトーンマップを主映像に適用できる。図23では、実際の字幕の輝度が100nitであった場合を図示している。図23に示すように、この場合、図22Bに示す境界輝度を200nitに固定して処理する場合に対して、より自由度が高いダイナミックトーンマップを実現できる。この効果は、接続する映像表示装置102Dの最大輝度が低いほど大きくなる。
[6.実施の形態5]
実施の形態5について説明する。実施の形態5では、ダイナミックトーンマップに対応した複数のHDR方式に映像再生装置が対応している場合を考える。映像再生装置は、主映像が複数のHDR方式のうちの第1HDR方式に対応しており、映像再生装置に接続されている映像表示装置が複数のHDR方式のうちの第2HDR方式に対応している場合、主映像の再生時に、映像表示装置が対応している第2HDR方式に必要な、ダイナミックメタデータを再生中の主映像からダイナミックに生成し、生成したダイナミックメタデータを映像表示装置に送る。これにより、映像表示装置は、第2HDR方式に対応した主映像およびダイナミックメタデータを取得し、取得したダイナミックメタデータを用いて取得した主映像を第2HDR方式で表示する。
[6-1.映像処理システムの構成]
図24は、実施の形態5に係る映像処理システム100Eの構成を示すブロック図である。本実施の形態に係る映像再生装置101Eは、実施の形態2の映像再生装置101Aと比較して、生成部118Eの機能が異なる。映像再生装置101Eの他の構成は、実施の形態2の映像再生装置101Aと同様であるため、詳細な説明を省略する。また、映像表示装置102は、実施の形態1および2の映像表示装置102と同様であるため詳細な説明を省略する。
まず、本実施の形態では、メタデータ取得部116において、第1HDR方式に対応する主映像ダイナミックメタデータが取得されたものとして説明する。また、方式取得部117は、映像表示装置102の表示方式が対応するHDR方式が第2HDR方式であるため、第2HDR方式を示す表示方式を取得するものとして説明する。
生成部118Eは、メタデータ取得部116により取得された主映像ダイナミックメタデータが対応している方式(第1HDR方式)と、方式取得部117により取得された表示方式(第2HDR方式)とが異なるため、主映像デコード部113により出力された主映像から第2HDR方式のダイナミックメタデータを生成する。そして、生成部118Eは、生成した第2HDR方式の主映像ダイナミックメタデータで、第1HDR方式のダイナミックメタデータを置き換えるか、または、主映像ダイナミックメタデータに、生成した第2HDR方式のダイナミックメタデータを追加する。このように、生成部118Eは、主映像を解析することで、表示方式に対応する、主映像のダイナミックメタデータを抽出する。
[7.変形例]
Blu-ray、Ultra HD Blu-rayの詳細は、例えば、非特許文献1に記載されている。
取得部111が取得するHDR映像は、例えばBlu-rayディスク、DVD、Internetの動画配信サイト、放送、又はHDD(Hard Disk Drive)内の映像であってもよい。
上記映像再生装置は、ディスクプレイヤー、ディスクレコーダ、セットトップボックス、テレビ、パーソナルコンピュータ、又はスマートフォンなど、記録媒体、放送又はインターネットからの圧縮された映像信号を復号し、映像表示装置に送る装置でもよい。また、映像再生装置の機能の一部又は全てが、映像表示装置102に含まれてもよい。例えば、映像再生装置に含まれる処理部のうち、取得部111以外の処理部が映像表示装置102に含まれてもよい。また、映像表示装置102に含まれる映像受信部131、メタデータ取得部132及びトーンマップ処理部133、133Dが映像再生装置に含まれてもよい。また、トーンマップ処理部133Dに含まれる処理部のうちトーンマップ部143以外の処理部が映像再生装置に含まれてもよい。
映像再生装置からの映像信号を映像表示装置に伝送する映像信号伝送手段は、HDMI、DVI、又はDPなどの映像信号を非圧縮の状態で伝送する手段であってもよいし、ネットワークを通じた伝送のように映像信号を圧縮した形式で伝送する手段であってもよい。
映像表示装置の最大輝度情報又はトーンマップ情報の映像再生装置への設定は、利用者が映像再生装置にリモートコントローラなどを用いて入力することで行われてもよいし、利用者が映像再生装置が備える操作装置を用いて入力することで行われてもよい。または、利用者は、インターネット又はその他の手段を用いて、これらの情報を取得し、取得した情報をポータブル記憶媒体に保存し、ポータブル記憶媒体を介して、これらの情報を映像再生装置に送ってもよい。また、映像再生装置が直接、インターネットに接続され、映像再生装置は、サーバのデータベースから、これらの情報を取得してもよい。さらに、映像再生装置は、映像表示装置にテストパターンを表示し、表示されたテストパターンを用いて映像表示装置の特性を確認しながら、これらの情報を取得及び記憶してもよい。
映像再生装置は、グラフィックス(字幕又はメニュー)の輝度をそのデータから検出することでグラフィックス輝度情報(字幕輝度情報及びメニュー輝度情報を含む)を生成してもよいし、映像データ作成時に予め作成されたグラフィックスの輝度を取得してもよい。例えば、グラフィックスの輝度は、ディスクに記録されていてもよいし、メタデータとして放送又はInternetで送付されてもよい。映像再生装置は、グラフィックスの輝度を読み取り、ダイナミックメタデータの一部として映像表示装置に送る。あるいは、Internetに接続されたサーバのデータベースに、再生するコンテンツに対する情報として、グラフィックス(字幕又はメニュー)の輝度情報が記録されており、映像再生装置は、当該データベースからグラフィックスの輝度情報を取得し、取得した輝度情報を映像表示装置に送ってもよい。
第1オプション、第2オプションのメタデータについては、構成例のビット数、項目数とは異なる、第1のオプションでの値の単位系など、表現する座標系と第2のオプションで値の単位系などの座標系が異なるなど、それぞれのオプションでの記載について、異なったものであればよい。
実施の形態1~4では、HDR方式の第1オプションおよび第2オプションが異なる場合を説明したが、第1オプションおよび第2オプションが異なる場合も、HDR方式が異なることに含まれる。つまり、HDR方式の第1オプションを第1HDR方式とし、HDR方式の第2オプションを第2HDR方式としてもよい。また、マンダトリHDRについても、HDR方式の第1オプションおよびHDR方式の第2オプションとは異なるHDR方式としてもよい。
以上、本開示の実施の形態に係る映像処理システムについて説明したが、本開示は、この実施の形態に限定されるものではない。
また、上記実施の形態に係る映像処理システムに含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、本開示は、映像処理システムにより実行される各種方法として実現されてもよい。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
以上、一つまたは複数の態様に係る映像処理システムについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、映像処理システム、映像再生装置又は映像表示装置に適用できる。
100、100A~100E 映像処理システム
101、101A、101B、101D、101E 映像再生装置
102、102B、102C、102D 映像表示装置
111 取得部
112 デマルチプレクサ
113 主映像デコード部
114 字幕デコード部
115 メニューデコード部
116、132 メタデータ取得部
117 方式取得部
118、118A、118E、136、136C 生成部
119 グラフィックス合成部
120 主映像合成部
121 映像送出部
131 映像受信部
133、133D トーンマップ処理部
134 表示部
135 通知部
141 係数演算部
142 係数保持部
143 トーンマップ部
144 係数合成部

Claims (9)

  1. 標準のHDR映像と、前記標準のHDR映像よりも高品質な第1HDR映像と、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記第1HDR映像に対応する第2動的輝度特性の第2特性情報と を含む映像データを取得する第1取得部と、
    前記標準のHDR(High Dynamic Range)映像を表示可能な表示装置が表示可能な第2HDR映像であって、前記標準のHDR映像よりも高品質な第2HDR映像の 輝度ダイナミックレンジの方式を示す表示方式を前記表示装置から取得する第2取得部と、
    前記第1HDR 映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、前記動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成部と、
    前記生成部により生成された前記第1特性情報と、前記第1HDR映像と前記表示装置へ出力する出力部と、を備える
    映像処理システム。
  2. 記生成部は、前記第2動的輝度特性の輝度ダイナミックレンジの方式を、前記表示方式に変換することで、前記第1特性情報を生成する
    請求項1に記載の映像処理システム。
  3. 主映像を含む映像データを取得する第1取得部と、
    表示装置が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する第2取得部と、
    前記映像データが示す映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成部と、
    前記生成部により生成された前記第1特性情報を出力する出力部と、を備え、
    前記生成部は、前記映像データの前記主映像を解析することで、前記主映像の前記動的輝度特性を示す第2動的輝度特性を抽出し、抽出した前記第2動的輝度特性の輝度ダイナミックレンジの方式を、前記表示方式に変換することで、前記第1特性情報を生成する
    像処理システム。
  4. 前記表示装置は、
    前記出力部により出力された前記第1特性情報が示す第1動的輝度特性に応じた変換カーブを用いて前記第1HDR映像の輝度を変換するトーンマップ処理を行うトーンマップ処理部と、
    前記トーンマップ処理後の映像を表示する表示部と、を備える
    請求項1または2に記載の映像処理システム。
  5. 主映像を含む映像データを取得する第1取得部と、
    表示装置が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する第2取得部と、
    前記映像データが示す映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成部と、
    前記生成部により生成された前記第1特性情報を出力する出力部と、
    前記主映像にグラフィックスを合成することで合成映像を生成する合成部と、
    前記グラフィックスの輝度特性を抽出する抽出部と、を備え、
    前記出力部は、さらに、前記合成映像と、前記グラフィックスの輝度特性を示す第3特性情報とを出力する
    像処理システム。
  6. さらに、
    前記出力部により出力された前記第1特性情報が示す第1動的輝度特性に応じた変換カーブを用いて前記主映像の輝度を変換するトーンマップ処理を行うトーンマップ処理部と、
    前記トーンマップ処理後の映像を表示する表示部とを備え、
    前記トーンマップ処理部は、前記合成部において合成映像が生成される場合、
    前記第1特性情報が示す前記第1動的輝度特性が、前記第3特性情報が示す前記グラフィックスの輝度特性以上である映像の第1区間では、当該第1区間における前記主映像の輝度を当該第1区間における前記第1動的輝度特性に応じて、前記変換カーブを時系列に変更する第1トーンマップ処理を行い、
    前記第1動的輝度特性が前記グラフィックスの輝度特性未満である映像の第2区間では、当該第2区間における前記主映像の輝度を当該第2区間における前記第1動的輝度特性に依らず、一定の変換カーブを用いる第2トーンマップ処理を行う
    請求項5に記載の映像処理システム。
  7. 映像処理システムにおける映像処理方法であって、
    標準のHDR映像と、前記標準のHDR映像よりも高品質な第1HDR映像と、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記第1HDR映像に対応する第2動的輝度特性の第2特性情報と を含む映像データを取得する第1取得ステップと、
    前記標準のHDR(High Dynamic Range)映像を表示可能な表示装置が表示可能な第2HDR映像であって、前記標準のHDR映像よりも高品質な第2HDR映像の 輝度ダイナミックレンジの方式を示す表示方式を前記表示装置から取得する第2取得ステップと、
    前記第1HDR 映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、前記動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成ステップと、
    前記生成ステップにおいて生成された前記第1特性情報と、前記第1HDR映像と前記表示装置へ出力する出力ステップと、を含む
    映像処理方法。
  8. 映像処理システムにおける映像処理方法であって、
    主映像を含む映像データを取得する第1取得ステップと、
    表示装置が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する第2取得ステップと、
    前記映像データが示す映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成ステップと、
    前記生成ステップにおいて生成された前記第1特性情報を出力する出力ステップと、を含み、
    前記生成ステップでは、前記映像データの前記主映像を解析することで、前記主映像の前記動的輝度特性を示す第2動的輝度特性を抽出し、抽出した前記第2動的輝度特性の輝度ダイナミックレンジの方式を、前記表示方式に変換することで、前記第1特性情報を生成する
    映像処理方法。
  9. 映像処理システムにおける映像処理方法であって、
    主映像を含む映像データを取得する第1取得ステップと、
    表示装置が表示可能な輝度ダイナミックレンジの方式を示す表示方式を取得する第2取得ステップと、
    前記映像データが示す映像の輝度ダイナミックレンジの方式が前記表示方式と異なる場合、前記映像データを用いて、映像の輝度特性の時系列の変化を示す動的輝度特性であって、前記表示方式に対応する第1動的輝度特性を示す第1特性情報を生成する生成ステップと、
    前記生成ステップにおいて生成された前記第1特性情報を出力する出力ステップと、
    前記主映像にグラフィックスを合成することで合成映像を生成する合成ステップと、
    前記グラフィックスの輝度特性を抽出する抽出ステップと、を含み、
    前記出力ステップでは、さらに、前記合成映像と、前記グラフィックスの輝度特性を示す第3特性情報とを出力する
    映像処理方法。
JP2018551487A 2017-07-07 2018-02-26 映像処理システム及び映像処理方法 Active JP7117664B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762529727P 2017-07-07 2017-07-07
US62/529,727 2017-07-07
PCT/JP2018/006858 WO2019008818A1 (ja) 2017-07-07 2018-02-26 映像処理システム及び映像処理方法

Publications (2)

Publication Number Publication Date
JPWO2019008818A1 JPWO2019008818A1 (ja) 2020-05-07
JP7117664B2 true JP7117664B2 (ja) 2022-08-15

Family

ID=64950717

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018551487A Active JP7117664B2 (ja) 2017-07-07 2018-02-26 映像処理システム及び映像処理方法
JP2018554518A Active JP7117558B2 (ja) 2017-07-07 2018-02-26 映像表示装置及び映像表示方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018554518A Active JP7117558B2 (ja) 2017-07-07 2018-02-26 映像表示装置及び映像表示方法

Country Status (5)

Country Link
US (2) US11049225B2 (ja)
EP (2) EP3651470A1 (ja)
JP (2) JP7117664B2 (ja)
CN (2) CN109691114B (ja)
WO (2) WO2019008818A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7117626B2 (ja) 2017-06-21 2022-08-15 パナソニックIpマネジメント株式会社 映像表示装置及び映像表示方法
US11049225B2 (en) * 2017-07-07 2021-06-29 Panasonic Intellectual Property Management Co., Ltd. Video processing system and video processing method
EP3654657B1 (en) 2017-07-14 2021-11-24 Panasonic Intellectual Property Management Co., Ltd. Video display device and video display method
JP7108880B2 (ja) * 2017-10-06 2022-07-29 パナソニックIpマネジメント株式会社 映像表示装置及び映像表示方法
EP3853810B1 (en) * 2018-09-19 2023-10-25 Dolby Laboratories Licensing Corporation Automatic display management metadata generation for gaming and/or sdr+ contents
CN113939798A (zh) * 2019-06-13 2022-01-14 夏普Nec显示器解决方案株式会社 影像显示系统、信息处理装置、影像显示装置以及影像显示方法、程序
CN112702651B (zh) * 2019-10-22 2023-03-31 中国移动通信有限公司研究院 Hdr视频传输方法、装置、系统和计算机可读存储介质
US20220245773A1 (en) * 2021-01-29 2022-08-04 Bae Systems Information And Electronic Systems Integration Inc. Burn-in removal from full motion video imagery for video exploitation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515202A (ja) 2011-03-15 2014-06-26 シリコン イメージ,インコーポレイテッド 接続デバイスによる使用のためのマルチメディア・データストリームの変換
WO2016027423A1 (ja) 2014-08-19 2016-02-25 パナソニックIpマネジメント株式会社 伝送方法、再生方法及び再生装置
JP2016100039A (ja) 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224222A (ja) 1996-02-19 1997-08-26 Canon Inc Tv信号伝達方式、tv信号伝達装置及びtv信号伝達システム
CN100358348C (zh) * 2002-11-29 2007-12-26 松下电器产业株式会社 图像重放装置及图像重放方法
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
JP5123713B2 (ja) 2008-04-04 2013-01-23 キヤノン株式会社 画像処理装置、画像処理方法
EP2144444B1 (en) 2008-07-10 2012-06-27 The University Of Warwick HDR video data compression devices and methods
JP5899120B2 (ja) 2010-03-03 2016-04-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. カラーレジームを定義する装置及び方法
US9443491B2 (en) * 2010-09-14 2016-09-13 Nec Display Solutions, Ltd. Information display device
CN103891294B (zh) * 2011-04-28 2017-09-01 皇家飞利浦有限公司 用于hdr图像编码和解码的装置与方法
EP2745290A1 (en) 2011-09-27 2014-06-25 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
EP2613532A1 (en) * 2012-01-06 2013-07-10 Thomson Licensing Method of and device for encoding an HDR video together with an LDR video, method of and device for reconstructing one of an HDR video and an LDR video coded together and non-transitory storage medium
US9654701B2 (en) * 2013-01-25 2017-05-16 Dolby Laboratories Licensing Corporation Global display management based light modulation
CN105324988B (zh) 2013-06-24 2019-12-06 索尼公司 再现装置、再现方法以及记录介质
JP2015008360A (ja) * 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
JP2015008361A (ja) 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
JP6528683B2 (ja) 2013-07-12 2019-06-12 ソニー株式会社 再生装置、再生方法
CN105409225B (zh) * 2013-07-19 2019-09-17 皇家飞利浦有限公司 Hdr元数据传输
KR102198673B1 (ko) * 2013-08-20 2021-01-05 소니 주식회사 재생 장치, 재생 방법 및 기록 매체
JP6459969B2 (ja) * 2013-09-27 2019-01-30 ソニー株式会社 再生装置、再生方法
US9230338B2 (en) * 2014-03-05 2016-01-05 Dolby Laboratories Licensing Corporation Graphics blending for high dynamic range video
JP5948619B2 (ja) * 2014-06-10 2016-07-06 パナソニックIpマネジメント株式会社 表示システム、表示方法および表示装置
CN110708439A (zh) 2014-06-26 2020-01-17 松下知识产权经营株式会社 显示装置及数据输出方法
JP6421504B2 (ja) 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
JP2016058848A (ja) 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
CN111212251B (zh) * 2014-09-10 2022-05-27 松下电器(美国)知识产权公司 再现装置以及再现方法
WO2016074999A1 (en) * 2014-11-10 2016-05-19 Koninklijke Philips N.V. Method for encoding, video processor, method for decoding, video decoder
US10885614B2 (en) * 2015-08-19 2021-01-05 Samsung Electronics Co., Ltd. Electronic device performing image conversion, and method thereof
WO2017053852A1 (en) 2015-09-23 2017-03-30 Arris Enterprises Llc System for reshaping and coding high dynamic range and wide color gamut sequences
US10176561B2 (en) * 2017-01-27 2019-01-08 Microsoft Technology Licensing, Llc Content-adaptive adjustments to tone mapping operations for high dynamic range content
US10104334B2 (en) * 2017-01-27 2018-10-16 Microsoft Technology Licensing, Llc Content-adaptive adjustment of display device brightness levels when rendering high dynamic range content
US11049225B2 (en) * 2017-07-07 2021-06-29 Panasonic Intellectual Property Management Co., Ltd. Video processing system and video processing method
US10504263B2 (en) * 2017-08-01 2019-12-10 Samsung Electronics Co., Ltd. Adaptive high dynamic range (HDR) tone mapping with overlay indication

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515202A (ja) 2011-03-15 2014-06-26 シリコン イメージ,インコーポレイテッド 接続デバイスによる使用のためのマルチメディア・データストリームの変換
WO2016027423A1 (ja) 2014-08-19 2016-02-25 パナソニックIpマネジメント株式会社 伝送方法、再生方法及び再生装置
JP2016100039A (ja) 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
折原一也(外2名),IFA2015速報レポート!,AV REVIEW 10月号,日本,株式会社音元出版,2015年10月25日,第32巻, 第10号,p.8-10

Also Published As

Publication number Publication date
CN109691114A (zh) 2019-04-26
EP3651470A4 (en) 2020-05-13
WO2019008819A1 (ja) 2019-01-10
EP3651471A4 (en) 2020-05-13
US11049225B2 (en) 2021-06-29
CN109691114B (zh) 2021-12-17
CN109691117B (zh) 2022-05-27
EP3651471A1 (en) 2020-05-13
CN109691117A (zh) 2019-04-26
US10984510B2 (en) 2021-04-20
JPWO2019008819A1 (ja) 2020-05-07
WO2019008818A1 (ja) 2019-01-10
EP3651470A1 (en) 2020-05-13
JPWO2019008818A1 (ja) 2020-05-07
JP7117558B2 (ja) 2022-08-15
US20190259355A1 (en) 2019-08-22
US20190251680A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP7117664B2 (ja) 映像処理システム及び映像処理方法
JP6558599B2 (ja) 再生装置、再生方法、及び、コンピュータプログラム
JP6478064B2 (ja) 変換方法および変換装置
CN109891902B (zh) 影像显示系统及影像显示方法
JP7117626B2 (ja) 映像表示装置及び映像表示方法
US11039045B2 (en) Video display system and video display method
JP6731627B2 (ja) 再生装置で実行される方法、及び再生装置
JP6868797B2 (ja) 変換方法及び変換装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220628

R151 Written notification of patent or utility model registration

Ref document number: 7117664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151