JP2017507547A - ビデオコンテンツをレンダリングするときの超高精細解像度へのアップスケーリングを最適化するための方法、装置、およびコンピュータプログラム製品 - Google Patents

ビデオコンテンツをレンダリングするときの超高精細解像度へのアップスケーリングを最適化するための方法、装置、およびコンピュータプログラム製品 Download PDF

Info

Publication number
JP2017507547A
JP2017507547A JP2016544531A JP2016544531A JP2017507547A JP 2017507547 A JP2017507547 A JP 2017507547A JP 2016544531 A JP2016544531 A JP 2016544531A JP 2016544531 A JP2016544531 A JP 2016544531A JP 2017507547 A JP2017507547 A JP 2017507547A
Authority
JP
Japan
Prior art keywords
resolution
metadata
visual effects
content
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016544531A
Other languages
English (en)
Inventor
ケビン ロング ブルース
ケビン ロング ブルース
ストラウス ダリル
ストラウス ダリル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017507547A publication Critical patent/JP2017507547A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • H04N21/2356Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages by altering the spatial resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • H04N21/4356Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen by altering the spatial resolution, e.g. to reformat additional data on a handheld device, attached to the STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

改善されたアップスケーリングおよびピクチャ最適化のためのプロセスであり、もとの低解像度コンテンツは解析され、コンテンツのアップスケーリングおよび最適化のためのメタデータが作成される。次いでメタデータは、コンテンツと共にアップスケーリングデバイスにもたらされる。次いでアップスケーリングデバイスは、メタデータを用いてアップスケーリングを改善することができ、これはより高い解像度のコンテンツに組み込むことができる。

Description

関連出願の相互参照
本出願は、参照によりその全体が本明細書に組み込まれている、2014年1月3日に出願した米国特許仮出願第61/923,478号明細書の利益を主張するものである。
本発明は一般にビデオ最適化に関し、より具体的には高解像度ビデオを含めるための低解像度視覚効果のアップスケーリングを改善することに関する。
多くの映画およびテレビ番組に対して視覚効果ショットは、必要とする時間および金銭のかなりの部分を占める。4Kなどのより高い解像度を含むときは、この問題は増すばかりである。必要なことは、低解像度視覚効果(低減されたコストで作り出された)をアップスケーリングし、それを用いてより高い解像度のコンテンツにおける使用のために提供することができる方法である。
改善されたアップスケーリングおよびピクチャ最適化のためのプロセスであり、元の低解像度コンテンツは解析され、上記コンテンツのアップスケーリングおよび最適化のためのメタデータが作成される。次いで上記メタデータは、上記コンテンツと共にアップスケーリングデバイスに提供される。次いで上記アップスケーリングデバイスは、上記メタデータを用いて、より高い解像度のコンテンツに組み込むことができる上記アップスケーリングを改善することができる。
本開示の一実施形態は、視覚効果のレンダリングを最適化する方法を提供する。上記方法は、第1の解像度での視覚効果コンテンツを受け取るステップと、第2の解像度での上記視覚効果コンテンツのレンダリングで使用するためのメタデータを生成するように、上記視覚効果コンテンツを処理するステップと、第2の解像度での上記視覚効果コンテンツのレンダリングで使用するための上記メタデータを提供するステップとを含む。
本開示の別の実施形態は、視覚効果のレンダリングを最適化する方法のための装置を提供する。上記装置は、ストレージ、メモリ、およびプロセッサを含む。上記ストレージおよびメモリは、データを記憶するためのものである。上記プロセッサは、第1の解像度での視覚効果コンテンツを受け取り、第2の解像度での上記視覚効果コンテンツのレンダリングで使用するためのメタデータを生成するように上記視覚効果コンテンツを処理し、第2の解像度での上記視覚効果コンテンツのレンダリングで使用するための上記メタデータを提供するように構成される。
本開示の別の実施形態は、メタデータを用いて上記視覚効果コンテンツをレンダリングする方法を提供する。上記方法は、第1の解像度での上記視覚効果コンテンツを受け取るステップと、上記視覚効果コンテンツの上記レンダリングを最適化するための上記メタデータを受け取るステップと、上記視覚効果コンテンツおよびメタデータを処理するステップと、第2の解像度での視覚効果コンテンツを出力するステップとを含む。
本開示の別の実施形態は、視覚効果のレンダリングを最適化する方法のための装置を提供する。上記装置は、ストレージ、メモリ、およびプロセッサを含む。上記ストレージおよびメモリは、データを記憶するためのものである。上記プロセッサは、第1の解像度での視覚効果コンテンツを受け取り、上記視覚効果コンテンツの上記レンダリングを最適化するためのメタデータを受け取り、上記視覚効果コンテンツおよびメタデータを処理し、第2の解像度での視覚効果コンテンツを出力するように構成される。
目的および利点は、「特許請求の範囲」において具体的に指し示された要素および結合によって実現され達成されるようになる。開示された実施形態は、本明細書の新規な教示の多くの有利な使用の例のみであることに留意することが重要である。上記の全体的な説明および以下の詳細な説明は共に、例示および説明目的であって本発明を限定するものではなく、特許請求される通りであることが理解されるべきである。さらにいくつかの記述はいくつかの発明性のある特長に当てはまり得るが、他には当てはまらない場合がある。一般に、特に明記しない限り、一般性を失わずに単数の要素は複数でもよく、逆も同様である。図面ではいくつかの図を通して同様な番号は同様な部分を指す。
実施形態による視覚効果の最適化が実施され得るシステムのブロック概略図である。 実施形態による視覚効果最適化の方法論を実施するための電子デバイスのブロック概略図である。 実施形態による視覚効果最適化のための方法論の例示的フローチャートである。 実施形態による図3のコンテンツ処理ステップのための方法論の例示的フローチャートである。 実施形態による図3のメタデータステップを用いて視覚効果のレンダリングの最適化のための方法論の例示的フローチャートである。 アップスケーリングされた視覚効果が、どのようにネイティブの高解像度ビデオと組み合わされ得るかの一例を示す図である。
次に、本開示に鑑みてコンテンツ最適化を実施するためのシステム100の実施形態のブロック図である図1を参照する。このシステム100は、コンテンツソース110、コンテンツ処理120、およびアップスケーラ130などのレンダリングデバイスを含む。これらのそれぞれについては以下でより詳しく述べる。
コンテンツソース110は、サーバ、またはハードドライブ、フラッシュストレージ、磁気テープ、光ディスク、または同様のものなどの他のストレージデバイスとすることができる。コンテンツソース110は、視覚効果(VFX)ショットなどのコンテンツ112をコンテンツ処理120に提供する。コンテンツは、任意の数のフォーマットおよび解像度におけるものとすることができる。本開示の目的のために視覚効果は、望むものより低い解像度でのものである。例えば視覚効果は、高精細(2K)におけるものとすることができる。
コンテンツ処理120では、コンテンツが解析して、コンテンツのアップコンバージョンまたはスケーリングをどのように最良に最適化するかを決定する。これは人もしくはコンピュータシステム、または両方の組み合わせによって行われ得る。いくつかの実施形態ではコンテンツ処理はまた、アップスケーラ130などのレンダリングデバイスによる受け取りおよび復号のために、コンテンツを符号化すること、でなければコンテンツ122のフォーマットもしくは解像度を変更することを含むことができる。コンテンツ処理120は、コンテンツ122に付随するようにメタデータ124を提供する。
レンダリングデバイス130は、所望の解像度でのコンテンツのレンダリングのために用いられるアップスケーラ、アップコンバージョンデバイス、または同様のものとすることができる。本開示によればレンダリングデバイス130は、メタデータ124をコンテンツ122と共に受け取る。次いでレンダリングデバイス130は、メタデータ124を用いてコンテンツのレンダリングを最適化することができる。いくつかの実施形態では、これは低い解像度から高い解像度への視覚効果のアップスケーリングを含む。
ビデオ処理のためのメタデータフィールドの例は以下を含む:
メタデータ − 輝度
メタデータ − クロミナンス
メタデータ − ブロックサイズ
メタデータ − ビット深度
メタデータ − 動きベクトル
メタデータ − ノイズ低減パラメータ
メタデータ − 動き推定
メタデータ − 量子化レベル
メタデータ − 高ダイナミックレンジに対する色情報
メタデータ − その他
このようなメタデータフィールドおよびメタデータは、ビデオのレンダリングを強化するために、レンダリングデバイス130内のプロセッサにおいて用いられ得ることが構想される。一例では、レンダリングデバイス130は、レンダリングのために、受け取ったメタデータを用いて受け取ったビデオをアップスケーリングすることができるアップスケーリングチップ(Marseille Networksによって提供される「VTV−122x」)を有する。
図2は、ビデオ最適化のための方法論およびシステムを実施するために用いることができる例示の電子デバイス200を示す。電子デバイス200は、1または複数のプロセッサ210、メモリ220、ストレージ230、およびネットワークインターフェース240を含む。これらの要素のそれぞれは、以下でより詳しく述べられる。
プロセッサ210は、電子デバイス200の動作を制御する。プロセッサ210は、電子デバイスを動作させるソフトウェアを実行し、ならびに図1に示されるコンテンツ処理120などの機能性ビデオ最適化(functionality video optimization)を提供する。プロセッサ210は、メモリ220、ストレージ230、およびネットワークインターフェース240に接続され、これらの要素の間での情報の転送および処理を取り扱う。プロセッサ210は、汎用プロセッサ、または特定の機能のための専用のプロセッサとすることができる。いくつかの実施形態では、複数のプロセッサがあってもよい。
メモリ220は、プロセッサによって実行されることになる命令およびデータが記憶される場所である。メモリ220は、揮発性メモリ(RAM)、不揮発性メモリ(EEPROM)、または他の適切な媒体を含むことができる。
ストレージ230は、コンテンツ解析の実行においてプロセッサによって用いられ作り出されるデータが記憶される場所である。ストレージは、磁気媒体(ハードドライブ)、光媒体(CD/DVD−Rom)、またはフラッシュベースのストレージとすることができる。本開示の恩恵を前提として当業者には、他のタイプの適切なストレージが明らかになるであろう。
ネットワークインターフェース240は、電子デバイス200の、ネットワークを通した他のデバイスとの通信を取り扱う。適切なネットワークの例は、イーサネットネットワーク、Wi−Fi対応ネットワーク、セルラネットワーク、および同様のものを含む。本開示の恩恵を前提として当業者には、他のタイプの適切なネットワークが明らかになるであろう。
図2に示される要素は説明に役立つためのものであることが理解されるべきである。電子デバイス200は任意の数の要素を含むことができ、いくつかの要素は他の要素の機能の一部またはすべてを提供することができる。本開示の恩恵を前提として当業者には、他の可能な実装形態が明らかになるであろう。
図3は、本開示によるビデオ最適化のプロセスに対する例示的フロー図300である。その基本においてプロセスは、コンテンツを受け取るステップ310、コンテンツを処理するステップ320、およびコンテンツに関連するメタデータを出力するステップ330の3つのステップを含む。いくつかの実施形態では、プロセスは、メタデータを用いてコンテンツのレンダリングを最適化するステップ340をさらに含む。これらのステップのそれぞれは、以下でより多くのデータにおいて述べられる。
図1を参照して上述されたように、コンテンツ112はコンテンツソース110から受け取られる(ステップ310)。コンテンツ112は、任意の数のフォーマットおよび解像度におけるものとすることができる。一例ではコンテンツは、第1の解像度での視覚効果である。視覚効果の例は、マットペインティング、ライブアクション効果(グリーンスクリーニングなど)、ディジタルアニメーション、およびディジタル効果(FX)を含むが、それらに限定されない。いくつかの実施形態では、視覚効果がもたらされる第1の解像度は、標準(480i、480P)、または高精細解像度(720p、1080i、1080p)である。
コンテンツ(例えば第1の解像度での視覚効果)112の処理(ステップ320)は、図1のコンテンツ処理120において行われる。ここではコンテンツを解析して、コンテンツのレンダリングをどのように最良に最適化するかを決定する。これは人もしくはコンピュータシステム、または両方の組み合わせによって行われ得る。これは、画像最適化必要条件のタイムコードベースのマッピングをもたらす、シーンごとまたはショットごとのやり方で行われ得る。これの例は図4に見ることができる。
図4は、第1の解像度での視覚効果などのビデオコンテンツの処理のための1つの方法論の例示的フローチャートを示す(ステップ320)。これは、シーン解析(ステップ322)、メタデータ生成(ステップ324)、およびメタデータ検証(ステップ326)を含む。これらのステップのそれぞれは、以下でより詳しく述べられる。
シーン解析(ステップ320)では、視覚効果の各シーンが識別され、シーンに対するタイムコードがマークされる。次いで各シーンは、最適化を必要とし得るシーンのパラメータに関して分解、でなければ解析される。いくつかの実施形態では、解析はまた、各シーンの異なるエリアまたは領域の解析を含むことができる。
最適化のためのいくつかのこのようなパラメータは、高周波またはノイズ、高ダイナミックレンジ(HDR)、シーンにおける焦点調節の量またはシーンにおける焦点調節の不足、動きの量、色、明るさおよび影、ビット深度、ブロックサイズ、ならびに量子化レベルを含むが、それらに限定されない。いくつかの実施形態ではパラメータは、最終的な最適化を行うレンダリングハードウェアのレンダリング能力および制限を考慮に入れることができる。本開示の恩恵を前提として当業者には、他の可能なパラメータが明らかになるであろう。
次いで、このようなパラメータを用いて視覚効果コンテンツをどのように最良に最適化するかが決定される。いくつかの実施形態ではこれは、ビデオ効果コンテンツを低い解像度から高い解像度にどのように最良にアップスケーリングするかを含む。さらに他の実施形態では、この解析は視覚効果コンテンツの符号化、でなければアップスケーラ130などのレンダリングデバイスによる受け取りおよび復号のためにコンテンツのフォーマットまたは解像度を変更することを含み得る。例えばいくつかのシーンは高密度の視覚効果がある場合があり、またはショットは非常に詳細な画像を強いる場合があり、または非常に高いコントラスト比を有し得る。
一実施形態では、視覚効果は通常、透明な背景の上のコンピュータで生成されたコンテンツからなる。コンテンツをアップスケーリングするプロセスは、画像内の画素の色および透明度をぼやけさせる。従って、視覚効果をアップスケーリングするプロセスをより効率的にする、または結果をより良く見せることができるステップを行うことができる。例えば透明である画像のエリアは、それらの画像の値が、隣接する画素と平均化される必要はない。これはアップスケーリングプロセスを加速することができる。またコンピュータで生成された要素は、アップスケーリング時に透明な背景によってそれらがぼやけさせられた場合は、視覚的アーチファクトを有し得るエッジをしばしば有し、それによりそれらは素材のタイプに応じて回避または強化されることができる。コンピュータで生成された要素から深度情報を出力することによって、アップスケーリングされた出力に対する透明度をより正確に設定することが可能になり得る。
これらおよび他の状況は、アーチファクトを回避し鑑賞体験の質を最大化するために、ノイズ、クロマ、およびスケーリングのための様々な設定に対する調整を必要とする。最適化はまた、視覚効果コンテンツのレンダリングまたはアップスケーリングのために用いられるハードウェアの能力または制限を考慮することができる。
シーンおよび最適化解析の結果は、メタデータに変形すること、でなければ変換することができる(ステップ324)。メタデータは、視覚効果コンテンツのレンダリングをどのように最良に最適化するかについての、レンダリングデバイス130に対する命令とすることができる。例えばメタデータは、レンダリングデバイス130のアップスケーラおよび/または復号器のためのコードまたはハードウェア固有の命令を含むことができる。いくつかの実施形態ではメタデータは、シーン解析プロセスにおいて解析された特定のシーンに時間同期される。
このようなメタデータ命令の例は、鮮明度、コントラスト、またはノイズ低減などの汎用パラメータを含むことができる。メタデータはまた、異なるタイプのデバイスまたはハードウェアのための固有の命令を含むことができる。本開示の恩恵を前提として当業者には、他の可能なメタデータが明らかになるであろう。
メタデータが生成された(ステップ324)後に、次いでそれは、メタデータが所望の結果を達成すること、でなければコンテンツのアップスケーリングまたはレンダリングなどの所望の最適化に悪影響を及ぼさないことを決定するように検証され得る(ステップ326)。これは、所望の最適化のためのメタデータを用い、結果を調べることによって行うことができる。次いでパラメータおよび/またはメタデータは、必要に応じてさらに調整され得る。検証された後に、次いでメタデータは、レンダリング最適化における使用のためにもたらされる、でなければ出力される準備が整う。
上述のように、いずれの処理ステップも人間のユーザ、機械、またはそれらの組み合わせによって行われ得る。
このプロセスの一部として、次いでそれぞれのコンテンツに対して、マスタまたは基準ファイルを作成することができる。ファイルは2つの要素を含み得る。
1)段階1:画質に影響し得る要因の、シーンごとおよび/またはフレームごとの解析。この解析は前後の比較の、自動化されたおよび人間による品質観察の両方、ならびに画質に影響し得る要因の技術的記述を含み得る。これらの要因を定義することによって、自動化されたオーサリングシステムが、次いでメタデータとして挿入するためにタグ付けできる条件の解析を行うことを可能とする。
2)段階2:このメタデータは、レンダリングおよびアップスケーリングチップがそれらの設定を調整するための、命令セットに符号化することができ、それによって鑑賞体験を最適化し、画面上に表示されるアーチファクトの発生を最小化する。
戻って図3を参照すると、メタデータが出力された(ステップ330)後に、次いでメタデータはコンテンツのレンダリングを最適化するために用いることができる(ステップ340)。いくつかの実施形態ではこれは、レンダリングのために構成された、図2に示されるものなどの電子デバイスによって行われる。
図5は、メタデータを用いてビデオ効果コンテンツのレンダリングを最適化するための1つの方法論の例示的フローチャートを示す(ステップ340)。これは、最適化されることになるコンテンツの受け取り(ステップ410)、最適化において用いられることになるメタデータの受け取り(ステップ420)、最適化のためのコンテンツおよびデータの処理(ステップ430)、および最適化されたデータの出力(ステップ440)を含む。これらのステップのそれぞれは、以下でより詳しく述べられる。
コンテンツの受け取り(ステップ410)は、DVD、ブルーレイ、フラッシュメモリ、またはハードドライブなどのストレージ媒体上に提供されたメディアファイルからとすることができる。あるいはコンテンツファイルは、ネットワークを通してデータファイルストリームとしてダウンロードまたは提供され得る。本開示の恩恵を前提として当業者には、他の可能な配信機構およびフォーマットが明らかになるであろう。
コンテンツと同様にメタデータの受け取り(ステップ420)は、DVD、ブルーレイ、フラッシュメモリ、またはハードドライブなどのストレージ媒体上に提供されたメディアファイルからとすることができる。あるいはメタデータファイルは、ネットワークを通してデータファイルストリームとしてダウンロードまたは提供され得る。本開示の恩恵を前提として当業者には、他の可能な配信機構およびフォーマットが明らかになるであろう。
コンテンツ、および最適化のための関連するメタデータが受け取られた後に、コンテンツおよび関連するメタデータは処理され得る(ステップ430)。これは、視覚効果コンテンツを取り扱う、でなければ提示するためのメタデータによって提供される、命令を実施することが関わる。このためメタデータは、アーチファクトを回避し鑑賞体験の質を最大化するために、ノイズ、クロマ、およびスケーリングのための様々な設定に対する調整を含むことができる。メタデータの最適化はまた、視覚効果コンテンツのレンダリングのために用いられるハードウェアの能力または制限を考慮することができる。
このプロセスは、標準または高解像度などの第1の解像度から、超高解像度(4K)などの第2の解像度への、視覚効果のアップスケーリングを可能にする。アップスケーリング、でなければ最適化された第2の解像度での視覚効果は、次いでネイティブに第2の解像度(超高解像度)におけるコンテンツと、組み合わせることができる。
次いで主要最適化要素を定義したマスタファイルが、主要視覚効果(VFX)、および画像シーケンスに対して作成されて、オリジナル4Kカメラネガと統合し得る。このシナリオにおいて、第1の解像度での視覚効果を作成し、次いでアップスケーリングする(すべてのVFXのオーサリングが追加された状態での)コストは、視覚効果を超高解像度(4K)においてネイティブに作り出すよりも大幅に低い。合成、CGI、および記憶は第1の解像度で行うことができ、コストを低く抑える。最終の配信可能要素のみが、第2の解像度(4K)でのものである必要がある。このような第2の解像度での視覚効果コンテンツは、次いで4Kに適合したマスタ内に挿入することができる。
超高解像度(4K)マスタ統合の一部として、4Kに適合したマスタ内に正規のVFXとして、シーケンスを投入することができ、連続性のために色が補正され得る。従って複合シーケンスに対して画面に表示されるアーチファクトの発生は、最小化され得る。
図6は、低解像度コンテンツを用いたこのような超高解像度マスタリングの例示の図500を示す。ここで第1の解像度としての視覚効果ショットなどの、低解像度コンテンツ122は、処理によって生成されたメタデータ124と共に、この場合はアップスケーラ510であるレンダリングデバイスに提供される。今では第2の解像度であるアップスケーリングされた視覚効果ショット512は、次いでここでは4Kネイティブコンテンツである第2の解像度での高い解像度のコンテンツ520と、合成器530によって統合されて、アップスケーリングされた視覚効果512および元の高解像度コンテンツ520の両方を備えた最終画像540を作り出すことができる。
レンダリングという用語を用いて示された例示的実施形態はまた、アップスケーリング、ダウンスケーリング、アップコンバージョン、ダウンコンバージョン、処理動作時にビデオコンテンツを第1のフォーマットから第2のフォーマットに変更するおよび/またはビデオコンテンツの属性を変更する任意の他のタイプの同様な動作を用いて行うことができ、このような変更は例示的実施形態に従ってメタデータによって制御される。
記載されたすべての例および条件的語句は、本開示の原理、および当技術分野を発展させるための発明者の寄与による概念の理解において、読者を補助するための情報を提供する目的のためであり、このような具体的に記載された例および条件に限定されないものと解釈されるべきである。
さらに本明細書における本開示の原理、特徴、および実施形態、ならびにそれらの特定の例を述べるすべての記述は、それらの構造的および機能的等価物の両方を包含することが意図される。さらにこのような等価物は、現在知られている等価物、ならびに将来に開発される等価物すなわち構造に関わらず同じ機能を行う開発された任意の要素の、両方を含むことが意図される。
従って例えば当業者には、本明細書において示されたブロック図は、本開示の原理を具体化する、説明に役立つ回路の概念的な図を表すことが理解されるであろう。同様にいずれのフローチャート、フロー図、状態遷移図、擬似コード、および同様のものも、コンピュータ可読媒体内に実質的に表され得る様々なプロセスを表し、それに従ってコンピュータまたはプロセッサによって、そのようなコンピュータまたはプロセッサが明示的に示されているかどうかに関わらず、実行されることが理解されるであろう。
図に示される様々な要素の機能は、専用ハードウェア、ならびに適切なソフトウェアと関連してソフトウェアを実行する能力を有するハードウェアの使用を通じてもたらされ得る。プロセッサによってもたらされるとき、機能は、単一の専用プロセッサにより、単一の共有プロセッサにより、またはそのいくつかは共有され得る複数の個別のプロセッサによりもたらされ得る。さらに「プロセッサ」または「コントローラ」という用語の明示的な使用は、ソフトウェアを実行する能力を有するハードウェアを排他的に指すものと解釈されるべきではなく、非限定的にディジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するための読出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、および不揮発性ストレージを暗黙に含み得る。
また従来型および/またはカスタムの他のハードウェアも含まれ得る。同様に、図に示されるいずれのスイッチも概念的であるのみである。それらの機能は、プログラムロジックの動作を通して、専用ロジックを通して、プログラム制御と専用ロジックの相互作用を通して、さらには手動で実行することができ、状況からより具体的に理解されるように実施者によって特定の技法を選択することができる。
本明細書では本開示の教示を組み込んだ実施形態について詳細に示し説明してきたが、当業者なら依然としてこれらの教示を組み込んだ多くの他の様々な実施形態を容易に考案することができる。いくつかの実施形態(これらは説明に役立つことを目的とし、限定するものではない)を述べたが、上記の教示に照らして当業者によって変更および変形がなされ得ることが留意される。

Claims (36)

  1. 視覚効果のレンダリングを最適化する方法であって、
    第1の解像度での視覚効果コンテンツを受け取るステップと、
    第2の解像度での前記視覚効果コンテンツのレンダリングで使用するためのメタデータを生成するように、前記視覚効果コンテンツを処理するステップと、
    第2の解像度での前記視覚効果コンテンツのレンダリングで使用するための前記メタデータを提供するステップと、
    を含む、前記方法。
  2. 前記視覚効果コンテンツの前記レンダリングは、前記視覚効果コンテンツを低い第1の解像度から第2の高い解像度にアップスケーリングすることを含む、請求項1に記載の方法。
  3. 前記第1の解像度は高精細解像度であり、前記第2の解像度は超高精細解像度である、請求項2に記載の方法。
  4. 前記メタデータは、輝度、クロミナンス、ブロックサイズ、ビット深度、動きベクトル、ノイズ低減パラメータ、動き推定、量子化レベル、および高ダイナミックレンジに対する色情報を含む群から選択される少なくとも1つのパラメータに関するメタデータを備える、請求項1に記載の方法。
  5. 前記メタデータは、レンダリングデバイスに特有のメタデータを備える、請求項1に記載の方法。
  6. 前記視覚効果コンテンツを処理するステップは、
    調整用のパラメータに関して前記視覚効果コンテンツのシーンを解析するステップと、
    解析されたシーンに関してパラメータを調整するためのメタデータを生成するステップと、
    前記メタデータを検証するステップと、
    をさらに含む、請求項1に記載の方法。
  7. ビデオコンテンツの再生を最適化するための装置であって、
    ビデオコンテンツを記憶するためのストレージデバイスと、
    処理のためのデータを記憶するためのメモリと、
    前記ストレージデバイスおよびメモリと通信するプロセッサであって、第1の解像度での視覚効果コンテンツを受け取り、第2の解像度での前記視覚効果コンテンツのレンダリングで使用するためのメタデータを生成するように前記視覚効果コンテンツを処理し、第2の解像度での前記視覚効果コンテンツのレンダリングで使用するための前記メタデータを提供するように構成された、前記プロセッサと、
    を備える、前記装置。
  8. 前記視覚効果コンテンツの前記レンダリングは、前記視覚効果コンテンツを低い第1の解像度から第2の高い解像度にアップスケーリングすることを含む、請求項7に記載の装置。
  9. 前記第1の解像度は高精細解像度であり、前記第2の解像度は超高精細解像度である、請求項8に記載の装置。
  10. 前記メタデータは、輝度、クロミナンス、ブロックサイズ、ビット深度、動きベクトル、ノイズ低減パラメータ、動き推定、量子化レベル、および高ダイナミックレンジに対する色情報を含む群から選択される少なくとも1つのパラメータに関するメタデータを備える、請求項7に記載の装置。
  11. 前記メタデータは、再生デバイスに特有のメタデータを備える、請求項7に記載の装置。
  12. 前記プロセッサは、調整用のパラメータに関して前記ビデオコンテンツのシーンを解析し、解析されたシーンに関してパラメータを調整するためのメタデータを生成し、前記メタデータを検証するようにさらに構成される、請求項7に記載の装置。
  13. 機械読み取り可能な媒体であって、実行されたときに、
    第1の解像度での視覚効果コンテンツを受け取るステップと、
    第2の解像度での前記視覚効果コンテンツのレンダリングで使用するためのメタデータを生成するように、前記視覚効果コンテンツを処理するステップと、
    第2の解像度での前記視覚効果コンテンツのレンダリングで使用するための前記メタデータを提供するステップと、
    を行う命令を含む、前記媒体。
  14. 前記視覚効果コンテンツの前記レンダリングは、前記視覚効果コンテンツを低い第1の解像度から第2の高い解像度にアップスケーリングすることを含む、請求項13に記載の媒体。
  15. 前記第1の解像度は高精細解像度であり、前記第2の解像度は超高精細解像度である、請求項14に記載の媒体。
  16. 前記メタデータは、輝度、クロミナンス、ブロックサイズ、ビット深度、動きベクトル、ノイズ低減パラメータ、動き推定、量子化レベル、および高ダイナミックレンジに対する色情報を含む群から選択される少なくとも1つのパラメータに関するメタデータを備える、請求項13に記載の媒体。
  17. 前記メタデータは、レンダリングデバイスに特有のメタデータを備える、請求項13に記載の媒体。
  18. 前記視覚効果コンテンツを処理するステップは、
    調整用のパラメータに関して前記視覚効果コンテンツのシーンを解析するステップと、
    解析されたシーンに関してパラメータを調整するためのメタデータを生成するステップと、
    前記メタデータを検証するステップと、
    をさらに含む、請求項13に記載の媒体。
  19. メタデータを用いて視覚効果コンテンツをレンダリングする方法であって、
    第1の解像度での視覚効果コンテンツを受け取るステップと、
    前記視覚効果コンテンツの前記レンダリングを最適化するためのメタデータを受け取るステップと、
    前記視覚効果コンテンツおよびメタデータを処理するステップと、
    第2の解像度での視覚効果コンテンツを出力するステップと、
    を含む、前記方法。
  20. 前記第2の解像度での前記視覚効果コンテンツを、前記第2の解像度での他のビデオコンテンツと組み合わせるステップをさらに含む、請求項19に記載の方法。
  21. 前記視覚効果コンテンツの前記レンダリングは、前記視覚効果コンテンツを低い第1の解像度から第2の高い解像度にアップスケーリングすることを含む、請求項19に記載の方法。
  22. 前記第1の解像度は高精細解像度であり、前記第2の解像度は超高精細解像度である、請求項21に記載の方法。
  23. 前記メタデータは、輝度、クロミナンス、ブロックサイズ、ビット深度、動きベクトル、ノイズ低減パラメータ、動き推定、量子化レベル、および高ダイナミックレンジに対する色情報を含む群から選択される少なくとも1つのパラメータに関するメタデータを備える、請求項19に記載の方法。
  24. 前記メタデータは、レンダリングデバイスに特有のメタデータを備える、請求項19に記載の方法。
  25. メタデータを用いて視覚効果コンテンツをレンダリングするための装置であって、
    ビデオコンテンツを記憶するためのストレージデバイスと、
    処理のためのデータを記憶するためのメモリと、
    前記ストレージデバイスおよびメモリと通信するプロセッサであって、第1の解像度での視覚効果コンテンツを受け取り、前記視覚効果コンテンツの前記レンダリングを最適化するためのメタデータを受け取り、前記視覚効果コンテンツおよびメタデータを処理し、第2の解像度での視覚効果コンテンツを出力するように構成された、前記プロセッサと、
    を備える、前記装置。
  26. 前記プロセッサは、前記第2の解像度での前記視覚効果コンテンツを、前記第2の解像度での他のビデオコンテンツと組み合わせるようにさらに構成される、請求項25に記載の装置。
  27. 前記視覚効果コンテンツの前記レンダリングは、前記視覚効果コンテンツを低い第1の解像度から第2の高い解像度にアップスケーリングすることを含む、請求項25に記載の装置。
  28. 前記第1の解像度は高精細解像度であり、前記第2の解像度は超高精細解像度である、請求項26に記載の装置。
  29. 前記メタデータは、輝度、クロミナンス、ブロックサイズ、ビット深度、動きベクトル、ノイズ低減パラメータ、動き推定、量子化レベル、および高ダイナミックレンジに対する色情報を含む群から選択される少なくとも1つのパラメータに関するメタデータを備える、請求項25に記載の装置。
  30. 前記メタデータは、レンダリングデバイスに特有のメタデータを備える、請求項25に記載の装置。
  31. 実行されたときに、
    第1の解像度での視覚効果コンテンツを受け取るステップと、
    前記視覚効果コンテンツのレンダリングを最適化するためのメタデータを受け取るステップと、
    前記視覚効果コンテンツおよびメタデータを処理するステップと、
    第2の解像度での視覚効果コンテンツを出力するステップと、
    を行う命令を含む、機械可読媒体。
  32. 前記第2の解像度での前記視覚効果コンテンツを、前記第2の解像度での他のビデオコンテンツと組み合わせるステップをさらに含む、請求項31に記載の媒体。
  33. 前記視覚効果コンテンツの前記レンダリングは、前記視覚効果コンテンツを低い第1の解像度から第2の高い解像度にアップスケーリングすることを含む、請求項31に記載の媒体。
  34. 前記第1の解像度は高精細解像度であり、前記第2の解像度は超高精細解像度である、請求項33に記載の媒体。
  35. 前記メタデータは、輝度、クロミナンス、ブロックサイズ、ビット深度、動きベクトル、ノイズ低減パラメータ、動き推定、量子化レベル、および高ダイナミックレンジに対する色情報を含む群から選択される少なくとも1つのパラメータに関するメタデータを備える、請求項31に記載の媒体。
  36. 前記メタデータは、レンダリングデバイスに特有のメタデータを備える、請求項31に記載の媒体。
JP2016544531A 2014-01-03 2014-12-29 ビデオコンテンツをレンダリングするときの超高精細解像度へのアップスケーリングを最適化するための方法、装置、およびコンピュータプログラム製品 Pending JP2017507547A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461923478P 2014-01-03 2014-01-03
US61/923,478 2014-01-03
US201462018039P 2014-06-27 2014-06-27
US62/018,039 2014-06-27
PCT/US2014/072570 WO2015103145A1 (en) 2014-01-03 2014-12-29 Method, apparatus, and computer program product for optimising the upscaling to ultrahigh definition resolution when rendering video content

Publications (1)

Publication Number Publication Date
JP2017507547A true JP2017507547A (ja) 2017-03-16

Family

ID=52394371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016544531A Pending JP2017507547A (ja) 2014-01-03 2014-12-29 ビデオコンテンツをレンダリングするときの超高精細解像度へのアップスケーリングを最適化するための方法、装置、およびコンピュータプログラム製品

Country Status (6)

Country Link
US (1) US20160330400A1 (ja)
EP (1) EP3090538A1 (ja)
JP (1) JP2017507547A (ja)
KR (1) KR20160103012A (ja)
CN (1) CN105874782A (ja)
WO (1) WO2015103145A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109845250B (zh) * 2016-10-18 2021-07-16 韩国斯诺有限公司 用于影像的效果共享方法及系统
CN109640167B (zh) * 2018-11-27 2021-03-02 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及存储介质
KR20210066653A (ko) 2019-11-28 2021-06-07 삼성전자주식회사 전자 장치 및 그 제어 방법
CN113452929B (zh) * 2020-03-24 2022-10-04 北京达佳互联信息技术有限公司 视频渲染方法、装置、电子设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100309987A1 (en) * 2009-06-05 2010-12-09 Apple Inc. Image acquisition and encoding system
CN102823242B (zh) * 2010-01-22 2016-08-10 汤姆森特许公司 基于取样超分辨率视频编码和解码的方法和装置
JP5577415B2 (ja) * 2010-02-22 2014-08-20 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
EP2614645A1 (en) * 2010-09-10 2013-07-17 Thomson Licensing Video decoding using example - based data pruning
US9275605B2 (en) * 2010-11-23 2016-03-01 Dolby Laboratories Licensing Corporation Content metadata enhancement of high dynamic range images
EP2666289A1 (en) * 2011-01-21 2013-11-27 Thomson Licensing System and method for enhanced remote transcoding using content profiling
US9251855B2 (en) * 2011-01-28 2016-02-02 Apple Inc. Efficient media processing
EP2557789B1 (en) * 2011-08-09 2017-09-27 Dolby Laboratories Licensing Corporation Guided image up-sampling in video coding
WO2013049699A1 (en) * 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
WO2014073927A1 (ko) * 2012-11-12 2014-05-15 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
US9774865B2 (en) * 2013-12-16 2017-09-26 Samsung Electronics Co., Ltd. Method for real-time implementation of super resolution

Also Published As

Publication number Publication date
WO2015103145A1 (en) 2015-07-09
EP3090538A1 (en) 2016-11-09
US20160330400A1 (en) 2016-11-10
CN105874782A (zh) 2016-08-17
KR20160103012A (ko) 2016-08-31

Similar Documents

Publication Publication Date Title
US10225624B2 (en) Method and apparatus for the generation of metadata for video optimization
KR20170031033A (ko) 과노출 정정을 위한 방법, 시스템 및 장치
CN112106357A (zh) 端对端单层后向兼容编码流水线中的高保真度全参考和高效部分参考编码
WO2018231968A1 (en) Efficient end-to-end single layer inverse display management coding
EP3144883A1 (en) Method and apparatus for sharpening a video image using an indication of blurring
JP2017507547A (ja) ビデオコンテンツをレンダリングするときの超高精細解像度へのアップスケーリングを最適化するための方法、装置、およびコンピュータプログラム製品
US20160336040A1 (en) Method and apparatus for video optimization using metadata
US8724896B2 (en) Method and system for color-grading multi-view content
US20230370646A1 (en) Adaptive local reshaping for sdr-to-hdr up-conversion
US10868969B1 (en) Method and apparatus for accelerated tonemapping and display
EP3639238A1 (en) Efficient end-to-end single layer inverse display management coding
US20150009227A1 (en) Color grading preview method and apparatus
US10114447B2 (en) Image processing method and apparatus for operating in low-power mode
US8953688B2 (en) In loop contrast enhancement for improved motion estimation
RU2813229C1 (ru) Вычисление динамических метаданных для редактирования hdr контента
Pouli et al. Hdr content creation: creative and technical challenges
JP2023529134A (ja) Hdrコンテンツを編集するための動的メタデータの計算
WO2023055612A1 (en) Dynamic spatial metadata for image and video processing
Lim et al. Learning-based Framework for Color Conversion between Digital Cinema Package and Streaming Movie
WO2023009392A1 (en) Neural networks for dynamic range conversion and display management of images
JP2024505493A (ja) グローバルおよびローカル再整形を介した画像向上
CN118044198A (zh) 用于图像和视频处理的动态空间元数据
WO2016100102A1 (en) Method, apparatus and system for video enhancement
WO2023096728A1 (en) Denoising for sdr-to-hdr local reshaping
CN116508324A (zh) 用于sdr到hdr上转换的自适应局部整形