JP7443325B2 - フォービエイションおよびhdr - Google Patents

フォービエイションおよびhdr Download PDF

Info

Publication number
JP7443325B2
JP7443325B2 JP2021502514A JP2021502514A JP7443325B2 JP 7443325 B2 JP7443325 B2 JP 7443325B2 JP 2021502514 A JP2021502514 A JP 2021502514A JP 2021502514 A JP2021502514 A JP 2021502514A JP 7443325 B2 JP7443325 B2 JP 7443325B2
Authority
JP
Japan
Prior art keywords
image
viewer
foveated
focal
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021502514A
Other languages
English (en)
Other versions
JP2021530918A (ja
Inventor
ナイナン,アジト
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2021530918A publication Critical patent/JP2021530918A/ja
Application granted granted Critical
Publication of JP7443325B2 publication Critical patent/JP7443325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

関連出願への相互参照
本願は、2018年7月17日に出願された米国仮特許出願第62/699,583号および2018年9月17日に出願された欧州特許出願第18194859.7号に基づく優先権を主張するものであり、両出願の開示内容を全て本願に援用する。
技術
本発明は、一般に、画像符号化および描画(rendering)に関し、特に、フォービエイション(foviation)およびハイダイナミックレンジ(HDR)に関連する画像符号化に関する。
背景
拡張現実、仮想現実、リモートプレゼンス(remote presence)アプリケーション、没入型(immersive)映像アプリケーションなどの映像関連アプリケーションにおいて、高品質でシームレスなユーザ使用感(experience)をサポートするために、大量の映像データがクライアントデバイスにリアルタイムに送信され得る。映像データの圧縮・復元に必要な帯域量やコンピューティングパワーを考慮すると、大量の映像データを多種類のクライアントデバイスおよび/またはディスプレイデバイスにストリーミングすることは、多くの既存のネットワークインフラストラクチャにおいて困難であり、非現実的でさえあり得る。
加えて、映像アプリケーションに関与する大量の映像データや映像処理によって、ユーザが自分の視野(FOV)を方向付けた第1の時刻と、高品質画像コンテンツがユーザのFOVにおいて描画された第2の後の時刻との間に、著しいタイムラグ(例えば、12~15ミリ秒より長い、など)が頻繁に生じ得る。そのようなタイムラグは、ユーザによって容易に認識され得るので、ユーザ使用感の品質に悪影響を与え得る。
本節に記載された手法は、検討され得る手法であって、必ずしもこれまでに着想または検討されてきた手法ではない。従って、特に断らない限り、本節に記載された手法はいずれも、本節に記載されているというだけで従来技術とみなされるべきではない。同様に、特に断らない限り、1つ以上の手法に関して特定される問題が、本節に基づいて、いずれかの先行技術分野においてすでに認識されていると考えるべきではない。
図面の簡単な説明
本発明を添付の図面に、限定することなく、例示する。図において、同様の参照符号は、同様の要素を示す。
図1は、平均的な視聴者の目の角視野の例の図を示す。 図2Aは、フォービエイテッド画像の画像部分の例を示す。 図2Bは、フォービエイテッド画像の画像部分の例を示す。 図2Cは、ソースゾーンおよびターゲットゾーンの例を示す。 図2Dは、ディスプレイマッピングの例を示す。 図2Eは、ディスプレイマッピングの例を示す。 図2Fは、ローカウントディミングターゲットディスプレイの例を示す。 図2Gは、ディスプレイマッピングの例を示す。 図3Aは、映像ストリーミングサーバおよび映像ストリーミングクライアントの例を示す。 図3Bは、映像ストリーミングサーバおよび映像ストリーミングクライアントの例を示す。 図3Cは、映像ストリーミングサーバおよび映像ストリーミングクライアントの例を示す。 図4Aは、処理フローの例を示す。 図4Bは、処理フローの例を示す。 図5は、本明細書に記載されるコンピュータまたはコンピューティングデバイスが実装され得るハードウエアプラットフォームの例を示す。
例示的な実施形態の説明
本明細書において、フォービエイション(foviation)およびHDRに関する例示的な実施形態を説明する。以下の説明において、便宜上、本発明を完全に理解できるように、多数の詳細事項を説明する。ただし、これらの詳細事項が無くても本発明が実施可能であることは明白であろう。他方、本発明の説明を不必要に煩雑にしたり、不明瞭にしたり、難読化したりしないように、周知の構造およびデバイスの細かな詳細までは説明しない。
例示的な実施形態は、以下の大筋にしたがって説明される。
1.概要
2.人間の視野
3.視聴方向のトラッキング
4.フォービエイテッド画像(foviated image)
5.明順応レベル
6.空間微分ディスプレイマッピング
7.映像ストリーミングサーバおよび映像ストリーミングクライアントの例
8.処理フローの例
9.実装機構-ハードウェアの概要
10.均等物、拡張、代替およびその他
1.概要
この概要は、本発明の例示的な実施形態のいくつかの局面の基本的な説明を提示する。この概要は、例示的な実施形態の局面を広範囲にあるいは網羅的に要約するものではないことに留意されたい。さらに、この概要は、例示的な実施形態の特に著しい局面や要素を指定するものでは一切なく、特に例示的な実施形態の範囲を線引きしたり、一般に本発明の範囲を線引きしたりするものでも一切ないことに留意されたい。この概要は、例示的な実施形態に関するいくつかの概念を凝縮・簡略化して提示するだけであり、以下の例示的な実施形態のより詳細な説明の単なる概念的な序章として理解されたい。なお、本明細書において個別の実施形態を説明するが、本明細書に記載の実施形態および/または部分的な実施形態を組み合せてさらなる実施形態としてもよい。
本明細書に記載の技術は、様々な映像アプリケーションにおいて、HDRソース画像のビューポートにわたる(viewport-wide)、画像にわたる(image-wide)および/またはディスプレイにわたる(display-wide)ダイナミックレンジ(例えば、映像画像全体に適用されるダイナミックレンジ、ビューポート全体に適用されるダイナミックレンジ、ターゲットディスプレイ全体に適用されるダイナミックレンジなど)を、フォービエイテッド画像の中心窩視(foveal-vision)依存のダイナミックレンジに再マッピングするために実装され得る。各フォービエイテッド画像は、対応する時点に対して判定または予測された視聴者の視聴方向に基づいて、HDRソース画像のうちの対応するHDRソース画像から生成される。各フォービエイテッド画像は、対応するHDRソース画像におけるハイダイナミックレンジを保存(preserve)または非常に近似する中心窩視ダイナミックレンジの中心窩視画像部分と、対応するHDRソース画像におけるハイダイナミックレンジから圧縮またはダウンサンプリングされた非中心窩視ダイナミックレンジの1つ以上の非中心窩視画像部分とを含む。
本明細書において、用語「保存する(preserve)」または「非常に近似する(closely approximate)」とは、フォービエイテッド画像における中心窩視画像部分(例えば、視聴者の視聴方向周辺の2~4度半径など)が、フォービエイテッド画像を導出するために使用された対応のHDRソース画像中の対応の画像部分における、グレースケールレベル差を持つ対応の画像ディテールを表すためのグレースケールレベルの総数などと比較して、同等の(comparable)グレースケールレベル差を持つ画像ディテールを表すための、同等なグレースケールレベルの総数などを備えたダイナミックレンジを有することを意味し得る。
本明細書に記載の映像アプリケーションは、映像ディスプレイアプリケーション、VRアプリケーション、ARアプリケーション、自動車エンターテイメントアプリケーション、リモートプレゼンスアプリケーション、ディスプレイアプリケーションなどをいずれも指し得る。
上記技術は、映像ストリーミングサーバと映像ストリーミングクライアントとの間で映像データをストリーミングするための帯域使用量を最小化するために適用され得る。映像コンテンツの例は、音響映像プログラム、映画、映像プログラム、TV放送、コンピュータゲーム、拡張現実(AR)コンテンツ、仮想現実(VR)コンテンツ、自動車エンターテイメントコンテンツなどをいずれも含み得るが、それらに必ずしも限定されない。映像ストリーミングクライアントの例は、ディスプレイデバイス、ニアアイ(near-eye)ディスプレイを有するコンピューティングデバイス、ヘッドマウントディスプレイ(HMD)、モバイルデバイス、ウェラブルディスプレイデバイス、テレビなどのディスプレイを有するセットトップボックス、映像モニタなどをいずれも含み得るが、それらに必ずしも限定されない。
本明細書において、「映像ストリーミングサーバ」とは、映像コンテンツを用意し、映像コンテンツの少なくとも一部分(例えば、ユーザのFOVまたはビューポートに対応する部分など)を1つ以上の(ターゲット)ディスプレイ上に描画するために、1つ以上の映像ストリーミングクライアントに映像コンテンツをストリーミングする1つ以上の上流デバイスを指し得る。映像コンテンツが描画されるディスプレイは、1つ以上の映像ストリーミングクライアントの一部分であってもよいし、または、1つ以上の映像ストリーミングクライアントと連携して動作してもよい。映像ストリーミングサーバの例は、映像ストリーミングクライアントから遠隔に位置するクラウドベース映像ストリーミングサーバ、ローカル有線または無線ネットワークを介して映像ストリーミングクライアントに接続されるローカル映像ストリーミングサーバ、VRデバイス、ARデバイス、自動車エンターテイメントデバイス、デジタルメディアデバイス、デジタルメディアレシーバ、セットトップボックス、ゲーム機(例えば、Xbox)、汎用パソコン、タブレット、Apple TVやRoku boxなどの専用デジタルメディアレシーバなどをいずれも含み得るが、それらに必ずしも限定されない。
フォービエイテッド画像などの圧縮映像コンテンツは、全低帯域(overall low bandwidth)を用いて、空間的に変化するダイナミックレンジ再マッピングメタデータとともに送信され得る。空間的に変化するダイナミックレンジ再マッピングメタデータは、(人間の)視聴者が視聴方向をいずれの方向に向ける場合にも視聴者の中心窩視における人間のハイダイナミックの認識をサポートするディスプレイマッピング画像(display mapped image)にフォービエイテッド画像を再マッピングするために、受信デバイスによって使用され得る。視聴者の視聴方向は、視聴方向トラッキング方法(視線トラッキング(gaze tracking)、ビューポートトラッキング、FOVトラッキング、視聴者位置トラッキング、顔トラッキング、または任意の別の視聴方向トラッキング方法を含むが、これらに限定されない)の任意の組み合わせによって、トラッキングされ得る。
視聴者の視聴方向をトラッキングする視聴方向データは、視聴者がフォービエイテッド画像から再マッピングされた表示画像を視聴している際に収集される。視聴方向データの例は、視線トラッキングデバイス、位置トラッキングデバイス、ビューポートトラッキングデバイス、顔トラッキングデバイス、FOVトラッキングデバイスなどの任意の組み合わせによって収集され得る、直線変位、角変位、直線運動または平行移動、角運動または回転、ピッチ、ロール、ヨー、スウェイ(sway)、ヒーブ(heave)、サージ(surge)、最大6自由度などを含むが、これらに限定されない。複数の時点における視聴者の視聴方向が判定され得る。視聴者の視聴方向は、上流デバイスが新しいデータを用いて応答するまで、受信デバイス自体上で(例えば、付加として、オプションとして、代替として、など)新しいビュー(view)を生成するために使用され得る。また、視聴者の視聴方向は、上流デバイスにフィードバックされることにより、視聴者の視聴方向とともにグレースケールレベルおよび/または色および/または空間解像度についての異なるレベルの画像ディテールを参照し、HDRソース画像から特定のフォービエイテッド画像が生成され得る。大きなデータボリュームを有するHDRソース画像を送る代わりに、HDRソース画像の大きなデータボリュームよりもはるかに小さいデータボリュームである、視聴者の視聴方向を参照して生成された特定のフォービエイテッド画像が視聴者のディスプレイデバイスに送られ、描画される。
本明細書において、フォービエイテッド画像とは、視聴者の視野をカバーする非常に小さな領域または画像部分(例えば、視聴者の中心窩視を十分にカバーする、視聴者の中心窩視よりも10%大きくカバーする、視聴者の中心窩視よりも5%大きくカバーするなど)のみに最も精細な画像ディテール(例えば、最も高いダイナミックレンジ、最も精細なクレースケールレベル、最も高い色正確度、最も高い空間解像度など)の画像データが与えられ、他方、視聴者の視野の他の領域をカバーする画像データについては、ダイナミックレンジ、グレースケールレベルおよび/または色正確度/精度および/または空間解像度についての画像ディテールのレベルにおいて(例えば、大きく)圧縮および/またはダウンサンプリングされ得る、画像を指す。
視聴者が現在どこを視聴しているかに基づいて、ダイナミックレンジの空間微分再マッピングが、映像ストリーミングサーバによって、HDRソース画像における画像部分(例えば、1つの中心窩視画像部分に対応する部分、1つ以上の非中心窩視画像部分に対応する部分など)に対して行われ、フォービエイテッド画像を生成し得る。フォービエイテッド画像は、視聴者の視聴方向周辺の、視聴者の中心窩視と同等か、またはそれよりも若干大きな、相対的に小さなサイズ(例えば、2度半径、4度半径をカバーするのに十分なサイズ)の中心窩視画像部分を含む。フォービエイテッド画像の中心窩視画像部分におけるダイナミックレンジは、HDRソース画像の対応する画像部分における最大および最小輝度値に基づいて、最適化され得るか、または最大限に保存され得る。他方、フォービエイテッド画像の非中心窩視画像部分におけるダイナミックレンジは、低減または押しつぶされ(crush)得るが、その結果、HDRソース画像の対応する画像部分に存在する輝度値は、フォービエイテッド画像において保存されても、されなくてもよい。例えば、帯域使用量を低減するために、非中心窩視画像部分における(例えば、それについて特有の、など)ダイナミックレンジがフォービエイテッド画像においてクリッピング(clip)または大きく圧縮され得る。
フォービエイテッド画像の中心窩視画像部分において存在する明るい画像ディテール(または、画素)に対して、中心窩視画像部分の生成に関与するダイナミックレンジ再マッピングは、中心窩視画像部分のダイナミックレンジ内で、ターゲットディスプレイ(例えば、4000ニットのディスプレイなど)によってサポートされる最大限まで、ピーク輝度値(例えば、4000ニット以上など)を最大化し得る。他方、周辺視画像部分などの非中心窩視画像部分において存在する明るい画像ディテールに対して、非中心窩視画像部分の生成に関与するダイナミックレンジ再マッピングは、非中心窩視画像部分のダイナミックレンジ内で、ターゲットディスプレイによってサポートされる最大限まで、ピーク輝度値を最大化しなくてもよい。むしろ、HDRソース画像における明るい画像ディテールの輝度値は、必要に応じて、クリッピングされた輝度値に設定されてもよい。付加として、オプションとして、または代替として、中心窩視画像部分および周辺視画像部分の外側の画像部分において存在する明るい画像ディテールに対して、当該残りの画像部分の生成に関与するダイナミックレンジ再マッピングは、HDRソース画像における明るい画像ディテールの輝度値をクリッピングして、クリッピングされた輝度値が周辺輝度値におけるクリッピングされた輝度値よりもさらに低くなるようにしてもよい。
上記のように、本明細書に記載の、HDRソース画像のフォービエイテッド画像へのダイナミックレンジ再マッピングは、HDRソース画像およびフォービエイテッド画像の異なる画像部分に対して、ダイナミックレンジ再マッピングが視聴者の中心窩視、視聴者の周辺視野、視聴者の視野の外側などのいずれにおいて行われるかに応じて、領域ごとに変化し得る。
ダイナミックレンジ再マッピングの他に、空間変化解像度再マッピング(spatially varying resolution remapping)がまた実装され得る。例えば、限定しないが、視聴者の虹彩は、視聴者が明るい画像ディテールを見ている(例えば、太陽を直視またはその近くを見ている、など)際に、瞳孔の直径およびサイズを制御して、網膜に達する光量を低減し得る。瞳孔の直径およびサイズを低減すると、近くにある異なる点を視覚的に解像または区別する点において視聴者の視力を低減させ得る。このように、視聴者が明るい画像ディテールを視聴している際、非中心窩視画像部分は、ダウンサンプリングされた空間解像度の画像データを用いて符号化され得、他方、中心窩視画像部分は、やはり最大可能空間解像度の画像データを用いて符号化され得る。いくつかの動作状況において、ある時点において視聴者が過度に高い空間解像度を認識できないと判断したことに応答して、画像全体がより低い空間解像度で符号化されてもよい。
視聴者の視聴方向は、連続したシーケンスの画像などのシーンにおいて、動き回り得る。例えば、第1の明るさレベルを有する第1の画像ディテール(そのシーンの前の画像における画像ディテール)の視聴から、第2の異なる明るさレベルを有する第2の画像ディテール(そのシーンの現在の画像における画像ディテール)の視聴への視聴方向の動きである。視聴者の目は、視聴者が第1の明るさレベルなどの前の明るさレベルにまだ順応しているかもしれないので、第2の画像ディテールを見た際に第2の明るさレベルに瞬間的に調節できない場合がある。視聴者の視聴方向周辺のゾーンの時間に対する平均明レベル(light level)に基づいて、そして、目の順応特性、ディレクタの意見(director input)、ターゲットディスプレイ特性などに少なくとも部分的に基づいて、視聴者の明順応レベルが推定、予測または判定され得る。
視聴者の明順応レベルをある時点において予測または推定するために、明順応曲線(または、明順応曲線族)を使用して、どのソースゾーンを視聴者が視聴していたか、どの中間ゾーンを視聴者が遷移していたか、どのターゲットゾーンを視聴者が現在視聴しているか、または現在視聴していると予測されるかなどを示す多くの入力因子を考慮してもよい。入力因子の例は、目の順応特性、ディレクタの意見、ターゲットディスプレイ特性などを含み得るが、それらに限定されない。視聴トラッキングデータを使用して、明順応曲線におけるこれらの入力因子のうちのいくつかまたはすべてを判定し、ある時点における視聴者の明順応レベルを判定、推定または予測してもよい。例えば、視聴者の視聴トラッキングデータを介してモニタリングされた視聴者の目の動きを使用して、明順応曲線におけるいくつかのまたはすべての演算パラメータを設定または決定してもよい。
視聴者の周辺視の瞬間的なフラッシュ、明レベルにおける脈動(pulsating)変化または突然の変化は、いくつかの状況下において、減衰(dampen)または平滑化され得る。視聴者の周辺視における画像部分のダイナミックレンジ再マッピングは、順応時間(例えば、2秒、5秒、10秒、開始および終了明レベルに少なくとも部分的に依存する時間量など)中に、視聴者の周辺視における明レベルが平滑な遷移(例えば、比較的ゆっくりとした上昇、比較的ゆっくりとした下降など)することを可能にするような平滑化処理を実装し得る。一例において、いくつかのまたはすべての画像部分が、順応時間にわたり、同じまたは同様の遷移処理が施されてもよい。視聴のターゲットディスプレイ全体が、時間にわたり同じまたは同様の明レベル調節処理を同時に受けてもよい。別の例において、異なる画像部分が時間にわたり異なる明レベル調節処理を同時に受けてもよい。
芸術的意図(または、ディレクタ意図)が明レベル調節に関与する映像描画演算に組み込まれ得る。一例において、視聴者が視聴方向を動かして暗い領域を見る場合には、暗い領域におけるディテールが、芸術的意図を表すユーザ入力によって示されるように、ある特定の時間の後だけ、現れなくてもよい(または、描画されなくてもよい)。別の例において、暗い領域におけるディテールが描画されるとともに、周辺領域におけるディテールの描画がある特定の時間の後だけ遅らされてもよい。
本明細書に記載の技術を使用して、下流の受信デバイスのユーザが、映像ストリーミングサーバからのフォービエイテッド画像から生成されたディスプレイマッピング画像に対し、ユーザの視聴角度または視野を自由に変化させることを可能にさせ得る。すべてではないにしてもほとんどの動作状況において、ユーザには最も精細な画像ディテールを有する焦点視映像コンテンツが提示され、このことにより、本明細書に記載の技術を採用しない別のいくつかの方法におけるような視覚アーチファクト、生理的な不快感などが比較的無い、シームレスな視聴感が得られる。別の方法における視覚アーチファクト、生理的な不快感などの例としては、平滑な追跡(pursuit)を維持できないこと、精細な画像ディテールへ遷移する際の人間の視覚によって認識される長いラグ、人間の視覚の焦点視エリア内において目立ってしまう粗い画像ディテール、ユーザの自然視に関連する直感とユーザに対して実際に描画された映像コンテンツとの間の不一致、視聴者が視聴角度を移動させた場合の画像ディテールの急なレベル低下、粗い画像ディテールから精細な画像ディテールへの認識可能な遅い遷移、視聴者が視聴角度を移動させた場合の、それより以前には隠れていた画像ディテールに対するボケた画像の表示などをいずれも含み得るが、それらに必ずしも限定されない。
本明細書に記載の視聴方向に基づいた映像アプリケーションは、複数の視聴者(または、ユーザ)をサポートするように拡張され得る。例えば、複数の視聴者のうちの各視聴者の視聴方向を、テレビの前のバー形態の視聴方向トラッカ(tracker)によって、それぞれトラッキングおよび/または判定してもよい。複数の視聴者は、同じ画像ディテールまたはいくつかの異なる画像ディテールに対して同時に引き付けられ得る。フォービエイテッド画像は、フォービエイテッド画像が描画される時点に対して予測されたすべての視聴者の視聴方向を参照して生成され得る。フォービエイテッド画像は、複数の視聴者の各視聴者に対して、最も高いダイナミックレンジ、最も精細な画像ディテール、最も高いカラー精度、最も精細な空間解像度などを有する中心窩視画像部分を含む。複数の視聴者が少なくとも2つの異なる画像ディテールを視聴している状況において、フォービエイテッド画像は、少なくとも2つの異なる画像ディテールにそれぞれ対応する少なくとも2つの中心窩視画像部分を含み得る。複数の視聴者の周辺視画像部分は、複数の視聴者の明順応レベルに基づいて、平均ダイナミックレンジに設定され得る。視聴者の周辺視の瞬間的なフラッシュ、明レベルにおける脈動変化または突然の変化は、いくつかの状況下においては減衰または平滑化され得る。付加として、オプションとして、または代替として、選択された(例えば、代表的な、など)視聴者(1以上の視聴者を含む1グループのうちの1視聴者であってもよいし、そうでなくてもよい)の視聴方向がトラッキングおよび/または判定され得る。選択された視聴者の視聴方向が、興味のある画像ディテールを示し得る。フォービエイテッド画像が、選択された視聴者の視聴方向を参照して生成され、このフォービエイテッド画像を用いて、視聴者のグループに対して描画され得る。したがって、映像ストリーミングサーバと映像ストリーミングクライアントとの間でストリーミングされる映像コンテンツの量は、1視聴者動作状況および複数視聴者動作状況において低減または最小化され得るので、映像コンテンツをストリーミングするための比較的大きな帯域割当量(budget)を使用する必要性が低減または最小化し、多種類の下流のデバイスに対して多種類の映像ストリーミングアプリケーションを効率よくサポートし得る。
本明細書に記載のフォービエイテッド画像における異なる画像部分に対して、空間微分ディスプレイマネジメント(DMまたはSDDM)メタデータ部分が生成され得る。フォービエイテッド画像およびDMメタデータ部分を受け取る受信映像復号化デバイスは、DMメタデータ部分を使用して、それぞれのディスプレイマッピングまたはディスプレイマネジメント(DM)演算をフォービエイテッド画像の画像部分に対して行い、受信映像復号化デバイスとともに動作する1つ以上のターゲットディスプレイ上に描画されるディスプレイマッピング画像を生成し得る。
空間微分DMメタデータに基づいてフォービエイテッド画像から改変(adapt)されたディスプレイマッピング画像は、多種類のターゲットディスプレイのうちのいずれのターゲットディスプレイ上にも描画され得る。ターゲットディスプレイの例は、グローバルディミングディスプレイ、ローカウント(low count)ディミングディスプレイ、ローカルディミングディスプレイ、光方向付け能力付きディスプレイ、オーバドライブ/アンダードライブ能力付きディスプレイ、位相ベース光変調能力付きディスプレイなどを含み得るが、それらに限定されない。
また、位相ベース光変調を使用して、本明細書に記載のディスプレイマッピング画像における1つ以上の特定のスポットに、光を正確に方向付け得る。未使用のエネルギーを明るく輝度を必要としない画像位置/領域上で無駄にするのではなく、これらの画像位置/領域からのエネルギーまたは光を位相ベース光変調能力付きのターゲットディスプレイにおける任意の所与の位置に再分配し、これらの特定のスポットにおいて非常に高い明るさレベルを正確に生成し得る。
いくつかの例示的な実施形態において、本明細書に記載の機構は、メディア処理システムの一部を構成する。その例は、クラウドベースサーバ、モバイルデバイス、仮想現実システム、拡張現実システム、ヘッドアップディスプレイデバイス、ヘルメットマウントディスプレイデバイス、CAVE型システム、壁サイズ(wall-sized)ディスプレイ、映像ゲームデバイス、ディスプレイデバイス、メディアプレイヤ、メディアサーバ、メディアプロダクションシステム、カメラシステム、ホームベース(home-based)システム、通信デバイス、映像処理システム、映像コーデックシステム、スタジオシステム、ストリーミングサーバ、クラウドベースコンテンツサービスシステム、携帯デバイス、ゲーム機、テレビ、シネマディスプレイ、ラップトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、セルラー無線電話、電子本リーダ、POS端末、デスクトップコンピュータ、コンピュータワークステーション、コンピュータサーバ、コンピュータキオスク、または様々な別の種類の端末およびメディア処理ユニットなどをいずれも含み得るが、それらに限定されない。
上記好適な実施形態に対する様々な変更ならびに本明細書に記載の一般原理および特徴が当業者に容易に明らかとなるであろう。したがって、本開示は、本明細書に記載の実施例に限定されるものではなく、本明細書に記載の原理および特徴に整合する最も広い範囲に従うべきものである。
2.人間の視野
本明細書に記載の技術は、(人間の)目および目が輝度、色、空間解像度などをどのように認識するかの知見に基づいて実装され得る。これらの技術は、個々の視聴者の特定の視覚特性またはユーザの集団の平均もしくは集団的視覚特性に基づいて適用され得る。
図1は、平均的な視聴者の目の視野を示す図の一例である。錐体および桿体分布(目における分布)は、錐体および桿体の異なる分布範囲に区分され、さらに、図1に示すような(目の)角視野図に投射され得る。最も高いレベルの視覚認識は、目の中心窩(視野)領域102において達成される。
例えば、限定しないが、目の視野において最も幅広い角度範囲は、図1の水平方向に沿う。この水平方向は、顔の解剖学上の視覚に関する制約を考慮しなければ、視聴者の2つの目の間の瞳孔間ライン(interpupil line)に平行であり、約180角度であり得る。
各同心円(例えば、30°、60°、90°などと標識)は、視聴者の左右の目の視聴方向に対して等(または、同一)角度の方向を表す。なお、30°、60°、90°などの角度は、あくまで例示にすぎない。異なる値の角度または異なる組の角度を使用して、視聴者の視野を定義または記述し得る。視聴方向(図1において図示せず)は、中心窩領域102(最も暗く塗られたパターン)における横方向112と縦方向114との交点において、図1の紙面から垂直に突き出る。ここで、横方向(112)および縦方向(114)は、視聴方向に垂直な平面を形成する。
図1に示すように、目の視野は、中心傍(paracentral)領域104によって直ちに囲まれた中心窩領域(102)に区分され得る(例えば、桿体/錐体の密度分布における所定の境界によって、論理的に、投射される、など)。いくつかの実施形態において、中心窩領域(102)は、視聴者の中心窩視に対応し、視聴方向に対してゼロ(0)角度から第1の角度(例えば、2~4角度、3~7角度、5~9角度など)まで広がり得る。いくつかの実施形態において、中心傍領域(104)は、視聴方向に対して第1の角度から第2の角度(例えば、6~12角度など)まで広がり得る。
中心傍領域(104)は、近周辺(near-peripheral)領域106によって直ちに囲まれる。近周辺領域(106)は、中間周辺(mid-periphral)領域(108)に直ちに隣接する。次いで、中間周辺領域(108)は、残りの視野、すなわち、遠周辺(far-peripheral)領域110に直ちに隣接する。いくつかの実施形態において、近周辺領域(106)は、視聴方向に対して、第2の角度から第3の角度(例えば、25~35角度など)まで広がり得る。いくつかの実施形態において、中間周辺領域(108)は、視聴方向に対して第3の角度から第4の角度(例えば、50~65角度など)まで広がり得る。遠周辺領域(110)は、第4の角度から視野の端まで広がり得る。
この論理的な視野区分例において使用される第1、第2、第3および第4の角度は、横方向(112)に沿って定義または特定され得る。図1の視野が前レベル視聴方向(front level viewing direction)の視野に対応する場合、横方向(112)は、視聴者の瞳孔間ラインと同じであるか、または平行であり得る。
なお、図1に示すような角度に基づいて視聴者の視野を中心窩、中心傍、近周辺、中間周辺、遠周辺領域などに論理的に区分する方式に加えて、またはそれに代えて、それと異なる視聴者の視野の論理的区分方式を使用してもよい。
例えば、いくつかの実施形態において、視聴者の視野をより多くまたはより少ない領域に区分してもよい。例えば、中心傍領域および/または中間周辺領域のない、中心窩領域、近周辺領域および遠周辺領域の組み合わせなどに区分してもよい。そのような視聴者の視野の論理区分において、HDR画像部分を使用して、中心窩領域から近周辺領域の一部または全てまでをカバーしてもよい。
いくつかの実施形態において、視聴者の視野は、図1に示す角度以外の他の大きさに基づいて区分してもよい。例えば、非限定的な実装において、中心窩領域は、視聴者の中心窩視に対応する視野領域として定義され得る。中心傍領域は、錐体/桿体密度が相対的に高い錐体/桿体密度閾値を超える視聴者の網膜エリアに対応する視野領域として定義され得る。近周辺領域は、錐体/桿体密度がそれぞれ相対的に高い錐体/桿体密度閾値を超えないが、中間錐体/桿体密度閾値を超える視聴者の網膜エリアに対応する視野領域として定義され得る。中間周辺領域は、錐体/桿体密度がそれぞれ中間錐体/桿体密度閾値を超えないが、相対的に低い錐体/桿体密度閾値を超える視聴者の網膜エリアに対応する視野領域として定義され得る。本明細書に記載の焦点視領域は、視聴者の中心窩視から、閾値(例えば、錐体/桿体密度閾値など)に基づく領域の一部または全部(例えば、視聴者の近周辺視の一部または全部など)までをカバー有し得る。閾値は、必ずしも角度に基づかなくてもよい。
付加として、オプションとして、または代替として、視聴者の視野および/または別の人間の視覚要素を論理的に区分する2つ以上の異なる方式の組み合わせを使用して、視聴者の視野の焦点視領域を判定してもよい。例えば、本明細書に記載の焦点視領域を使用して異なる角度方向の同じ角度値範囲をカバーする代わりに、本明細書に記載の焦点視領域は、縦方向(114)に沿ってカバーする角度値範囲よりも、横方向(112)に沿ってカバーする角度値範囲が大きくてもよい。なぜなら、人間の視覚系は、縦方向(114)に沿う画像ディテールよりも、横方向(112)に沿う画像ディテールに対してより高い感度を有し得るからである。
いくつかの実施形態において、本明細書に記載の焦点視領域は、中心窩領域(例えば、+余裕マージン(safety margin)など)、中心傍領域(例えば、中心窩領域を除き、そしてそこから延伸する、など)、近周辺領域(例えば、中心傍領域をさらに除き、そしてそこから延伸する、など)、中間周辺領域(例えば、近周辺領域をさらに除き、そしてそこから延伸する、など)などのいくつかまたはすべてをカバーする。
いくつかの実施形態において、本明細書に記載の焦点視領域は、幅広い角度範囲の(視聴者の視聴方向に対して)対称な領域を表す対称な角度範囲をカバーする。焦点視領域の例は、視聴者の視聴方向に対して+/-15角度、+/-20角度、+/-25角度などのうちの1つを含み得るが、必ずしもそれに限定されない。
いくつかの実施形態において、本明細書に記載の焦点視領域は、幅広い角度範囲の(視聴者の視聴方向に対して)非対称な領域を表す非対称な角度範囲をカバーする。1つの目の視野の非対称な角度範囲は、内角(他方の/対の目を向く角度)から外角(他方の/対の目から離れる方向を向く角度)までをカバーする角度範囲として定義または特定され得る。
いくつかの実装例において、非対称な角度範囲は、視聴者の左右の目の両方の視野において重複する内側方向へ優先的にバイアスされる。内角にバイアスされた非対称な角度範囲の内角の例は、視聴者の視聴方向に対して15角度、30角度、45角度などのうちの1つを含み得るが、必ずしもそれに限定されない。内角にバイアスされた非対称な角度範囲の外角の例は、視聴者の視聴方向に対して10角度、15角度、20角度などのうちの1つを含み得るが、必ずしもそれに限定されない。
いくつかの実装例において、非対称な角度範囲は外側方向へ優先的にバイアスされ、この外側方向とは、視聴者の左右の目の両方の視野において重複してもよいし、しなくてもよい。外側方向にバイアスされた非対称な角度範囲の外角の例は、視聴者の視聴方向に対して15角度、30角度、45角度などのうちの1つを含み得るが、必ずしもそれに限定されない。外側方向にバイアスされた非対称な角度範囲の内角の例は、視聴者の視聴方向に対して10角度、15角度、20角度などのうちの1つを含み得るが、必ずしもそれに限定されない。
付加として、オプションとして、または代替として、いくつかの実施形態において、本明細書に記載の目の視野は、目の旋回、鼻、角膜、目蓋による視聴制約などの視覚に関する因子を考慮する。
本明細書に記載の焦点視領域の例は、円形、長円形、卵形、心臓形、星形、丸形、正方形、多角形などのうちの1つ以上の任意の組み合わせを含み得るが、必ずしもそれらに限定されない。
3.視聴方向のトラッキング
いくつかの実施形態において、目の視野の(例えば、相対的に小さい、などの)焦点視領域だけに、最も高いダイナミックレンジ、最も幅広い色域、最も高い(または、最もシャープな)空間解像度などを有する画素値を与える必要がある。いくつかの実施形態において、目の視野の焦点視領域は、目の中心窩視の全体(例えば、ちょうど全体、およそ全体、全体の95%以上、105%以上など)に対応し、最大で目の近周辺視の一部または全部に対応し得る。いくつかの実施形態において、目の視野の焦点視領域は、さらに余裕視野領域(safety vision field region)を含み得る。
いくつかの実施形態において、焦点視領域における余裕視野領域のサイズおよび/または形は、固定サイズ(例えば、0%、5%、10%、-5%、-10%など)に予め構成され得る。この固定サイズは、ネットワーク帯域、画像コンテンツ、映像アプリケーションに関与するコンピューティングデバイスの種類(例えば、ヘルメットマウントディスプレイデバイス、クレジットカードサイズプラグインデバイスなどのスモールフォームファクタ(small form factor)コンピューティングデバイス、壁ディスプレイなど)、映像アプリケーションに関与する描画環境の種類(例えば、クラウドベース映像ストリーミングサーバ、映像ストリーミングクライアントと並置(collocate)される映像ストリーミングサーバ、ローカル無線接続を介して映像ストリーミングクライアントに接続された映像ストリーミングサーバなど)によって変化しない。
いくつかの別の実施形態において、焦点視領域における余裕視野領域のサイズおよび/または形は、実行時に動的に再構成可能であり、ある範囲(例えば、-10%から10%、-5%から5%、0%から5~10%など)内で、ネットワーク帯域、画像コンテンツ、映像アプリケーションに関与するコンピューティングデバイスの種類(例えば、ヘルメットマウントディスプレイデバイス、クレジットカードサイズプラグインデバイスなどのスモールフォームファクタコンピューティングデバイス、壁ディスプレイなど)、映像アプリケーションに関与する描画環境の種類(例えば、クラウドベース映像ストリーミングサーバ、映像ストリーミングクライアントと並置される映像ストリーミングサーバ、ローカル無線接続を介して映像ストリーミングクライアントに接続された映像ストリーミングサーバなど)によって変化し得る。
例えば、ネットワーク接続が比較的高い帯域をサポートしていないと判断したことに応答して、余裕視野領域のサイズおよび/または形を目の中心窩視に対して10%から5%に実行時に動的に縮小してもよい。他方、ネットワーク接続が比較的高い帯域をサポートしていないと判断したことに応答して、余裕視野領域のサイズおよび/または形を目の中心窩視に対して5%から10%に実行時に動的に拡大してもよい。
また、余裕視野領域のサイズおよび/または形は、アイトラッキング(eye tracking)における潜時(latency)に応じて設定され得る。例えば、実行時のユーザの視聴方向は、視聴方向トラッキングデバイスによってトラッキングされ得る。視聴方向トラッキングデバイスは、1シーケンスのディスプレイマッピング画像が描画されるディスプレイとともにリアルタイムに動作し得る。ユーザは、時々視聴方向および/または視聴距離を変化させるので、視聴方向トラッキングデバイスは、当該シーケンスのディスプレイマッピング画像が描画されている座標系における視聴角度および/または視聴距離をトラッキングおよび計算し、1つの時間シーケンスの視聴方向を生成し、当該時間シーケンスの視聴方向のうちの各視聴方向の信号を本明細書に記載の映像ストリーミングサーバに送信する。映像ストリーミングサーバによって受信された、各そのような信号化された視聴者の視聴方向は、時点値によってインデックス化され得る。時点値は、本明細書に記載の映像ストリーミングサーバによって、1シーケンスのディスプレイマッピング画像を生成するために映像デコーダによって使用される1シーケンスのフォービエイテッド画像のうちの特定のフォービエイテッド画像と関連付けまたは関係付けされ得る。
視聴方向データは、視聴方向トラッキングデバイスおよびストリーミングデバイスの間で、比較的短い潜時(例えば、1画像フレーム時間の数分の1以内、5ミリ秒以内など)で収集、分析および/または共有/送信され得る。一実装例において、視聴方向トラッキングデータは、複数のデータ/ネットワーク接続が利用可能である最短潜時データ/ネットワーク接続を使用して、これらのデバイス間で共有され得る。
視聴方向データに基づいて、比較的短い潜時(例えば、1画像フレーム時間の数分の1以内など)で比較的迅速に視聴者の視聴方向を判定したことに応答して、映像ストリーミングサーバ(例えば、1つ以上の上流デバイスで実装される映像ストリーミングサーバなど)は、余裕視野領域のサイズおよび/または形を目の中心窩視に対して10%から5%に実行時に動的に縮小し得る。最も高いダイナミックレンジ、最も幅広い色域、最も高い空間解像度などを有する比較的小さなエリア(例えば、視聴方向から20角度以内など)は、映像信号に含められて下流の受信デバイスに送られ得る。
他方、視聴方向データに基づいて、比較的長い潜時(例えば、時間閾値を超える潜時、1画像フレーム時間の数分の1を超える潜時、5ミリ秒よりも長い潜時など)で比較的ゆっくりと視聴者の視聴方向を判定したことに応じて、映像ストリーミングサーバは、余裕視野領域のサイズおよび/または形を目の中心窩視に対して、例えば、1%から3%に、2%から6%に、5%から10%に実行時に動的に拡大し得る。最も高いダイナミックレンジ、最も幅広い色域、最も高い空間解像度などを有する比較的大きなエリア(例えば、視聴方向から最大30角度など)は、映像信号に含められて下流の受信デバイスに送られ得る。このように、映像信号の受信デバイスは、画像描画を目的として視聴方向に基づくローカルな判定をするために、比較的大きな焦点視領域にわたって十分な画像データを有し得る。
本明細書に記載のHDRソース画像は、1つ以上の空間環境に配備された1つ以上のカメラシステムを用いて撮像/生成され得る。空間環境の例は、物理的空間環境、シミュレーションされた空間環境、映画スタジオ、屋外シーン、屋内シーン、トンネル、街路、乗り物、船、飛行機、宇宙などをいずれも含み得るが、それらのみに限定されない。カメラシステムの例は、ライトフィールドカメラ、重複する視野および/または重複しない視野を有する複数のカメラ、デジタルカメラ、アナログカメラ、ウェッブカメラなどをいずれも含み得るが、それらのみに限定されない。
本明細書において、HDRソース画像は、1シーケンスのHDRソース画像のうちの1個別のHDRソース画像を表し得る。映像ストリーミングサーバは、1シーケンスのHDRソース画像を受信し、受信したHDRソース画像のシーケンスを入力として使用して、映像ディスプレイアプリケーション、VRアプリケーション、ARアプリケーション、自動車エンターテイメントアプリケーション、リモートプレゼンスアプリケーション、ディスプレイアプリケーションなどのうちの1つ以上をサポートする(下流の)映像ストリーミングクライアントにストリーミングするための中心窩映像コンテンツを用意するように構成され得る。
本明細書に記載の画像(例えば、HDRソース画像、フォービエイテッド画像、ディスプレイマッピング画像など)は、ワールド座標系、カメラシステムに対して固定的な(stationary)された座標系、空間環境などに対して固定(fixed)された座標系などの多種類の座標系うちのいずれかにおいて表され得る。画像における空間位置は、絶対位置(例えば、ワールド座標系において表される位置など)または相対位置(例えば、カメラシステムに対して固定的な相対座標系において表される位置など)のいずれでもよい。
いくつかの実施形態において、画像における空間位置(例えば、画素など)は、1組の特定の(x,y)座標値によって表され得る。例えば、限定しないが、特定の(x,y)座標値のx座標値は、3D空間内の画像表現(representation)における特定の経度(0~360角度の範囲)に対応し、他方、(x,y)座標値のy座標値は、3D空間内の画像表現における特定の緯度(0~180角度の範囲)に対応し得る。様々な実施形態において、幾何学的変換を使用して、1つの画像表現における空間位置の1組の(例えば、x,y)座標値を、別の画像表現における同じ位置の別の1組の(例えば、ピッチ、ロール、ヨー、スウェイ、ヒーブ、サージなど)座標値などに変換し得る。
4.フォービエイテッド画像
図2Aは、HDR画像コンテンツを有し、視聴者の中心窩視をカバーする一例のフォービエイテッド画像200を示す。フォービエイテッド画像(200)は、対応するHDRソース画像における複数の対応する画像部分から改変された複数の画像部分を含む。フォービエイテッド画像における複数の画像部分にそれぞれ対する複数のディスプレイマネジメント(DM)メタデータ部分を含む画像メタデータが生成され得る。HDRソース画像を直接符号化する代わりに、フォービエイテッド画像(200)が映像信号に符号化される。映像信号は、1つ以上の上流デバイス(例えば、映像ストリーミングサーバなど)から下流の受信デバイス(例えば、映像ストリーミングクライアントなど)に送信され得る。
本明細書に記載の画像における画像部分は、1組の画素(または位置)において1組の画素値を含む画像フレームを論理的に表し得る。画像部分および/またはその画像部分を格納するために使用される対応のバッファの個々の形(例えば、長方形、多角形、正形状(regular shape)、非正形状(irregular shape)など)および個々のサイズは、例えば、ネットワーク潜時、帯域、視聴方向移動、画像コンテンツなどのうちの1つ以上に基づいて、動的に形状変更またはサイズ変更され得る。1つ以上の上流デバイスにおいて、および/または受信デバイスにおいて、フォービエイテッド画像(200)における各画像部分(または、各画像フレーム)は、フォービエイテッド画像(200)を格納する複数のメモリバッファにおいて、それぞれのメモリバッファに保持され得るが、それのみに限定されない。いくつかの実施形態において、メモリバッファのうちのいくつかまたはすべてが、共通のフレームレートで一括してリフレッシュされ得る。いくつかの実施形態において、メモリバッファのうちの少なくともいくつかがそれら自体のフレームレートで個々にリフレッシュされてもよい。いくつかの実施形態において、本明細書に記載の異なるメモリバッファにおける画像データは、一括に、個々に、または別々に圧縮され得る。いくつかの実施形態において、異なる画像レイヤを格納する異なるメモリバッファは、1つ以上のコンテンツデリバリネットワーク、1つ以上のコンテンツディストリビューションネットワーク、1つ以上のコアネットワーク、1つ以上のアクセスネットワークなどの異なるコンピューティングデバイスに位置し得る。例えば、対応するHDRソース画像の同じ映像コンテンツを表すフォービエイテッド画像の焦点視画像部分を格納するメモリバッファは、受信デバイスに比較的近接して(例えば、地理的に、ネットワークトポロジーにおいて、同じネットワークにおいて、同じサービスプロバイダネットワークにおいて、アクセスネットワークにおいて、ローカルWIFIまたはワイヤラインネットワーク/データ接続を介して、比較的少ないネットワークホップを介して、など)保持され得る。対応するHDRソース画像の同じ映像コンテンツを表すフォービエイテッド画像の非焦点視画像部分を格納する別のメモリバッファは、受信デバイスから比較的さらに離れて(例えば、地理的に、ネットワークトポロジーにおいて、異なるネットワークにおいて、異なるサービスプロバイダネットワークにおいて、コアネットワークにおいて、1つ以上のリモートネットワーク/データ接続を介して、比較的多くのネットワークホップを介して、など)保持され得る。
1つ以上の上流デバイスにおいて、フォービエイテッド画像(200)を生成するための入力として受信されたHDRソース画像は、別の入力HDRソース画像バッファにおいて保持され得る。受信デバイスにおいて、フォービエイテッド画像(200)から生成されたディスプレイマッピング画像は、別のディスプレイマッピング画像バッファにおいて保持され得る。いくつかの実施形態において、ディスプレイマッピング画像バッファは、フォービエイテッド画像から得られた画像コンテンツを視聴者のディスプレイデバイス上で駆動/描画するために使用され、視聴者のディスプレイデバイスのデバイス固有フレームレートでリフレッシュされ得る。
フォービエイテッド画像(200)は、目の視野の焦点視領域をカバーする焦点視画像部分202を含み得る。いくつかの実施形態において、中心窩視画像部分(202)は、視聴者の中心窩視の最も内側の部分(例えば、50%、70%、90%など)に対応する焦点視領域をカバーする(例えば、完全に、実質的に+または-5%余裕マージンなど)。いくつかの実施形態において、中心窩視画像部分(202)は、視聴者の中心窩視および視聴者の近周辺視の一部または全部に対応する焦点視領域をカバーする(例えば、完全に、実質的に+または-5%余裕マージンなど)。
焦点視画像部分(202)における画像データは、下流の受信デバイスに対して空間距離(proximity)的またはネットワークトポロジー距離的に比較的近接した上流デバイス、コンテンツサービングノード、コンテンツキャシュノードなどにおいて、キャッシュされ、そして比較的高いデータレートで下流の受信デバイスに供給され得る。焦点視画像部分は、1つ以上の上流デバイス(例えば、クラウドベース映像ストリーミングサーバ、セットトップボックス、ローカル映像ストリーミングサーバ、それらの1つ以上の任意の組み合わせなど)から映像信号に含められて送信される、最も高いダイナミックレンジ、最も幅広い色域、最も高い空間解像度などを有する画素値を含む。
フォービエイテッド画像(200)は、目の視野における焦点視領域の外側の周辺視領域をカバーする周辺視画像部分204を含み得る。周辺視画像部分(204)における画像データは、下流の受信デバイスに対して空間距離的またはネットワークトポロジー距離的に比較的遠隔な上流デバイス、コンテンツサービングノード、コンテンツキャシュノードなどにおいて、キャッシュされ、そして比較的低いデータレートで下流の受信デバイスに供給され得る。周辺視画像部分(204)は、1つ以上の上流デバイス(例えば、クラウドベース映像ストリーミングサーバ、セットトップボックス、ローカル映像ストリーミングサーバ、それらの1つ以上の任意の組み合わせなど)から映像信号に含められて送信される、比較的低いダイナミックレンジ、比較的狭い色域、比較的低い空間解像度などを有する画素値を含み得る。
いくつかの実施形態において、焦点視画像部分(202)および周辺視画像部分(204)は、その時点に対して判定または予測された視聴者の視聴方向を参照して、フォービエイテッド画像(200-1)における焦点視および周辺視画像部分(202および204)を生成するために使用されるHDRソース画像(不図示)の画像フィールド(例えば、208など)の視聴者のビューポート206をカバーし得る。
図2Aに示すように、HDRソース画像は、焦点視画像部分(202)および周辺視画像部分(204)にそれぞれ対応する2つのHDRソース画像部分を含み得る。2つのHDRソース画像部分のうち一方は、視聴者の焦点視領域に対応し(カバー可能であり)、焦点視画像部分(202)を生成するために使用または改変される。2つのHDRソース画像部分うちの他方は、視聴者の周辺視領域に対応し(カバー可能であり)、周辺視画像部分(204)を生成するために使用または改変される。
図2Aに示すように、焦点視画像部分(202)および周辺視画像部分(204)は、共になって、フォービエイテッド画像(200)から生成されるディスプレイマッピング画像が描画される時点に対して判定または予測された視聴者の視聴方向を参照して生成されたフォービエイテッド画像(200)における画像データ全体を表す。フォービエイテッド画像(200)における焦点視画像部分(202)および周辺視画像部分(204)は、共になって、その時点における視聴者のビューポート(206)をカバーするために使用され得る。本明細書において、ビューポートは、フォービエイテッド画像(200)から生成されたディスプレイマッピング画像が描画される、視聴者の1つ以上の画像ディスプレイ(または、1つ以上のターゲットディスプレイ)から利用可能な全ディスプレイエリア(または、全画像描画面)を指し得る。その時点に対して判定または予測された視聴者の視聴方向を参照してフォービエイテッド画像(200)における複数の画像部分を生成するために使用されるHDRソース画像は、視聴者のビューポート(206)よりもはるかに大きい画像フィールド208(例えば、没入型、パノラマ、360度ビューなど)をカバーし得る。
フォービエイテッド画像(200)を使用して、ビューポート全体+余裕マージンをカバーしてもよい。例えば、フォービエイテッド画像(200)がたまたまビューポート全体をカバーするには不十分な場合、ビューポート内のいくつかの(例えば、小さい、など)部分に対して、充填画素(filler pixel)を使用してもよい。
いくつかの実施形態において、フォービエイテッド画像(200)が描画される時点に対して判定または予測された視聴者の視聴方向を参照して生成されたフォービエイテッド画像(200)において、複数の焦点視画像部分が生成され得る。付加として、オプションとして、または代替として、フォービエイテッド画像(200)が描画される時点に対して判定または推定された視聴者の視聴方向を参照して生成されたフォービエイテッド画像(200)において、複数の周辺視(例えば、近周辺、中間周辺、遠周辺など)画像部分が生成され得る。
いくつかの実施形態において、本明細書に記載のフォービエイテッド画像に対して、焦点視および周辺視画像部分に加えて1つ以上の他の画像部分が生成されてもよい。他の画像部分ならびに焦点視および周辺視画像部分は、共になって、フォービエイテッド画像(200)から生成されるディスプレイマッピング画像が描画される時点に対して判定または予測された視聴者の視聴方向を参照して生成されたフォービエイテッド画像(200)における画像データ全体を表す。
図2Bは、焦点視画像部分202-1、周辺視画像部分204-1、他の画像部分210-1などを含む一例のフォービエイテッド画像200-1を示す。いくつかの実施形態において、他の画像部分(210-1)、焦点視画像部分(202-1)および周辺視画像部分(206-1)は、その時点に対して判定または予測された視聴者の視聴方向を参照してフォービエイテッド画像(200-1)において複数の画像部分を生成するために使用されるHDRソース画像(不図示)の画像フィールド208-1を最大でその全体までカバーし得る。図2Bに示すように、視聴者のターゲットディスプレイのビューポートにおいて表示されるディスプレイマッピング画像は、焦点視画像部分(202-1)の全体、周辺視画像部分(206-1)の一部、および他の画像部分(210-1)の一部から得られるディスプレイマッピング画像データから構成され得る。
図2Bに示すように、HDRソース画像は、焦点視画像部分(202-1)、周辺視画像部分(204-1)および他の画像部分(210-1)にそれぞれ対応する3つのHDRソース画像部分に区分され得る。3つのHDRソース画像部分のうちの第1のHDRソース画像部分は、視聴者の焦点視領域に対応し(カバーでき)、焦点視画像部分(202-1)を生成するために使用または改変される。3つのHDRソース画像部分のうちの第2のHDRソース画像部分は、視聴者の周辺視領域をカバーし、周辺視画像部分(204-1)を生成するために使用または改変される。3つのHDRソース画像部分のうちの第3のHDRソース画像部分は、視聴者の周辺視領域の外側(または、ビューポート(206-1)の外側)の画像フィールド部分をカバーし、他の画像部分(210-1)を生成するために使用または改変される。
いくつかの実施形態において、フォービエイテッド画像(200-1)の焦点視画像部分(202-1)における画像データは、最も精細な画像ディテールを含み、クリッピングがないかもしくはほとんどない、または量子化エラーがないかもしくはほとんどない相対的に非圧縮なダイナミックレンジ、色歪みがないかもしくはほとんどない、または量子化エラーがないかもしくはほとんどない相対的に幅広い色域、サンプリングエラーがないかまたはほとんどない相対的に高い空間解像度などを有し得る。焦点視画像部分(202-1)における画像データは、HDRソース画像における対応の画像部分から生成され得るが、その際、色および/または空間解像度におけるダウンサンプリングは、行わないか、ほとんど行わないか、または最小限に行い、ダイナミックレンジ圧縮は、行わないか、ほとんど行わないか、または最小限に行うなどである。
いくつかの実施形態において、フォービエイテッド画像(200-1)の周辺視画像部分(204-1)における画像データは、より少ない画像ディテールを含み、おそらくは、いくつかのクリッピングまたは相対的に大きな量子化エラーを有する圧縮ダイナミックレンジ、いくつかの色歪みまたは相対的に大きな量子化エラーを有する相対的に狭い色域、相対的に大きなサンプリングエラーを有する相対的に低い空間解像度などを有し得る。周辺視画像部分(204-1)における画像データは、HDRソース画像における対応の画像部分から生成され得るが、その際、色および/または空間解像度におけるダウンサンプリング、ダイナミックレンジ圧縮などを行う。
いくつかの実施形態において、フォービエイテッド画像(200-1)の他の画像部分(210-1)における画像データは、さらに少ない画像ディテールを含み、おそらくは、より多くのクリッピングまたはより大きな量子化エラーを有するより圧縮されたダイナミックレンジ、色歪みまたはより大きな量子化エラーを有するより狭い色域、大きなサンプリングエラーを有するより低い空間解像度などを有し得る。他の画像部分(210-1)における画像データは、HDRソース画像における対応の画像部分から生成され得るが、その際、色および/または空間解像度におけるさらなるダウンサンプリング、より大きなダイナミックレンジ圧縮などを行う。
本明細書に記載の中心窩映像コンテンツは、視聴者のターゲットディスプレイのディスプレイ能力を超え得る高いダイナミックレンジおよび幅広い色域の少なくともいくつかの画像データ(例えば、中心窩視画像部分における画像データ、周辺視画像部分における画像データなど)を含む。DM演算(すなわち、ディスプレイマッピング演算)は、中心窩映像コンテンツの、視聴者に対して描画するためのディスプレイマッピング映像コンテンツへの変換に、空間微分的に適用され得る。ディスプレイマッピング映像コンテンツは、視聴者のターゲットディスプレイのディスプレイ能力内で、より低いダイナミックレンジ、より狭い色域などを有するが、その程度は、ディスプレイマッピング映像コンテンツにおける各ディスプレイマッピング画像にわたって空間的に変化する。
中心窩映像コンテンツに対して、ダイナミックレンジおよび色域がリファレンスターゲットディスプレイから視聴者の(実際の)ターゲットディスプレイへどのようにマッピングされるべきかを示すDMメタデータを含む画像メタデータが映像ストリーミングサーバによって生成され得る。本明細書に記載の技術において、DM演算は、フォービエイテッド画像にわたって、またはフォービエイテッド画像から生成されたディスプレイマッピング画像の視聴者のビューポートにわたって、必ずしも空間的に均一に行われない。むしろ、空間微分DM演算は、フォービエイテッド画像の異なる空間部分に位置するか、またはフォービエイテッド画像から生成されたディスプレイマッピング画像のビューポートの異なる空間部分に位置する異なる画像部分に対して行われ得る。
本明細書に記載の技術によってモニタリングされた視聴者の視聴方向を使用して、フォービエイテッド画像における焦点視画像部分、および周辺視画像部分などの他の画像部分を規定または線引きする。フォービエイテッド画像における焦点視画像部分に対して、焦点視DMメタデータ部分が特異的に(specifically)または独立して(separately)生成され得る。フォービエイテッド画像における周辺視画像部分などの他の画像部分に対して、周辺視DMメタデータ部分などの他のDMメタデータ部分が特異的にまたは独立して生成され得る。
これらの異なるDMメタデータ部分に基づいて、同じフォービエイテッド画像内において、ダイナミックレンジ圧縮、色および/または空間解像度におけるダウンサンプリングなどに空間微分的な影響(spatially differentiated impact)を与える異なるDM演算が行われる。
フォービエイテッド画像とともに受信デバイスに送られる画像メタデータセットは、フォービエイテッド画像に対して生成される様々なDMメタデータ部分を含み得る。より具体的には、フォービエイテッド画像とともに送られる画像メタデータセットは、視聴者の視野における中心窩視の小さい角度範囲(例えば、2~4度、3~5度、4~6度など)をカバーする焦点視画像部分に対する焦点視DMメタデータ部分を含む。この焦点視DMメタデータ部分は、受信デバイスによって、フォービエイテッド画像における焦点視画像部分をフォービエイテッド画像から生成されたディスプレイマッピング画像における対応の画像部分に再マッピングするために使用され得る。この再マッピングは、ディスプレイマッピング画像の焦点視画像部分において、ディスプレイマッピング画像の非焦点視画像部分と比較して、対応するHDRソース画像から得られ得る最も精細な画像ディテールをダイナミックレンジ、色域、空間解像度などについて保存するように行われる。このように、本明細書に記載のDMメタデータは、ビューポートおよびターゲットディスプレイに適用可能なDMメタデータだけでなく、様々な時点における視聴者の視野のリアルタイム焦点視領域(例えば、2~4度、3~5度、4~6度など)に適用可能なDMメタデータも含む。
例えば、限定しないが、本明細書に記載の画像メタデータセットは、視聴者の視野に関するいくつかまたはすべての空間領域、ビューポート、ターゲットディスプレイの画像描画エリア、没入型画像の画像フィールドなどに対する以下のDMメタデータ部分のいくつかまたはすべてを含み得る。例えば、焦点視DMメタデータ部分は、視聴者の視野における焦点視領域中の最大、最小および/もしくは平均輝度レベルまたは最大、最小および/もしくは平均ルマ値を含み得る。周辺視DMメタデータ部分は、視聴者の視野における周辺視領域中の最大、最小および/もしくは平均輝度レベルまたは最大、最小および/もしくは平均ルマ値を含み得る。ビューポートDMメタデータ部分は、ビューポートにおける最大、最小および/もしくは平均輝度レベルまたは最大、最小および/もしくは平均ルマ値を含み得る。周辺視DMメタデータ部分は、ビューポートの、焦点視DMメタデータ、周辺視DMメタデータなどのより特定のDMメタデータ部分によって表される空間領域の外側の空間領域に適用され得る。没入型(例えば、360度、全方向性など)DMメタデータ部分は、HDRソース画像の画像フィールドにおける最大、最小および/もしくは平均輝度レベルまたは最大、最小および/もしくは平均ルマ値を含み得る。没入型DMメタデータ部分は、画像フィールドの、焦点視DMメタデータ、周辺視DMメタデータ、ビューポートDMメタデータなどのより特定のDMメタデータ部分によって表される空間領域の外側の空間領域に適用され得る。これらの異なるDMメタデータ部分は、フォービエイテッド画像における異なる空間領域に適用されるDM演算用の異なる再マッピング曲線(例えば、伝達関数など)を規定または生成ために使用され得る。
中心窩視領域に対するDMメタデータ部分に基づいて生成された再マッピング曲線(例えば、伝達関数など)は、クリッピングを含まないかもしくはほとんど含まず、および/または量子化エラーを含まないかもしくはほとんど含まない場合がある。例えば、再マッピング曲線は、フォービエイテッド画像の焦点視画像部分の、ディスプレイマッピング画像の焦点視画像部分へのマッピングに適用されるので、フォービエイテッド画像において表されるすべてのグレースケールレベル(これらはまた、次いで、フォービエイテッド画像を導出するために使用された対応のHDRソース画像におけるすべてのグレースケールレベルを忠実に維持し得る)は、フォービエイテッド画像から生成される対応のディスプレイマッピング画像において正確に再生され得る。
他方、非中心窩視領域に対するDMメタデータ部分に基づいて生成された再マッピング曲線(例えば、伝達関数など)は、クリッピングおよび/または量子化エラーを含み得る。例えば、再マッピング曲線は、フォービエイテッド画像の周辺視画像部分の、ディスプレイマッピング画像の周辺視画像部分へのマッピングに適用されるので、フォービエイテッド画像において表されるいくつかのグレースケールレベル(これらはまた、次いで、フォービエイテッド画像を導出するために使用した対応のHDRソース画像におけるすべてのグレースケールレベルを表さない場合がある)は、再生されないか、またはディスプレイマッピング画像のおける量子化エラーをともなって表され得る。
5.明順応レベル
実世界において、太陽を見つめた後に、少しそれた暗エリアを見ると、視聴者は、大きな痛みを感じるであろう。視聴者が非常に強い明レベルから低い明レベルに順応するには時間がかかる(例えば、おそらくは長い時間、5秒、20秒など)。視聴者が低い明レベルに順応する前では、描画された画像の暗画像領域における画像ディテールは、描画された画像が表し得る完全な程度には認識されない。したがって、視聴者が低い明レベルに順応していなくて、画像ディテールを完全には認識しない場合は、描画された画像に画像ディテールを含ませることは、コンピューティング資源および/または帯域の無駄である。
他方、太陽が視聴者の中心窩視内になかった場合は、たとえ太陽がなおも視聴者の視野において、または描画された画像(例えば、ディスプレイマッピング画像など)を導出するために直接または間接的に使用されたHDRソース画像の画像フィールドにおいて(視聴の中心窩視から離れて)存在していたとしても、視聴者にとって、上記の場合ほど痛くはないか、あるいは、低い明レベルに順応し、画像ディテールを完全に認識するのに上記の場合ほど長い時間はかからないであろう。
このように、様々な時点での画像ディテールに対する視聴者の認識能力は、その様々な時点において視聴者がどの明レベルに順応するかによって影響される。特に、特定の時点において視聴者がどの明レベルに順応するかは、視聴者がその特定の時点の前に具体的にどこで、いつ、どれくらいの長く見ていたかに基づいて(例えば、ほとんど、主に、著しく高い相関を有して、など)判定され、視聴者が順応した明レベルとは非常に異なる明レベルの他の画像ディテールを、描画された画像が含み得るかどうかにはあまり大きく依存しない。ただし、これらの他の画像ディテールが視聴者の中心窩視内またはその近傍にない場合に限る。
本明細書に記載の技術は、視聴者の明順応レベル(または、視聴者が順応する明レベル)を予測し、中心窩映像コンテンツからディスプレイマッピングされたディスプレイマッピング映像コンテンツを描画する処理において自然な視覚処理をエミュレートするように実装され得る。DMメタデータなどの画像メタデータを使用して、様々な時点において視聴者が様々な明順応レベルにどれくらいの速さで順応するかに基づいて、DM演算(または、別の画像処理演算)において使用される再マッピング曲線が時間経過によってどのように変化、遷移、または改変するかを特定し得るか、またはそれに影響を与え得る。
明順応曲線は、目(視聴者の目)が時間経過によってどれくらい順応するかを予測または推定するために映像ストリーミングサーバ、映像ストリーミングクライアントなどによって使用され得る。いくつかの実施形態において、明順応曲線は、多くの明順応因子または入力変数に依存し得る。明順応因子または入力変数の例は、ソースゾーンの明レベル、ターゲットゾーンの明レベル、視聴者の焦点視がソースゾーン内にある期間の長さ、視聴者の焦点視がターゲットゾーン内にある期間の長さなどのうちの1つ以上を含むが、それらに限定されない。
本明細書に記載の明順応曲線は、人間の視覚モデルに基づき得るが、必ずしもそれのみに限定されない。明順応曲線は、ターゲットディスプレイの差異を考慮する入力因子を含み得る。例えば、明順応曲線は、異なるディスプレイ能力を有する異なる種類のターゲットディスプレイに対して異なるように、異なる明順応レベルを予測し得る。
本明細書に記載の明順応曲線は、異なる画像コンテクスト(context)のシーンに対して異なるように明順応レベルを予測し得る。シーンにおける画像コンテクストの例は、連続した追跡(例えば、視聴者の目は、急速または弾道的運動、すなわちサッカードを行う、など)、平滑な追跡シーン(例えば、視聴者の目は、平滑な追跡運動を行う、など)、比較的大きな奥行のシーン(例えば、視聴者の目は、輻輳開散運動(vegence movement)を行う、など)、または別のシーン(例えば、視聴者の目は、描写シーンにおける物体の移動を安定化または補償するために、小さな前庭動眼運動(vestibulo-ocular movement)を行う、など)を含み得るが、それらに限定されない。
例えば、連続した追跡シーンにおいて、明順応曲線は、連続した追跡を直接的に描写する画像ディテール(または画素)の明レベルにはより大きな重みを与え、連続した追跡を直接的には描写しない画像ディテール(または画素)の明レベルにはより小さい重みを与え得る。
対照的に、明順応曲線は、平滑なシーン(例えば、ゆっくりと変化するシーンなど)においては、他のシーンと異なり、明順応レベルを予測し得る。そのようなシーンにおいて、明順応曲線は、そのシーンにおける相対的に大きなゾーン(例えば、周辺視画像ディテールのうちの一部を含む、など)内の画像ディテールの明レベルに(例えば、同等な、同じオーダーの大きさである(same order of magnitude)、など)重みを割り当て得る。
視聴者の明順応レベルを判定、推定または予測するための明順応曲線を構築するために使用されるモデルにおいて、演算パラメータ(例えば、リフト(lift)、ゲイン、オフセットなどの曲線パラメータ)のうちのいくつかまたはすべてを調節するために、芸術的意図(例えば、ディレクタの意見、カラリストの意見など)が組み込まれ得る。
また、視聴者の明順応レベルを予測するために使用される明順応曲線は、ユーザ入力に部分的に基づき得る。例えば、視聴者は、受信デバイスおよび/またはターゲットディスプレイと対話して、複数の選択可能な明順応設定の中から特定の明順応設定を選択し得る。特定の明順応設定は、明順応曲線がどのように視聴者の明順応レベルを予測するかに影響を与えること、明順応曲線において使用される入力パラメータのうちのいくつかまたはすべてに対する値を判定することなどのために使用され得る。
本明細書に記載の技術において、視聴者が視聴していたターゲットゾーンを考慮し、砲弾モデルまたは人間の眼球運動に対して特別に開発されたモデル(例えば、実験を介して、シミュレーションを介して、実証研究(validation studies)を介して開発されたモデルなど)に基づいて、視聴者が視聴していると予測されるソースゾーンが判定され得る。例えば、視聴者の眼球運動(例えば、サッカード、平滑な追跡運動、輻輳開散運動、前庭動眼運動など)は、視聴トラッキングデータに基づいてモニタリングされ得る。視聴方向変化における速度、加速度などは、ターゲットゾーンにおいて、視聴者の眼球運動をトラッキングする視聴トラッキングデータに基づいて、判定され得る。ターゲットゾーンの初期位置とともに、ターゲットゾーンにおいて測定される速度、加速度などに少なくとも基づいて、ソースゾーンの位置が判定、推定または予測され得る。
ある時点において予測または推定された視聴者の明順応レベルに基づいて、視聴者の視野の様々な領域において空間的に変化する丁度可知差異(spatially-varying just noticeable difference)(JND)の分布が判定され得る。ダイナミックレンジおよび空間解像度は、視聴者の視野における空間変化JNDの分布に基づいて調節され得る。視聴者の視覚能力(例えば、JNDに基づく視覚能力など)が精細な画像ディテールまたは精細なグレースケールレベル差を識別することができないと予測または推定される画像部分(例えば、周辺視画像部分など)において、画像部分における画像データ(例えば、2ビット映像データなどの比較的低いビットの奥行き画像データが与えられ得る、など)は、視聴者の視覚認識に視覚アーチファクトを生じさせることなく、ダウンサンプリング、圧縮などがなされ得る。他方、視聴者の視覚能力(例えば、JNDに基づく視覚能力など)が精細な画像ディテールまたは精細なグレースケールレベル差を識別できると予測または推定される画像部分(例えば、中心窩視画像部分など)において、画像部分における画像データ(例えば、12ビット映像データなどの比較的高いビットの奥行き画像データが与えられ得る、など)は、精細な画像ディテールを維持または保存するようにHDRソース画像から1-1にマッピングされ得る。
図2Cは、視聴者によって視聴される描画シーン224における一例のソースゾーン220および一例のターゲットゾーン222を示す。ソースゾーン(220)は、視聴者の焦点視が描画シーン(224)においてあらかじめ位置づけられた(描画シーンの)空間位置またはゾーンを表す。ターゲットゾーン(222)は、ディスプレイマッピング画像が描画される時点において視聴者の焦点視が位置する(例えば、そうなると判定、予測、推定された、など)(描画シーンの)空間位置またはゾーンを表す。ここで、ディスプレイマッピング画像は、明順応曲線に基づいてその時点に対して予測された視聴者の明順応レベルに少なくとも部分的に基づいて、フォービエイテッド画像から再マッピングされる。ゾーンの形状の例は、を含み得るが、それらに限定されない。
ターゲットゾーン(222)、ソースゾーン(220)などのゾーンの明レベルは、ゾーン内またはその周辺における画素の輝度値から判定/計算される重み付け集約明レベル(weighted aggregated light level)に基づいて判定され得る。ゾーンの明レベルを計算するために、ゾーンの最も内側の部分における画素の輝度値に、ゾーンの最も内側の部分の外側またはゾーンの外側の画素の輝度値よりも(例えば、著しく、など)高い重みが与えられ得る。ゾーンの明レベルを計算する特定方法、特定因子、特定パラメータなどは、人間の視覚モデル化、人間の視覚系(HVS)に対する明順応モデル、実験による人間の視覚研究、実験、実証などに基づき得る。
視聴者の視聴方向があるゾーン内にある時、視聴者は、そのゾーンにもう順応しているかもしれないし、そうでないかもしれない。いくつかの実施形態において、明順応曲線を使用して、視聴者がターゲットゾーン(222)における明レベルに調節するためのフェードインフェードアウト時間を判定してもよい。フェードインフェードアウト時間は、中心窩映像コンテンツをディスプレイマッピング映像コンテンツに再マッピングするための順応時間として使用され得る。
例えば、視聴者がターゲットゾーン(222)の明レベルに順応するために順応時間を必要とすると判断したことに応答して、映像ストリーミングサーバは、順応時間を画像メタデータに含めて送信し得る。受信デバイスは、順応時間が過ぎるまで、ターゲットゾーン(222)(または、おそらくはその他の場所)における完全な画像ディテールの再マッピングを遅らせ得る。順応時間中、視聴者の目によって十分には認識されない明レベルまたは明レベル範囲は、クリッピングされ得るか、または大きな量子化刻み幅で符号化された粗いグレースケールレベルまたは色を用いて表され得る。一旦順応時間が過ぎ、視聴者がターゲットゾーン(222)の明レベルに順応したと予測されると、完全な画像ディテールが、ディスプレイマッピングコンテンツにおけるターゲットゾーン(222)に対して、視聴者の新たな明順応レベル(ターゲットゾーン(222)の明レベルに等しいか、または非常に近似する明順応レベル)で再生/描画され得る。
このように、本明細書に記載の技術において、1シーケンスのHDRソース画像のうちの同じHDRソース画像に対して、視聴者の予測された明順応レベル(視聴者の視聴方向の履歴および前回描画された画像コンテンツに依存する)の値に応じて、当該HDRソース画像から異なるフォービエイテッド画像が生成され得、そして、異なるディスプレイマッピング画像が再生/描画され得る。
例えば、視聴者の目が視聴者のターゲットディスプレイのビューポートを介して、描画シーンの左上の隅におけるソースゾーン(220)を見ていた後に、同じビューポートを介して、描画シーンにおけるターゲットゾーン(222)を見下ろした時、本明細書に記載のディスプレイマッピング演算(または、DM演算)は、ソースゾーン(220)における画像部分がどの時刻に、どの明るさであったか、および視聴者の目がターゲットゾーン(222)の明レベルまでの一続きのターゲットゾーンにおける明レベルにどれだけの長さの時間で順応するかに基づいて、視聴者の目の順応時間を考慮する。
このように、視聴者の目がソースゾーン(220)における画像内の太陽またはその近傍を見ていた場合に、輝度範囲の上限を、明るい輝度レベルまたは明るい輝度範囲における画像ディテールを失わないか、またはほとんど失わずに、最大またはピーク輝度レベルにクランクアップ(crank up)または保存し、ターゲットゾーン(222)(または、他の場所)における輝度範囲内の暗輝度レベルまたは影をつぶす(crushing)またはクリッピングすることは、視聴者の目がターゲットゾーン(222)における明レベルに順応する前では許容され得る。加えて、視聴者の目が影内のターゲットゾーン(222)に移動するにつれ、および視聴者の目がターゲットゾーン(222)における明レベルにますます順応するにつれ、まずターゲットゾーン(222)における明レベル近傍の画像ディテールを示すことなく画像全体を暗くし、次いで(一時的に)影内の画像ディテールを時間とともにゆっくりと引き出すことは、例えば、視聴者のターゲットディスプレイとともに動作する視聴者の映像復号化デバイスにフォービエイテッド画像とともに(例えば、同時に、など)送られる画像メタデータにおいて順応時間を特定することによって、許容され得る。
6.空間微分ディスプレイマッピング
図2Dは、視聴者の目が比較的高い明レベルに順応する動作状況における、HDRソース画像のHDRソースダイナミックレンジ230(例えば、全体にわたって均一、など)から、HDRソース画像から生成されたフォービエイテッド画像の焦点視画像部分の焦点視ダイナミックレンジ232、およびフォービエイテッド画像の周辺視画像部分の周辺視ダイナミックレンジ234へのディスプレイマッピングの例を示す。
図示のように、HDRソースダイナミックレンジ(230)の第1のサブレンジ236は、フォービエイテッド画像の焦点視画像部分を導出/生成するために使用される(HDRソース画像の)第1の画像部分の全ダイナミックレンジを表し得る。本明細書に記載の技術において、HDRソース画像の第1の画像部分に対して、ダイナミックレンジ圧縮を全く行わないか、または最小限のダイナミックレンジ圧縮を行い得る。HDRソース画像の第1の画像部分は、フォービエイテッド画像の焦点視画像部分を(例えば、視聴者の明順応レベルが焦点視画像部分周辺のゾーンにおける重み付け集約明レベルと同等であると判定したことに応答して、など)導出/生成するために使用される。HDRソース画像の第1の画像部分のすべてのグレースケールレベルおよび/または色および/または空間解像度は、焦点視画像部分において、焦点視ダイナミックレンジ(232)および/または焦点視色域および/または焦点視空間解像度で、1-1または比較的忠実に再生され得る。
他方、本明細書に記載の技術において、フォービエイテッド画像の非焦点視画像部分を導出/生成するために使用されるHDRソース画像の他の画像部分に対して、(例えば、比較的大きな、など)ダイナミックレンジ圧縮が行われ得る。HDRソース画像の他の画像部分のいくつかのグレースケールレベルおよび/または色および/または空間解像度は、非焦点視画像部分において、非焦点視ダイナミックレンジおよび/または非焦点視色域および/または非焦点視空間解像度で、大きな量子化エラーを伴いながら、圧縮、ダウンサンプリングまたは表され得る。HDRソース画像の他の画像部分のいくつかのグレースケールレベルおよび/または色および/または空間解像度は、非焦点視画像部分において、非焦点視ダイナミックレンジおよび/または非焦点視色域および/または非焦点視空間解像度で、さらに大きなエラーを伴いながら、クリッピングまたは表され得る。
例えば、HDRソースダイナミックレンジ(230)の第2サブレンジ240は、フォービエイテッド画像の周辺視画像部分の少なくとも一部を導出/生成するために使用される(HDRソース画像の)第1の画像部分の第1のサブレンジ(236)よりも低い近(nearby)グレースケールレベルを表し得る。HDRソースダイナミックレンジ(230)の第2サブレンジ(240)内で表されたグレースケールまたは輝度レベルは、周辺視ダイナミックレンジ(234)内で圧縮され得る。HDRソースダイナミックレンジ(230)の第3のサブレンジ242は、フォービエイテッド画像の周辺視画像部分の少なくとも一部を導出/生成するために使用されるグレースケールレベルを表し得、そして、(HDRソース画像の)第1の画像部分の第2サブレンジ(240)よりもさらに低く、視聴者の明順応レベルからさらに離れている。HDRソースダイナミックレンジ(230)の第3のサブレンジ(242)内で表されたグレースケールまたは輝度レベルは、周辺視ダイナミックレンジ(234)内でクリッピングされ得る。対照的に、HDRソースダイナミックレンジ(230)の第4のサブレンジ(238)内で表されるグレースケールまたは輝度レベルは、これらのグレースケールまたは輝度レベルが視聴者の明順応レベルに近い場合、さらにこれらのグレースケールまたは輝度レベルがフォービエイテッド画像の焦点視画像部分を符号化するために使用されるダイナミックレンジの一部でない場合に、周辺視ダイナミックレンジ(234)内で主に再生され得る。
図2Eは、視聴者の目が比較的低い明レベルに順応する動作状況における、HDRソース画像のHDRソースダイナミックレンジ230-1(例えば、全体にわたって均一、など)から、HDRソース画像から生成されるフォービエイテッド画像の焦点視画像部分の焦点視ダイナミックレンジ232-1、およびフォービエイテッド画像の周辺視画像部分の周辺視ダイナミックレンジ234-1へのディスプレイマッピングの例を示す。
図示のように、HDRソースダイナミックレンジ(230-1)の第1のサブレンジ236-1は、フォービエイテッド画像の焦点視画像部分を導出/生成するために使用される(HDRソース画像の)第1の画像部分の全ダイナミックレンジを表し得る。HDRソース画像の第1の画像部分のすべてのグレースケールレベルおよび/または色および/または空間解像度は、焦点視画像部分において、焦点視ダイナミックレンジ(232-1)および/または焦点視色域および/または焦点視空間解像度で、1-1または比較的忠実に再生され得る。
他方、HDRソースダイナミックレンジ(230-1)の第2サブレンジ240-1は、フォービエイテッド画像の周辺視画像部分の少なくとも一部を導出/生成するために使用される(HDRソース画像の)第1の画像部分の第1のサブレンジ(236)よりも高い近グレースケールレベルを表し得る。HDRソースダイナミックレンジ(230-1)の第2サブレンジ(240-1)内で表されるグレースケールまたは輝度レベルは、周辺視ダイナミックレンジ(234-1)内で圧縮され得る。HDRソースダイナミックレンジ(230-1)の第3のサブレンジ242-1は、フォービエイテッド画像の周辺視画像部分の少なくとも一部を導出/生成するために使用されるグレースケールレベルを表し得、そして、(HDRソース画像の)第1の画像部分の第2サブレンジ(240-1)よりもさらに高く、視聴者の明順応レベルからさらに離れている。HDRソースダイナミックレンジ(230-1)の第3のサブレンジ(242-1)内で表されるグレースケールまたは輝度レベルは、周辺視ダイナミックレンジ(234-1)内でクリッピングされ得る。対照的に、HDRソースダイナミックレンジ(230-1)の第4のサブレンジ(238-1)内で表されたグレースケールまたは輝度レベルは、これらのグレースケールまたは輝度レベルが視聴者の明順応レベルに近い場合、さらにはこれらのグレースケールまたは輝度レベルがフォービエイテッド画像の焦点視画像部分を符号化するために使用されるダイナミックレンジの一部でない場合に、周辺視ダイナミックレンジ(234-1)内で主に再生され得る。
本明細書に記載のディスプレイマッピング映像コンテンツは、グローバルディミング、ローカルディミングまたはローカウントディミングをサポートする視聴者の1つ以上のターゲットディスプレイ上に描画され得る。本明細書において、グローバルディミングをサポートするターゲットディスプレイは、光が画像データに基づいて画像中に変調される前に、光の(例えば、グローバルな、など)輝度レベルを全ディスプレイエリアまたは全画像描画表面にわたって調節することが可能なディスプレイデバイスを指す。ローカルディミングをサポートするターゲットディスプレイは、光が画像データに基づいて画像中に変調される前に、ディスプレイエリアまたは画像描画表面内の比較的多数(例えば、数十、数百、数千またはそれ以上、など)のエリアに対して、光の個々のローカルエリア輝度レベルを調節することが可能なディスプレイデバイスを指す。個々のエリアに対する個々のローカルエリア輝度レベルは、画像をダウンサンプリングしたものに少なくとも部分的に基づいて制御され得る。ローカウントディミングをサポートするターゲットディスプレイは、光が画像データに基づいて画像中に変調される前に、ディスプレイエリアまたは画像描画表面内の比較的少数(例えば、2、4、6、8個など)のエリアに対して、光の個々のローカルエリア輝度レベルを調節できるディスプレイデバイスを指す。
一例において、中心窩視画像部分などの画像部分における再マッピング(remapped)ダイナミックレンジを使用して、オーバドライブおよび/またはアンダードライブ能力を有するターゲットディスプレイにおけるバックライトが画像描画演算においてどのように使用されるかに影響を与え得る。中心窩視画像部分が比較的高いダイナミックレンジまたはピーク輝度値を有する場合、ターゲットディスプレイは、バックライトを中心窩視画像部分に与えるバックライトサブユニットをオーバドライブし得る。付加として、オプションとして、または代替として、ターゲットディスプレイは、バックライトを非中心窩視画像部分に与えるバックライトサブユニットをアンダードライブして、過熱またはエネルギーの過剰消費を防止し得る。
別の例において、グローバルディミングターゲットディスプレイは、ある時点において多く(例えば、1000個など)のグレースケールレベルをサポート可能であり得る。これらのグレースケールレベルを使用して、視聴者の中心窩視における画像ディテールまたはグレースケールレベルの描画を最大限サポートし得る。視聴者が明るい画像ディテールを視聴しているとき、グローバルディミングターゲットディスプレイは、グレースケールレベルのすべてではないとしてもそのほとんどを比較的高い輝度値(例えば、3000~4000ニットなど)に設定し得る。他方、視聴者が暗い画像ディテールを視聴している時、グローバルディミングターゲットディスプレイは、グレースケールレベルのすべてではないとしてもそのほとんどを比較的低い輝度値(例えば、0.1ニット~100ニットなど)に設定し得る。同様に、任意のある時点において視聴者の中心窩視内に表されるダイナミックレンジに応じて、別の輝度サブレンジがグローバルディミングターゲットディスプレイによって動的に設定される。これにより、グローバルディミングターゲットディスプレイが1000個のグレースケールレベルに限定され得るとしても、グローバルディミングターゲットディスプレイは、視聴者の中心窩視において、はるかにより大きなダイナミックレンジおよびはるかにより多くのグレースケールレベルで描画し、それにより、グローバルディミングターゲットディスプレイがローカルディミング能力を有し、非常に低い輝度値から非常に高い輝度値までの非常に高いダイナミックレンジをサポートでき、非常に大きいコントラスト(例えば、最低輝度値0.1ニット~ピーク輝度値4000ニットなど)をサポートでき、画像を高い忠実度で描画できる、などの印象を生成し得る。
付加として、オプションとして、または代替として、本明細書に記載のフォービエイテッド画像から生成されたディスプレイマッピング画像を描画するために、ローカウントディミングターゲットディスプレイを使用してもよい。グローバルディミングターゲットディスプレイと同様に、ローカウントディミングターゲットディスプレイはまた、ディスプレイマッピング画像における中心窩視画像部分のダイナミックレンジに基づいて、ターゲットディスプレイにおけるローカウント総数のゾーンのうちのいずれのゾーンにおいても、グレースケールレベルを有するダイナミックレンジを適合可能に設定し得る。これにより、ローカウントディミングターゲットディスプレイは、ディミング演算に対して比較的限定された数のゾーンを有し、ゾーンのそれぞれにおける多くのグレースケールレベルに限定され得るが、ローカウントディミングターゲットディスプレイは、視聴者の中心窩視において、はるかにより大きなダイナミックレンジおよびはるかにより多くのグレースケールレベルで描画し、それにより、ローカウントディミングターゲットディスプレイは、ローカルディミング能力を有し、非常に低い輝度値から非常に高い輝度値までの非常に高いダイナミックレンジをサポートでき、非常に大きいコントラスト(例えば、最低輝度値0.1ニット~ピーク輝度値4000ニットなど)をサポートでき、画像を高い忠実度で描画できる、などの印象を生成し得る。
図2Fは、4つの個々のローカウントディミングエリア252-1~252-4を含む一例のローカウントディミングターゲットディスプレイ250を示す。ディミングエリア(252-1~252-4)のそれぞれにおいて、個々の輝度レベルが調節され得る。例えば、第1の時刻において、視聴者の視聴方向または中心窩視は、ローカウントディミングエリア252-1に対応するソースゾーン(例えば、220など)内に位置し、ローカウントディミングエリア(252-1)の輝度レベルは、ローカウントディミングエリア(252-1)内のディスプレイマッピング画素の輝度値のダイナミックサブレンジに基づいて制御され得る。特に、ローカウントディミングエリア(252-1)の輝度レベルは、視聴者の中心窩視において、視聴者の中心窩視において、ソースゾーン(220)において、などで、少なくともピーク輝度以上に設定され得る。これにより、視聴者の中心窩視内で、視聴者の中心窩視において、ソースゾーン(220)において、などで、ディスプレイマッピング画素の輝度値は、最大限にまたは最大の忠実度で再生され得る。
第2の時刻において、視聴者の視聴方向または中心窩視は、ローカウントディミングエリア252-4に対応するターゲットゾーン(例えば、222など)内に位置し、ローカウントディミングエリア(252-4)の輝度レベルは、ローカウントディミングエリア(252-4)内のディスプレイマッピング画素の輝度値のダイナミックサブレンジに基づいて制御され得る。特に、ローカウントディミングエリア(252-4)の輝度レベルは、視聴者の中心窩視において、視聴者の中心窩視において、ターゲットゾーン(222)において、などで、少なくともピーク輝度以上に設定され得る。これにより、視聴者の中心窩視内、視聴者の中心窩視において、ターゲットゾーン(222)において、などで、ディスプレイマッピング画素の輝度値は、最大限にまたは最大の忠実度で再生され得る。
図2Gは、HDRソース画像のHDRソースダイナミックレンジ230-1(例えば、全体にわたって均一、など)から、HDRソース画像から生成されるフォービエイテッド画像の焦点視画像部分の焦点視ダイナミックレンジ、および視聴者の目が比較的低い明レベルに順応する動作状況におけるフォービエイテッド画像の周辺視画像部分の周辺視ダイナミックレンジ234-1へのディスプレイマッピングの例を示す。フォービエイテッド画像の焦点視画像部分の焦点視ダイナミックレンジは、2つのダイナミックサブレンジを含み得る。2つのダイナミックサブレンジうちの一方は、図2Eのダイナミックレンジ232-1に対応し、他方は、ダイナミックレンジ(232-1)よりも高い追加のダイナミックレンジ232-2(例えば、画像ハイライト、電球、光沢な表面からの強い反射など)であり得る。
いくつかの実施形態において、グローバルディミングディスプレイは、焦点視画像部分に対してダイナミックレンジ圧縮を行わないか、またはそれを最小限に行うために、ディスプレイ全体の輝度レベルを追加のダイナミックレンジ232-2内の最大輝度値以上に設定し得る。
いくつかの実施形態において、ローカルディミングディスプレイは、ディスプレイの異なるエリアにおけるローカル輝度レベルを、これらの異なるエリアにおけるディスプレイマッピング画素の最大輝度値以上に設定し得るが、そうなり得るのは、これらのディスプレイマッピング画素が焦点視画像部分の一部である場合である。
いくつかの実施形態において、ローカルディミングディスプレイは、ディスプレイの異なるローカウントエリアにおけるローカル輝度レベルを、これらの異なるエリアにおけるディスプレイマッピング画素の最大輝度値以上に設定し得るが、そうなり得るのは、これらのディスプレイマッピング画素が焦点視画像部分の一部である場合である。
付加として、オプションとして、または代替として、光方向付け方法、フェーズド光変調方法などを使用して、ディスプレイマッピング画素がより高い輝度レベルを必要とする場合に、より多くの光をディスプレイマッピング画素の位置に向けて方向転換させ得る。例えば、追加のダイナミックレンジ(232-2)内の輝度値を有するディスプレイマッピング画素が焦点視画像部分において位置する場合、1つ以上の光方向付け方法、フェーズド光変調方法などを使用して、これらのディスプレイマッピング画素に対して、明レベルまたは輝度レベルを高くし得る。明レベルまたは輝度レベルが高められたこれらのディスプレイマッピング画素にさらに多くの光が方向付けられるにつれ、他の画像部分における他のディスプレイマッピング画素の明レベルまたは輝度レベルが低下または犠牲にされ得る可能性がある。
いくつかの動作状況において、視聴方向トラッキングの代わりに、またはそれに加えて、(例えば、カラリスト、ディレクタ、映像プロフェッショナルからの、など)事前の(a priori)ユーザ入力を使用して、HDRソース画像、またはHDRソース画像から生成されたフォービエイテッド画像における焦点視画像部分を指定し得る。焦点視フォービエイテッド画像部分および対応するDMメタデータ部分は、HDRソース画像においてユーザ入力に基づいて指定された焦点視画像部分から生成され得る。DMメタデータ部分は、ユーザ入力に基づいて指定された焦点視画像部分における、ダイナミックレンジ、色域、空間解像度などに関する画像ディテールが、フォービエイテッド画像から生成されるフォービエイテッド画像およびディスプレイマッピング画像において保存されることを確実にするために、受信デバイスによって使用され得る。ユーザ入力に基づいて指定された中心窩視画像部分を使用して、視聴者の視聴方向を、例えば、ある注目のエリアに、特定の長さの時間だけ向け得る。ここで、ある注目のエリアは、画像ディテールを用いて描画されるとともに、他のエリアは、マスクされ得るか、または当該注目のエリアと比較してより少ない画像ディテールを含み得る。
いくつかの実施形態において、ARなどの映像アプリケーションにおける本明細書に記載のディスプレイマッピング映像コンテンツは、映像アプリケーションにおける周囲明レベルに少なくとも部分的に基づいて生成され得る。視聴者のターゲットディスプレイを用いてモニタリングされる周囲明レベルは、中心窩映像コンテンツにおける対応のダイナミックレンジ、ダイナミックサブレンジなどがマッピングまたは再マッピングされるディスプレイマッピング映像コンテンツの様々な画像部分におけるダイナミックレンジ、ダイナミックサブレンジなどを調節するために使用され得る。例えば、周囲明レベルは、DMメタデータ部分およびデフォルトの周囲明レベルに基づくダイナミックレンジマッピングを、DMメタデータ部分および視聴者のターゲットディスプレイによってモニタリングされた実際の周囲明レベルに基づく調節(adjusted)ダイナミックレンジマッピングに調節するために使用され得る。調節ダイナミックレンジマッピングは、フォービエイテッド画像における画像部分のダイナミックレンジを、フォービエイテッド画像における画像部分のディスプレイマッピングダイナミックレンジにマッピングまたは再マッピングするために使用され得る。
本明細書に記載の技術は、様々な映像コンテンツに適用され得る。例えば、TVなどのディスプレイ上に2D映像コンテンツを表示する映像アプリケーションにおいて、2D映像コンテンツを視聴している1以上の視聴者の視聴方向がリアルタイム、準リアルタイムなどでモニタリングされ得る。これらの視聴方向を使用して、画像ディテールが保存される1つ以上の焦点視画像部分を(例えば、同時に、など)指定し得る。フォービエイテッド画像は、フォービエイテッド画像を生成するために使用されたHDRソース画像における1つ以上の対応する画像部分から1つ以上の焦点視画像部分を含むように生成され得る。
例示を目的として、視聴者が中心窩映像コンテンツを視聴しているときに収集/トラッキングされた視聴方向データに基づいて、ある時点における視聴者の視聴方向(例えば、ソースゾーン、ターゲットゾーン、中間ゾーンへの方向など)が判定され得ることを説明した。付加として、オプションとして、または代替として、ある時点における視聴者の視聴方向が予測され得る。例えば、いくつかの実施形態において、1つ以上の上流デバイスが1つ以上の上流デバイスと下流の受信デバイスとの間のネットワーク潜時を計測してもよい。また、1つ以上の上流デバイスは、視聴者の動き(例えば、6自由度、回転、平行移動、回転と平行移動の組み合わせにおける動きなど)を判定し得る。ネットワーク潜時および視聴者の動きに基づいて、1つ以上の上流デバイスは、後の時点における視聴者の視聴方向を予測してもよい。
いくつかの実施形態において、下流のデバイスが視聴者の動き(例えば、6自由度、回転、平行移動、回転と平行移動の組み合わせにおける動きなど)を判定してもよい。視聴者の動きに基づいて、下流のデバイスは、後の時点における視聴者の視聴方向(例えば、ソースゾーン、ターゲットゾーン、中間ゾーンへの方向など)を予測してもよい。
7.映像ストリーミングサーバおよびクライアントの例
図3Aは、フォービエイテッド画像プロセッサ302、フォービエイテッド画像生成器312などを備える一例の映像ストリーミングサーバ300を示す。いくつかの実施形態において、フォービエイテッド画像プロセッサ(302)は、HDRソース画像受信器306、データ格納器(repository)310などを備える。映像ストリーミングサーバ(300)の構成要素のうちのいくつかまたはすべては、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどにおいて、1つ以上のデバイス、モジュール、ユニットなどよって実装され得る。
いくつかの実施形態において、HDRソース画像受信器(306)は、クラウドベースHDRソース画像ソースや、VRアプリケーション、ARアプリケーション、リモートプレゼンスアプリケーション、ディスプレイアプリケーションなどに関与するカメラシステムなどのHDRソース画像ソースから入力HDRソース画像ストリーム304を受信するように構成されたソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを備え、入力HDRソース画像ストリーム(304)を1つ以上の入力HDRソース画像(例えば、1シーケンスの入力HDRソース画像など)に復号化する、などである。
いくつかの実施形態において、データ格納器(310)は、入力HDRソース画像のうちのいくつかまたはすべてなどに対して、格納、更新、取り出し、削除などの操作をサポートするように構成された1つ以上のデータベース、1つ以上のデータ格納ユニット/モジュール/デバイスなどを表す、などである。
いくつかの実施形態において、フォービエイテッド画像生成器(312)は、双方向データフロー314を介して視聴者の視聴方向データを受信するように構成されたソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを備え、中心窩映像コンテンツが視聴者の画像描画デバイス(または、ディスプレイデバイス)において描画される空間座標系に対して、時間とともに、視聴者の視聴方向(例えば、2つの目のそれぞれに対する視聴方向など)を確定/判定し、各HDRソース画像の複数の画像部分および複数のDMメタデータ部分を用いて符号化された全映像ストリームを生成する、などである。ある時点において描画されるHDRソース画像における異なる画像部分に対して、その時点での視聴者の(例えば、判定、予測、推定された、など)視聴方向を参照して、異なるDMメタデータ部分が別途および特別に生成され、そして、それらのDMメタデータ部分は、HDRソース画像における異なる画像部分とともに送られる画像メタデータセットに含めて、双方向データフロー314を介して(例えば、直接に、または中間デバイスを介して間接的に、など)下流のデバイスへ送られ得る。下流のデバイスは、映像ストリーミングクライアント、ディスプレイデバイス、格納デバイス、ターゲットディスプレイとともに動作する映像デコーダなどを表し得る。
付加として、オプションとして、または代替として、画像回転判定、画像配列(alignment)解析、シーンカット検出、座標系間変換、時間減衰、ディスプレイマネジメント、コンテンツマッピング、カラーマッピング、視野マネジメントなど画像処理演算のうちのいくつかまたはすべては、映像ストリーミングサーバ(300)によって行われ得る。
映像ストリーミングサーバ(300)は、リアルタイム没入型映像アプリケーション、準リアルタイム没入型映像アプリケーション、リアルタイム非没入型映像アプリケーション、準リアルタイム非没入型映像アプリケーション、非リアルタイム没入型映像アプリケーション、仮想現実、拡張現実、自動車エンターテイメント、ヘルメットマウントディスプレイアプリケーション、ヘッドアップディスプレイアプリケーション、ゲーム、2Dディスプレイアプリケーション、3Dディスプレイアプリケーション、マルチビューディスプレイアプリケーションなどをサポートするように使用され得る。例えば、視聴者の視聴方向などを参照して生成される視聴方向トラッキングデータ、複数の画像部分、および複数のDMメタデータ部分のうちのいくつかまたはすべては、映像ストリーミングサーバ(300)によってリアルタイム、準リアルタイムなどで生成またはアクセスされる。
図3Bは、フォービエイテッド画像受信器316、視聴方向トラッカ326、ディスプレイマネージャ318、1つ以上の画像ディスプレイ(または、1つ以上のターゲットディスプレイ)320などを備える一例の画像描画システム324-1を示す。画像描画システム(324-1)の構成要素のうちのいくつかまたはすべては、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどにおいて、1つ以上のデバイス、モジュール、ユニットなどによって実装され得る。
いくつかの実施形態において、フォービエイテッド画像受信器(316)は、双方向データフロー314を介して、視聴者の視聴方向トラッキングデータを送るように構成されたソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを備え、ここで、視聴者の視聴方向トラッキングデータは、中心窩映像コンテンツが視聴者の画像ディスプレイ(320)において描画される空間座標系に対して、時間にわたり視聴者の視聴方向を確定/判定するために、映像ストリーミングサーバによって使用され得、各HDRソース画像の複数の画像部分および複数のDMメタデータ部分を用いて符号化された全映像ストリームを受信する、などである。
ユーザは、実行時にユーザの視聴方向を移動させ得る。いくつかの実施形態において、視聴方向トラッカ(326)は、時間にわたり視聴者に関係する視聴方向データを生成するように構成されたソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを備える。視聴方向トラッキングデータは、比較的精細な時間スケール(例えば、1ミリ秒毎、5ミリ秒毎など)でサンプリングまたは測定され得る。視聴方向トラッキングデータは、ある時間解像度(例えば、1ミリ秒毎、5ミリ秒毎など)で視聴者の視聴方向を確定/判定するために使用され得る。
いくつかの実施形態において、画像描画システム(324-1)は、ユーザのディスプレイに描画される中心窩映像コンテンツを生成するように構成される。いくつかの実施形態において、受信された映像ストリームにおけるフォービエイテッド画像の複数の画像部分は、対応するDMメタデータ部分に基づくDM演算とともに適用され、そして合わさってスティッチ(stitch)/合成(composite)され、一体イメージ(imagery)(または、全ディスプレイマッピング画像)を形成し得る。非ブロック化演算、非輪郭化演算、ぼかし(blurring)演算などが、ユーザのディスプレイに描画される一体イメージを合成する工程の一部として行われ得る。
いくつかの実施形態において、ディスプレイマネージャ(318)は、画像ディスプレイ(320)に描画される中心窩映像コンテンツに対してDM演算を行って、ディスプレイマッピング中心窩映像コンテンツを生成するように構成されたソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを備え、ディスプレイマッピング中心窩映像コンテンツを(例えば、HDMI信号に含めて、など)描画のために画像ディスプレイ(320)に出力する、などである。
付加として、オプションとして、または代替として、視聴方向トラッキング、動き検出、位置検出、回転判定、座標系間変換、時変画像パラメータの時間減衰、画像パラメータの任意の別の時間操作、ディスプレイマネジメント、コンテンツマッピング、トーンマッピング、カラーマッピング、視野マネジメント、予測、マウス、トラックボール、キーボード、フットトラッカ(foot tracker)、実際の体の動きを介したナビゲーションなどの画像描画演算のいくつかまたはすべては、画像描画システム(324-1)によって行われ得る。
画像描画システム(324-1)は、リアルタイム没入型映像アプリケーション、準リアルタイム没入型映像アプリケーション、非リアルタイム没入型映像アプリケーション、リアルタイム非没入型映像アプリケーション、準リアルタイム非没入型映像アプリケーション、非リアルタイム非没入型映像アプリケーション、仮想現実、拡張現実、自動車エンターテイメント、ヘルメットマウントディスプレイアプリケーション、ヘッドアップディスプレイアプリケーション、ゲーム、2Dディスプレイアプリケーション、3Dディスプレイアプリケーション、マルチビューディスプレイアプリケーションなどをサポートするように使用され得る。例えば、視聴者の視聴方向などを参照して生成される視聴方向データ、複数の画像部分、および複数のDMメタデータ部分のうちのいくつかまたはすべては、画像描画システム(324-1)によってリアルタイムに、準リアルタイムなどで生成またはアクセスされる。
本明細書に記載の技術は、様々なシステムアーキテクチャにおいて実装され得る。本明細書に記載のいくつかまたはすべての画像処理演算は、クラウドベース映像ストリーミングサーバ、映像ストリーミングクライアントと並置されるか、またはそこに組み込まれる映像ストリーミングサーバ、画像描画システム、画像描画システム、ディスプレイデバイスなどのうちの1つ以上によって実装され得る。例えば、受信デバイスの様々な種類の映像アプリケーション、帯域/ビットレート割当量、コンピューティング能力、資源、負荷など、映像ストリーミングサーバおよび/またはコンピュータネットワークのコンピューティング能力、資源、負荷などの1つ以上の要素に基づいて、いくつかの画像処理演算が映像ストリーミングサーバによって行われ、他方、いくつかの別の画像処理演算が映像ストリーミングクライアント、画像描画システム、ディスプレイデバイスなどによって行われ得る。
図3Cは、フォービエイテッド画像生成器(例えば、312など)がエッジ映像ストリーミングサーバ324-2に組み込まれている構成の例を示す。いくつかの実施形態において、図3Cのフォービエイテッド画像プロセッサ302は、クラウドベースであり得る。いくつかの実施形態において、フォービエイテッド画像プロセッサ(302)は、エッジ映像ストリーミングサーバ(324-2)などのエッジデバイスから分離されたコアネットワーク内に位置し得る。図3Aに示すように、フォービエイテッド画像プロセッサ(302)は、HDRソース画像受信器306、データ格納器310などを含み得る。フォービエイテッド画像プロセッサ(302)は、エッジ映像ストリーミングサーバ(324-2)と比較的高いビットレートで通信する上流映像ストリーミングサーバを表し得る。フォービエイテッド画像プロセッサ(302)および/またはエッジ映像ストリーミングサーバ(324-2)の構成要素のうちのいくつかまたはすべては、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどにおいて、1つ以上のデバイス、モジュール、ユニットなどによって実装され得る。
いくつかの実施形態において、フォービエイテッド画像プロセッサ(302)は、HDRソース画像をデータフロー322に含めて、下流のデバイスに出力するように構成される。下流のデバイスのうちの1つは、エッジ映像ストリーミングサーバ(324-2)であり得る。
いくつかの実施形態において、エッジ映像ストリーミングサーバ(324-2)、またはその中のフォービエイテッド画像生成器(312)は、中心窩映像コンテンツが視聴者のディスプレイデバイス内で描画される空間座標系に対して、時間にわたり視聴者の視聴方向を判定するように構成されたソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを備え、各HDRソース画像の複数の画像部分および複数のDMメタデータ部分を用いて符号化された全映像ストリームを生成する、などである。ある時点において描画されるHDRソース画像における異なる画像部分に対して、その時点での視聴者の(例えば、判定、予測、推定された、など)視聴方向を参照して、異なるDMメタデータ部分が別途および特別に生成され、そして、それらのDMメタデータ部分は、HDRソース画像における異なる画像部分とともに送られる画像メタデータセットに含めて、双方向データフロー314を介して(例えば、直接に、または中間デバイスを介して間接的に、など)下流のデバイスへ送られ得る。
いくつかの実施形態において、画像描画デバイス(例えば、324-1)、またはその中のディスプレイマネージャ(例えば、図2Bの318)は、1つ以上の画像ディスプレイ上に描画される中心窩映像コンテンツに対してDM演算を行って、ディスプレイマッピング中心窩映像コンテンツを生成するように構成されたソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを備え、ディスプレイマッピング中心窩映像コンテンツを(例えば、HDMI信号に含めて、など)描画のために画像ディスプレイに出力する、などである。
視聴者は、実行時に視聴者の視聴方向を移動し得る。画像描画システム(324-2)は、視聴者のディスプレイデバイス上に描画される中心窩映像コンテンツを生成するように構成される。いくつかの実施形態において、受信された映像ストリームにおけるフォービエイテッド画像の複数の画像部分は、対応するDMメタデータ部分に基づくDM演算とともに適用され、そして合わさってスティッチ/合成され、一体イメージ(または、全ディスプレイマッピング画像)を形成し得る。非ブロック化演算、非輪郭化演算、ぼかし演算などが、ユーザのディスプレイに描画される一体イメージを合成する工程の一部として行われ得る。
8.処理フローの例
図4Aは、本発明の例示的な実施形態にかかる処理フローの例を示す。いくつかの例示的な実施形態において、1つ以上のコンピューティングデバイスまたは構成要素がこの処理フローを行い得る。ブロック402において、フォービエイテッド画像プロセッサ(例えば、図3A~3Cの映像ストリーミングサーバまたは映像ストリーミングクライアントなど)は、1つ以上の第1のフォービエイテッド画像を1つ以上の第1の画像メタデータセットとともに映像ストリーミングクライアントにストリーミングする。1つ以上の第1のフォービエイテッド画像および1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点において視聴者に対して描画するための1つ以上の第1のディスプレイマッピング画像を生成するために、映像ストリーミングクライアントによって使用される。1つ以上の第1のフォービエイテッド画像および1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点における視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される。
ブロック404において、フォービエイテッド画像プロセッサ(例えば、図3A~3Cの映像ストリーミングサーバまたは映像ストリーミングクライアントなど)は、視聴者が1つ以上の第1のディスプレイマッピング画像を視聴しているときにリアルタイムに収集された視聴者の視聴方向データの少なくとも一部を受信する。視聴方向データは、1つ以上の第1の時点の後の第2の時点における視聴者の第2の視聴方向を判定するために使用される。
ブロック406において、フォービエイテッド画像プロセッサは、第2の時点における視聴者の第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成する。第2のフォービエイテッド画像および第2の画像メタデータセットは、第2の時点において視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために、映像ストリーミングクライアントによって使用される。第2のフォービエイテッド画像は、視聴者の第2の視聴方向をカバーする焦点視フォービエイテッド画像部分、および焦点視画像部分の外側の周辺視フォービエイテッド画像部分を有する。第2の画像メタデータセットは、焦点視フォービエイテッド画像部分を第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成された焦点視ディスプレイマネジメント(DM)メタデータ部分を含む。第2の画像メタデータセットは、周辺視フォービエイテッド画像部分を第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成された周辺視DMメタデータ部分を含む。
ブロック408において、フォービエイテッド画像プロセッサは、第2のフォービエイテッド画像および第2の画像メタデータセットを映像ストリーミングクライアントに送信する。
一実施形態において、フォービエイテッド画像プロセッサは、第3のHDRソース画像における第3の焦点視画像部分を指定するユーザ入力(例えば、カラリスト、ディレクタなどからの入力)を受信する工程であって、第3のHDRソース画像は、第3のフォービエイテッド画像を生成するために使用される、工程と、第3のHDRソース画像においてユーザ入力に基づいて指定された第3の焦点視画像部分から第3の焦点視フォービエイテッド画像部分を生成する工程と、第3の焦点視フォービエイテッド画像部分を、第3の時点において描画するための第3のディスプレイマッピング画像における第3の焦点視ディスプレイマッピング画像部分に改変するために、映像ストリーミングクライアントによって使用される第3の焦点視DMメタデータ部分を生成する工程と、第3のフォービエイテッド画像、および第3の焦点視DMメタデータを含む第3の画像メタデータセットを映像ストリーミングクライアントに送信する工程などを行うようにさらに構成される。
一実施形態において、フォービエイテッド画像プロセッサは、視聴方向データに少なくとも部分的に基づいて、視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、フォービエイテッド画像における焦点視フォービエイテッド画像部分における新しい明順応レベルに対応する完全な画像ディテールのストリーミングを順応時間が過ぎるまで遅延させる工程とを行うようにさらに構成される。
一実施形態において、順応時間は、映像ストリーミングクライアントに送信されるフォービエイテッド画像のうちの少なくとも1つに伴う画像メタデータセットにおいて特定される。
一実施形態において、焦点視DMメタデータは、焦点視フォービエイテッド画像部分において表されるすべての画素の中で、焦点視特定最大(focal-vision specific)(例えば、ピーク、上限など)ルマ値を特定するが、焦点視フォービエイテッド画像部分におけるどの画素が焦点視特定最大ルマ値に対応づけられるかは指定しない。周辺視DMメタデータは、周辺視フォービエイテッド画像部分において表されるすべての画素の中で、周辺視特定(peripheral-vision specific)最大ルマ値を特定するが、周辺視画像部分におけるどの画素が周辺視特定最大ルマ値に対応づけられるかは指定しない。焦点視特定最大ルマ値は、周辺視特定最大ルマ値と異なる。
一実施形態において、焦点視DMメタデータ部分は、リファレンス伝達関数を、焦点視ディスプレイマッピング画像部分の生成に適用される焦点視特定伝達関数に改変するために使用される。周辺視DMメタデータは、同じリファレンス伝達関数を、周辺視ディスプレイマッピング画像部分を生成するために適用される周辺視特定伝達関数に改変するために使用される。焦点視特定伝達関数は、周辺視特定伝達関数と異なり、少なくとも1つの入力コードワードをマッピングする。
一実施形態において、リファレンス伝達関数において表されたグレースケールレベルは、第2のHDRソース画像における色空間のルマチャネルにおいて符号化可能な最も精細な認識可能画像ディテールに対応する。
一実施形態において、第2の画像メタデータセットは、同じリファレンス伝達関数を、第2のディスプレイマッピング画像における、焦点視ディスプレイマッピング画像部分および周辺視ディスプレイマッピング画像部分を除く、他の画像部分を生成するために適用される別の伝達関数に改変するために使用される別のDMメタデータをさらに含み得る。別の伝達関数は、焦点視特定伝達関数および周辺視特定伝達関数のどちらとも異なる。
一実施形態において、リファレンスターゲットディスプレイを参照して、第2のHDRソース画像において符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される。
一実施形態において、リファレンスターゲットディスプレイを参照して、第2のHDRソース画像のビューポートにおいて符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される。
一実施形態において、フォービエイテッド画像プロセッサは、第2の時点における視聴者の明順応レベルを予測する工程と、視聴者の予測された明順応レベルが順応されるべき(to-be-adapted)輝度レベルと同等であるかどうかを判定する工程と、視聴者の予測された明順応レベルが順応されるべき輝度レベルと同等であると判定したことに応答して、第2のフォービエイテッド画像の焦点視フォービエイテッド画像部分において、第2のHDRソース画像の第1の画像部分において符号化された最も精細な認識可能画像ディテールを保存する工程であって、第2のHDRソース画像の第1の画像部分が第2のフォービエイテッド画像の焦点視フォービエイテッド画像部分を導出するために使用される、工程とを行うようにさらに構成される。
本明細書において、映像ストリーミングクライアントにおける明順応レベルは、明レベル情報に基づいて、フォービエイテッド画像、HDRソース画像などにおけるゾーン、画像部分、画像領域などの重み付け集約明レベルに、翻訳(translate)、マッピング、推定、近似などされ得る。
一実施形態において、フォービエイテッド画像プロセッサは、第2の時点における視聴者の明順応レベルを予測する工程と、視聴者の予測された明順応レベルが順応されるべき輝度レベルと同等であるかどうかを判定する工程と、視聴者の予測された明順応レベルが順応されるべき輝度レベルであると判定したことに応答して、第2のフォービエイテッド画像の焦点視フォービエイテッド画像部分において、第2のHDRソース画像の第1の画像部分における視聴者の予測された明順応レベル(例えば、視聴者のターゲットディスプレイに対する明順応レベルなど)に対応する特定の明レベル(例えば、フォービエイテッド画像の符号化に使用されるリファレンスディスプレイディスプレイに対する翻訳明順応レベルなど)近傍の明レベルを有する最も精細な認識可能画像ディテールを保存する工程であって、第2のHDRソース画像の第1の画像部分が第2のフォービエイテッド画像の焦点視フォービエイテッド画像部分を導出するために使用される、工程とを行うようにさらに構成される。
一実施形態において、フォービエイテッド画像プロセッサは、焦点視フォービエイテッド画像部分において、第2のHDRソース画像の第1の画像部分において符号化された1つ以上のルマ値をクリッピングするようにさらに構成される。
一実施形態において、1つ以上の第1のディスプレイマッピング画像のうちの少なくとも1つの第1のディスプレイマッピング画像の焦点視ディスプレイマッピング画像部分は、視聴者の明順応に対するソースゾーンを表し、第2のディスプレイマッピング画像の焦点視ディスプレイマッピング画像部分は、視聴者の明順応に対するターゲットゾーンを表す。
一実施形態において、第2のHDRソース画像は、没入型画像、パノラマ画像、拡張現実画像、仮想現実画像、リモートプレゼンス画像などのうちの1つを表す。
一実施形態において、焦点視DMメタデータ部分は、焦点視フォービエイテッド画像部分における、視聴者の予測された明順応レベル、焦点視特定最大ルマ値、焦点視特定最小ルマ値、焦点視特定平均ルマ値、焦点視特定白色点などのうちの1つ以上を特定する。
一実施形態において、周辺視DMメタデータ部分は、周辺視フォービエイテッド画像部分における、周辺視特定最大ルマ値、周辺視特定最小ルマ値、周辺視特定平均ルマ値、周辺視特定白色点などのうちの1つ以上を特定する。
一実施形態において、1つ以上の第1の時点および第2の時点は、共になって、ある時間間隔をカバーする連続した時点を表す。視聴者の焦点視における輝度レベルは、比較的明るい輝度レベル(例えば、ディスプレイマッピング画像、フォービエイテッド画像、またはソース画像に基づいて判定または推定される輝度レベルなど)から変化する。第2のHDRソース画像における第1の画像部分は、第2のフォービエイテッド画像における焦点視フォービエイテッド画像部分に対応する。第2のフォービエイテッド画像における焦点視フォービエイテッド画像部分において表された暗いレベルの総数は、第2のHDRソース画像における第1の画像部分において表されたソースの暗いレベルの総数に比べて低減される。
一実施形態において、1つ以上の第1の時点および第2の時点は、共になって、ある時間間隔をカバーする連続した時点を表す。視聴者の焦点視における輝度レベルは、比較的明るい輝度レベル(例えば、ディスプレイマッピング画像、フォービエイテッド画像、またはソース画像に基づいて判定または推定される輝度レベルなど)から変化する。第2のHDRソース画像における第1の画像部分は、第2のフォービエイテッド画像における焦点視フォービエイテッド画像部分に対応する。第2のフォービエイテッド画像における焦点視フォービエイテッド画像部分において表された明るいレベルの総数は、第2のHDRソース画像における第1の画像部分において表されたソースの明るいレベルの総数に比べて低減される。
一実施形態において、フォービエイテッド画像プロセッサは、時間とともに変化する視聴者の明順応レベル(例えば、時間変化など)を判定する工程と、時間とともに変化する視聴者の明順応レベルを使用して、第2の時点に対する視聴者の明順応レベルを予測する工程と、第2の時点に対して予測された視聴者の明順応レベルを用いて、焦点視DMメタデータ部分を生成する工程とを行うようにさらに構成される。
一実施形態において、視聴者の明順応レベルは、1つ以上の第1の時点における視聴者の1つ以上の第1の予測された明順応レベルを含む。1つ以上の第1の予測された明順応レベルは、1つ以上の第1の時点における視聴者の1つ以上の第1の視聴方向および1つ以上の第1のディスプレイマッピング画像における1つ以上の第1の焦点視画像部分に少なくとも部分的に基づいて判定される。
一実施形態において、第2のディスプレイマッピング画像における第2の焦点視画像部分は、視聴者の中心窩視を、最大線角度値(maximum linear angular value)(2~4度、4~6度、6~8度など)までカバーする。
図4Bは、本発明の例示的な実施形態にかかる処理フローの例を示す。いくつかの例示的な実施形態において、1つ以上のコンピューティングデバイスまたは構成要素がこの処理フローを行い得る。ブロック452において、映像ストリーミングクライアント(例えば、図3Bの画像描画システムなど)が、視聴者に対して、1つ以上の第1の時点において1つ以上の第1のディスプレイマッピング画像を描画する。1つ以上の第1のディスプレイマッピング画像は、映像ストリーミングサーバから受信された1つ以上の第1のフォービエイテッド画像および1つ以上の第1の画像メタデータセットから生成される。1つ以上の第1のフォービエイテッド画像および1つ以上の第1の画像メタデータセットは、映像ストリーミングサーバによって、1つ以上の第1の時点における視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される。
ブロック454において、映像ストリーミングクライアントは、視聴者が1つ以上の第1のディスプレイマッピング画像を視聴しているときに収集された視聴者の視聴方向データをリアルタイムに収集する。視聴方向データは、1つ以上の第1の時点の後の第2の時点における視聴者の第2の視聴方向を判定するために使用される。
ブロック456において、映像ストリーミングクライアントは、視聴方向データの少なくとも一部を映像ストリーミングサーバに送信し、映像ストリーミングサーバに、第2の時点における視聴者の第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成させる。第2のフォービエイテッド画像および第2の画像メタデータセットは、第2の時点において視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために使用される。第2のフォービエイテッド画像は、視聴者の第2の視聴方向をカバーする焦点視フォービエイテッド画像部分および焦点視画像部分の外側の周辺視フォービエイテッド画像部分を有する。第2の画像メタデータセットは、焦点視フォービエイテッド画像部分を第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成された焦点視ディスプレイマネジメント(DM)メタデータ部分を含む。第2の画像メタデータセットは、周辺視フォービエイテッド画像部分を第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成された周辺視DMメタデータ部分を含む。
ブロック458において、映像ストリーミングクライアントは、映像ストリーミングサーバから第2のフォービエイテッド画像および第2の画像メタデータセットを受信する。
ブロック460において、映像ストリーミングクライアントは、第2のフォービエイテッド画像から第2のディスプレイマッピング画像を生成する。
ブロック462において、映像ストリーミングクライアントは、第2の時点において、視聴者に対して、第2のディスプレイマッピング画像を描画する。
一実施形態において、映像ストリーミングクライアントは、視聴方向データに少なくとも部分的に基づいて、視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、フォービエイテッド画像における焦点視フォービエイテッド画像部分内の新しい明順応レベルに対応する完全な画像ディテールのストリーミングを順応時間が過ぎるまで遅延させる工程とを行うようにさらに構成される。
一実施形態において、順応時間は、実行時に自動的に判定される。
一実施形態において、映像ストリーミングクライアントは、フェーズド光変調を使用して、追加の光を第2のディスプレイマッピング画像の焦点視画像部分における1つ以上の特定の画素に集中させるようにさらに構成される。一実施形態において、追加の光は、第2のディスプレイマッピング画像における、焦点視画像部分内にない1つ以上の他の画素から光をそらしながら、第2のディスプレイマッピング画像の焦点視画像部分における1つ以上の特定の画素に集中させる。
一実施形態において、映像ストリーミングクライアントは、1つ以上の第1のディスプレイマッピング画像および第2のディスプレイマッピング画像が描画されるターゲットディスプレイに対応付けられた周囲明レベルをモニタリングする工程と、周囲明レベルを使用して、少なくとも1つのフォービエイテッド画像を、ターゲットディスプレイ上に描画される少なくとも1つのディスプレイ画像にマッピングするために使用される1つ以上の伝達関数に対して調節を行う工程とを行うようにさらに構成される。
一実施形態において、1つ以上の第1のディスプレイマッピング画像および第2のディスプレイマッピング画像は、グローバルディミング能力、ローカルディミング能力、またはローカウントディミング能力のうちの1つ以上を含むディミング能力を有するように構成されたターゲットディスプレイ上に描画される。
様々な例示的な実施形態において、上記の方法のいずれかまたは一部は、装置、システム、装置、または1つ以上の他のコンピューティングデバイスによって行われる。一実施形態において、1つ以上のプロセッサによって実行された際に本明細書に記載の方法を行うソフトウェア命令は、非一時的コンピュータ読み取り可能な格納媒体に格納される。
なお、別々の実施形態を本明細書において説明したが、本明細書に記載の実施形態および/または部分実施形態の任意の組み合わせがさらなる実施形態を形成し得る。
9.実装機構-ハードウェア概要
一実施形態によると、本明細書に記載の技術は、1つ以上の専用コンピューティングデバイスによって実装される。専用コンピューティングデバイスは、上記技術を行うようにハードワイヤード(hard-wired)されていてもよいし、または上記技術を行うように永続的にプログラムされた1つ以上の特定用途向け集積回路(ASIC)またはフィールド・プログラマブル・ゲート・配列(FPGA)などのデジタル電子デバイスを含んでもよいし、またはファームウェア、メモリ、他の記憶体、またはそれらの組み合わせにおけるプログラム命令にしたがって上記技術を行うようにプログラムされた1つ以上の汎用ハードウェアプロセッサを含んでもよい。また、そのような専用コンピューティングデバイスは、カスタムハードワイヤードロジック、ASIC、またはFPGAをカスタムプログラミングと組み合わせて上記技術を達成し得る。専用コンピューティングデバイスは、デスクトップコンピュータシステム、ポータブルコンピュータシステム、携帯デバイス、ネットワーキングデバイス、または上記技術を実装するようにハードワイヤードおよび/もしくはプログラムロジックが組み込まれた任意の他のデバイスであり得る。
例えば、図5は、本発明の一例示的な実施形態が実装され得るコンピュータシステム500を例示するブロック図である。コンピュータシステム500は、情報を送受信するためのバス502または他の通信機構と、バス502に接続された、情報を処理するためのハードウェアプロセッサ504とを含む。ハードウェアプロセッサ504は、例えば、汎用マイクロプロセッサであり得る。
また、コンピュータシステム500は、バス502に接続された、情報およびプロセッサ504によって実行される命令を記憶するためのランダムアクセスメモリ(RAM)または他のダイナミック記憶デバイスなどのメインメモリ506を含む。また、メインメモリ506は、プロセッサ504によって実行される命令の実行中の一時的な変数または他の中間情報を記憶するために使用され得る。そのような命令がプロセッサ504にとってアクセス可能な非一時的な記憶媒体に記憶されている場合、コンピュータシステム500は、命令において指定される動作を行うようにカスタマイズされた専用マシンである。
コンピュータシステム500は、バス502に接続された、静的情報およびプロセッサ504のための命令を記憶するための読み取り専用メモリ(ROM)508または他の静的記憶デバイスをさらに含む。
情報および命令を記憶するために、磁気ディスクまたは光学ディスク、ソリッドステートRAMなどの記憶デバイス510が提供され、バス502に接続される。
コンピュータシステム500は、情報をコンピュータユーザに対して表示するための液晶ディスプレイなどのディスプレイ512にバス502を介して接続され得る。プロセッサ504に対して情報およびコマンド選択を送受信するために、英数字キーおよび他のキーを含む入力デバイス514がバス502に接続される。他のタイプのユーザ入力デバイスは、プロセッサ504に対して方向情報およびコマンド選択を送受信するための、およびディスプレイ512上でのカーソル移動を制御するためのマウス、トラックボール、またはカーソル方向キーなどのカーソル制御516である。この入力デバイスは、典型的には、2つの軸(第1の軸(例えば、x)および第2の軸(例えば、y))における2自由度を有する。これにより、そのデバイスは、平面において位置を特定できる。
コンピュータシステム500は、ハードワイヤードロジック、1つ以上のASICまたはFPGA、ファームウェアおよび/またはプログラムロジックを使用して、上記技術を実装し得る。これらのロジックなどと組み合わせることによって、コンピュータシステム500は、専用マシンとされるか、またはそのようにプログラムされる。一実施形態によると、本明細書に記載される技術は、メインメモリ506に含まれる1つ以上の命令を含む1つ以上の命令シーケンスをプロセッサ504が実行することに応答して、コンピュータシステム500によって行われる。そのような命令は、記憶デバイス510などの他の記憶媒体からメインメモリ506に読み込まれてもよい。メインメモリ506に含まれる命令シーケンスを実行することによって、プロセッサ504は、本明細書に記載のプロセスステップを行う。別の実施形態において、ハードワイヤードな回路をソフトウェア命令の代わりに、またはそれに組み合わせて使用してもよい。
本明細書で使用する用語「記憶媒体」は、マシンを特定のやり方で動作させるデータおよび/または命令を記憶する任意の非一時的媒体を指す。そのような記憶媒体は、不揮発性媒体および/または揮発性媒体を含み得る。非揮発性媒体は、例えば、記憶デバイス510などの光学または磁気ディスクを含む。揮発性媒体は、メインメモリ506などのダイナミックメモリを含む。記憶媒体の一般的な形態は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、ソリッドステートドライブ、磁気テープ、または任意の他の磁気データ記憶媒体、CD-ROM、任意の他の光学データ記憶媒体、穴のパターンを有する任意の物理媒体、RAM、PROM、およびEPROM、FLASH-EPROM、NVRAM、任意の他のメモリチップまたはカートリッジを含む。
記憶媒体は、伝送媒体と異なるが、それと併せて使用され得る。伝送媒体は、情報を記憶媒体間で転送することに関与する。例えば、伝送媒体は、同軸ケーブル、銅ワイヤ、および光ファイバを含み、バス502を含むワイヤを含む。また、伝送媒体は、電波データ通信および赤外データ通信中に生成される音波または光波などの音波または光波の形態をとり得る。
様々な形態の媒体が1つ以上の命令を含む1つ以上の命令シーケンスを実行のためのプロセッサ504に搬送することに関与し得る。例えば、命令は、最初は遠隔のコンピュータの磁気ディスクまたはソリッドステートドライブ上に保存され得る。遠隔コンピュータは、それ自体のダイナミックメモリに命令をロードしたり、モデムを使用して電話回線を介して命令を送信したりし得る。コンピュータシステム500に対してローカルなモデムは、電話回線上でデータを受信し、赤外送信機を使用してデータを赤外信号に変換し得る。赤外検出器が赤外信号において搬送されるデータを受信し得る。そして、適切な回路がデータをバス502に乗せ得る。バス502は、データをメインメモリ506に搬送する。プロセッサ504は、メインメモリ506から命令を取り込んで実行する。メインメモリ506によって受信された命令は、プロセッサ504によって実行される前または後のいずれかに、必要に応じて記憶デバイス510上に記憶され得る。
また、コンピュータシステム500は、バス502に接続された通信インターフェース518を含む。通信インターフェース518は、ローカルネットワーク522に接続されたネットワークリンク520に接続する双方向データ通信を提供する。例えば、通信インターフェース518は、サービス総合デジタル網(ISDN)カード、ケーブルモデム、衛星モデム、またはデータ通信接続を対応する種類の電話回線に与えるためのモデムであり得る。別の例として、通信インターフェース518は、データ通信接続を互換性のあるLANに与えるためのローカルエリアネットワーク(LAN)カードであり得る。また、無線リンクが実装され得る。任意のそのような実装において、通信インターフェース518は、様々な種類の情報を表すデジタルデータストリームを搬送する電気、電磁または光学信号を送信および受信する。
ネットワークリンク520は、典型的には、データ通信を1つ以上のネットワークを介して他のデータデバイスに与える。例えば、ネットワークリンク520は、接続を、ローカルネットワーク522を介して、ホストコンピュータ524に、またはインターネットサービスプロバイダ(ISP)526によって操作されるデータ設備に与え得る。次いで、ISP526は、データ通信サービスを、現在一般的に「インターネット」と呼ばれるワールドワイドパケットデータ通信ネットワーク528を介して提供する。ローカルネットワーク522およびインターネット528の両方は、デジタルデータストリームを搬送する電気、電磁または光学信号を使用する。コンピュータシステム500へおよびコンピュータシステム500からデジタルデータを搬送する、様々なネットワークを介する信号ならびにネットワークリンク520上のおよび通信インターフェース518を介した信号は、伝送媒体の形態例である。
コンピュータシステム500は、ネットワーク、ネットワークリンク520、および通信インターフェース518を介して、メッセージを送信し、プログラムコードなどのデータを受信し得る。インターネット例において、サーバ530は、アプリケーションプログラムに対してリクエストされたコードをインターネット528、ISP526、ローカルネットワーク522、および通信インターフェース518を介して送信し得る。
受信されたコードは、受信されるとプロセッサ504によって実行され得るか、および/または後で実行するために、記憶デバイス510または他の不揮発性記憶体に記憶され得る。
10.均等物、拡張物、代替物、その他
この明細書中において、実装毎に異なり得る多数の具体的な詳細に言及しながら本発明の実施形態を説明した。従って、本発明が如何なるものかおよび出願人は本発明が如何なるものであると意図しているかについての唯一且つ排他的な指標は、後の訂正を含む、これら請求項が生じる具体的な形態の、本願から生じる1組の請求項である。当該請求項に含まれる用語に対して本明細書中に明示したあらゆる定義が、請求項内で使用される当該用語の意味を判定するものとする。よって、請求項に明示的に記載されていない限定事項、構成要素、特性、特徴、利点または属性は、いかなる形であれ請求の範囲を限定するものではない。従って、本明細書および図面は、限定的ではなく、例示的であると認識されるべきものである。
列挙実施形態例
本発明は、本明細書に記載のいずれの形態においても実施され得る。そのような形態は、本発明のいくつかの部分の構造、特徴および機能を説明する、以下の列挙実施形態例(enumerated example embodiment:EEE)を含むが、それらに限定されない。
EEE1.
映像をストリーミングするための方法であって、
映像ストリーミングクライアントに、1つ以上の第1のフォービエイテッド画像を1つ以上の第1の画像メタデータセットとともにストリーミングする工程であって、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点において視聴者に対して描画するための1つ以上の第1のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される、工程と、
前記視聴者が前記1つ以上の第1のディスプレイマッピング画像が視聴しているときにリアルタイムに収集された前記視聴者の視聴方向データの少なくとも一部を受信する工程であって、前記視聴方向データは、前記1つ以上の第1の時点の後の第2の時点における前記視聴者の第2の視聴方向を判定するために使用される、工程と、
前記第2の時点における前記視聴者の前記第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成する工程であって、前記第2のフォービエイテッド画像および前記第2の画像メタデータセットは、前記第2の時点において前記視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記第2のフォービエイテッド画像は、前記視聴者の前記第2の視聴方向をカバーする焦点視フォービエイテッド画像部分および前記焦点視画像部分の外側の周辺視フォービエイテッド画像部分を有し、前記第2の画像メタデータセットは、前記焦点視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成される焦点視ディスプレイマネジメント(DM)メタデータ部分を含み、前記第2の画像メタデータセットは、前記周辺視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成される周辺視DMメタデータ部分を含む、工程と、
前記第2のフォービエイテッド画像および前記第2の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
を包含する、方法。

EEE2.
第3のHDRソース画像における第3の焦点視画像部分を指定するユーザ入力を受信する工程であって、前記第3のHDRソース画像は、第3のフォービエイテッド画像を生成するために使用される、工程と、
前記第3のHDRソース画像において前記ユーザ入力に基づいて指定された前記第3の焦点視画像部分から第3の焦点視フォービエイテッド画像部分を生成する工程と、
前記第3の焦点視フォービエイテッド画像部分を、第3の時点において描画するための第3のディスプレイマッピング画像における第3の焦点視ディスプレイマッピング画像部分に改変するために、前記映像ストリーミングクライアントによって使用される第3の焦点視DMメタデータ部分を生成する工程と、
前記第3のフォービエイテッド画像、および前記第3の焦点視DMメタデータを含む第3の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
をさらに包含する、EEE1の方法。

EEE3.
前記視聴方向データに少なくとも部分的に基づいて、前記視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、
フォービエイテッド画像における焦点視フォービエイテッド画像部分における、前記新しい明順応レベルに対応する完全な画像ディテールのストリーミングを前記順応時間が過ぎるまで遅延する工程と、
をさらに包含する、EEE1または2の方法。

EEE4.
前記順応時間は、前記映像ストリーミングクライアントに送信される前記フォービエイテッド画像のうちの少なくとも1つに伴う画像メタデータセットにおいて特定される、
先行するEEEのいずれかの方法。

EEE5.
前記焦点視DMメタデータは、前記焦点視フォービエイテッド画像部分において表されるすべての画素中の焦点視特定最大ルマ値を特定し、当該特定は、前記焦点視フォービエイテッド画像部分におけるどの画素が前記焦点視特定最大ルマ値に対応づけられるかを指定することなく行われ、前記周辺視DMメタデータは、前記周辺視フォービエイテッド画像部分において表されるすべての画素中の周辺視特定最大ルマ値を特定し、当該特定は、前記周辺視画像部分におけるどの画素が前記周辺視特定最大ルマ値に対応づけられるかを指定せずに行われ、前記焦点視特定最大ルマ値は、前記周辺視特定最大ルマ値と異なる、
先行するEEEのいずれかの方法。

EEE6.
前記焦点視DMメタデータ部分は、リファレンス伝達関数を、前記焦点視ディスプレイマッピング画像部分の生成に適用される焦点視特定伝達関数に改変するために使用され、前記周辺視DMメタデータは、同じリファレンス伝達関数を、前記周辺視ディスプレイマッピング画像部分の生成に適用される周辺視特定伝達関数に改変するために使用され、前記焦点視特定伝達関数は、前記周辺視特定伝達関数と異なるように、少なくとも1つの入力コードワードをマッピングする、
先行するEEEのいずれかの方法。

EEE7.
前記リファレンス伝達関数において表されるグレースケールレベルは、前記第2のHDRソース画像における色空間のルマチャネルにおいて符号化可能な最も精細な認識可能画像ディテールに対応する、
EEE6の方法。

EEE8.
前記第2の画像メタデータセットは、同じリファレンス伝達関数を、前記第2のディスプレイマッピング画像における前記焦点視ディスプレイマッピング画像部分および前記周辺視ディスプレイマッピング画像部分以外の他の画像部分の生成に適用される別の伝達関数に改変するために使用される別のDMメタデータをさらに含み、前記別の伝達関数は、前記焦点視特定伝達関数および前記周辺視特定伝達関数のどちらとも異なる、
EEE6または7の方法。

EEE9.
リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像において符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
EEE6~8のいずれかの方法。

EEE10.
リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像のビューポートにおいて符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
EEE6~9のいずれかの方法。

EEE11.
前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同等であるかどうかを判定する工程と、
前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同等であると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分において符号化された最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
をさらに包含する、先行するEEEのいずれかの方法。

EEE12.
前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同等であるかどうかを判定する工程と、
前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同等であると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分における前記視聴者の予測された明順応レベルに対応する特定の明レベル近傍の明レベルを有する最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
をさらに包含する、先行するEEEのいずれかの方法。

EEE13.
前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の前記第1の画像部分において符号化された1つ以上のルマ値をクリッピングする工程
をさらに包含する、EEE12の方法。

EEE14.
前記1つ以上の第1のディスプレイマッピング画像のうちの少なくとも1つの第1のディスプレイマッピング画像の焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するソースゾーンを表し、前記第2のディスプレイマッピング画像の前記焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するターゲットゾーンを表す、
先行するEEEのいずれかの方法。

EEE15.
前記第2のHDRソース画像は、没入型画像、パノラマ画像、拡張現実画像、仮想現実画像、またはリモートプレゼンス画像のうちの1つを表す、
先行するEEEのいずれかの方法。

EEE16.
前記焦点視DMメタデータ部分は、前記焦点視フォービエイテッド画像部分における、前記視聴者の予測された明順応レベル、焦点視特定最大ルマ値、焦点視特定最小ルマ値、焦点視特定平均ルマ値、または焦点視特定白色点のうちの1つ以上を特定する、
先行するEEEのいずれかの方法。

EEE17.
前記周辺視DMメタデータ部分は、前記周辺視フォービエイテッド画像部分における、周辺視特定最大ルマ値、周辺視特定最小ルマ値、周辺視特定平均ルマ値、または周辺視特定白色点のうちの1つ以上を特定する、
先行するEEEのいずれかの方法。

EEE18.
前記1つ以上の第1の時点および前記第2の時点は、共になって、ある時間間隔をカバーする連続した時点を表し、前記視聴者の焦点視における輝度レベルは、比較的明るい輝度レベルから変化し、前記第2のHDRソース画像における第1の画像部分は、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分に対応し、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分において表される暗いレベルの総数は、前記第2のHDRソース画像における前記第1の画像部分において表されるソース暗いレベルの総数に比べて低減される、
先行するEEEのいずれかの方法。

EEE19.
前記1つ以上の第1の時点および前記第2の時点は、共になって、ある時間間隔をカバーする連続した時点を表し、前記視聴者の焦点視における輝度レベルは、比較的明るい輝度レベルから変化し、前記第2のHDRソース画像における第1の画像部分は、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分に対応し、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分において表される明るいレベルの総数は、前記第2のHDRソース画像における前記第1の画像部分において表されるソースの明るいレベルの総数に比べて低減される、
先行するEEEのいずれかの方法。

EEE20.
時間とともに変化する前記視聴者の明順応レベルを判定する工程と、
時間とともに変化する前記視聴者の明順応レベルを使用して、前記第2の時点に対する前記視聴者の明順応レベルを予測する工程と、
前記第2の時点に対して予測された前記視聴者の明順応レベルを用いて、前記焦点視DMメタデータ部分を生成する工程と、
をさらに包含する、先行するEEEのいずれかの方法。

EEE21.
前記視聴者の明順応レベルは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の予測された明順応レベルを含み、前記1つ以上の第1の予測された明順応レベルは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向および前記1つ以上の第1のディスプレイマッピング画像における1つ以上の第1の焦点視画像部分に少なくとも部分的に基づいて判定される、
EEE20の方法。

EEE22.
前記第2のディスプレイマッピング画像における前記第2の焦点視画像部分は、前記視聴者の中心窩視を、2~4度、4~6度、または6~8度の最大線角度値までカバーする、
先行するEEEのいずれかの方法。

EEE23.
映像をストリーミングするための方法であって、
視聴者に対して、1つ以上の第1の時点において1つ以上の第1のディスプレイマッピング画像を描画する工程であって、前記1つ以上の第1のディスプレイマッピング画像は、映像ストリーミングサーバから受信された1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットから生成され、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、前記映像ストリーミングサーバによって、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される、工程と、
前記視聴者が前記1つ以上の第1のディスプレイマッピング画像を視聴しているときに収集された前記視聴者の視聴方向データを、リアルタイムに、収集する工程であって、前記視聴方向データは、前記1つ以上の第1の時点の後の第2の時点における前記視聴者の第2の視聴方向を判定するために使用される、工程と、
前記視聴方向データの少なくとも一部を前記映像ストリーミングサーバに送信し、前記映像ストリーミングサーバに、前記第2の時点における前記視聴者の前記第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成させる工程であって、前記第2のフォービエイテッド画像および前記第2の画像メタデータセットは、前記第2の時点において前記視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために使用され、前記第2のフォービエイテッド画像は、前記視聴者の前記第2の視聴方向をカバーする焦点視フォービエイテッド画像部分および前記焦点視画像部分の外側の周辺視フォービエイテッド画像部分を有し、前記第2の画像メタデータセットは、前記焦点視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成される焦点視ディスプレイマネジメント(DM)メタデータ部分を含み、前記第2の画像メタデータセットは、前記周辺視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成される周辺視DMメタデータ部分を含む、工程と、
前記映像ストリーミングサーバから前記第2のフォービエイテッド画像および前記第2の画像メタデータセットを受信する工程と、
前記第2のフォービエイテッド画像から前記第2のディスプレイマッピング画像を生成する工程と、
前記第2の時点において、前記視聴者に対して、前記第2のディスプレイマッピング画像を描画する工程と、
を包含する、方法。

EEE24.
前記視聴方向データに少なくとも部分的に基づいて、前記視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、
フォービエイテッド画像における焦点視フォービエイテッド画像部分における、前記新しい明順応レベルに対応する完全な画像ディテールのストリーミングを前記順応時間が過ぎるまで遅延する工程と、
をさらに包含する、EEE23の方法。

EEE25.
前記順応時間は、実行時に自動的に判定される、
EEE24の方法。

EEE26.
フェーズド光変調を使用して、追加の光を前記第2のディスプレイマッピング画像の前記焦点視画像部分における1つ以上の特定の画素に集中させる工程
をさらに包含する、EEE23~25のいずれかの方法。

EEE27.
前記追加の光は、前記第2のディスプレイマッピング画像における、前記焦点視画像部分内にない1つ以上の他の画素から光をそらしながら、前記第2のディスプレイマッピング画像の前記焦点視画像部分における前記1つ以上の特定の画素に集中させる、
EEE26の方法。

EEE28.
前記1つ以上の第1のディスプレイマッピング画像および前記第2のディスプレイマッピング画像が描画されるターゲットディスプレイに対応付けられた周囲明レベルをモニタリングする工程と、
前記周囲明レベルを使用して、少なくとも1つのフォービエイテッド画像を、前記ターゲットディスプレイ上に描画される少なくとも1つのディスプレイ画像にマッピングするために使用される1つ以上の伝達関数に対して調節を行う工程と、
をさらに包含する、EEE23から27のいずれかの方法。

EEE29.
前記1つ以上の第1のディスプレイマッピング画像および前記第2のディスプレイマッピング画像は、グローバルディミング能力、ローカルディミング能力、またはローカウントディミング能力のうちの1つ以上を含むディミング能力を有するように構成されたターゲットディスプレイ上に描画される、
EEE23~28のいずれかの方法。

EEE30.
EEE1~29に記載の方法のいずれかを行う装置。

EEE31.
EEE1~29に記載の方法のいずれかを行うシステム。

EEE32.
1つ以上のプロセッサによって実行される際に、EEE1~29のいずれかに記載の方法を行わせるソフトウェア命令を格納する非一時的コンピュータ読み取り可能な記憶媒体。

EEE33.
1つ以上のプロセッサおよび1つ以上の記憶媒体を備えるコンピューティングデバイスであって、前記1つ以上の格納媒体は、1つ以上のプロセッサによって実行される際に、EEE1~29のいずれかに記載の方法を行わせる1組のソフトウェア命令を格納する、コンピューティングデバイス。

Claims (19)

  1. 映像をストリーミングするための方法であって、
    映像ストリーミングクライアントに、1つ以上の第1のフォービエイテッド画像を1つ以上の第1の画像メタデータセットとともにストリーミングする工程であって、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点において視聴者に対して描画するための1つ以上の第1のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される、工程と、
    前記視聴者が前記1つ以上の第1のディスプレイマッピング画像視聴しているときにリアルタイムに収集された前記視聴者の視聴方向データの少なくとも一部を受信する工程であって、前記視聴方向データは、前記1つ以上の第1の時点の後の第2の時点における前記視聴者の第2の視聴方向を判定するために使用される、工程と、
    前記第2の時点における前記視聴者の前記第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成する工程であって、前記第2のフォービエイテッド画像および前記第2の画像メタデータセットは、前記第2の時点において前記視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記第2のフォービエイテッド画像は、前記視聴者の前記第2の視聴方向をカバーする焦点視フォービエイテッド画像部分および前記焦点視フォービエイテッド画像部分の外側の周辺視フォービエイテッド画像部分を有し、前記第2の画像メタデータセットは、前記焦点視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成される焦点視ディスプレイマネジメント(DM)メタデータ部分を含み、前記第2の画像メタデータセットは、前記周辺視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成される周辺視DMメタデータ部分を含み、前記焦点視DMメタデータ部分は、前記第2の時点に対する前記視聴者の予測された明順応レベルを用いて生成される、工程と、
    前記第2のフォービエイテッド画像および前記第2の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
    を包含する、方法。
  2. 第3のHDRソース画像における第3の焦点視画像部分を指定するユーザ入力を受信する工程であって、前記第3のHDRソース画像は、第3のフォービエイテッド画像を生成するために使用される、工程と、
    前記第3のHDRソース画像において前記ユーザ入力に基づいて指定された前記第3の焦点視画像部分から第3の焦点視フォービエイテッド画像部分を生成する工程と、
    前記第3の焦点視フォービエイテッド画像部分を、第3の時点において描画するための第3のディスプレイマッピング画像における第3の焦点視ディスプレイマッピング画像部分に改変するために、前記映像ストリーミングクライアントによって使用される第3の焦点視DMメタデータ部分を生成する工程と、
    前記第3のフォービエイテッド画像、および前記第3の焦点視DMメタデータを含む第3の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
    をさらに包含する、請求項1に記載の方法。
  3. 前記視聴方向データに少なくとも部分的に基づいて、前記視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、
    フォービエイテッド画像における焦点視フォービエイテッド画像部分における、前記新しい明順応レベルに対応する完全な画像ディテールのストリーミングを前記順応時間が過ぎるまで遅延する工程と、
    をさらに包含する、請求項1または2に記載の方法。
  4. 前記順応時間は、前記映像ストリーミングクライアントに送信される前記フォービエイテッド画像のうちの少なくとも1つに伴う画像メタデータセットにおいて特定される、
    請求項3に記載の方法。
  5. 前記第2の時点に対する前記視聴者の明順応レベルは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の予測された明順応レベルを使用して予測され、前記1つ以上の第1の予測された明順応レベルは、前記1つ以上の第1の時点における前記視聴者の前記1つ以上の第1の視聴方向および前記1つ以上の第1のディスプレイマッピング画像における1つ以上の第1の焦点視画像部分に少なくとも部分的に基づいて判定される、
    請求項1~4のいずれか1項に記載の方法。
  6. 前記焦点視DMメタデータ部分は、リファレンス伝達関数を、前記焦点視ディスプレイマッピング画像部分の生成に適用される焦点視特定伝達関数に改変するために使用され、前記周辺視DMメタデータは、同じリファレンス伝達関数を、前記周辺視ディスプレイマッピング画像部分の生成に適用される周辺視特定伝達関数に改変するために使用され、前記焦点視特定伝達関数は、前記周辺視特定伝達関数と異なる、
    請求項1~5のいずれか1項に記載の方法。
  7. 前記リファレンス伝達関数において表されるグレースケールレベルは、前記第2のHDRソース画像における色空間のルマチャネルにおいて符号化可能な最も精細な認識可能画像ディテールに対応する、
    請求項6に記載の方法。
  8. 前記第2の画像メタデータセットは、同じリファレンス伝達関数を、前記第2のディスプレイマッピング画像における前記焦点視ディスプレイマッピング画像部分および前記周辺視ディスプレイマッピング画像部分以外の他の画像部分の生成に適用される別の伝達関数に改変するために使用される別のDMメタデータをさらに含み、前記別の伝達関数は、前記焦点視特定伝達関数および前記周辺視特定伝達関数のどちらとも異なる、
    請求項6または7に記載の方法。
  9. リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像において符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
    請求項6~8のいずれか1項に記載の方法。
  10. リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像のビューポートにおいて符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
    請求項6~9のいずれか1項に記載の方法。
  11. 前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
    前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同じオーダーの大きさであるかどうかを判定する工程と、
    前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同じオーダー
    の大きさであると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分において符号化された最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
    をさらに包含する、請求項1~10のいずれか1項に記載の方法。
  12. 前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
    前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同じオーダーの大きさであるかどうかを判定する工程と、
    前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同じオーダーの大きさであると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分における前記視聴者の予測された明順応レベルに対応する特定の明レベル近傍の明レベルを有する最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
    をさらに包含する、請求項1~11のいずれか1項に記載の方法。
  13. 前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の前記第1の画像部分において符号化された1つ以上のルマ値をクリッピングする工程
    をさらに包含する、請求項12に記載の方法。
  14. 前記1つ以上の第1のディスプレイマッピング画像のうちの少なくとも1つの第1のディスプレイマッピング画像の焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するソースゾーンを表し、前記第2のディスプレイマッピング画像の前記焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するターゲットゾーンを表す、
    請求項1~13のいずれか1項に方法。
  15. 前記第2のHDRソース画像は、没入型画像、パノラマ画像、拡張現実画像、仮想現実画像、またはリモートプレゼンス画像のうちの1つを表す、
    請求項1~14のいずれか1項に方法。
  16. 明順応曲線を使用して、前記視聴者の明順応レベルを予測する工程
    を包含する、請求項1~15のいずれか1項に方法。
  17. 前記明順応曲線は、前記視聴者が予め視聴していたソースゾーンの明レベル、前記視聴者が遷移していた中間ゾーン、前記視聴者が現在視聴しているか、または前記第2の時点において現在視聴していると予測されるターゲットゾーンの明レベル、前記視聴者の焦点視が前記ソースゾーン内に存在する期間の長さ、および前記視聴者の焦点視が前記ターゲットゾーン内に存在する期間の長さのうちのいずれかに依存する、
    請求項16に記載の方法。
  18. 前記明順応曲線は、異なる画像コンテクストのシーンに対して異なるように前記視聴者の明順応レベルを予測する、
    請求項16または17に記載の方法。
  19. 前記明順応曲線は、アーティストの意図および/またはユーザの入力に基づく、
    請求項16~18のいずれか1項に記載の方法。
JP2021502514A 2018-07-17 2019-07-15 フォービエイションおよびhdr Active JP7443325B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862699583P 2018-07-17 2018-07-17
US62/699,583 2018-07-17
EP18194859.7 2018-09-17
EP18194859 2018-09-17
PCT/US2019/041879 WO2020018458A1 (en) 2018-07-17 2019-07-15 Foviation and hdr

Publications (2)

Publication Number Publication Date
JP2021530918A JP2021530918A (ja) 2021-11-11
JP7443325B2 true JP7443325B2 (ja) 2024-03-05

Family

ID=67403009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502514A Active JP7443325B2 (ja) 2018-07-17 2019-07-15 フォービエイションおよびhdr

Country Status (5)

Country Link
US (1) US11330309B2 (ja)
EP (1) EP3824634A1 (ja)
JP (1) JP7443325B2 (ja)
CN (1) CN112470484B (ja)
WO (1) WO2020018458A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022015319A1 (en) * 2020-07-17 2022-01-20 Hewlett-Packard Development Company, L.P. Head-mountable display (hmd) image and foveal region brightness computation
US11368652B1 (en) 2020-10-29 2022-06-21 Amazon Technologies, Inc. Video frame replacement based on auxiliary data
US11404087B1 (en) 2021-03-08 2022-08-02 Amazon Technologies, Inc. Facial feature location-based audio frame replacement

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520687A (ja) 2010-02-19 2013-06-06 トムソン ライセンシング 高ダイナミックレンジのビデオ・トーン・マッピングのためのパラメータ補間
JP2016109828A (ja) 2014-12-04 2016-06-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016165105A (ja) 2015-03-05 2016-09-08 ノキア テクノロジーズ オーユー 映像ストリーミング方法
WO2017053350A1 (en) 2015-09-21 2017-03-30 Dolby Laboratories Licensing Corporation Techniques for operating a display in the perceptual code space
US20170272701A1 (en) 2016-03-18 2017-09-21 Motorola Solutions, Inc. Visual perception determination system and method
JP2018032921A (ja) 2016-08-23 2018-03-01 沖電気工業株式会社 画像処理システム及び画像復号装置
US20180176535A1 (en) 2016-12-19 2018-06-21 Dolby Laboratories Licensing Corporation View Direction Based Multilevel Low Bandwidth Techniques to Support Individual User Experiences of Omnidirectional Video

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7850306B2 (en) * 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
CN101963751B (zh) * 2010-08-19 2011-11-30 西北工业大学 高分辨率实时全景高动态范围图像获取装置及方法
US9898081B2 (en) 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US9124808B2 (en) 2013-03-04 2015-09-01 Raytheon Company Foveated imaging system and method
CN111526350B (zh) * 2014-02-25 2022-04-05 苹果公司 自适应视频处理
US10043282B2 (en) 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
EP3304881B1 (en) * 2015-06-05 2022-08-10 Apple Inc. Rendering and displaying high dynamic range content
JP2018525905A (ja) * 2015-07-22 2018-09-06 アリス エンタープライジズ エルエルシーArris Enterprises Llc 高ダイナミックレンジおよび広色域シーケンスを符号化するシステム
CN116366906A (zh) * 2015-08-07 2023-06-30 苹果公司 用于显示图像流的系统和方法
US10157448B2 (en) 2016-02-12 2018-12-18 Qualcomm Incorporated Foveated video rendering
US10438400B2 (en) 2016-03-08 2019-10-08 Nvidia Corporation Perceptually-based foveated rendering using a contrast-enhancing filter
US10330935B2 (en) 2016-09-22 2019-06-25 Apple Inc. Predictive, foveated virtual reality system
US10623634B2 (en) * 2017-04-17 2020-04-14 Intel Corporation Systems and methods for 360 video capture and display based on eye tracking including gaze based warnings and eye accommodation matching
CN106998586B (zh) * 2017-06-01 2019-08-02 电子科技大学 一种高动态环境中无线通信系统的同步捕获方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520687A (ja) 2010-02-19 2013-06-06 トムソン ライセンシング 高ダイナミックレンジのビデオ・トーン・マッピングのためのパラメータ補間
JP2016109828A (ja) 2014-12-04 2016-06-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016165105A (ja) 2015-03-05 2016-09-08 ノキア テクノロジーズ オーユー 映像ストリーミング方法
WO2017053350A1 (en) 2015-09-21 2017-03-30 Dolby Laboratories Licensing Corporation Techniques for operating a display in the perceptual code space
US20170272701A1 (en) 2016-03-18 2017-09-21 Motorola Solutions, Inc. Visual perception determination system and method
JP2018032921A (ja) 2016-08-23 2018-03-01 沖電気工業株式会社 画像処理システム及び画像復号装置
US20180176535A1 (en) 2016-12-19 2018-06-21 Dolby Laboratories Licensing Corporation View Direction Based Multilevel Low Bandwidth Techniques to Support Individual User Experiences of Omnidirectional Video

Also Published As

Publication number Publication date
US11330309B2 (en) 2022-05-10
EP3824634A1 (en) 2021-05-26
CN112470484A (zh) 2021-03-09
WO2020018458A1 (en) 2020-01-23
JP2021530918A (ja) 2021-11-11
US20210329316A1 (en) 2021-10-21
CN112470484B (zh) 2023-09-08

Similar Documents

Publication Publication Date Title
US11290699B2 (en) View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
US11109011B2 (en) Virtual reality with interactive streaming video and likelihood-based foveation
JP7029562B2 (ja) コンテンツを提供及び表示するための装置及び方法
CN112020858B (zh) 利用感兴趣区域的确定的异步时间和空间扭曲
KR102618255B1 (ko) 주변 이미지 영역에서의 실시간 압축을 통한 이미지 디스플레이의 제어
CN113301439B (zh) 用于处理视频图像的装置
CN111052750B (zh) 用于点云流传输的方法和装置
US10769754B2 (en) Virtual reality cinema-immersive movie watching for headmounted displays
US10706631B2 (en) Image generation based on brain activity monitoring
JP7443325B2 (ja) フォービエイションおよびhdr
US11962819B2 (en) Foviation and HDR
WO2021199205A1 (ja) 画像データ転送装置、画像表示システム、および画像データ転送方法
WO2022259632A1 (ja) 情報処理装置及び情報処理方法
EP4013059A1 (en) Changing video tracks in immersive videos
CN118648284A (zh) 具有多个视角的体积沉浸式体验

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7443325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150