JP7443325B2 - フォービエイションおよびhdr - Google Patents
フォービエイションおよびhdr Download PDFInfo
- Publication number
- JP7443325B2 JP7443325B2 JP2021502514A JP2021502514A JP7443325B2 JP 7443325 B2 JP7443325 B2 JP 7443325B2 JP 2021502514 A JP2021502514 A JP 2021502514A JP 2021502514 A JP2021502514 A JP 2021502514A JP 7443325 B2 JP7443325 B2 JP 7443325B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewer
- foveated
- focal
- vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 claims description 182
- 230000004438 eyesight Effects 0.000 claims description 168
- 238000000034 method Methods 0.000 claims description 113
- 230000005043 peripheral vision Effects 0.000 claims description 104
- 238000012546 transfer Methods 0.000 claims description 50
- 230000000007 visual effect Effects 0.000 claims description 43
- 241000023320 Luma <angiosperm> Species 0.000 claims description 42
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 42
- 238000009877 rendering Methods 0.000 claims description 38
- 230000006978 adaptation Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 11
- 230000003190 augmentative effect Effects 0.000 claims description 8
- 230000004310 photopic vision Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 35
- 238000003860 storage Methods 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 20
- 230000002093 peripheral effect Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 17
- 238000011144 upstream manufacturing Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 239000000872 buffer Substances 0.000 description 13
- 238000007726 management method Methods 0.000 description 11
- 238000013139 quantization Methods 0.000 description 10
- 230000002829 reductive effect Effects 0.000 description 9
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 241001270131 Agaricus moelleri Species 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002207 retinal effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 235000008694 Humulus lupulus Nutrition 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000004434 saccadic eye movement Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000003986 cell retinal photoreceptor Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004927 clay Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004301 light adaptation Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000004469 smooth pursuit movement Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234345—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/654—Transmission by server directed to the client
- H04N21/6547—Transmission by server directed to the client comprising parameters, e.g. for client setup
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本願は、2018年7月17日に出願された米国仮特許出願第62/699,583号および2018年9月17日に出願された欧州特許出願第18194859.7号に基づく優先権を主張するものであり、両出願の開示内容を全て本願に援用する。
本発明は、一般に、画像符号化および描画(rendering)に関し、特に、フォービエイション(foviation)およびハイダイナミックレンジ(HDR)に関連する画像符号化に関する。
拡張現実、仮想現実、リモートプレゼンス(remote presence)アプリケーション、没入型(immersive)映像アプリケーションなどの映像関連アプリケーションにおいて、高品質でシームレスなユーザ使用感(experience)をサポートするために、大量の映像データがクライアントデバイスにリアルタイムに送信され得る。映像データの圧縮・復元に必要な帯域量やコンピューティングパワーを考慮すると、大量の映像データを多種類のクライアントデバイスおよび/またはディスプレイデバイスにストリーミングすることは、多くの既存のネットワークインフラストラクチャにおいて困難であり、非現実的でさえあり得る。
本発明を添付の図面に、限定することなく、例示する。図において、同様の参照符号は、同様の要素を示す。
本明細書において、フォービエイション(foviation)およびHDRに関する例示的な実施形態を説明する。以下の説明において、便宜上、本発明を完全に理解できるように、多数の詳細事項を説明する。ただし、これらの詳細事項が無くても本発明が実施可能であることは明白であろう。他方、本発明の説明を不必要に煩雑にしたり、不明瞭にしたり、難読化したりしないように、周知の構造およびデバイスの細かな詳細までは説明しない。
1.概要
2.人間の視野
3.視聴方向のトラッキング
4.フォービエイテッド画像(foviated image)
5.明順応レベル
6.空間微分ディスプレイマッピング
7.映像ストリーミングサーバおよび映像ストリーミングクライアントの例
8.処理フローの例
9.実装機構-ハードウェアの概要
10.均等物、拡張、代替およびその他
この概要は、本発明の例示的な実施形態のいくつかの局面の基本的な説明を提示する。この概要は、例示的な実施形態の局面を広範囲にあるいは網羅的に要約するものではないことに留意されたい。さらに、この概要は、例示的な実施形態の特に著しい局面や要素を指定するものでは一切なく、特に例示的な実施形態の範囲を線引きしたり、一般に本発明の範囲を線引きしたりするものでも一切ないことに留意されたい。この概要は、例示的な実施形態に関するいくつかの概念を凝縮・簡略化して提示するだけであり、以下の例示的な実施形態のより詳細な説明の単なる概念的な序章として理解されたい。なお、本明細書において個別の実施形態を説明するが、本明細書に記載の実施形態および/または部分的な実施形態を組み合せてさらなる実施形態としてもよい。
本明細書に記載の技術は、(人間の)目および目が輝度、色、空間解像度などをどのように認識するかの知見に基づいて実装され得る。これらの技術は、個々の視聴者の特定の視覚特性またはユーザの集団の平均もしくは集団的視覚特性に基づいて適用され得る。
いくつかの実施形態において、目の視野の(例えば、相対的に小さい、などの)焦点視領域だけに、最も高いダイナミックレンジ、最も幅広い色域、最も高い(または、最もシャープな)空間解像度などを有する画素値を与える必要がある。いくつかの実施形態において、目の視野の焦点視領域は、目の中心窩視の全体(例えば、ちょうど全体、およそ全体、全体の95%以上、105%以上など)に対応し、最大で目の近周辺視の一部または全部に対応し得る。いくつかの実施形態において、目の視野の焦点視領域は、さらに余裕視野領域(safety vision field region)を含み得る。
図2Aは、HDR画像コンテンツを有し、視聴者の中心窩視をカバーする一例のフォービエイテッド画像200を示す。フォービエイテッド画像(200)は、対応するHDRソース画像における複数の対応する画像部分から改変された複数の画像部分を含む。フォービエイテッド画像における複数の画像部分にそれぞれ対する複数のディスプレイマネジメント(DM)メタデータ部分を含む画像メタデータが生成され得る。HDRソース画像を直接符号化する代わりに、フォービエイテッド画像(200)が映像信号に符号化される。映像信号は、1つ以上の上流デバイス(例えば、映像ストリーミングサーバなど)から下流の受信デバイス(例えば、映像ストリーミングクライアントなど)に送信され得る。
実世界において、太陽を見つめた後に、少しそれた暗エリアを見ると、視聴者は、大きな痛みを感じるであろう。視聴者が非常に強い明レベルから低い明レベルに順応するには時間がかかる(例えば、おそらくは長い時間、5秒、20秒など)。視聴者が低い明レベルに順応する前では、描画された画像の暗画像領域における画像ディテールは、描画された画像が表し得る完全な程度には認識されない。したがって、視聴者が低い明レベルに順応していなくて、画像ディテールを完全には認識しない場合は、描画された画像に画像ディテールを含ませることは、コンピューティング資源および/または帯域の無駄である。
図2Dは、視聴者の目が比較的高い明レベルに順応する動作状況における、HDRソース画像のHDRソースダイナミックレンジ230(例えば、全体にわたって均一、など)から、HDRソース画像から生成されたフォービエイテッド画像の焦点視画像部分の焦点視ダイナミックレンジ232、およびフォービエイテッド画像の周辺視画像部分の周辺視ダイナミックレンジ234へのディスプレイマッピングの例を示す。
図3Aは、フォービエイテッド画像プロセッサ302、フォービエイテッド画像生成器312などを備える一例の映像ストリーミングサーバ300を示す。いくつかの実施形態において、フォービエイテッド画像プロセッサ(302)は、HDRソース画像受信器306、データ格納器(repository)310などを備える。映像ストリーミングサーバ(300)の構成要素のうちのいくつかまたはすべては、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどにおいて、1つ以上のデバイス、モジュール、ユニットなどよって実装され得る。
図4Aは、本発明の例示的な実施形態にかかる処理フローの例を示す。いくつかの例示的な実施形態において、1つ以上のコンピューティングデバイスまたは構成要素がこの処理フローを行い得る。ブロック402において、フォービエイテッド画像プロセッサ(例えば、図3A~3Cの映像ストリーミングサーバまたは映像ストリーミングクライアントなど)は、1つ以上の第1のフォービエイテッド画像を1つ以上の第1の画像メタデータセットとともに映像ストリーミングクライアントにストリーミングする。1つ以上の第1のフォービエイテッド画像および1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点において視聴者に対して描画するための1つ以上の第1のディスプレイマッピング画像を生成するために、映像ストリーミングクライアントによって使用される。1つ以上の第1のフォービエイテッド画像および1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点における視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される。
一実施形態によると、本明細書に記載の技術は、1つ以上の専用コンピューティングデバイスによって実装される。専用コンピューティングデバイスは、上記技術を行うようにハードワイヤード(hard-wired)されていてもよいし、または上記技術を行うように永続的にプログラムされた1つ以上の特定用途向け集積回路(ASIC)またはフィールド・プログラマブル・ゲート・配列(FPGA)などのデジタル電子デバイスを含んでもよいし、またはファームウェア、メモリ、他の記憶体、またはそれらの組み合わせにおけるプログラム命令にしたがって上記技術を行うようにプログラムされた1つ以上の汎用ハードウェアプロセッサを含んでもよい。また、そのような専用コンピューティングデバイスは、カスタムハードワイヤードロジック、ASIC、またはFPGAをカスタムプログラミングと組み合わせて上記技術を達成し得る。専用コンピューティングデバイスは、デスクトップコンピュータシステム、ポータブルコンピュータシステム、携帯デバイス、ネットワーキングデバイス、または上記技術を実装するようにハードワイヤードおよび/もしくはプログラムロジックが組み込まれた任意の他のデバイスであり得る。
この明細書中において、実装毎に異なり得る多数の具体的な詳細に言及しながら本発明の実施形態を説明した。従って、本発明が如何なるものかおよび出願人は本発明が如何なるものであると意図しているかについての唯一且つ排他的な指標は、後の訂正を含む、これら請求項が生じる具体的な形態の、本願から生じる1組の請求項である。当該請求項に含まれる用語に対して本明細書中に明示したあらゆる定義が、請求項内で使用される当該用語の意味を判定するものとする。よって、請求項に明示的に記載されていない限定事項、構成要素、特性、特徴、利点または属性は、いかなる形であれ請求の範囲を限定するものではない。従って、本明細書および図面は、限定的ではなく、例示的であると認識されるべきものである。
本発明は、本明細書に記載のいずれの形態においても実施され得る。そのような形態は、本発明のいくつかの部分の構造、特徴および機能を説明する、以下の列挙実施形態例(enumerated example embodiment:EEE)を含むが、それらに限定されない。
EEE1.
映像をストリーミングするための方法であって、
映像ストリーミングクライアントに、1つ以上の第1のフォービエイテッド画像を1つ以上の第1の画像メタデータセットとともにストリーミングする工程であって、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点において視聴者に対して描画するための1つ以上の第1のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される、工程と、
前記視聴者が前記1つ以上の第1のディスプレイマッピング画像が視聴しているときにリアルタイムに収集された前記視聴者の視聴方向データの少なくとも一部を受信する工程であって、前記視聴方向データは、前記1つ以上の第1の時点の後の第2の時点における前記視聴者の第2の視聴方向を判定するために使用される、工程と、
前記第2の時点における前記視聴者の前記第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成する工程であって、前記第2のフォービエイテッド画像および前記第2の画像メタデータセットは、前記第2の時点において前記視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記第2のフォービエイテッド画像は、前記視聴者の前記第2の視聴方向をカバーする焦点視フォービエイテッド画像部分および前記焦点視画像部分の外側の周辺視フォービエイテッド画像部分を有し、前記第2の画像メタデータセットは、前記焦点視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成される焦点視ディスプレイマネジメント(DM)メタデータ部分を含み、前記第2の画像メタデータセットは、前記周辺視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成される周辺視DMメタデータ部分を含む、工程と、
前記第2のフォービエイテッド画像および前記第2の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
を包含する、方法。
EEE2.
第3のHDRソース画像における第3の焦点視画像部分を指定するユーザ入力を受信する工程であって、前記第3のHDRソース画像は、第3のフォービエイテッド画像を生成するために使用される、工程と、
前記第3のHDRソース画像において前記ユーザ入力に基づいて指定された前記第3の焦点視画像部分から第3の焦点視フォービエイテッド画像部分を生成する工程と、
前記第3の焦点視フォービエイテッド画像部分を、第3の時点において描画するための第3のディスプレイマッピング画像における第3の焦点視ディスプレイマッピング画像部分に改変するために、前記映像ストリーミングクライアントによって使用される第3の焦点視DMメタデータ部分を生成する工程と、
前記第3のフォービエイテッド画像、および前記第3の焦点視DMメタデータを含む第3の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
をさらに包含する、EEE1の方法。
EEE3.
前記視聴方向データに少なくとも部分的に基づいて、前記視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、
フォービエイテッド画像における焦点視フォービエイテッド画像部分における、前記新しい明順応レベルに対応する完全な画像ディテールのストリーミングを前記順応時間が過ぎるまで遅延する工程と、
をさらに包含する、EEE1または2の方法。
EEE4.
前記順応時間は、前記映像ストリーミングクライアントに送信される前記フォービエイテッド画像のうちの少なくとも1つに伴う画像メタデータセットにおいて特定される、
先行するEEEのいずれかの方法。
EEE5.
前記焦点視DMメタデータは、前記焦点視フォービエイテッド画像部分において表されるすべての画素中の焦点視特定最大ルマ値を特定し、当該特定は、前記焦点視フォービエイテッド画像部分におけるどの画素が前記焦点視特定最大ルマ値に対応づけられるかを指定することなく行われ、前記周辺視DMメタデータは、前記周辺視フォービエイテッド画像部分において表されるすべての画素中の周辺視特定最大ルマ値を特定し、当該特定は、前記周辺視画像部分におけるどの画素が前記周辺視特定最大ルマ値に対応づけられるかを指定せずに行われ、前記焦点視特定最大ルマ値は、前記周辺視特定最大ルマ値と異なる、
先行するEEEのいずれかの方法。
EEE6.
前記焦点視DMメタデータ部分は、リファレンス伝達関数を、前記焦点視ディスプレイマッピング画像部分の生成に適用される焦点視特定伝達関数に改変するために使用され、前記周辺視DMメタデータは、同じリファレンス伝達関数を、前記周辺視ディスプレイマッピング画像部分の生成に適用される周辺視特定伝達関数に改変するために使用され、前記焦点視特定伝達関数は、前記周辺視特定伝達関数と異なるように、少なくとも1つの入力コードワードをマッピングする、
先行するEEEのいずれかの方法。
EEE7.
前記リファレンス伝達関数において表されるグレースケールレベルは、前記第2のHDRソース画像における色空間のルマチャネルにおいて符号化可能な最も精細な認識可能画像ディテールに対応する、
EEE6の方法。
EEE8.
前記第2の画像メタデータセットは、同じリファレンス伝達関数を、前記第2のディスプレイマッピング画像における前記焦点視ディスプレイマッピング画像部分および前記周辺視ディスプレイマッピング画像部分以外の他の画像部分の生成に適用される別の伝達関数に改変するために使用される別のDMメタデータをさらに含み、前記別の伝達関数は、前記焦点視特定伝達関数および前記周辺視特定伝達関数のどちらとも異なる、
EEE6または7の方法。
EEE9.
リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像において符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
EEE6~8のいずれかの方法。
EEE10.
リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像のビューポートにおいて符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
EEE6~9のいずれかの方法。
EEE11.
前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同等であるかどうかを判定する工程と、
前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同等であると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分において符号化された最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
をさらに包含する、先行するEEEのいずれかの方法。
EEE12.
前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同等であるかどうかを判定する工程と、
前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同等であると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分における前記視聴者の予測された明順応レベルに対応する特定の明レベル近傍の明レベルを有する最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
をさらに包含する、先行するEEEのいずれかの方法。
EEE13.
前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の前記第1の画像部分において符号化された1つ以上のルマ値をクリッピングする工程
をさらに包含する、EEE12の方法。
EEE14.
前記1つ以上の第1のディスプレイマッピング画像のうちの少なくとも1つの第1のディスプレイマッピング画像の焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するソースゾーンを表し、前記第2のディスプレイマッピング画像の前記焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するターゲットゾーンを表す、
先行するEEEのいずれかの方法。
EEE15.
前記第2のHDRソース画像は、没入型画像、パノラマ画像、拡張現実画像、仮想現実画像、またはリモートプレゼンス画像のうちの1つを表す、
先行するEEEのいずれかの方法。
EEE16.
前記焦点視DMメタデータ部分は、前記焦点視フォービエイテッド画像部分における、前記視聴者の予測された明順応レベル、焦点視特定最大ルマ値、焦点視特定最小ルマ値、焦点視特定平均ルマ値、または焦点視特定白色点のうちの1つ以上を特定する、
先行するEEEのいずれかの方法。
EEE17.
前記周辺視DMメタデータ部分は、前記周辺視フォービエイテッド画像部分における、周辺視特定最大ルマ値、周辺視特定最小ルマ値、周辺視特定平均ルマ値、または周辺視特定白色点のうちの1つ以上を特定する、
先行するEEEのいずれかの方法。
EEE18.
前記1つ以上の第1の時点および前記第2の時点は、共になって、ある時間間隔をカバーする連続した時点を表し、前記視聴者の焦点視における輝度レベルは、比較的明るい輝度レベルから変化し、前記第2のHDRソース画像における第1の画像部分は、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分に対応し、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分において表される暗いレベルの総数は、前記第2のHDRソース画像における前記第1の画像部分において表されるソース暗いレベルの総数に比べて低減される、
先行するEEEのいずれかの方法。
EEE19.
前記1つ以上の第1の時点および前記第2の時点は、共になって、ある時間間隔をカバーする連続した時点を表し、前記視聴者の焦点視における輝度レベルは、比較的明るい輝度レベルから変化し、前記第2のHDRソース画像における第1の画像部分は、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分に対応し、前記第2のフォービエイテッド画像における前記焦点視フォービエイテッド画像部分において表される明るいレベルの総数は、前記第2のHDRソース画像における前記第1の画像部分において表されるソースの明るいレベルの総数に比べて低減される、
先行するEEEのいずれかの方法。
EEE20.
時間とともに変化する前記視聴者の明順応レベルを判定する工程と、
時間とともに変化する前記視聴者の明順応レベルを使用して、前記第2の時点に対する前記視聴者の明順応レベルを予測する工程と、
前記第2の時点に対して予測された前記視聴者の明順応レベルを用いて、前記焦点視DMメタデータ部分を生成する工程と、
をさらに包含する、先行するEEEのいずれかの方法。
EEE21.
前記視聴者の明順応レベルは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の予測された明順応レベルを含み、前記1つ以上の第1の予測された明順応レベルは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向および前記1つ以上の第1のディスプレイマッピング画像における1つ以上の第1の焦点視画像部分に少なくとも部分的に基づいて判定される、
EEE20の方法。
EEE22.
前記第2のディスプレイマッピング画像における前記第2の焦点視画像部分は、前記視聴者の中心窩視を、2~4度、4~6度、または6~8度の最大線角度値までカバーする、
先行するEEEのいずれかの方法。
EEE23.
映像をストリーミングするための方法であって、
視聴者に対して、1つ以上の第1の時点において1つ以上の第1のディスプレイマッピング画像を描画する工程であって、前記1つ以上の第1のディスプレイマッピング画像は、映像ストリーミングサーバから受信された1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットから生成され、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、前記映像ストリーミングサーバによって、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される、工程と、
前記視聴者が前記1つ以上の第1のディスプレイマッピング画像を視聴しているときに収集された前記視聴者の視聴方向データを、リアルタイムに、収集する工程であって、前記視聴方向データは、前記1つ以上の第1の時点の後の第2の時点における前記視聴者の第2の視聴方向を判定するために使用される、工程と、
前記視聴方向データの少なくとも一部を前記映像ストリーミングサーバに送信し、前記映像ストリーミングサーバに、前記第2の時点における前記視聴者の前記第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成させる工程であって、前記第2のフォービエイテッド画像および前記第2の画像メタデータセットは、前記第2の時点において前記視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために使用され、前記第2のフォービエイテッド画像は、前記視聴者の前記第2の視聴方向をカバーする焦点視フォービエイテッド画像部分および前記焦点視画像部分の外側の周辺視フォービエイテッド画像部分を有し、前記第2の画像メタデータセットは、前記焦点視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成される焦点視ディスプレイマネジメント(DM)メタデータ部分を含み、前記第2の画像メタデータセットは、前記周辺視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成される周辺視DMメタデータ部分を含む、工程と、
前記映像ストリーミングサーバから前記第2のフォービエイテッド画像および前記第2の画像メタデータセットを受信する工程と、
前記第2のフォービエイテッド画像から前記第2のディスプレイマッピング画像を生成する工程と、
前記第2の時点において、前記視聴者に対して、前記第2のディスプレイマッピング画像を描画する工程と、
を包含する、方法。
EEE24.
前記視聴方向データに少なくとも部分的に基づいて、前記視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、
フォービエイテッド画像における焦点視フォービエイテッド画像部分における、前記新しい明順応レベルに対応する完全な画像ディテールのストリーミングを前記順応時間が過ぎるまで遅延する工程と、
をさらに包含する、EEE23の方法。
EEE25.
前記順応時間は、実行時に自動的に判定される、
EEE24の方法。
EEE26.
フェーズド光変調を使用して、追加の光を前記第2のディスプレイマッピング画像の前記焦点視画像部分における1つ以上の特定の画素に集中させる工程
をさらに包含する、EEE23~25のいずれかの方法。
EEE27.
前記追加の光は、前記第2のディスプレイマッピング画像における、前記焦点視画像部分内にない1つ以上の他の画素から光をそらしながら、前記第2のディスプレイマッピング画像の前記焦点視画像部分における前記1つ以上の特定の画素に集中させる、
EEE26の方法。
EEE28.
前記1つ以上の第1のディスプレイマッピング画像および前記第2のディスプレイマッピング画像が描画されるターゲットディスプレイに対応付けられた周囲明レベルをモニタリングする工程と、
前記周囲明レベルを使用して、少なくとも1つのフォービエイテッド画像を、前記ターゲットディスプレイ上に描画される少なくとも1つのディスプレイ画像にマッピングするために使用される1つ以上の伝達関数に対して調節を行う工程と、
をさらに包含する、EEE23から27のいずれかの方法。
EEE29.
前記1つ以上の第1のディスプレイマッピング画像および前記第2のディスプレイマッピング画像は、グローバルディミング能力、ローカルディミング能力、またはローカウントディミング能力のうちの1つ以上を含むディミング能力を有するように構成されたターゲットディスプレイ上に描画される、
EEE23~28のいずれかの方法。
EEE30.
EEE1~29に記載の方法のいずれかを行う装置。
EEE31.
EEE1~29に記載の方法のいずれかを行うシステム。
EEE32.
1つ以上のプロセッサによって実行される際に、EEE1~29のいずれかに記載の方法を行わせるソフトウェア命令を格納する非一時的コンピュータ読み取り可能な記憶媒体。
EEE33.
1つ以上のプロセッサおよび1つ以上の記憶媒体を備えるコンピューティングデバイスであって、前記1つ以上の格納媒体は、1つ以上のプロセッサによって実行される際に、EEE1~29のいずれかに記載の方法を行わせる1組のソフトウェア命令を格納する、コンピューティングデバイス。
Claims (19)
- 映像をストリーミングするための方法であって、
映像ストリーミングクライアントに、1つ以上の第1のフォービエイテッド画像を1つ以上の第1の画像メタデータセットとともにストリーミングする工程であって、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、1つ以上の第1の時点において視聴者に対して描画するための1つ以上の第1のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記1つ以上の第1のフォービエイテッド画像および前記1つ以上の第1の画像メタデータセットは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の視聴方向を参照して、1つ以上の第1のハイダイナミックレンジ(HDR)ソース画像から生成される、工程と、
前記視聴者が前記1つ以上の第1のディスプレイマッピング画像を視聴しているときにリアルタイムに収集された前記視聴者の視聴方向データの少なくとも一部を受信する工程であって、前記視聴方向データは、前記1つ以上の第1の時点の後の第2の時点における前記視聴者の第2の視聴方向を判定するために使用される、工程と、
前記第2の時点における前記視聴者の前記第2の視聴方向を参照して、第2のHDRソース画像から第2のフォービエイテッド画像および第2の画像メタデータセットを生成する工程であって、前記第2のフォービエイテッド画像および前記第2の画像メタデータセットは、前記第2の時点において前記視聴者に対して描画するための第2のディスプレイマッピング画像を生成するために、前記映像ストリーミングクライアントによって使用され、前記第2のフォービエイテッド画像は、前記視聴者の前記第2の視聴方向をカバーする焦点視フォービエイテッド画像部分および前記焦点視フォービエイテッド画像部分の外側の周辺視フォービエイテッド画像部分を有し、前記第2の画像メタデータセットは、前記焦点視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における焦点視ディスプレイマッピング画像部分に改変するために別途および特別に生成される焦点視ディスプレイマネジメント(DM)メタデータ部分を含み、前記第2の画像メタデータセットは、前記周辺視フォービエイテッド画像部分を前記第2のディスプレイマッピング画像における周辺視ディスプレイマッピング画像部分に改変するために別途および特別に生成される周辺視DMメタデータ部分を含み、前記焦点視DMメタデータ部分は、前記第2の時点に対する前記視聴者の予測された明順応レベルを用いて生成される、工程と、
前記第2のフォービエイテッド画像および前記第2の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
を包含する、方法。 - 第3のHDRソース画像における第3の焦点視画像部分を指定するユーザ入力を受信する工程であって、前記第3のHDRソース画像は、第3のフォービエイテッド画像を生成するために使用される、工程と、
前記第3のHDRソース画像において前記ユーザ入力に基づいて指定された前記第3の焦点視画像部分から第3の焦点視フォービエイテッド画像部分を生成する工程と、
前記第3の焦点視フォービエイテッド画像部分を、第3の時点において描画するための第3のディスプレイマッピング画像における第3の焦点視ディスプレイマッピング画像部分に改変するために、前記映像ストリーミングクライアントによって使用される第3の焦点視DMメタデータ部分を生成する工程と、
前記第3のフォービエイテッド画像、および前記第3の焦点視DMメタデータを含む第3の画像メタデータセットを前記映像ストリーミングクライアントに送信する工程と、
をさらに包含する、請求項1に記載の方法。 - 前記視聴方向データに少なくとも部分的に基づいて、前記視聴者が新しい明順応レベルに順応するための順応時間を判定する工程と、
フォービエイテッド画像における焦点視フォービエイテッド画像部分における、前記新しい明順応レベルに対応する完全な画像ディテールのストリーミングを前記順応時間が過ぎるまで遅延する工程と、
をさらに包含する、請求項1または2に記載の方法。 - 前記順応時間は、前記映像ストリーミングクライアントに送信される前記フォービエイテッド画像のうちの少なくとも1つに伴う画像メタデータセットにおいて特定される、
請求項3に記載の方法。 - 前記第2の時点に対する前記視聴者の明順応レベルは、前記1つ以上の第1の時点における前記視聴者の1つ以上の第1の予測された明順応レベルを使用して予測され、前記1つ以上の第1の予測された明順応レベルは、前記1つ以上の第1の時点における前記視聴者の前記1つ以上の第1の視聴方向および前記1つ以上の第1のディスプレイマッピング画像における1つ以上の第1の焦点視画像部分に少なくとも部分的に基づいて判定される、
請求項1~4のいずれか1項に記載の方法。 - 前記焦点視DMメタデータ部分は、リファレンス伝達関数を、前記焦点視ディスプレイマッピング画像部分の生成に適用される焦点視特定伝達関数に改変するために使用され、前記周辺視DMメタデータは、同じリファレンス伝達関数を、前記周辺視ディスプレイマッピング画像部分の生成に適用される周辺視特定伝達関数に改変するために使用され、前記焦点視特定伝達関数は、前記周辺視特定伝達関数と異なる、
請求項1~5のいずれか1項に記載の方法。 - 前記リファレンス伝達関数において表されるグレースケールレベルは、前記第2のHDRソース画像における色空間のルマチャネルにおいて符号化可能な最も精細な認識可能画像ディテールに対応する、
請求項6に記載の方法。 - 前記第2の画像メタデータセットは、同じリファレンス伝達関数を、前記第2のディスプレイマッピング画像における前記焦点視ディスプレイマッピング画像部分および前記周辺視ディスプレイマッピング画像部分以外の他の画像部分の生成に適用される別の伝達関数に改変するために使用される別のDMメタデータをさらに含み、前記別の伝達関数は、前記焦点視特定伝達関数および前記周辺視特定伝達関数のどちらとも異なる、
請求項6または7に記載の方法。 - リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像において符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
請求項6~8のいずれか1項に記載の方法。 - リファレンスターゲットディスプレイを参照して、前記第2のHDRソース画像のビューポートにおいて符号化されたすべてのルマ値を対応するグレースケールレベルにマッピングすることに、同じリファレンス伝達関数が適用される、
請求項6~9のいずれか1項に記載の方法。 - 前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同じオーダーの大きさであるかどうかを判定する工程と、
前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同じオーダー
の大きさであると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分において符号化された最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
をさらに包含する、請求項1~10のいずれか1項に記載の方法。 - 前記第2の時点における前記視聴者の明順応レベルを予測する工程と、
前記視聴者の予測された明順応レベルが順応されるべき輝度レベルと同じオーダーの大きさであるかどうかを判定する工程と、
前記視聴者の予測された明順応レベルが前記順応されるべき輝度レベルと同じオーダーの大きさであると判定したことに応答して、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の第1の画像部分における前記視聴者の予測された明順応レベルに対応する特定の明レベル近傍の明レベルを有する最も精細な認識可能画像ディテールを保存する工程であって、前記第2のHDRソース画像の前記第1の画像部分は、前記第2のフォービエイテッド画像の前記焦点視フォービエイテッド画像部分を導出するために使用される、工程と、
をさらに包含する、請求項1~11のいずれか1項に記載の方法。 - 前記焦点視フォービエイテッド画像部分において、前記第2のHDRソース画像の前記第1の画像部分において符号化された1つ以上のルマ値をクリッピングする工程
をさらに包含する、請求項12に記載の方法。 - 前記1つ以上の第1のディスプレイマッピング画像のうちの少なくとも1つの第1のディスプレイマッピング画像の焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するソースゾーンを表し、前記第2のディスプレイマッピング画像の前記焦点視ディスプレイマッピング画像部分は、前記視聴者の明順応に対するターゲットゾーンを表す、
請求項1~13のいずれか1項に方法。 - 前記第2のHDRソース画像は、没入型画像、パノラマ画像、拡張現実画像、仮想現実画像、またはリモートプレゼンス画像のうちの1つを表す、
請求項1~14のいずれか1項に方法。 - 明順応曲線を使用して、前記視聴者の明順応レベルを予測する工程
を包含する、請求項1~15のいずれか1項に方法。 - 前記明順応曲線は、前記視聴者が予め視聴していたソースゾーンの明レベル、前記視聴者が遷移していた中間ゾーン、前記視聴者が現在視聴しているか、または前記第2の時点において現在視聴していると予測されるターゲットゾーンの明レベル、前記視聴者の焦点視が前記ソースゾーン内に存在する期間の長さ、および前記視聴者の焦点視が前記ターゲットゾーン内に存在する期間の長さのうちのいずれかに依存する、
請求項16に記載の方法。 - 前記明順応曲線は、異なる画像コンテクストのシーンに対して異なるように前記視聴者の明順応レベルを予測する、
請求項16または17に記載の方法。 - 前記明順応曲線は、アーティストの意図および/またはユーザの入力に基づく、
請求項16~18のいずれか1項に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862699583P | 2018-07-17 | 2018-07-17 | |
US62/699,583 | 2018-07-17 | ||
EP18194859.7 | 2018-09-17 | ||
EP18194859 | 2018-09-17 | ||
PCT/US2019/041879 WO2020018458A1 (en) | 2018-07-17 | 2019-07-15 | Foviation and hdr |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021530918A JP2021530918A (ja) | 2021-11-11 |
JP7443325B2 true JP7443325B2 (ja) | 2024-03-05 |
Family
ID=67403009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021502514A Active JP7443325B2 (ja) | 2018-07-17 | 2019-07-15 | フォービエイションおよびhdr |
Country Status (5)
Country | Link |
---|---|
US (1) | US11330309B2 (ja) |
EP (1) | EP3824634A1 (ja) |
JP (1) | JP7443325B2 (ja) |
CN (1) | CN112470484B (ja) |
WO (1) | WO2020018458A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022015319A1 (en) * | 2020-07-17 | 2022-01-20 | Hewlett-Packard Development Company, L.P. | Head-mountable display (hmd) image and foveal region brightness computation |
US11368652B1 (en) | 2020-10-29 | 2022-06-21 | Amazon Technologies, Inc. | Video frame replacement based on auxiliary data |
US11404087B1 (en) | 2021-03-08 | 2022-08-02 | Amazon Technologies, Inc. | Facial feature location-based audio frame replacement |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013520687A (ja) | 2010-02-19 | 2013-06-06 | トムソン ライセンシング | 高ダイナミックレンジのビデオ・トーン・マッピングのためのパラメータ補間 |
JP2016109828A (ja) | 2014-12-04 | 2016-06-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016165105A (ja) | 2015-03-05 | 2016-09-08 | ノキア テクノロジーズ オーユー | 映像ストリーミング方法 |
WO2017053350A1 (en) | 2015-09-21 | 2017-03-30 | Dolby Laboratories Licensing Corporation | Techniques for operating a display in the perceptual code space |
US20170272701A1 (en) | 2016-03-18 | 2017-09-21 | Motorola Solutions, Inc. | Visual perception determination system and method |
JP2018032921A (ja) | 2016-08-23 | 2018-03-01 | 沖電気工業株式会社 | 画像処理システム及び画像復号装置 |
US20180176535A1 (en) | 2016-12-19 | 2018-06-21 | Dolby Laboratories Licensing Corporation | View Direction Based Multilevel Low Bandwidth Techniques to Support Individual User Experiences of Omnidirectional Video |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7850306B2 (en) * | 2008-08-28 | 2010-12-14 | Nokia Corporation | Visual cognition aware display and visual data transmission architecture |
CN101963751B (zh) * | 2010-08-19 | 2011-11-30 | 西北工业大学 | 高分辨率实时全景高动态范围图像获取装置及方法 |
US9898081B2 (en) | 2013-03-04 | 2018-02-20 | Tobii Ab | Gaze and saccade based graphical manipulation |
US9124808B2 (en) | 2013-03-04 | 2015-09-01 | Raytheon Company | Foveated imaging system and method |
CN111526350B (zh) * | 2014-02-25 | 2022-04-05 | 苹果公司 | 自适应视频处理 |
US10043282B2 (en) | 2015-04-13 | 2018-08-07 | Gerard Dirk Smits | Machine vision for ego-motion, segmenting, and classifying objects |
EP3304881B1 (en) * | 2015-06-05 | 2022-08-10 | Apple Inc. | Rendering and displaying high dynamic range content |
JP2018525905A (ja) * | 2015-07-22 | 2018-09-06 | アリス エンタープライジズ エルエルシーArris Enterprises Llc | 高ダイナミックレンジおよび広色域シーケンスを符号化するシステム |
CN116366906A (zh) * | 2015-08-07 | 2023-06-30 | 苹果公司 | 用于显示图像流的系统和方法 |
US10157448B2 (en) | 2016-02-12 | 2018-12-18 | Qualcomm Incorporated | Foveated video rendering |
US10438400B2 (en) | 2016-03-08 | 2019-10-08 | Nvidia Corporation | Perceptually-based foveated rendering using a contrast-enhancing filter |
US10330935B2 (en) | 2016-09-22 | 2019-06-25 | Apple Inc. | Predictive, foveated virtual reality system |
US10623634B2 (en) * | 2017-04-17 | 2020-04-14 | Intel Corporation | Systems and methods for 360 video capture and display based on eye tracking including gaze based warnings and eye accommodation matching |
CN106998586B (zh) * | 2017-06-01 | 2019-08-02 | 电子科技大学 | 一种高动态环境中无线通信系统的同步捕获方法 |
-
2019
- 2019-07-15 JP JP2021502514A patent/JP7443325B2/ja active Active
- 2019-07-15 WO PCT/US2019/041879 patent/WO2020018458A1/en unknown
- 2019-07-15 CN CN201980047435.2A patent/CN112470484B/zh active Active
- 2019-07-15 EP EP19743093.7A patent/EP3824634A1/en active Pending
- 2019-07-15 US US17/260,521 patent/US11330309B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013520687A (ja) | 2010-02-19 | 2013-06-06 | トムソン ライセンシング | 高ダイナミックレンジのビデオ・トーン・マッピングのためのパラメータ補間 |
JP2016109828A (ja) | 2014-12-04 | 2016-06-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016165105A (ja) | 2015-03-05 | 2016-09-08 | ノキア テクノロジーズ オーユー | 映像ストリーミング方法 |
WO2017053350A1 (en) | 2015-09-21 | 2017-03-30 | Dolby Laboratories Licensing Corporation | Techniques for operating a display in the perceptual code space |
US20170272701A1 (en) | 2016-03-18 | 2017-09-21 | Motorola Solutions, Inc. | Visual perception determination system and method |
JP2018032921A (ja) | 2016-08-23 | 2018-03-01 | 沖電気工業株式会社 | 画像処理システム及び画像復号装置 |
US20180176535A1 (en) | 2016-12-19 | 2018-06-21 | Dolby Laboratories Licensing Corporation | View Direction Based Multilevel Low Bandwidth Techniques to Support Individual User Experiences of Omnidirectional Video |
Also Published As
Publication number | Publication date |
---|---|
US11330309B2 (en) | 2022-05-10 |
EP3824634A1 (en) | 2021-05-26 |
CN112470484A (zh) | 2021-03-09 |
WO2020018458A1 (en) | 2020-01-23 |
JP2021530918A (ja) | 2021-11-11 |
US20210329316A1 (en) | 2021-10-21 |
CN112470484B (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11290699B2 (en) | View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video | |
US11109011B2 (en) | Virtual reality with interactive streaming video and likelihood-based foveation | |
JP7029562B2 (ja) | コンテンツを提供及び表示するための装置及び方法 | |
CN112020858B (zh) | 利用感兴趣区域的确定的异步时间和空间扭曲 | |
KR102618255B1 (ko) | 주변 이미지 영역에서의 실시간 압축을 통한 이미지 디스플레이의 제어 | |
CN113301439B (zh) | 用于处理视频图像的装置 | |
CN111052750B (zh) | 用于点云流传输的方法和装置 | |
US10769754B2 (en) | Virtual reality cinema-immersive movie watching for headmounted displays | |
US10706631B2 (en) | Image generation based on brain activity monitoring | |
JP7443325B2 (ja) | フォービエイションおよびhdr | |
US11962819B2 (en) | Foviation and HDR | |
WO2021199205A1 (ja) | 画像データ転送装置、画像表示システム、および画像データ転送方法 | |
WO2022259632A1 (ja) | 情報処理装置及び情報処理方法 | |
EP4013059A1 (en) | Changing video tracks in immersive videos | |
CN118648284A (zh) | 具有多个视角的体积沉浸式体验 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7443325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |