JP2021533646A - 深度情報を使用して2次元画像を外挿するためのシステムおよび方法 - Google Patents
深度情報を使用して2次元画像を外挿するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2021533646A JP2021533646A JP2021505869A JP2021505869A JP2021533646A JP 2021533646 A JP2021533646 A JP 2021533646A JP 2021505869 A JP2021505869 A JP 2021505869A JP 2021505869 A JP2021505869 A JP 2021505869A JP 2021533646 A JP2021533646 A JP 2021533646A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- dimensional
- motion vectors
- depth information
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000033001 locomotion Effects 0.000 claims abstract description 199
- 239000013598 vector Substances 0.000 claims abstract description 148
- 238000009795 derivation Methods 0.000 claims description 16
- 239000002131 composite material Substances 0.000 claims description 15
- 238000013213 extrapolation Methods 0.000 claims description 13
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 14
- 238000005259 measurement Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000014616 translation Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 208000003028 Stuttering Diseases 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 229920001621 AMOLED Polymers 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/08—Bandwidth reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
開示されるコンピュータ実装方法は、(1)進展する3Dシーンと進展する3Dシーン中の要素とを描く第1の2Dフレームを受信することと、(2)進展する3Dシーンと要素とを描く第2の2Dフレームを受信することと、(3)第1の2Dフレームおよび第2の2Dフレームから2D動きベクトルを導出することであって、2D動きベクトルが、各々、第1の2Dフレーム中の要素の座標から第2の2Dフレーム中の要素の座標への推定されたオフセットを含む、2D動きベクトルを導出することと、(4)進展する3Dシーンについての深度情報を受信することと、(5)2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿することと、(6)ユーザに合成2Dフレームを表示することとを含み得る。様々な他の方法、システム、およびコンピュータ可読媒体も開示される。【選択図】図1
Description
仮想現実(VR)および拡張現実(AR)ヘッドセットは、ますます多くのアクティビティにおいて使用するために人気が増している。そのようなヘッドセットは、ユーザの視界に視覚情報を組み込んで、ユーザの周囲を強化するか、またはユーザが没入型3次元(3D)仮想環境に入ることを可能にし得る。VRおよびARヘッドセットは、しばしば、ゲーミングおよび他のエンターテインメント目的のために利用されるが、VRおよびARヘッドセットは、通常、レクリエーション以外の目的のためにも採用され、たとえば、政府は軍事トレーニングシミュレーションのためにVRおよびARヘッドセットを使用し得、医師は手術を行うためにVRおよびARヘッドセットを使用し得、技術者は、視覚化補助としてVRおよびARヘッドセットを使用し得る。VRおよびARシステムも、様々な情況において個人間の対人的な対話を容易にすることにおけるそれらの効用について、ますます認識されている。
説得力のある、実物そっくりのVRまたはAR環境を、臨場感を作り出すのに十分に速いレートにおいてレンダリングすることは、ハードウェアリソースに対して過酷であることがある。一般に、VRおよびARハードウェアは、コンパクトで電力効率が良い必要があるが、同時に極めて能力がある必要がある。VRまたはARアプリケーションでは、フレーム(または静止画像)が、概して、ユーザの移動に従って生成され、遅いフレームレートが、スタッターまたはフリッカーとして気づかれることがある。その結果、多くのVRまたはARアプリケーションは、スタッターフリー(stutter−free)およびフリッカーフリー(flicker−free)のビジュアルを作り出すために、理想的には(たとえば、90フレーム毎秒よりも大きい)高いフレームレートにおいて閲覧される。この理由で、VRおよびARアプリケーションは、しばしば、VRまたはARアプリケーションを理想的に閲覧するために提案され得る推奨ハードウェア仕様のセットを伴う。残念ながら、これらの推奨ハードウェア仕様を満たし、高いフレームレートが可能である現在のVRおよびARシステムは、多くの人々および/または団体にとってアクセス可能でないか、または多くの人々および/または団体に対して手ごろでないことがある。本開示は、したがって、理想的には高いフレームレートにおいて閲覧されるVRまたはARアプリケーションがより低いフレームレートにおいて閲覧されることを可能にする、システムおよび方法の必要を識別し、その必要に対処し、これは、ユーザが、より手ごろな最小仕様ハードウェアおよびシステム上でこれらのアプリケーションを閲覧することを可能にし得る。
以下でより詳細に説明されるように、本開示は、深度情報を使用して2次元(2D)画像を外挿するためのシステムおよび方法について説明する。一例では、深度情報を使用して、2D画像を外挿するためのコンピュータ実装方法は、(1)進展する3Dシーンと進展する3Dシーン中の要素とを描く第1の2Dフレームを受信することと、(2)進展する3Dシーンと要素とを描く第2の2Dフレームを受信することと、(3)第1の2Dフレームおよび第2の2Dフレームから2D動きベクトルを導出することであって、2D動きベクトルが、各々、第1の2Dフレーム中の要素の座標から第2の2Dフレーム中の要素の座標への推定されたオフセットを含む、2D動きベクトルを導出することと、(4)進展する3Dシーンについての深度情報を受信することと、(5)2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿することと、(6)ユーザに合成2Dフレームを表示することとを含み得る。
いくつかの例では、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2において、進展する3Dシーンから連続的にレンダリングされ得、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2においてユーザに連続的に表示され得、合成2Dフレームを表示するステップは、所望のフレームレートにおいて合成2Dフレームを表示することを含み得る。他の例では、第1の2Dフレーム、第2の2Dフレーム、および第3の2Dフレームが、進展する3Dシーンから連続的にレンダリングされ得、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートにおいてユーザに連続的に表示され得、合成2Dフレームを表示するステップは、(1)第3の2Dフレームが所望のフレームレートにおいてユーザに表示されるように適時にレンダリングすることができなかったと決定することと、(2)所望のフレームレートにおいて、第3の2Dフレームの代わりに合成2Dフレームを表示することとを含み得る。
いくつかの例では、2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿するステップは、2D動きベクトルに重み付きフィルタ(weighted filter)を適用することによって、2D動きベクトルからノイズを除去することを含み得、深度情報は、重み付きフィルタの重みを導出するために使用され得る。少なくとも1つの例では、重み付きフィルタは、中心重み付き(center−weighted)メジアンフィルタであり得る。いくつかの例では、2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿するステップは、(1)深度情報を使用して、2D動きベクトルを3D動きベクトルにコンバートすることと、(2)3D動きベクトルを使用して、合成2Dフレームを外挿することと含み得る。
いくつかの例では、第1の2Dフレームおよび第2の2Dフレームから2D動きベクトルを導出するステップは、(1)ハードウェア動き推定器への入力として、第1の2Dフレームおよび第2の2Dフレームを送信することと、(2)ハードウェア動き推定器からの出力として、2D動きベクトルを受信することとを含み得る。いくつかの例では、第1の2Dフレームおよび第2の2Dフレームは、VRアプリケーションまたはARアプリケーションから受信され得る。いくつかの例では、2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿するステップは、2D動きベクトルおよび深度情報に少なくとも部分的に基づいて、第2の2Dフレームをワーピングすることによって、第2の2Dフレームから合成2Dフレームを導出することを含み得る。いくつかの例では、本コンピュータ実装方法は、物理世界におけるユーザの並進動き(translational motion)を追跡することと、複数の2次元動きベクトルを導出する前に、ユーザの並進動きを考慮するために、深度情報を使用して、第2の2次元フレームのピクセル要素を再投影することとをさらに含み得る。
さらに、深度情報を使用して、2D画像を外挿するための対応するシステムは、(1)(a)進展する3Dシーンを描く第1の2Dフレームと、(b)進展する3Dシーンを描く第2の2Dフレームとを受信するフレーム受信モジュールと、(2)第1の2Dフレームおよび第2の2Dフレームから2D動きベクトルを導出する導出モジュールであって、2D動きベクトルが、各々、第1の2Dフレーム中の要素の座標から第2の2Dフレーム中の要素の座標への推定されたオフセットを含む、導出モジュールと、(3)進展する3Dシーンについての深度情報を受信する深度情報受信モジュールと、(4)2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿する外挿モジュールと、(5)ユーザに合成2Dフレームを表示する表示モジュールとを含む、メモリに記憶されたいくつかのモジュールを含み得る。本システムは、フレーム受信モジュール、導出モジュール、深度情報受信モジュール、外挿モジュール、および表示モジュールを実行する、少なくとも1つのプロセッサをさらに含み得る。
いくつかの例では、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2において、進展する3Dシーンから連続的にレンダリングされ得、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2においてユーザに連続的に表示され得、表示モジュールは、所望のフレームレートにおいて合成2Dフレームを表示し得る。他の例では、第1の2Dフレーム、第2の2Dフレーム、および第3の2Dフレームが、進展する3Dシーンから連続的にレンダリングされ得、表示モジュールは、所望のフレームレートにおいてユーザに第1の2Dフレームおよび第2の2Dフレームを連続的に表示し得、表示モジュールは、(1)第3の2Dフレームが所望のフレームレートにおいてユーザに表示されるように適時にレンダリングすることができなかったと決定することと、(2)所望のフレームレートにおいて、第3の2Dフレームの代わりに合成2Dフレームを表示することとを行うことによって、合成2Dフレームを表示し得る。
いくつかの例では、外挿モジュールは、2D動きベクトルに重み付きフィルタを適用することによって、2D動きベクトルからノイズを除去することによって、2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿し得、深度情報は、重み付きフィルタの重みを導出するために使用され得る。少なくとも1つの例では、重み付きフィルタは、中心重み付きメジアンフィルタであり得る。いくつかの例では、外挿モジュールは、(1)深度情報を使用して、2D動きベクトルを3D動きベクトルにコンバートすることと、(2)3D動きベクトルを使用して合成2Dフレームを外挿することとを行うことによって、2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿し得る。
いくつかの例では、導出モジュールは、(1)ハードウェア動き推定器への入力として、第1の2Dフレームおよび第2の2Dフレームを送信することと、(2)ハードウェア動き推定器からの出力として、2D動きベクトルを受信することとを行うことによって、第1の2Dフレームおよび第2の2Dフレームから2D動きベクトルを導出し得る。いくつかの例では、フレーム受信モジュールは、VRアプリケーションまたはARアプリケーションから、第1の2Dフレームおよび第2の2Dフレームを受信し得る。いくつかの例では、外挿モジュールは、2D動きベクトルおよび深度情報に少なくとも部分的に基づいて、第2の2Dフレームをワーピングすることによって、2D動きベクトルおよび深度情報を使用して、第2の2Dフレームから合成2Dフレームを外挿し得る。
いくつかの例では、上記で説明された方法は、コンピュータ可読媒体上にコンピュータ可読命令として符号化され得る。
たとえば、コンピュータ可読媒体は、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、コンピューティングデバイスに、(1)進展する3Dシーンと進展する3Dシーン中の要素とを描く第1の2Dフレームを受信することと、(2)進展する3Dシーンと要素とを描く第2の2Dフレームを受信することと、(3)第1の2Dフレームおよび第2の2Dフレームから2D動きベクトルを導出することであって、2D動きベクトルが、各々、第1の2Dフレーム中の要素の座標から第2の2Dフレーム中の要素の座標への推定されたオフセットを含む、2D動きベクトルを導出することと、(4)進展する3Dシーンについての深度情報を受信することと、(5)2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿することと、(6)ユーザに合成2Dフレームを表示することとを行わせ得る1つまたは複数のコンピュータ実行可能命令を含み得る。いくつかの例では、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2において、進展する3Dシーンから連続的にレンダリングされ得、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2においてユーザに連続的に表示され得、コンピュータ実行可能命令は、コンピューティングデバイスに、所望のフレームレートにおいて合成2Dフレームを表示することをさらに行わせ得る。
たとえば、コンピュータ可読媒体は、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、コンピューティングデバイスに、(1)進展する3Dシーンと進展する3Dシーン中の要素とを描く第1の2Dフレームを受信することと、(2)進展する3Dシーンと要素とを描く第2の2Dフレームを受信することと、(3)第1の2Dフレームおよび第2の2Dフレームから2D動きベクトルを導出することであって、2D動きベクトルが、各々、第1の2Dフレーム中の要素の座標から第2の2Dフレーム中の要素の座標への推定されたオフセットを含む、2D動きベクトルを導出することと、(4)進展する3Dシーンについての深度情報を受信することと、(5)2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿することと、(6)ユーザに合成2Dフレームを表示することとを行わせ得る1つまたは複数のコンピュータ実行可能命令を含み得る。いくつかの例では、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2において、進展する3Dシーンから連続的にレンダリングされ得、第1の2Dフレームおよび第2の2Dフレームは、所望のフレームレートの1/2においてユーザに連続的に表示され得、コンピュータ実行可能命令は、コンピューティングデバイスに、所望のフレームレートにおいて合成2Dフレームを表示することをさらに行わせ得る。
上述の実施形態のいずれかからの特徴は、本明細書で説明される一般的な原理に従って、互いに組み合わせて使用され得る。これらおよび他の実施形態、特徴、および利点は、添付の図面および特許請求の範囲とともに以下の発明を実施するための形態を読むと、より十分に理解されよう。
添付の図面は、いくつかの例示的な実施形態を示し、本明細書の一部である。以下の説明とともに、これらの図面は、本開示の様々な原理を論証および説明する。
図面全体にわたって、同一の参照符号および説明は、同様であるが必ずしも同一でない要素を指示する。本明細書で説明される例示的な実施形態は、様々な変更および代替形態が可能であるが、特定の実施形態が、図面において例として示されており、本明細書で詳細に説明される。しかしながら、本明細書で説明される例示的な実施形態は、開示される特定の形態に限定されるものではない。むしろ、本開示は、添付の特許請求の範囲内に入るすべての変更形態、均等物、および代替形態を包含する。
本開示は、一般に、深度情報を使用して、レンダリングされた2Dフレームのシーケンスから合成2Dフレームを外挿するフレームレート平滑化技法を対象とする。以下でより詳細に説明されるように、本開示の実施形態は、進展する3Dシーンからの深度情報と、3Dシーンからレンダリングされた2Dフレームからの動きの推定値とを使用して、補足的合成2Dフレームを外挿し得る。いくつかの例では、本明細書で説明されるシステムおよび方法は、VRまたはARアプリケーションがディスプレイの所望のフレームレートまたは最適フレームレートよりも低いフレームレートにおいて3Dシーンをレンダリングするときはいつでも、これらの補足的合成2Dフレームを表示し得、これは、VRまたはARエクスペリエンスが、滑らかで、ユーザにとって楽しめるもののままであることを確実にし得る。追加または代替として、本明細書で説明されるシステムおよび方法は、ディスプレイの所望のフレームレートまたは最適フレームレートにおいて2Dフレームをレンダリングすることができないハードウェア上で稼働しているVRまたはARアプリケーションについて補足的合成2Dフレームを表示し得、これは、楽しめるVRまたはARエクスペリエンスを以前はもたらすことができなかったより低い性能のハードウェア上のVRまたはARエクスペリエンスを改善し得る。少なくとも1つの例では、VRまたはARアプリケーションによってレンダリングされたあらゆる2Dフレームについて合成2Dフレームを表示することによって、本明細書で説明されるシステムおよび方法は、VRまたはARアプリケーションがディスプレイの所望のフレームレートまたは最適フレームレートの1/2において2Dフレームをレンダリングすることを可能にし得、これは、3Dシーンから2Dフレームを作り出すために必要とされる中央処理ユニット(CPU)および/またはグラフィカル処理ユニット(GPU)の時間を1/2にし得る。
以下は、図1を参照しながら、深度情報を使用して2Dフレームを外挿するための例示的なシステムの詳細な説明を提供する。図2〜図5に関して、例示的な進展する3Dシーンの詳細な説明が提供される。図6および図7は、2Dフレームを表示するための例示的なフレームレートの詳細な説明を提供する。さらに、図8〜図10および図12〜図15に関して、例示的な2Dフレーム、深度情報、および動きベクトルの詳細な説明が提供される。また、図11に関して、深度情報を使用して、2Dフレームを外挿するための方法の詳細な説明が提供される。
図1は、進展する3Dシーンを描く2Dフレームのシーケンスをユーザに表示するための例示的なシステム100のブロック図である。この図において示されているように、システム100は、進展する3Dシーン104を管理するアプリケーション102を含み得る。いくつかの例では、アプリケーション102は、ヘッドマウントディスプレイシステムを介してユーザによって閲覧される進展する対話型3D環境を管理する、VRアプリケーションまたはARアプリケーションを表し得る。いくつかの例では、アプリケーション102は、3Dシーン104を管理またはレンダリングするために、CPUおよび/またはGPUを使用し得る。ディスプレイ108は、液晶ディスプレイ(LCD)スクリーン、有機発光ダイオード(OLED)スクリーン(たとえば、アクティブマトリックスOLEDスクリーン)、プラズマスクリーン、および/または任意の他の好適なディスプレイスクリーンなど、任意の好適なディスプレイスクリーンまたはディスプレイスクリーンの組合せを表し得る。いくつかの例では(たとえば、ヘッドマウントディスプレイシステムに組み込まれるとき)、ディスプレイ108は、ユーザの左眼に見える左側と、ユーザの右眼に見える右側とを含み得る。いくつかの例では、ディスプレイ108の左側および右側は、3Dシーン104の左眼ビューおよび右眼ビューを単一の3D画像として描く、別個の画像の立体写真(stereoscopic pair)を表示するために使用され得る。
いくつかの実施形態では、「3次元シーン」という用語は、計算を実施すること、および/または2D画像をレンダリングすることを行うために使用され得る、幾何学的データの任意の3D表現またはモデルを指し得る。いくつかの例では、「3次元シーン」という用語は、VRまたはAR対話型環境の3D表現またはモデルを指し得る。いくつかの例では、3次元シーンは、3D空間内に位置し得る3D物体または要素を含み得る。3Dシーンは、3Dシーン中の3D物体または要素が、互いに対して、および/あるいはユーザまたはカメラ視野に対して移動するように、時間とともに進展し得る。
図2〜図5は、例示的な3Dシーン104を示す。これらの図において示されているように、3Dシーン104は、前景物体202と、中景物体204と、背景物体206とを含み得る。この例では、前景物体202は、視野208に対して右から左に(すなわち、負のX方向に)移動していることがあり、中景物体204は、視野208に対して左から右に(すなわち、正のX方向に)移動していることがあり、背景物体206は、視野208に対して静止していることがある。図2および図3は、それぞれ、視野208から、前景物体202と中景物体204とが、背景物体206に重なるが、互いに重ならないときの、第1の時間における3Dシーン104のトップダウン図および正面図を示す。図4および図5は、それぞれ、視野208から、前景物体202および中景物体204が背景物体206に重なり、前景物体202が中景物体204に重なるときの、後続の時間における3Dシーン104のトップダウン図および正面図を示す。
図1に戻ると、アプリケーション102は、ディスプレイ108を介したユーザへの表示のために、3Dシーン104を2Dフレーム106(1)〜(N)のシーケンスにレンダリングし得る。アプリケーション102がVRまたはARアプリケーションである例では、アプリケーション102は、3Dシーン104を2回、すなわち、左眼視野で1回および右眼視野で1回、レンダリングする必要があり得る。そのような例では、2Dフレーム106(1)〜(N)は、左眼視野または右眼視野のいずれかについてレンダリングされた2Dフレームを表し得る。
いくつかの例では、アプリケーション102は、所望のフレームレート未満(たとえば、ディスプレイ108の最適フレームレート未満、あるいはVRまたはAR環境を閲覧するための最適フレームレート未満)において、3Dシーン104を2Dフレームに連続的にレンダリングし得る。いくつかの状況では、アプリケーション102は、適切なハードウェアリソースの欠如のために、所望のフレームレートまたは最適フレームレートにおいて、3Dシーン104を2Dフレーム106(1)〜(N)に連続的にレンダリングすることができないことがある。これらの状況では、以下で説明されるように、本明細書で説明されるシステムは、所望のフレームレートまたは最適フレームレートにおいてディスプレイ108を介して2Dフレーム(すなわち、レンダリングされた2Dフレームおよび合成2Dフレーム)を表示するために、2Dフレーム106(1)〜(N)を合成2Dフレーム122(1)〜(N)で補足し得る。
図6は、アプリケーション102が3Dシーン104から2Dフレーム106(1)〜(N)をレンダリングし得る、例示的なフレームレート(すなわち、45フレーム毎秒)を示す、例示的なタイミング図600を示す。この例では、ディスプレイ108は、90フレーム毎秒(すなわち、11ミリ秒(ms)ごとに1回)において2Dフレームを表示することが可能であり得るが、ディスプレイ108は、45フレーム毎秒(すなわち、2Dフレーム106(1)〜(N)がアプリケーション102によってレンダリングされるレート)において2Dフレーム106(1)〜(N)を表示することが可能であるにすぎないことがある。この例に示されているように、ディスプレイ108は、2Dフレーム106(1)〜(N)と合成2Dフレーム122(1)〜(N)とが一緒に90フレーム毎秒において表示されるように、2Dフレーム106(1)〜(N)の合間に合成2Dフレーム122(1)〜(N)を表示し得る。
いくつかの例では、アプリケーション102は、所望のフレームレートまたは最適フレームレートにおいて、3Dシーン104を2Dフレーム106(1)〜(N)に連続的にレンダリングすることを試み得る。いくつかの例では、アプリケーション102は、一般に、所望のフレームレートまたは最適フレームレートにおいて、3Dシーン104を2Dフレーム106(1)〜(N)にレンダリングし得るが、所望のフレームレートまたは最適フレームレートについていくにはあまりに遅く2Dフレーム106(1)〜(N)のうちのいくつかを周期的にレンダリングし得る。これらの例では、本明細書で説明されるシステムは、アプリケーション102がレンダリングすることが可能である2Dフレームを、合成フレーム122(1)〜(N)で補足し得る。
図7は、アプリケーション102が3Dシーン104から2Dフレーム106(1)〜(N)をレンダリングすることを試み得る、例示的なフレームレート(すなわち、90フレーム毎秒)を示す、例示的なタイミング図700を示す。この例では、ディスプレイ108は、90フレーム毎秒において2Dフレームを表示することが可能であり得る。図7に示されているように、アプリケーション102は、90フレーム毎秒において表示されるのに十分に迅速に2Dフレーム106(3)をレンダリングすることができないことがある。しかしながら、この例において示されているように、ディスプレイ108は、2Dフレーム106と合成2Dフレーム122とが一緒に90フレーム毎秒において表示され得るように、2Dフレーム106(2)と106(4)との合間に合成2Dフレーム122(1)および122(2)を表示し得る。
図8および図9は、3Dシーン104からレンダリングされた例示的な2Dフレームを示す。いくつかの例では、アプリケーション102は、視野208から、図2および図3に示されている3Dシーン104を、図8に示されている2Dフレーム106(1)にレンダリングし得る。この例では、2Dフレーム106(1)は、ピクセル要素(たとえば、ピクセル、ブロック、またはマクロブロック)の列800と、ピクセル要素の行802とを含み得る。図8に見られるように、2Dフレーム106(1)は、前景物体202と中景物体204とが、背景物体206に重なるが、互いに重ならないことを描く。後で、アプリケーション102は、視野208から、図4および図5に示されている3Dシーン104を、図9に示されている2Dフレーム106(2)にレンダリングし得る。この例では、2Dフレーム106(2)は、ピクセル要素の列900と、ピクセル要素の行902とを含み得る。図9に見られるように、2Dフレーム106(2)は、前景物体202および中景物体204が背景物体206に重なり、前景物体202が中景物体204に重なることを描く。
3Dシーン104から2Dフレームをレンダリングすることに加えて、アプリケーション102はまた、3Dシーン104からレンダリングされた各2Dフレームについての深度情報を生成するように構成され得る。たとえば、アプリケーション102は、それぞれ、2Dフレーム106(1)〜(N)に対応する深度情報110(1)〜(N)を生成し得る。いくつかの実施形態では、「深度情報」という用語は、3Dシーン中の要素を描く2Dフレーム中のピクセル要素にマッピングされる3Dシーン中の要素の深度の任意の測定値を指し得る。深度情報は、任意の好適なフォーマットを使用して表され得る。いくつかの例では、深度情報は、好適な線形フォーマットまたは好適な非線形フォーマットを使用して表され得る。図10は、3Dシーン104から導出された例示的な深度情報を示す。この例では、深度情報110(1)は、2Dフレーム106(1)に対応し得る。示されているように、深度情報110(1)は、各々が列800のうちの1つに対応する要素の列1000と、各々が行802のうちの1つに対応する要素の行1002とを含み得る。この例では、要素1004および1008は、背景物体206の深度測定値を表し得、要素1006は、中景物体204の深度測定値を表し得、要素1010は、前景物体202の深度測定値を表し得る。図10中に含まれている深度測定値は、主に説明の目的のためのものであり、網羅的であること、または示されている正確な形態に限定されることは意図されない。
図1に示されているように、例示的なシステム100は、ディスプレイ108を介して2Dフレームを表示するための1つまたは複数のモジュールを含み得る。以下でより詳細に説明されるように、システム100は、(1)3Dシーン104を描く2Dフレーム106(1)〜(N)を受信するフレーム受信モジュール112と、(2)2Dフレーム106(1)〜(N)から2D動きベクトル116(1)〜(N)を導出する導出モジュール114と、(3)進展する3Dシーン104についての深度情報110(1)〜(N)を受信する深度情報受信モジュール118と、(4)2Dフレーム106(1)〜(N)、2D動きベクトル116(1)〜(N)、および深度情報110(1)〜(N)を使用して、合成2Dフレーム122(1)〜(N)を外挿する外挿モジュール120と、(5)ディスプレイ108を介してユーザに2Dフレーム106(1)〜(N)および/または合成2Dフレーム122(1)〜(N)を表示する表示モジュール124とを含み得る。別個の要素として示されているが、図1に描かれているモジュールのうちの1つまたは複数は、単一のモジュールまたはアプリケーションの部分を表し得る。
図11は、深度情報を使用して、2D画像を外挿するための例示的なコンピュータ実装方法1100の流れ図である。図11に示されているステップは、図1に示されているシステムを含む、任意の好適なコンピュータ実行可能コードおよび/またはコンピューティングシステムによって実施され得る。一例では、図1に示されているステップの各々は、その構造が複数のサブステップを含み、および/または複数のサブステップによって表される、アルゴリズムを表し得、その例は以下でより詳細に提供される。
図11に示されているように、ステップ1102において、本明細書で説明されるシステムのうちの1つまたは複数は、進展する3Dシーンを描く2Dフレームを受信し得る。たとえば、フレーム受信モジュール112は、アプリケーション102から、3Dシーン104を描く2Dフレーム106(1)〜(N)を受信し得る。概して、本明細書で説明されるシステムは、ディスプレイの所望のフレームレートまたは最適フレームレートにおいてあるいはディスプレイの所望のフレームレートまたは最適フレームレートを下回って、アプリケーション102から、3Dシーン104を描く2Dフレーム106(1)〜(N)を受信し得る。
ステップ1104において、本明細書で説明されるシステムのうちの1つまたは複数は、2Dフレームから2D動きベクトルを導出し得る。たとえば、導出モジュール114は、連続する2Dフレーム106(1)〜(N)から2D動きベクトル116(1)〜(N)を導出し得る。いくつかの実施形態では、「2次元動きベクトル」という用語は、動きシーケンス中の2つの連続2Dフレームの要素間の動きの任意の推定値を指し得る。いくつかの例では、「2次元動きベクトル」という用語は、2つのフレームのピクセルまたはマクロブロック間の動きのピクセルレベルまたはマクロブロックレベルの推定値を指し得る。いくつかの実施形態では、「2次元動きベクトル」という用語は、動きシーケンス中の2つの連続フレーム中で見つけられた物体または特徴間の動きの物体レベルまたは特徴レベルの推定値を指し得る。
図12は、図8および図9に示されている2Dフレーム106(1)および106(2)から導出された例示的な2D動きベクトル116(1)を示す。2Dフレーム106(1)および2Dフレーム106(2)に描かれているように、前景物体202は右から左に移動しており、中景物体204は左から右に移動して示されており、背景物体206は静止して示されている。2D動きベクトル116(1)は、2Dフレーム106(1)および106(2)の各ピクセル要素についての動き推定値または測定値を含み得る。図12に示されているように、2D動きベクトル116(1)は、各々が列800または列900のうちの1つに対応する要素の列1200と、各々が行802または行902のうちの1つに対応する要素の行1202とを含み得る。この例では、要素1204および1208の各々は、背景物体206についての推定された動きベクトルを含んでいることがあり、要素1206の各々は、中景物体204の推定された動きベクトルを含んでいることがあり、要素1210の各々は、前景物体202の推定された動きベクトルを含んでいることがある。図12中に含まれている動き推定は、主に説明の目的のためのものであり、網羅的であること、または示されている正確な形態に限定されることは意図されない。
本明細書で説明されるシステムは、様々なやり方で2Dフレームから2D動きベクトルを導出し得る。一例では、導出モジュール114は、2Dフレームから2D動きベクトルを導出するために、ハードウェア動き推定器(たとえば、2つのフレーム間の動きを推定することが可能なGPU)を使用し得る。たとえば、導出モジュール114は、ハードウェア動き推定器126に2Dフレーム106(1)〜(N)の連続するペアを受け渡し得、2Dフレーム106(1)〜(N)の連続するペア間の動きの推定値を含んでいる2D動きベクトル116(1)〜(N)のうちの対応する1つを受信し得る。概して、本明細書で説明されるシステムは、2Dフレームを表示しながら、2Dフレームから動きベクトルを非同期的に導出し得る。
いくつかの状況では、進展する3Dシーンからレンダリングされた連続する2Dフレーム間で発生する動きのうちの一部(たとえば、視差動き)が、物理世界におけるユーザの並進動きによって引き起こされ得る。一般に、ユーザが物理世界において並進的に移動するとき、ユーザの視点を表すカメラの位置は、ユーザの並進移動を反映するために3Dシーンに対して更新され得る。したがって、3Dシーン中の物体は、わずかに異なる視点からのカメラによってレンダリングされ得、これは、物体が3Dシーンに対して移動していなかった場合でも、連続する2Dフレーム中の物体の位置が異なることを生じ得る。いくつかの例では、連続する2Dフレームから導出された2D動きベクトルは、ユーザの並進動きによって全体的にまたは部分的に引き起こされた動きの推定値をキャプチャするかまたは表し得る。これらの例では、ユーザの並進動きは、(以下で説明されるように)これらの2D動きベクトルと、連続する2Dフレームのうちの1つまたは複数とが、合成2Dフレームを外挿するために使用されるとき、考慮され得る。
いくつかの例では、本明細書で説明されるシステムは、物理世界におけるユーザの並進動きを正確に測定するために、様々なハードウェアセンサー(たとえば、固定室内センサーおよび/または身体装着型(body−attached)センサー)を使用し得る。推定された2D動きベクトルは、2Dフレームを外挿するときにユーザの並進動きの影響を考慮するために使用され得るが、ユーザの並進動きのセンサー測定値に基づいて2Dフレームを外挿することが、この動きを考慮することのより正確なやり方であり得る。したがって、本明細書で説明されるシステムは、ユーザの並進動きを考慮するために、レンダリングされた2Dフレームのピクセル要素を位置的に再投影する(たとえば、位置的にワーピングする)ためにこの動きのセンサーの測定値を使用し、その後、位置的に再投影された2Dフレームを使用して、他の動きを考慮する2D動きベクトルを導出し得る。いくつかの例では、ユーザの並進動きを考慮するために2Dフレームのピクセル要素を位置的に再投影することによって、本明細書で説明されるシステムは、2Dフレームからユーザの並進動きの動き影響を効果的にフィルタ除去し得る。
一例では、本明細書で説明されるシステムは、最初に深度情報を使用して2Dフレームのピクセル要素を3D空間に位置的に投影する(たとえば、2Dフレームのピクセル要素をスクリーン空間からカメラ空間またはワールド空間に投影する)ことによって、ユーザの並進動きを考慮するために2Dフレームのピクセル要素を再投影し得る。いくつかの例では、本明細書で説明されるシステムは、2Dフレームのピクセル要素を3D空間に位置的に投影するために、逆投影行列(projection matrix)または高さマップを使用し得る。次に、本明細書で説明されるシステムは、(たとえば、ユーザの並進動きを反映するようにカメラ空間において3D投影の点を移動することによって)ユーザの並進動きを考慮するために3D投影を調整し得る。最後に、本明細書で説明されるシステムは、調整された3D投影を(たとえば、投影行列を使用して)2Dフレームに再投影し得る。
図13は、動きセンサー1304によって追跡されたユーザの物理世界の並進動き1302に基づいて、深度情報110(1)を使用して、レンダリングされた2Dフレーム106(1)を位置的に再投影するための例示的なデータフロー1300を示す。この例では、本明細書で説明されるシステムは、レンダリングされた2Dフレーム106(1)のピクセル要素を3D投影1308としてカメラ空間に位置的に投影するために、逆投影行列1306および深度情報110(1)を使用し得る。本明細書で説明されるシステムは、次いで、(たとえば、動き1302を反映するようにカメラ空間において3D投影1308の点を変換することによって)動き1302を考慮するために3D投影1308を調整し得る。いくつかの例では、3D投影1308の調整は、新しい深度情報1310を生じ得る。最後に、本明細書で説明されるシステムは、3D投影1308を2Dフレーム1314に再投影するために、投影行列1312を使用し得る。いくつかの例では、本明細書で説明されるシステムおよび方法は、レンダリングされた2Dフレーム106(1)の代わりに2Dフレーム1314を使用し得、および/または深度情報110(1)の代わりに深度情報1310を使用し得る。
ステップ1106において、本明細書で説明されるシステムのうちの1つまたは複数は、進展する3Dシーンについての深度情報を受信し得る。たとえば、深度情報受信モジュール118は、アプリケーション102から3Dシーン104についての深度情報110(1)〜(N)を受信し得る。
ステップ1108において、本明細書で説明されるシステムのうちの1つまたは複数は、2D動きベクトルおよび深度情報を使用して、合成2Dフレームを外挿し得る。たとえば、外挿モジュール120は、2D動きベクトル116(1)〜(N)および深度情報110(1)〜(N)を使用して、合成フレーム122(1)〜(N)を外挿し得る。概して、本明細書で説明されるシステムは、レンダリングされた2Dフレームを受信および表示しながら、合成2Dフレームを非同期的に外挿し得る。
本明細書で説明されるシステムは、2D動きベクトルおよび深度情報を使用して、様々なやり方で合成2Dフレームを外挿し得る。概して、外挿モジュール120は、レンダリングされた2Dフレームのピクセル要素を、それらの関連付けられた動きベクトルに従ってワーピングする(たとえば、ゆがめる、変換する、または再マッピングする)ことによって、2Dまたは3D動きベクトルを使用して、レンダリングされた2Dフレームから合成2Dフレームを外挿し得る。前の時間において3Dシーンからレンダリングされた2Dフレームのピクセル要素に関連付けられた動きベクトルは、後続の時間においてそのピクセル要素がどこにあると予想されるかを予測し得るので、本明細書で説明されるシステムは、2Dフレームのピクセル要素に関連付けられた動きベクトルを使用して、後続の時間においてそのピクセル要素がどこにあると予想されるかを予測し、それに応じて2Dフレームのそのピクセル要素を再マッピングして、新しい合成2Dフレームを外挿し得る。
一例として、図9、図12、および図15を使用すると、外挿モジュール120は、図9中の2Dフレーム106(2)のピクセル要素を、それらの関連付けられた動きベクトルに従ってワーピングすることによって、図9中の2Dフレーム106(2)から図15中の合成2Dフレーム122(1)を外挿し得る。図15に示されているように、合成2Dフレーム122(1)は、各々が列900のうちの1つに対応するピクセル要素の列1500と、各々が行902のうちの1つに対応するピクセル要素の行1502とを含み得る。この例では、動きベクトル1204および1208は、背景物体206に対応する2Dフレーム106(2)中のピクセル要素が、静止したままであるべきであり、ワーピングまたは再マッピングされるべきでないことを指示し得、動きベクトル1206は、中景物体204に対応する2Dフレーム106(2)中のピクセル要素が、右にワーピングまたは再マッピングされるべきであることを指示し得、動きベクトル1210は、前景物体202に対応する2Dフレーム106(2)中のピクセル要素が、左にワーピングまたは再マッピングされるべきであることを指示し得る。
一例では、推定された2D動きベクトルは、不要なノイズを含んでいることがあり、外挿モジュール120は、2Dフレームをワーピングするために2D動きベクトルを使用することより前に、推定された2D動きベクトルからノイズを除去するために、ノイズ低減フィルタ121(たとえば、メジアンフィルタまたは中心重み付きメジアンフィルタ)を使用し得る。いくつかの例では、本明細書で説明されるシステムは、要素のフィルタ処理された値が、同じまたは同様の深度にある近隣要素によってより多く影響を受け、同じまたは同様の深度にない近隣要素によってあまり影響を受けないように、フィルタ重みを導出するために、深度情報を使用し得る。同じ深度にある動きベクトルは、同じ3D物体に関連付けられる可能性があり、同じ深度にない動きベクトルは、同じ3D物体に関連付けられる可能性が低いので、ノイズ低減フィルタを重み付けするために深度情報を使用することは、フィルタ処理された動きベクトルの精度を改善し得る。
いくつかの例では、本明細書で説明されるシステムは、深度情報を使用して、2D動きベクトルを3D動きベクトルにコンバートし、次いで、3D動きベクトルを使用して、合成2Dフレームを外挿し得る。いくつかの例では、本明細書で説明されるシステムは、深度コンポーネントを決定するために2D動きベクトルが導出された2つの2Dフレームに関連付けられた深度情報を、動き推定と比較し得る。これらの深度コンポーネントは、合成2Dフレームを外挿するために使用され得る3D動きベクトルを生成するために、2D動きベクトルと組み合わせられ得る。図14は、深度情報110(1)および110(2)と、2D動きベクトル116(1)とから導出された、例示的な3D動きベクトル117(1)を示す。3D動きベクトル117(1)は、2Dフレーム106(1)および106(2)の各ピクセル要素についての動き推定値または測定値を含み得る。図14に示されているように、3D動きベクトル117(1)は、各々が列800または列900のうちの1つに対応する要素の列1400と、各々が行802または行902のうちの1つに対応する要素の行1402とを含み得る。この例では、要素1404および1408の各々は、背景物体206についての推定された3D動きベクトルを含んでいることがあり、要素1406の各々は、中景物体204の推定された3D動きベクトルを含んでいることがあり、要素1410の各々は、前景物体202の推定された3D動きベクトルを含んでいることがある。図14中に含まれている動き推定は、主に説明の目的のためのものであり、網羅的であること、または示されている正確な形態に限定されることは意図されない。
いくつかの例では、本明細書で説明されるシステムは、(たとえば、上記で説明された方法を使用して)(1)3D動きベクトルを2D動きベクトルに投影することと、(2)投影された2D動きベクトルを使用して、合成2Dフレームを外挿することとを行うことによって、3D動きベクトルを使用して、合成2Dフレームを外挿し得る。3D動きベクトルを2D動きベクトルに投影する前に、本明細書で説明されるシステムは、3D動きベクトルに対して1つまたは複数の動作を実施し得る。たとえば、3D動きベクトルを2D動きベクトルに投影する前に、本明細書で説明されるシステムは、(たとえば、複数の3D動きベクトルに、好適な重み付きフィルタを適用することによって)3D動きベクトルからノイズを除去し得る。
図11に示されているように、ステップ1110において、本明細書で説明されるシステムのうちの1つまたは複数は、ユーザに合成2Dフレームを表示し得る。たとえば、表示モジュール124は、ディスプレイ108を介してユーザに合成フレーム122(1)〜(N)の一部または全部を表示し得る。
本明細書で説明されるシステムは、様々なやり方でステップ1110を実施し得る。いくつかの例では、本明細書で説明されるシステムおよび方法は、アプリケーションがディスプレイの所望のフレームレートまたは最適フレームレートよりも低いフレームレートにおいて3Dシーンをレンダリングするときはいつでも、合成2Dフレームを表示し得る。たとえば、図6に示されているように、アプリケーション102は、45フレーム毎秒において2Dフレーム106(1)〜(N)をレンダリングし得、ディスプレイ108は、2Dフレーム106(1)〜(N)と合成2Dフレーム122(1)〜(N)とが一緒に90フレーム毎秒において表示されるように、2Dフレーム106(1)〜(N)の合間に合成2Dフレーム122(1)〜(N)を表示し得る。別の例では、図7に示されているように、アプリケーション102は、90フレーム毎秒において表示されるのに十分に迅速に2Dフレーム106(3)をレンダリングすることができないことがある。しかしながら、この例において示されているように、ディスプレイ108は、2Dフレーム106と合成2Dフレーム122とが一緒に90フレーム毎秒において表示され得るように、2Dフレーム106(2)と106(4)との合間に合成2Dフレーム122(1)および122(2)を表示し得る。いくつかの例では、アプリケーションが所望のフレームレートまたは最適フレームレートにおいてフレームをサブミットすることができないとき、本明細書で説明されるシステムは、アプリケーションに、そのレンダリングフレームレートを(たとえば、所望のフレームレートまたは最適フレームレートの1/2に)低減するように命令するか、またはそのように低減させ得、外挿された合成2Dフレームを使用して中間フレームを提供し得る。
上記で説明されたように、本開示の実施形態は、進展する3Dシーンからの深度情報と、3Dシーンからレンダリングされた2Dフレームからの動きの推定値とを使用して、補足的合成2Dフレームを外挿し得る。いくつかの例では、本明細書で説明されるシステムおよび方法は、VRまたはARアプリケーションがディスプレイの所望のフレームレートまたは最適フレームレートよりも低いフレームレートにおいて3Dシーンをレンダリングするときはいつでも、これらの補足的合成2Dフレームを表示し得、これは、VRまたはARエクスペリエンスが、滑らかで、ユーザにとって楽しめるもののままであることを確実にし得る。追加または代替として、本明細書で説明されるシステムおよび方法は、ディスプレイの所望のフレームレートまたは最適フレームレートにおいて2Dフレームをレンダリングすることができないハードウェア上で稼働しているVRまたはARアプリケーションについて補足的合成2Dフレームを表示し得、これは、楽しめるVRまたはARエクスペリエンスを以前はもたらすことができなかったより低い性能のハードウェア上のVRまたはARエクスペリエンスを改善し得る。少なくとも1つの例では、VRまたはARアプリケーションによってレンダリングされたあらゆる2Dフレームについて合成2Dフレームを表示することによって、本明細書で説明されるシステムおよび方法は、VRまたはARアプリケーションがディスプレイの所望のフレームレートまたは最適フレームレートの1/2において2Dフレームをレンダリングすることを可能にし得、これは、3Dシーンから同じ数の2Dフレームを作り出すために必要とされる中央処理ユニット(CPU)および/またはグラフィカル処理ユニット(GPU)の時間を1/2にし得る。
いくつかの例では、本明細書で説明されるシステムおよび方法は、後続の2Dフレームを予測するために、アニメーション、カメラ並進、頭部並進などについて、2つの前の2Dフレームを検査し得る。本明細書で説明されるシステムおよび方法は、アニメーション、カメラ並進、頭部並進などを2D動きベクトルとして表し得、その2D動きベクトルは、いくつかの状況ではノイズが多いことがある。外挿された2Dフレームを生成するために2D動きベクトルを使用することより前に、本明細書で説明されるシステムおよび方法は、2D動きベクトルに、その重みが深度情報から導出される重み付きフィルタを適用し得、これは、2D動きベクトルにおいて見つけられるノイズを低減し、したがって、2D動きベクトルから生成される外挿された2Dフレームの品質を改善し得る。いくつかの例では、本システムおよび本方法は、2D動きベクトルを3D動きベクトルに変換するために深度情報を使用し得、その3D動きベクトルは、外挿された2Dフレームを生成するために、2D動きベクトルの代わりに使用され得る。
上記で詳述されたように、本明細書で説明されるおよび/または示されるコンピューティングデバイスおよびシステムは、本明細書で説明されるモジュール内に含まれているものなど、コンピュータ可読命令を実行することが可能な任意のタイプまたは形態のコンピューティングデバイスまたはシステムを広く表す。それらの最も基本的な構成では、これらの(1つまたは複数の)コンピューティングデバイスは、各々、少なくとも1つのメモリデバイスと少なくとも1つの物理プロセッサとを含み得る。
いくつかの例では、「メモリデバイス」という用語は、概して、データおよび/またはコンピュータ可読命令を記憶することが可能な任意のタイプまたは形態の揮発性または不揮発性記憶デバイスまたは媒体を指す。一例では、メモリデバイスは、本明細書で説明されるモジュールのうちの1つまたは複数を記憶、ロード、および/または維持し得る。メモリデバイスの例は、限定はしないが、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、フラッシュメモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、光ディスクドライブ、キャッシュ、それらのうちの1つまたは複数の変形または組合せ、あるいは任意の他の好適な記憶メモリを含む。
いくつかの例では、「物理プロセッサ」という用語は、概して、コンピュータ可読命令を解釈および/または実行することが可能な任意のタイプまたは形態のハードウェア実装処理ユニットを指す。一例では、物理プロセッサは、上記で説明されたメモリデバイスに記憶された1つまたは複数のモジュールにアクセスし、および/またはそれらのモジュールを変更し得る。物理プロセッサの例は、限定はしないが、マイクロプロセッサ、マイクロコントローラ、中央処理ユニット(CPU)、ソフトコアプロセッサを実装するフィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、それらのうちの1つまたは複数の部分、それらのうちの1つまたは複数の変形または組合せ、あるいは任意の他の好適な物理プロセッサを含む。
別個の要素として示されているが、本明細書で説明されるおよび/または示されるモジュールは、単一のモジュールまたはアプリケーションの部分を表し得る。さらに、いくつかの実施形態では、これらのモジュールのうちの1つまたは複数は、コンピューティングデバイスによって実行されたとき、コンピューティングデバイスに1つまたは複数のタスクを実施させ得る、1つまたは複数のソフトウェアアプリケーションまたはプログラムを表し得る。たとえば、本明細書で説明されるおよび/または示されるモジュールのうちの1つまたは複数は、本明細書で説明されるおよび/または示されるコンピューティングデバイスまたはシステムのうちの1つまたは複数に記憶され、それらの上で稼働するように構成された、モジュールを表し得る。これらのモジュールのうちの1つまたは複数は、1つまたは複数のタスクを実施するように構成された1つまたは複数の専用コンピュータの全部または部分をも表し得る。
さらに、本明細書で説明されるモジュールのうちの1つまたは複数は、データ、物理デバイス、および/または物理デバイスの表現を、ある形態から別の形態に変換し得る。たとえば、本明細書で具陳されるモジュールのうちの1つまたは複数は、進展する3Dシーンからレンダリングされた2つの2Dフレームと、3Dシーンについての深度情報とを受信し、2つの2Dフレームを2D動きベクトルに変換し、2Dフレームと2D動きベクトルと3Dシーンについての深度情報とから合成2Dフレームを外挿するシステムに変換の結果を出力し、2Dフレームと2D動きベクトルと3Dシーンについての深度情報とから合成2Dフレームを外挿するために変換の結果を使用し、ユーザに合成2Dフレームを表示し得る。追加または代替として、本明細書で具陳されるモジュールのうちの1つまたは複数は、コンピューティングデバイス上で実行すること、コンピューティングデバイス上にデータを記憶すること、および/または、場合によっては、コンピューティングデバイスと対話することによって、プロセッサ、揮発性メモリ、不揮発性メモリ、および/または物理的コンピューティングデバイスの任意の他の部分を、ある形態から別の形態に変換し得る。
いくつかの実施形態では、「コンピュータ可読媒体」という用語は、概して、コンピュータ可読命令を記憶または搬送することが可能な任意の形態のデバイス、キャリア、または媒体を指す。コンピュータ可読媒体の例は、限定はしないが、搬送波などの伝送型媒体、ならびに、磁気記憶媒体(たとえば、ハードディスクドライブ、テープドライブ、およびフロッピーディスク)、光記憶媒体(たとえば、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、およびBLU−RAYディスク)、電子記憶媒体(たとえば、ソリッドステートドライブおよびフラッシュメディア)、および他の配信システムなど、非一時的型媒体を含む。
本開示の実施形態は、人工現実システムを含むか、または人工現実システムに関連して実装され得る。人工現実は、ユーザへの提示の前に何らかの様式で調整された形式の現実であり、これは、たとえば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッド現実、あるいはそれらの何らかの組合せおよび/または派生物を含み得る。人工現実コンテンツは、完全に生成されたコンテンツ、またはキャプチャされた(たとえば、現実世界の)コンテンツと組み合わせられた生成されたコンテンツを含み得る。人工現実コンテンツは、ビデオ、オーディオ、触覚フィードバック、またはそれらの何らかの組合せを含み得、それらのいずれも、単一のチャネルまたは複数のチャネルにおいて提示され得る(観察者に3次元効果をもたらすステレオビデオなど)。加えて、いくつかの実施形態では、人工現実は、たとえば、人工現実におけるコンテンツを作り出すために使用される、および/または人工現実において別様に使用される(たとえば、人工現実におけるアクティビティを実施する)アプリケーション、製品、アクセサリ、サービス、またはそれらの何らかの組合せにも関連付けられ得る。人工現実コンテンツを提供する人工現実システムは、ホストコンピュータシステムに接続されたヘッドマウントディスプレイ(HMD)、独立型HMD、モバイルデバイスまたはコンピューティングシステム、あるいは、1人または複数の観察者に人工現実コンテンツを提供することが可能な任意の他のハードウェアプラットフォームを含む、様々なプラットフォーム上に実装され得る。
本明細書で説明されるおよび/または示されるステップのプロセスパラメータおよびシーケンスは、単に例として与えられ、必要に応じて変えられ得る。たとえば、本明細書で示されるおよび/または説明されるステップは、特定の順序で示されるかまたは説明され得るが、これらのステップは、必ずしも、示されるまたは説明される順序で実施される必要はない。本明細書で説明されるおよび/または示される様々な例示的な方法はまた、本明細書で説明されるまたは示されるステップのうちの1つまたは複数を省略するか、あるいは開示されるものに加えて追加のステップを含み得る。
先行する説明は、他の当業者が本明細書で開示される例示的な実施形態の様々な態様を最も良く利用することを可能にするために提供された。この例示的な説明は、網羅的であること、または開示される正確な形態に限定されることは意図されない。多くの変更および変形が、本開示の趣旨および範囲から逸脱することなく可能である。本明細書で開示される実施形態は、あらゆる点で、限定的ではなく例示的であると見なされるべきである。本開示の範囲を決定する際に、添付の特許請求の範囲およびそれらの均等物の参照が行われるべきである。
別段に記載されていない限り、本明細書および特許請求の範囲において使用される「に接続された(connected to)」および「に結合された(coupled to)」という用語(およびそれらの派生語)は、直接的接続と間接的接続(すなわち、他の要素または構成要素を介したもの)の両方を許容するものとして解釈されるべきである。さらに、本明細書および特許請求の範囲において使用される「a」または「an」という用語は、「のうちの少なくとも1つ」を意味するものとして解釈されるべきである。最後に、使いやすさのために、本明細書および特許請求の範囲において使用される「含む(including)」および「有する(having)」という用語(およびそれらの派生語)は、「備える、含む(comprising)」という単語と交換可能であり、その単語と同じ意味を有する。
Claims (20)
- 進展する3次元シーンを描く第1の2次元フレームを受信することであって、前記第1の2次元フレームが、前記進展する3次元シーン中の複数の要素を描く、第1の2次元フレームを受信することと、
前記進展する3次元シーンを描く第2の2次元フレームを受信することであって、前記第2の2次元フレームが、前記複数の要素を描く、第2の2次元フレームを受信することと、
前記第1の2次元フレームおよび前記第2の2次元フレームから複数の2次元動きベクトルを導出することであって、前記複数の2次元動きベクトルの各々が、前記第1の2次元フレーム中の要素の座標から前記第2の2次元フレーム中の前記要素の座標への推定されたオフセットを含む、複数の2次元動きベクトルを導出することと、
前記進展する3次元シーンについての深度情報を受信することと、
前記複数の2次元動きベクトルおよび前記深度情報を使用して、合成2次元フレームを外挿することと
ユーザに前記合成2次元フレームを表示することと
を含む、コンピュータ実装方法。 - 前記第1の2次元フレームおよび前記第2の2次元フレームが、所望のフレームレートの1/2において、前記進展する3次元シーンから連続的にレンダリングされ、
前記第1の2次元フレームおよび前記第2の2次元フレームが、前記所望のフレームレートの1/2において前記ユーザに連続的に表示され、
前記合成2次元フレームを表示することが、前記所望のフレームレートにおいて前記合成2次元フレームを表示することを含む、
請求項1に記載のコンピュータ実装方法。 - 前記第1の2次元フレーム、前記第2の2次元フレーム、および第3の2次元フレームが、前記進展する3次元シーンから連続的にレンダリングされ、
前記第1の2次元フレームおよび前記第2の2次元フレームが、所望のフレームレートにおいて前記ユーザに連続的に表示され、
前記合成2次元フレームを表示することは、
前記第3の2次元フレームが前記所望のフレームレートにおいて前記ユーザに表示されるように適時にレンダリングすることができなかったと決定することと、
前記所望のフレームレートにおいて、前記第3の2次元フレームの代わりに前記合成2次元フレームを表示することと
を含む、
請求項1に記載のコンピュータ実装方法。 - 前記複数の2次元動きベクトルおよび前記深度情報を使用して、前記合成2次元フレームを外挿することが、前記複数の2次元動きベクトルに重み付きフィルタを適用することによって、前記複数の2次元動きベクトルからノイズを除去することを含み、
前記深度情報が、前記重み付きフィルタの重みを導出するために使用される、
請求項1に記載のコンピュータ実装方法。 - 前記重み付きフィルタが中心重み付きメジアンフィルタである、請求項4に記載のコンピュータ実装方法。
- 前記複数の2次元動きベクトルおよび前記深度情報を使用して、前記合成2次元フレームを外挿することが、
前記深度情報を使用して、前記複数の2次元動きベクトルを複数の3次元動きベクトルにコンバートすることと、
前記複数の3次元動きベクトルを使用して、前記合成2次元フレームを外挿することと
を含む、請求項1に記載のコンピュータ実装方法。 - 前記第1の2次元フレームおよび前記第2の2次元フレームから前記複数の2次元動きベクトルを導出することが、
ハードウェア動き推定器への入力として、前記第1の2次元フレームおよび前記第2の2次元フレームを送信することと、
前記ハードウェア動き推定器からの出力として、前記複数の2次元動きベクトルを受信することと
を含む、請求項1に記載のコンピュータ実装方法。 - 前記第1の2次元フレームおよび前記第2の2次元フレームが、仮想現実アプリケーションまたは拡張現実アプリケーションから受信される、請求項1に記載のコンピュータ実装方法。
- 前記複数の2次元動きベクトルおよび前記深度情報を使用して、前記合成2次元フレームを外挿することが、前記複数の2次元動きベクトルおよび前記深度情報に少なくとも部分的に基づいて、前記第2の2次元フレームをワーピングすることによって、前記第2の2次元フレームから前記合成2次元フレームを導出することを含む、請求項1に記載のコンピュータ実装方法。
- 物理世界における前記ユーザの並進動きを追跡することと、
前記複数の2次元動きベクトルを導出する前に、前記ユーザの並進動きを考慮するために、前記深度情報を使用して、前記第2の2次元フレームのピクセル要素を再投影することと
をさらに含む、請求項1に記載のコンピュータ実装方法。 - メモリに記憶されたフレーム受信モジュールであって、
進展する3次元シーンを描く第1の2次元フレームであって、前記進展する3次元シーン中の複数の要素を描く、第1の2次元フレームと、
前記進展する3次元シーンを描く第2の2次元フレームであって、前記複数の要素を描く、第2の2次元フレームと
を受信する、フレーム受信モジュールと、
前記第1の2次元フレームおよび前記第2の2次元フレームから複数の2次元動きベクトルを導出する、メモリに記憶された導出モジュールであって、前記複数の2次元動きベクトルの各々が、前記第1の2次元フレーム中の要素の座標から前記第2の2次元フレーム中の前記要素の座標への推定されたオフセットを含む、導出モジュールと、
前記進展する3次元シーンについての深度情報を受信する、メモリに記憶された深度情報受信モジュールと、
前記複数の2次元動きベクトルおよび前記深度情報を使用して、合成2次元フレームを外挿する、メモリに記憶された外挿モジュールと、
ユーザに前記合成2次元フレームを表示する、メモリに記憶された表示モジュールと、
前記フレーム受信モジュール、前記導出モジュール、前記深度情報受信モジュール、前記外挿モジュール、および前記表示モジュールを実行する、少なくとも1つのプロセッサと
を備える、システム。 - 前記第1の2次元フレームおよび前記第2の2次元フレームが、所望のフレームレートの1/2において、前記進展する3次元シーンから連続的にレンダリングされ、
前記第1の2次元フレームおよび前記第2の2次元フレームが、前記所望のフレームレートの1/2において前記ユーザに連続的に表示され、
前記表示モジュールが、前記所望のフレームレートにおいて前記合成2次元フレームを表示する、
請求項11に記載のシステム。 - 前記第1の2次元フレーム、前記第2の2次元フレーム、および第3の2次元フレームが、前記進展する3次元シーンから連続的にレンダリングされ、
前記表示モジュールが、所望のフレームレートにおいて前記ユーザに前記第1の2次元フレームおよび前記第2の2次元フレームをさらに連続的に表示し、
前記表示モジュールは、
前記第3の2次元フレームが前記所望のフレームレートにおいて前記ユーザに表示されるように適時にレンダリングすることができなかったと決定することと、
前記所望のフレームレートにおいて、前記第3の2次元フレームの代わりに前記合成2次元フレームを表示することと
を行うことによって、前記合成2次元フレームを表示する、
請求項11に記載のシステム。 - 前記外挿モジュールが、前記複数の2次元動きベクトルに重み付きフィルタを適用することによって、前記複数の2次元動きベクトルからノイズを除去することによって、前記複数の2次元動きベクトルおよび前記深度情報を使用して、前記合成2次元フレームを外挿し、
前記深度情報が、前記重み付きフィルタの重みを導出するために使用される、
請求項11に記載のシステム。 - 前記重み付きフィルタが中心重み付きメジアンフィルタである、請求項14に記載のシステム。
- 前記外挿モジュールが、
前記深度情報を使用して、前記複数の2次元動きベクトルを複数の3次元動きベクトルにコンバートすることと、
前記複数の3次元動きベクトルを使用して、前記合成2次元フレームを外挿することと
を行うことによって、前記複数の2次元動きベクトルおよび前記深度情報を使用して、前記合成2次元フレームを外挿する、請求項11に記載のシステム。 - 前記導出モジュールが、
ハードウェア動き推定器への入力として、前記第1の2次元フレームおよび前記第2の2次元フレームを送信することと、
前記ハードウェア動き推定器からの出力として、前記複数の2次元動きベクトルを受信することと
を行うことによって、前記第1の2次元フレームおよび前記第2の2次元フレームから前記複数の2次元動きベクトルを導出する、請求項11に記載のシステム。 - 前記フレーム受信モジュールが、仮想現実アプリケーションまたは拡張現実アプリケーションから、前記第1の2次元フレームおよび前記第2の2次元フレームを受信する、請求項11に記載のシステム。
- 前記外挿モジュールが、前記複数の2次元動きベクトルおよび前記深度情報に少なくとも部分的に基づいて、前記第2の2次元フレームをワーピングすることによって、前記複数の2次元動きベクトルおよび前記深度情報を使用して、前記第2の2次元フレームから前記合成2次元フレームを外挿する、請求項11に記載のシステム。
- コンピュータ可読命令を備える、コンピュータ可読媒体であって、前記コンピュータ可読命令が、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、前記コンピューティングデバイスに、
進展する3次元シーンを描く第1の2次元フレームを受信することであって、前記第1の2次元フレームが、前記進展する3次元シーン中の複数の要素を描く、第1の2次元フレームを受信することと、
前記進展する3次元シーンを描く第2の2次元フレームを受信することであって、前記第2の2次元フレームが、前記複数の要素を描く、第2の2次元フレームを受信することと、
前記第1の2次元フレームおよび前記第2の2次元フレームから複数の2次元動きベクトルを導出することであって、前記複数の2次元動きベクトルの各々が、前記第1の2次元フレーム中の要素の座標から前記第2の2次元フレーム中の前記要素の座標への推定されたオフセットを含む、複数の2次元動きベクトルを導出することと、
前記進展する3次元シーンについての深度情報を受信することと、
前記複数の2次元動きベクトルおよび前記深度情報を使用して、合成2次元フレームを外挿することと、
ユーザに前記合成2次元フレームを表示することと
を行わせる、コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/053,741 US10595000B1 (en) | 2018-08-02 | 2018-08-02 | Systems and methods for using depth information to extrapolate two-dimentional images |
US16/053,741 | 2018-08-02 | ||
PCT/US2019/044708 WO2020028690A1 (en) | 2018-08-02 | 2019-08-01 | Systems and methods for using depth information to extrapolate two-dimentional images |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021533646A true JP2021533646A (ja) | 2021-12-02 |
Family
ID=67659992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021505869A Pending JP2021533646A (ja) | 2018-08-02 | 2019-08-01 | 深度情報を使用して2次元画像を外挿するためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10595000B1 (ja) |
EP (1) | EP3830795A1 (ja) |
JP (1) | JP2021533646A (ja) |
KR (1) | KR20210038659A (ja) |
CN (1) | CN112789660A (ja) |
WO (1) | WO2020028690A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180275837A1 (en) * | 2017-03-23 | 2018-09-27 | RideOn Ltd. | Graphical user interface (gui) controls |
US10595000B1 (en) | 2018-08-02 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for using depth information to extrapolate two-dimentional images |
US12020442B2 (en) * | 2019-06-25 | 2024-06-25 | Arm Limited | Graphics processing systems |
US11783533B2 (en) * | 2021-10-11 | 2023-10-10 | Meta Platforms Technologies, Llc | Frame extrapolation with application generated motion vector and depth |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009505550A (ja) * | 2005-08-17 | 2009-02-05 | エヌエックスピー ビー ヴィ | 奥行き抽出のためのビデオ処理方法及び装置 |
JP2009199270A (ja) * | 2008-02-20 | 2009-09-03 | Konica Minolta Holdings Inc | 解析装置 |
JP2011019202A (ja) * | 2009-07-10 | 2011-01-27 | Sony Corp | 映像信号処理装置および映像表示装置 |
WO2011080892A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | ステレオ画像符号化装置、方法 |
WO2011105297A1 (ja) * | 2010-02-23 | 2011-09-01 | 日本電信電話株式会社 | 動きベクトル推定方法、多視点映像符号化方法、多視点映像復号方法、動きベクトル推定装置、多視点映像符号化装置、多視点映像復号装置、動きベクトル推定プログラム、多視点映像符号化プログラム、及び多視点映像復号プログラム |
WO2013072965A1 (ja) * | 2011-11-17 | 2013-05-23 | パナソニック株式会社 | 映像処理装置および映像処理方法 |
JP2017050731A (ja) * | 2015-09-02 | 2017-03-09 | 日本電信電話株式会社 | 動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラム |
JP2018087849A (ja) * | 2016-11-28 | 2018-06-07 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101183000B1 (ko) * | 2004-07-30 | 2012-09-18 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법 |
US8600189B2 (en) * | 2007-11-12 | 2013-12-03 | Qualcomm Incorporated | Block-based image stabilization |
US8421847B2 (en) * | 2010-05-21 | 2013-04-16 | Mediatek Inc. | Apparatus and method for converting two-dimensional video frames to stereoscopic video frames |
CN102724531B (zh) * | 2012-06-05 | 2015-08-12 | 上海易维视科技有限公司 | 一种二维视频转三维视频的方法及系统 |
US10491916B2 (en) * | 2013-10-01 | 2019-11-26 | Advanced Micro Devices, Inc. | Exploiting camera depth information for video encoding |
US9940541B2 (en) * | 2015-07-15 | 2018-04-10 | Fyusion, Inc. | Artificially rendering images using interpolation of tracked control points |
CN106056661B (zh) * | 2016-05-31 | 2018-08-28 | 钱进 | 基于Direct3D 11的三维图形渲染引擎 |
EP3482563A1 (en) * | 2016-07-08 | 2019-05-15 | VID SCALE, Inc. | 360-degree video coding using geometry projection |
KR102452314B1 (ko) * | 2016-09-08 | 2022-10-07 | 삼성전자주식회사 | 컨텐츠 재생 방법 및 이를 지원하는 전자 장치 |
EP3349176B1 (en) * | 2017-01-17 | 2021-05-12 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two-dimensional images for consumption in virtual reality |
US10762691B2 (en) * | 2017-09-08 | 2020-09-01 | Microsoft Technology Licensing, Llc | Techniques for compensating variable display device latency in image display |
US10595000B1 (en) | 2018-08-02 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for using depth information to extrapolate two-dimentional images |
-
2018
- 2018-08-02 US US16/053,741 patent/US10595000B1/en not_active Expired - Fee Related
-
2019
- 2019-08-01 JP JP2021505869A patent/JP2021533646A/ja active Pending
- 2019-08-01 KR KR1020217006142A patent/KR20210038659A/ko not_active Application Discontinuation
- 2019-08-01 WO PCT/US2019/044708 patent/WO2020028690A1/en unknown
- 2019-08-01 EP EP19753555.2A patent/EP3830795A1/en not_active Withdrawn
- 2019-08-01 CN CN201980065409.2A patent/CN112789660A/zh active Pending
-
2020
- 2020-02-06 US US16/783,190 patent/US10979690B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009505550A (ja) * | 2005-08-17 | 2009-02-05 | エヌエックスピー ビー ヴィ | 奥行き抽出のためのビデオ処理方法及び装置 |
JP2009199270A (ja) * | 2008-02-20 | 2009-09-03 | Konica Minolta Holdings Inc | 解析装置 |
JP2011019202A (ja) * | 2009-07-10 | 2011-01-27 | Sony Corp | 映像信号処理装置および映像表示装置 |
WO2011080892A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | ステレオ画像符号化装置、方法 |
WO2011105297A1 (ja) * | 2010-02-23 | 2011-09-01 | 日本電信電話株式会社 | 動きベクトル推定方法、多視点映像符号化方法、多視点映像復号方法、動きベクトル推定装置、多視点映像符号化装置、多視点映像復号装置、動きベクトル推定プログラム、多視点映像符号化プログラム、及び多視点映像復号プログラム |
WO2013072965A1 (ja) * | 2011-11-17 | 2013-05-23 | パナソニック株式会社 | 映像処理装置および映像処理方法 |
JP2017050731A (ja) * | 2015-09-02 | 2017-03-09 | 日本電信電話株式会社 | 動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラム |
JP2018087849A (ja) * | 2016-11-28 | 2018-06-07 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3830795A1 (en) | 2021-06-09 |
WO2020028690A1 (en) | 2020-02-06 |
US10979690B1 (en) | 2021-04-13 |
KR20210038659A (ko) | 2021-04-07 |
US10595000B1 (en) | 2020-03-17 |
CN112789660A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021533646A (ja) | 深度情報を使用して2次元画像を外挿するためのシステムおよび方法 | |
JP6514826B2 (ja) | ピクセル速度を用いた電子ディスプレイ安定化 | |
CN110402425B (zh) | 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法 | |
JP7166484B1 (ja) | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 | |
TWI813098B (zh) | 用於新穎視圖合成之神經混合 | |
CN104010180B (zh) | 三维视频滤波方法和装置 | |
US20180374258A1 (en) | Image generating method, device and computer executable non-volatile storage medium | |
JP7425196B2 (ja) | ハイブリッドストリーミング | |
JP7145241B2 (ja) | 汎用処理ユニットからハードウェアアクセラレータユニットに画像ベースの追跡オペレーションをオフローディングするためのシステム及び方法 | |
EP3622484A1 (en) | Application of edge effects to 3d virtual objects | |
JP2019510991A (ja) | 適応焦点面を有して仮想現実をレンダリングする構成 | |
US9161012B2 (en) | Video compression using virtual skeleton | |
CN113362442A (zh) | 一种虚拟现实图像的渲染方法、存储介质及虚拟现实设备 | |
CN111696034A (zh) | 图像处理方法、装置及电子设备 | |
US12045933B2 (en) | System and method for simulating light-in-flight | |
US11615594B2 (en) | Systems and methods for reconstruction of dense depth maps | |
Andersson et al. | Temporally Dense Ray Tracing. | |
WO2023038820A1 (en) | Environment capture and rendering | |
US8760466B1 (en) | Coherent noise for non-photorealistic rendering | |
KR101425321B1 (ko) | 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법 | |
CN103227930A (zh) | 图像处理设备和方法 | |
US11954786B2 (en) | Reprojection for high field rate displays | |
US20240221300A1 (en) | System and Method for Unsupervised and Autonomous 4D Dynamic Scene and Objects Interpretation, Segmentation, 3D Reconstruction, and Streaming | |
CN115187491B (zh) | 图像降噪处理方法、图像滤波处理方法及装置 | |
CN117974814A (zh) | 用于图像处理的方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240206 |