JP2021518701A - Dibrシステムにおいて立体的視点を生じさせるための、多焦点面ベースの方法(mfp−dibr) - Google Patents

Dibrシステムにおいて立体的視点を生じさせるための、多焦点面ベースの方法(mfp−dibr) Download PDF

Info

Publication number
JP2021518701A
JP2021518701A JP2020550166A JP2020550166A JP2021518701A JP 2021518701 A JP2021518701 A JP 2021518701A JP 2020550166 A JP2020550166 A JP 2020550166A JP 2020550166 A JP2020550166 A JP 2020550166A JP 2021518701 A JP2021518701 A JP 2021518701A
Authority
JP
Japan
Prior art keywords
focal plane
mfp
image
depth
exemplary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020550166A
Other languages
English (en)
Other versions
JPWO2019183211A5 (ja
Inventor
ティー. ヴァリー、セッポ
ティー. ヴァリー、セッポ
ケー. シルタネン、ペッカ
ケー. シルタネン、ペッカ
Original Assignee
ピーシーエムエス ホールディングス インコーポレイテッド
ピーシーエムエス ホールディングス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピーシーエムエス ホールディングス インコーポレイテッド, ピーシーエムエス ホールディングス インコーポレイテッド filed Critical ピーシーエムエス ホールディングス インコーポレイテッド
Publication of JP2021518701A publication Critical patent/JP2021518701A/ja
Publication of JPWO2019183211A5 publication Critical patent/JPWO2019183211A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/52Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Generation (AREA)

Abstract

例示的な方法のいくつかの実施形態は、奥行き情報をもつ入力画像を受信することと、この入力画像を焦点面画像のセットにマッピングすることと、左眼と右眼との間の立体不一致を提供するために頭部方位情報を使用して焦点面画像のセットを方位付けることと、方位付けられた焦点面画像のセットを表示することとを含んでよい。別の例示的な方法のいくつかの実施形態は、3次元(3D)コンテンツの説明を受信することと、現実世界環境に対する視聴者の動きを示す情報をトラッカから受信することと、視聴者の動きを示す情報を受信したことに応答して、3Dコンテンツの多焦点面を変えることによって運動視差を合成することと、変えられた多焦点面レンダリングを使用して多焦点面ディスプレイに画像をレンダリングすることとを含んでよい。

Description

関連出願の相互参照
本出願は、その全体が参照により本明細書に組み込まれる、2018年3月23日に出願された「Multifocal Plane Based Method to Produce Stereoscopic Viewpoints in a DIBR System (MFP-DIBR)」という名称の米国仮特許出願第62/647,568号の非仮特許出願であり、その利益を米国特許法第119条(e)の下で主張するものである。
ウェアラブルメガネタイプのニアアイディスプレイ(NED:near-eye display)は、仮想現実およびゲームで普及しており、最近は拡張現実でも普及してきている。表示要素として携帯電話を使用するメガネは、仮想映像またはカメラで捉えられた映像を視聴するための普及した低費用デバイスの一例である。一般に、これらの表示の全ては、立体的画像ペアのシーケンスを提示する。立体的レンダリングは、立体的3D(S3D)TVのためのものを含む外部ディスプレイともに使用されてよい。
以前のMFPベースまたは3Dベースの視点生成システムの多くは、視点がユーザ動きによりわずかに変化することがあり、より低い視覚的品質を有することがある。自然な調節をサポートする多くのニアアイディスプレイは、目を向けたときのディスプレイに対する小さい視点変化すら含む視点変化のサポートを欠く(アイボックス内部で視点をわずかに変化させる)。ディスオクルージョン(disocclusion)は当然、コンテンツに依存するが、大きな視点変化または不一致がより目立つ。立体映像または運動視差のための仮想視点を形成することは、例えば、360°映像の3DoF+拡張機能および他の3DoFアプリケーションにおいて使用されることがある。
Rahul Narainら、Optimal Presentation of Imagery with Focus Cues on Multi−Plane Displays、34(4) ACM TRANSACTIONS ON GRAPHICS 59:1〜12(2015年8月)(「Narain」) Panら、3D Video Disparity Scaling for Preference and Prevention of Discomfort、7863 PROCEEDINGS OF SPIE (2011年)(「Pan」) Linwei Zhuら、View−Spatial−Temporal Post−Refinement for View Synthesis in 3D Video Systems、28 Signal Processing: Image Communication 1342〜1357(2013年) (「Zhu」) Sergey Sukhanov、3D Content Production、ST. PETERSBURG ELECTROTECHNICAL UNIVERSITY (日付けのない提示、www.slideshare.net/mikhailvink/sergey−a−sukhanov−3d−content−productionから入手、ウェブサイトは、2011年3月12日公開を示す)(2019年2月26日に最終アクセスされた) Kristoph Fehn、A 3D−TV Approach Using Depth−Image−Based Rendering (DIBR)、Proceedings of VIIP ‘03(2003年9月) (Benalmadena、Spain)(「Fehn」) Shibata、Takashiら、Visual Discomfort with Stereo Displays: Effects of Viewing Distance and Direction of Vergence−Accommodation Conflict、PROCEEDINGS OF THE INT’L SOC. FOR OPTICS AND PHOTONICS (SPIE) 7863(2011年)(78630P1〜78630P9)(「Shibata」) Shiro Suyamaら、Apparent 3−D Image Perceived from Luminance−Modulated Two 2−D Images Displayed at Different Depths、44 (8) Vision Research 785−793(2004年4月)(「Suyama」) Simon J. Wattら、Real−World Stereoscopic Performance in Multiple−Focal−Plane Displays: How Far Apart Should the Image Planes Be?、SPIE: Stereoscopic Displays and Applications XXIII(2012年2月) Simon J. Wattら、Achieving Near−Correct Focus Cues in a 3−D Display Using Multiple Image Planes、5666 Proceedings of SPIE 393〜401(2005年) (「Watt 2005」) Kurt Akeleyら、A Stereo Display Prototype with Multiple Focal Distances,23(3) ACM TRANSACTIONS ON GRAPHICS(TOG) 804〜813(2004年)(「Akeley」) X. Hu & H. Hua、Design and Assessment of a Depth−Fused Multi−Focal−Plane Display Prototype、10(4) IEEE/OSA Journal of Display Technology 308〜316(2014年)(「Hu&Hua」) File:2D plus depth.png、WIKIPEDIA、//commons.wikimedia.org/w/index.php?curid=5489771(2019年2月22日に最終アクセスされた) Xuyuan Xuら、 Depth Map Misalignment Correction and Dilation for DIBR View Synthesis、28 Signal Processing: Image Communication 1023〜1045(2013年) Shibataら、The Zone of Comfort: Predicting Visual Discomfort with Stereo Displays、11(8):11 J. OF VISION 1〜29(2011年)(「Shibata II」) Paul V. Johnsonら、Dynamic Lens and Monovision 3D Displays to Improve Viewer Comfort、24(11) Opt. Exp. 11808〜11827(2016年) Zannoliら、Blur and the Perception of Depth at Occlusion、 16(6):17 Journal of Vision 1〜25(2016年) J. P. Rollandら、Multifocal Planes Head−Mounted Displays、39 Appl. Opt. 3209〜3215(2000年)(「Rolland」)
いくつかの実施形態による例示的な方法は、奥行き情報をもつ入力画像を受信することと、奥行き情報を使用して、入力画像を複数の焦点面画像にマッピングすることと、左眼と右眼との間の立体不一致を提供するために頭部方位情報を使用して複数の焦点面画像を方位付けることと、方位付けられた複数の焦点面画像を表示することとを含んでよい。
例示的な方法のいくつかの実施形態では、少なくとも入力画像を受信することおよび方位付けられた複数の焦点面画像を表示することは、多焦点面(MFP)ディスプレイによって実行される。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を方位付けることは、複数の焦点面画像のうちの1つまたは複数を回転させることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数を回転させることは、水平線と平行なベクトルに対して焦点面画像のうちの1つまたは複数のための不一致ベクトルを回転させることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を方位付けることは、複数の焦点面画像のうちの1つまたは複数をシフトすることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数をシフトすることは、それぞれの1つまたは複数の焦点面画像のための不一致ベクトルをスケーリングすることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数をシフトすることは、固定された起点に対して複数の焦点面画像のうちの1つまたは複数を回転させることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数をシフトすることは、固定された起点に対するオフセットの分だけ複数の焦点面画像のうちの1つまたは複数を移動させることを含む。
例示的な方法のいくつかの実施形態は、焦点面画像をシフトすることによって引き起こされる画像不一致を扱うために複数の焦点面画像を処理することをさらに含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を処理することは、複数の焦点面画像のうちの1つまたは複数をフィルタリングすることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を処理することは、複数の焦点面画像のうちの少なくとも1つに対する奥行きブレンド重みを決定することと、それぞれの奥行きブレンド重みを使用して複数の焦点面画像のうちの少なくとも1つを生成することとを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの少なくとも1つを生成することは、複数のテクスチャのうちの少なくとも1つにそれぞれの奥行きブレンド重みを乗算することを含む。
例示的な方法のいくつかの実施形態では、方位付けられた複数の焦点面画像を表示することは、立体的画像ペアを生成するためにシフトされた焦点面画像を結合することを含んでよい。
例示的な方法のいくつかの実施形態は、頭部方位情報を生成するために実世界環境に対する視聴者の位置の運動追跡センサ示度を測定することをさらに含んでよい。
例示的な方法のいくつかの実施形態は、頭部方位情報を生成したことに応答して、複数の焦点面画像のうちの1つまたは複数を変えることによって運動視差を合成することをさらに含んでよい。
例示的な方法のいくつかの実施形態では、合成された運動視差は、頭部方位情報を使用して互いに対して複数の焦点面画像のうちの1つまたは複数をスケーリングすることを含んでよく、頭部方位情報は、軸方向運動を示してよい。
例示的な方法のいくつかの実施形態は、低周波数コンテンツに対して入力画像をフィルタリングすることと、低周波数コンテンツを複数の焦点面画像に再配信することとをさらに含んでよい。
例示的な方法のいくつかの実施形態は、高周波数コンテンツに対して入力画像をフィルタリングすることと、高周波数コンテンツを複数の焦点面画像に分解することとをさらに含んでよい。
いくつかの実施形態による例示的な装置は、プロセッサと、このプロセッサ上で実行されるとき、上記で説明される例示的な方法のうちの1つを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、3次元(3D)コンテンツの説明を受信することと、実世界環境に対する視聴者の動きを示す情報をトラッカから受信することと、視聴者の動きを示す情報をトラッカから受信したことに応答して、3Dコンテンツの多焦点面を変えることによって運動視差を合成することと、変えられた多焦点面レンダリングを使用して多焦点面ディスプレイに画像をレンダリングすることとを含んでよい。
例示的な方法のいくつかの実施形態では、合成された運動視差は、視聴者の動きを示す情報を使用して互いに対して多焦点面をスケーリングすることを含んでよく、視聴者の動きは軸方向であってよい。
いくつかの実施形態による例示的な装置は、プロセッサ(例えば、1つまたは複数のプロセッサ)と、このプロセッサ上で実行されるとき、上記で説明される例示的な方法のうちの1つを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、入力画像にマッピングされる複数の焦点面画像を決定することと、左眼と右眼との間の立体不一致を提供するために頭部方位情報を使用して複数の焦点面画像を方位付けることと、方位付けられた複数の焦点面画像を表示することとを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を決定することは、複数の焦点面画像を受信することを含む。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を決定することは、複数の焦点面画像を生成するために入力画像を複数の焦点面画像にマッピングすることを含む。
いくつかの実施形態による例示的な装置は、プロセッサと、このプロセッサ上で実行されるとき、上記で説明される例示的な方法のうちの1つを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、3次元(3D)映像コンテンツを受信することと、視聴者方位信号を受信することと、3D映像コンテンツおよび視聴者方位信号を使用してディスプレイの1つまたは複数の焦点面のための画像データを決定することと、画像データを使用して1つまたは複数の焦点面画像をディスプレイにレンダリングすることとを含んでよい。
いくつかの実施形態による例示的な装置は、プロセッサと、このプロセッサ上で実行されるとき、上記で説明される例示的な方法を実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
より詳細な理解は、添付図面に関連して例として提示される以下の説明から得られる。そのうえ、図内の同じ参照番号は、同じ要素を示す。
いくつかの実施形態による、例示的な通信システムを図解する例示的なシステムのシステム図である。 いくつかの実施形態による、図1Aにおいて図解される通信システム内で使用され得る例示的な無線送受信ユニット(WTRU)を図解する例示的なシステムのシステム図である。 ユーザからの異なる奥行きで表示される焦点面の例示的なセットを図解する概略図である。 例示的な焦点面画像を示すイラストである。 パーシバルの快適視域に関して、左画像と右画像との間の例示的な画像不一致対観察者−スクリーン間距離を図解するグラフである。 回転されていない方位をもつ視聴者のための立体的表示のための例示的な左眼画像および右眼画像を図解する概略図である。 水平線が頭部とともに傾いた、回転された方位をもつ視聴者のための立体的表示のための、メガネ座標で縛られた例示的な左眼画像および右眼画像を図解する概略図である。 回転された方位および未変化の不一致をもつ視聴者のための立体的表示のための、水平線の方位に合致するように調整された、例示的な左眼画像および右眼画像を図解する概略図である。 画像不一致の操作のためのインタフェースの例示的なセットを図解するシステム図である。 DIBRベースの3D送信システムのためのインタフェースの例示的なセットを図解するシステム図である。 ソースカメラとターゲットカメラを変化させる場合にディスオクルージョンの外観を示す例示的なシナリオを図解する概略的な平面図である。 穴充填前の例示的な3Dワーピング画像を示すイラストである。 穴充填後の例示的な3Dワーピング画像を示すイラストである。 多くの立体的視聴システムにおける例示的な輻輳調節矛盾(VAC)を図解する概略斜視図である。 多くの立体的視聴システムにおける例示的な輻輳調節矛盾(VAC)を図解する概略斜視図である。 多くの立体的視聴システムにおける例示的な輻輳調節矛盾(VAC)を図解する概略斜視図である。 いくつかの実施形態による例示的な多焦点面(MFP)ニアアイディスプレイを図解する概略平面図である。 いくつかの実施形態による、近焦点画像面、中間焦点画像面、および遠焦点画像面の例示的な視聴を図解する概略平面図である。 観察者によって視聴される例示的な焦点画像面を図解する概略図である。 四角の例示的な画像のための例示的な前方焦点面および後方焦点面を図解する概略図である。 四角の例示的な画像のための例示的な前方焦点面および後方焦点面を図解する概略図である。 四角の例示的な画像のための例示的な前方焦点面および後方焦点面を図解する概略図である。 右眼画像および左眼画像に対して表示される例示的な焦点面を図解する概略正面図である。 右眼画像および左眼画像に対して表示される例示的な焦点面を図解する概略正面図である。 奥行きベースの光度重み付け関数を用いた2つの焦点面の例示的な視聴を図解する概略平面図である。 いくつかの実施形態による、左眼と右眼による3つの焦点面の例示的な視聴を図解する概略平面図である。 いくつかの実施形態による、奥行きブレンド(重み付け)のないMFP表示のための奥行きの例示的な量子化を図解する概略平面図である。 いくつかの実施形態による重み対奥行きの例を図解するグラフである。 いくつかの実施形態による重み対奥行きの例を図解するグラフである。 いくつかの実施形態による重み対奥行きの例示的なブレンド関数を図解するグラフである。 例示的なテスト画像を示すイラストである。 図21Bの場合の画素距離を図解する例示的な奥行きマップである。 いくつかの実施形態による、図21Aの奥行き重みを図21Bのテスト画像および図21Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図21Aの奥行き重みを図21Bのテスト画像および図21Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図21Aの奥行き重みを図21Bのテスト画像および図21Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による重み対奥行きの例示的なブレンド関数を図解するグラフである。 例示的なテスト画像を示すイラストである。 図22Bの場合の画素距離を図解する例示的な奥行きマップである。 いくつかの実施形態による、図22Aの奥行き重みを図22Bのテスト画像および図22Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図22Aの奥行き重みを図22Bのテスト画像および図22Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図22Aの奥行き重みを図22Bのテスト画像および図22Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、立体的画像不一致のための例示的なシナリオを図解する概略正面図である。 いくつかの実施形態による、立体的画像不一致のための例示的なシナリオを図解する概略正面図である。 いくつかの実施形態による、立体的画像不一致のための例示的なシナリオを図解する概略正面図である。 いくつかの実施形態による、視聴者方位の方向をもつ画像不一致のための例示的なシナリオを図解する概略正面図である。 いくつかの実施形態による、視聴者方位の方向をもつ画像不一致のための例示的なシナリオを図解する概略正面図である。 いくつかの実施形態による、視聴者方位の方向をもつ画像不一致のための例示的なシナリオを図解する概略正面図である。 いくつかの実施形態による、左眼および右眼のシフトおよび投影されたMFP(left and right eye shifted and projected MFP)を生成するための処理ブロックおよびインタフェースの例示的なセットを図解するシステム図である。 いくつかの実施形態による、視聴者方位の3つのシナリオのための左眼および右眼のシフトおよび投影されたMFPを生成するための処理ブロックおよびインタフェースの例示的なセットを図解するシステム図である。 いくつかの実施形態による、異なる視聴者方位の下で視聴される例示的な焦点面を図解する概略平面図である。 いくつかの実施形態による、異なる視聴者方位の下で視聴される例示的な焦点面を図解する概略平面図である。 いくつかの実施形態による、異なる視聴者方位の下で視聴される例示的な焦点面を図解する概略平面図である。 いくつかの実施形態による、異なる視聴者方位の下で視聴される例示的な焦点面を図解する概略平面図である。 例示的なテスト画像を示すイラストである。 いくつかの実施形態による、図28Aのテスト画像を使用する例示的な重み付けされた焦点面画像を示すイラストである。 いくつかの実施形態による、図28Aのテスト画像を使用する例示的な重み付けされた焦点面画像を示すイラストである。 いくつかの実施形態による、図28Aのテスト画像を使用する例示的な重み付けされた焦点面画像を示すイラストである。 いくつかの実施形態による、図28B〜図28Dの焦点面画像を使用して形成された、対応して、例示的な右眼画像を示すイラストである。 いくつかの実施形態による、図28B〜図28Dの焦点面画像を使用して形成された、対応して、例示的な左眼画像を示すイラストである。 いくつかの実施形態による、異なる眼離隔距離の下で視聴される例示的な焦点面を図解する概略平面図である。 いくつかの実施形態による、異なる眼離隔距離の下で視聴される例示的な焦点面を図解する概略平面図である。 いくつかの実施形態による、異なる眼離隔距離の下で視聴される例示的な焦点面を図解する概略平面図である。 いくつかの実施形態による、正弦曲線奥行き重み付けとともに形成された右眼のための例示的な立体的画像の拡大された抜粋部を示すイラストである。 いくつかの実施形態による、対応して、正弦曲線奥行き重み付けとともに形成された右眼のための例示的な立体的画像を示すイラストである。 いくつかの実施形態による、対応して、正弦曲線奥行き重み付けとともに形成された左眼のための例示的な立体的画像を示すイラストである。 いくつかの実施形態による、多項式奥行き重み付けとともに形成された右眼のための例示的な立体的画像の拡大された抜粋部を示すイラストである。 いくつかの実施形態による、対応して、多項式奥行き重み付けとともに形成された例示的な右眼画像を示すイラストである。 いくつかの実施形態による、対応して、多項式奥行き重み付けとともに形成された例示的な左眼画像を示すイラストである。 いくつかの実施形態による、異なるユーザ方位をもつ第1の立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ第1の立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ第1の立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ第2の立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ第2の立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ第2の立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、異なるユーザ方位をもつ立体的表示のための例示的な不一致を図解する概略正面図である。 いくつかの実施形態による、回転された方位をもつ視聴者のための立体的表示のための例示的な左眼画像および右眼画像を図解する概略的なユーザの図である。 いくつかの実施形態による、焦点面画像のセットを左右に歪曲することによってビューへの複数の視点を生じさせるための例示的なプロセスを図解する概略的な処理図である。 いくつかの実施形態による、図35の歪曲された画像を使用する立体的表示のための3つの立体的画像の例示的なシリーズを示すイラストである。 いくつかの実施形態による、3つの視聴者方位のための柔軟なベースライン立体的表示のためのシフトおよび投影されたMFP画像を生成するための処理ブロックおよびインタフェースの例示的なセットを図解するシステム図である。 いくつかの実施形態による、奥行きマップ画像を示す画像操作プログラムのためのインタフェースの例示的なセットを図解するコンピュータウィンドウのセットである。 いくつかの実施形態による、奥行き重み付けグラフを示す画像操作プログラムのためのインタフェースの例示的なセットを図解するコンピュータウィンドウのセットである。 いくつかの実施形態による、生成された焦点面画像を示す画像操作プログラムのためのインタフェースの例示的なセットを図解するコンピュータウィンドウのセットである。 シミュレーション環境内の生成された焦点面画像の例示的なセットを示すイラストである。 シミュレーション環境内の生成された焦点面画像の例示的なセットを示すイラストである。 シミュレーション環境内の生成された焦点面画像の例示的なセットを示すイラストである。 いくつかの実施形態による、多焦点面(MFP)表示画像を生成するための例示的なプロセスを図解するメッセージシーケンス図である。 いくつかの実施形態による、立体3Dディスプレイ画像を生成するための例示的なプロセスを図解するメッセージシーケンス図である。 いくつかの実施形態による重み対奥行きの例示的なブレンド関数を図解するグラフである。 例示的なテスト画像を示すイラストである。 図42Bの場合の画素距離を図解する例示的な奥行きマップである。 いくつかの実施形態による、図42Aの奥行き重みを図42Bのテスト画像および図42Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図42Aの奥行き重みを図42Bのテスト画像および図42Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図42Aの奥行き重みを図42Bのテスト画像および図42Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による重み対奥行きの例示的なブレンド関数を図解するグラフである。 例示的なテスト画像を示すイラストである。 図43Bの場合の画素距離を図解する例示的な奥行きマップである。 いくつかの実施形態による、図43Aの奥行き重みを図43Bのテスト画像および図43Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図43Aの奥行き重みを図43Bのテスト画像および図43Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、図43Aの奥行き重みを図43Bのテスト画像および図43Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。 ユーザからの異なる奥行きで捉えられた例示的な焦点スタック画像を図解する概略図である。 例示的な線形的にブレンドされた焦点面を示すイラストである。 例示的な線形的にブレンドされた焦点面を示すイラストである。 例示的な線形的にブレンドされた焦点面を示すイラストである。 例示的な線形的にブレンドされた焦点面を示すイラストである。 例示的な再配信された焦点面を示すイラストである。 例示的な再配信された焦点面を示すイラストである。 例示的な再配信された焦点面を示すイラストである。 例示的な再配信された焦点面を示すイラストである。 いくつかの実施形態による、対応して、ブレンドされていない焦点面画像を使用して形成された右眼のための例示的な立体的画像を示すイラストである。 いくつかの実施形態による、対応して、ブレンドされていない焦点面画像を使用して形成された左眼のための例示的な立体的画像を示すイラストである。 いくつかの実施形態による、前方奥行き範囲、中間奥行き範囲、および後部奥行き範囲の再配信される焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。 いくつかの実施形態による、再配信のない例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、再配信のない例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、再配信のない例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、再配信のある例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、再配信のある例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、再配信のある例示的な焦点面画像を示すイラストである。 いくつかの実施形態による、線形的にブレンドされた焦点面を使用して形成された交差した眼ステレオグラムのための例示的な右画像を示すイラストである。 いくつかの実施形態による、線形的にブレンドされた焦点面を使用して形成された交差した眼ステレオグラムのための例示的な左画像を示すイラストである。 いくつかの実施形態による、再配信された焦点面を使用して形成された交差した眼ステレオグラムのための例示的な右画像を示すイラストである。 いくつかの実施形態による、再配信された焦点面を使用して形成された交差した眼ステレオグラムのための例示的な左画像を示すイラストである。 いくつかの実施形態による、MFPを再配信する際に選択的ガウシアンフィルタリングを使用して形成された交差した眼ステレオグラムのための例示的な右画像を示すイラストである。 いくつかの実施形態による、MFPを再配信する際に選択的ガウシアンフィルタリングを使用して形成された交差した眼ステレオグラムのための例示的な左画像を示すイラストである。 いくつかの実施形態による、低周波数フィルタリングおよび高周波数フィルタリングを使用して再配信される焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。 いくつかの実施形態による、ローパスフィルタリングを使用して高周波数焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。 いくつかの実施形態による、前方奥行き範囲、中間奥行き範囲、および後部奥行き範囲に対する再配信される焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。 いくつかの実施形態による、ローパスフィルタリングを使用して再配信される焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。 いくつかの実施形態による、空間内にレンダリングされる例示的な多焦点面を図解する概略斜視図である。 いくつかの実施形態による、空間内にレンダリングされる例示的な多焦点面を図解する概略斜視図である。 いくつかの実施形態による、異なる視点に対するシフトおよびスケーリングされる多焦点面の一例を図解する概略斜視図である。 いくつかの実施形態による、異なる視点に対するシフトおよびスケーリングされる多焦点面の一例を図解する概略斜視図である。 いくつかの実施形態による、異なる視点に対するシフトおよびスケーリングされる多焦点面の一例を図解する概略斜視図である。 いくつかの実施形態による、運動視差システム内で多焦点面を生成するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、軸方向移動のための例示的な焦点面サイズスケーリング調整を図解する概略平面図である。 いくつかの実施形態による、軸方向運動中に例示的な焦点面コンテンツの例示的な変形を図解する概略平面図である。 いくつかの実施形態による、軸方向運動中に例示的な焦点面コンテンツの例示的な変形を図解する概略平面図である。 いくつかの実施形態による、軸方向運動中に例示的な焦点面コンテンツの例示的な変形を図解する概略平面図である。 いくつかの実施形態による、ユーザ動き中の例示的な視点座標の追跡を示すグラフである。 いくつかの実施形態による、多焦点面の真の立体セットを生成するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、多焦点面の合成された立体セットを生成するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、2次元表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、単眼2D表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、真の立体的3次元(S3D)表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、合成された立体的3次元(S3D)表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、フロントエンド処理経路および表示エンド経路をもつ多焦点面を生成するための例示的なプロセスを図解するプロセス図である。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。 いくつかの実施形態による、例示的なプロセスを図解するフローチャートである。 いくつかの実施形態による、例示的なプロセスを図解するフローチャートである。 図2Bに対応するネイティブ画像のグレースケールバージョンである。 図14に対応するネイティブ画像のグレースケールバージョンである。 図16A〜図16Bに対応するネイティブ画像のグレースケールバージョンである。 図21B〜図21Fに対応するネイティブ画像のグレースケールバージョンである。 図22B〜図22Fに対応するネイティブ画像のグレースケールバージョンである。 図28A〜図28Dに対応するネイティブ画像のグレースケールバージョンである。 図29A〜図29Bに対応するネイティブ画像のグレースケールバージョンである。 図31A〜図31Fに対応するネイティブ画像のグレースケールバージョンである。 図35に対応するネイティブ画像のグレースケールバージョンである。 図36に対応するネイティブ画像のグレースケールバージョンである。 図38Cに対応するネイティブ画像のグレースケールバージョンである。 図39A〜図39Cに対応するネイティブ画像のグレースケールバージョンである。 図42B〜図42Fに対応するネイティブ画像のグレースケールバージョンである。 図43B〜図43Fに対応するネイティブ画像のグレースケールバージョンである。 図44に対応するネイティブ画像のグレースケールバージョンである。 図45A〜図45Hに対応するネイティブ画像のグレースケールバージョンである。 図46A〜図46Bに対応するネイティブ画像のグレースケールバージョンである。 図48A〜図48Fに対応するネイティブ画像のグレースケールバージョンである。 図49A〜図49Bに対応するネイティブ画像のグレースケールバージョンである。 図50A〜図50Bに対応するネイティブ画像のグレースケールバージョンである。 図51A〜図51Bに対応するネイティブ画像のグレースケールバージョンである。 図68A〜図68Jに対応するネイティブ画像のグレースケールバージョンである。
様々な図に描かれ、それらに関連して説明されるエンティティ、接続、配置などが、限定としてではなく、例として提示される。従って、特定の図が何を「描いているか」、特定の図内の特定の要素またはエンティティは何「である」または何「を有するか」に関する任意のおよび全ての記述または他のインジケーション、並びに分離しておよび文脈から絶対的したがって限定的であると読まれ得る任意のおよび全ての類似した記述は、「少なくとも1つの実施形態では、…」などの句によって建設的に(constructively)先行されるとのみ適切に読まれてよい。提示の簡潔さおよび明快さのために、この暗示された導入句は、詳細な説明では、くどくどと繰り返されない。
実施形態の実装のための例示的なネットワーク
無線送受信ユニット(WTRU)は、本明細書において説明されるいくつかの実施形態では、例えば、MFPディスプレイとして使用されてよい。
図1Aは、1つまたは複数の開示される実施形態が実施され得る例示的な通信システム100を図解する図である。通信システム100は、音声、データ、映像、メッセージ、ブロードキャストなどのコンテンツを複数の無線ユーザに提供する多重アクセスシステムであってよい。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共有を通じて、そのようなコンテンツにアクセスすることを可能にすることがある。例えば、通信システム100は、符号分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、周波数分割多重アクセス(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC−FDMA)、ゼロテールユニークワードDFT拡散OFDM(ZT UW DTS−s OFDM)、ユニークワードOFDM(UW−OFDM)、リソースブロックフィルタリングOFDM、フィルタバンクマルチキャリア(FBMC)などの1つまたは複数のチャネルアクセス方法を用いてよい。
図1Aに示されるように、通信システム100は、無線送受信ユニット(WTRU)102a、102b、102c、102dと、RAN104/113と、CN106/115と、公衆交換電話網(PSTN)108と、インターネット110と、他のネットワーク112を含んでよいが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図していることが理解されるであろう。WTRU102a、102b、102c、102dの各々は、無線環境内で動作および/または通信するように構成された任意のタイプのデバイスであってよい。例えば、WTRU102a、102b、102c、102dは、そのいずれも「局」および/または「STA」と呼ばれることがあり、無線信号を送信および/または受信するように構成されてよく、ユーザ機器(UE)、移動局、固定またはモバイル加入者ユニット、サブスクリプションベースのユニット、ページャ、セルラー式電話、携帯情報端末(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、ホットスポットまたはMi−Fiデバイス、IoTデバイス、腕時計または他のウェアラブルなヘッドマウントディスプレイ(HMD)、車両、ドローン、医療デバイスおよび適用例(例えば、遠隔手術)、工業用デバイスおよび適用例(例えば、ロボット並びに/または産業および/もしくは自動処理チェーン文脈で動作する他の無線デバイス)、家庭用電子デバイス、商業および/または工業無線ネットワーク上で動作するデバイスなどを含み得る。WTRU102a、102b、102c、および102dのいずれも、UEと互換的に呼ばれることがある。
通信システム100は、基地局114aおよび/または基地局114bも含んでよい。基地局114a、114bの各々は、CN106/115、インターネット110、および/または他のネットワーク112などの1つまたは複数の通信ネットワークへのアクセスを容易にするためにWTRU102a、102b、102c、102dのうちの少なくとも1つとワイヤレスでインタフェースするように構成された任意のタイプのデバイスであってよい。例えば、基地局114a、114bは、送受信基地局(BTS)、ノードB、eNode B、ホームノードB、ホームeNode B、gNB、NRノードB、サイトコントローラ、アクセスポイント(AP)、無線ルータなどであってよい。基地局114a、114bは各々、単一の要素として描かれているが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含んでよいことが理解されるであろう。
基地局114aは、RAN104/113の一部であってよく、RAN104/113は、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどの、他の基地局および/またはネットワーク要素(図示せず)も含んでよい。基地局114aおよび/または基地局114bは、1つまたは複数のキャリア周波数上で無線信号を送信および/または受信するように構成されてよく、これは、セル(図示せず)と呼ばれることがある。これらの周波数は、ライセンススペクトルであってもよいし、アンライセンススペクトルであってもよいし、ライセンススペクトルとアンライセンススペクトルの組み合わせであってもよい。セルは、比較的固定され得るまたは経時的に変化し得る特定の地理的エリアに無線サービスのカバレッジを提供してもよい。セルは、セルセクタにさらに分割され得る。例えば、基地局114aと関連付けられたセルは、3つのセクタに分割されてよい。従って、一実施形態では、基地局114aは、3つのトランシーバ、すなわち、セルの各セクタに対して1つを含んでよい。実施形態では、基地局114aは、MIMO技術を用いることがあり、セルの各セクタに対して複数のトランシーバを利用することがある。例えば、ビームフォーミングは、所望の空間的方向に信号を送信および/または受信するために使用されてよい。
基地局114a、114bは、エアインタフェース116上でWTRU102a、102b、102c、102dのうちの1つまたは複数と通信してよく、エアインタフェース116は、任意の適切な無線通信リンク(例えば、無線周波数(RF)、マイクロ波、センチメートル波、マイクロメートル波、赤外線(IR)、紫外線(UV)、可視光など)であってよい。エアインタフェース116は、任意の適切な無線アクセス技術(RAT)を使用して確立されてよい。
より具体的には、上述したように、通信システム100は、多重アクセスシステムであってよく、CDMA、TDMA、FDMA、OFDMA、SC−FDMAなどの1つまたは複数のチャネルアクセス方式を用いてよい。例えば、RAN104/113内の基地局114aおよびWTRU102a、102b、102cは、広域CDMA(WCDMA(登録商標))を使用してエアインタフェース115/116/117を確立し得る、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実施することがある。WCDMAは、高速パケットアクセス(HSPA)および/または発展型HSPA(HSPA+)などの通信プロトコルを含み得る。HSPAは、高速ダウンリンク(DL)パケットアクセス(HSDPA)および/または高速ULパケットアクセス(HSUPA)を含んでよい。
実施形態では、基地局114aおよびWTRU102a、102b、102cは、ロングタームエボリューション(LTE)および/またはLTE−Advanced(LTE−A)および/またはLTE−Advanced Pro(LTE−Pro)を使用してエアインタフェース116を確立し得る、発展型UMTS地上無線アクセス(E−UTRA)などの無線技術を実施することがある。
実施形態では、基地局114aおよびWTRU102a、102b、102cは、New Radio(NR)を使用してエアインタフェース116を確立し得る、NR無線アクセスなどの無線技術を実施することがある。
実施形態では、基地局114aおよびWTRU102a、102b、102cは、複数の無線アクセス技術を実施することがある。例えば、基地局114aおよびWTRU102a、102b、102cは、例えば、デュアルコネクティビティ(DC)原理を使用して、LTE無線アクセスとNR無線アクセスを一緒に実施することがある。従って、WTRU102a、102b、102cによって利用されるエアインタフェースは、複数のタイプの無線アクセス技術および/または複数のタイプの基地局(例えば、eNBおよびgNB)に/から送られる送信によって特徴付けられ得る。
他の実施形態では、基地局114aおよびWTRU102a、102b、102cは、IEEE802.11(すなわち、WiFi(Wireless Fidelity))、IEEE802.16(すなわち、WiMAX(Worldwide Interoperability for Microwave Access))、CDMA2000、CDMA2000 1X、CDMA2000 EV−DO、IS−2000(Interim Standard2000)、IS−95(Interim Standard 95)、IS−856(Interim Standard 856)、GSM(Global System for Mobile communications)、EDGE(Enhanced Data rates for GSM Evolution)、GSM EDGE(GERAN)などの無線技術を実施することがある。
図1Aにおける基地局114bは、例えば、無線ルータ、ホームノードB、ホームeNode B、またはアクセスポイントであってよく、営業所、自宅、車両、キャンパス、工業施設、空中回廊(例えば、ドローンによる使用のための)、道路などの局所的なエリア内の無線コネクティビティを容易にするために、任意の適切なRATを利用してよい。一実施形態では、基地局114bおよびWTRU102c、102dは、無線ローカルエリアネットワーク(WLAN)を確立するために、IEEE802.11などの無線技術を実施することがある。実施形態では、基地局114bおよびWTRU102c、102dは、無線パーソナルエリアネットワーク(WPAN)を確立するために、IEEE802.15などの無線技術を実施することがある。さらに別の実施形態では、基地局114bおよびWTRU102c、102dは、ピコセルまたはフェムトセルを確立するために、セルラーベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−A、LTE−Pro、NRなど)を利用することがある。図1Aに示されるように、基地局114bは、インターネット110への直接接続を有してよい。従って、基地局114bは、CN106/115を介してインターネット110にアクセスするために必要とされないことがある。
RAN104/113は、CN106/115と通信してよく、CN106/115は、WTRU102a、102b、102c、102dのうちの1つまたは複数に音声、データ、アプリケーション、および/またはVoIP(Voice over Internet Protocol)サービスを提供するように構成された任意のタイプのネットワークであってよい。データは、異なるスループット要件、レイテンシ要件、エラー許容範囲要件、信頼性要件、データスループット要件、モビリティ要件などの、変動するサービス品質(QoS)要件を有することがある。CN106/115は、呼制御、課金サービス、モバイル位置情報サービス、プリペイド発呼、インターネットコネクティビティ、映像配信などを提供し得る、および/またはユーザ認証などの高レベルセキュリティ機能を実行し得る。図1Aには示されていないが、RAN104/113および/またはCN106/115は、RAN104/113と同じRATまたは異なるRATを用いて他のRANと直接的または間接的に通信してよいことが理解されるであろう。例えば、NR無線技術を利用していることがあるRAN104/113に接続されることに加えて、CN106/115は、GSM、UMTS、CDMA2000、WiMAX、E−UTRA、またはWiFi無線技術を用いる別のRAN(図示せず)とも通信してよい。
CN106/115は、PSTN108、インターネット110、および/または他のネットワーク112にアクセスするために、WTRU102a、102b、102c、102dのためのゲートウェイとして働くこともある。PSTN108は、簡易電話サービス(POTS)を提供する回線交換電話網を含んでよい。インターネット110は、TCP/IPインターネットプロトコルスイートにおける伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、および/またはインターネットプロトコル(IP)などの一般的な通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスの地球規模のシステムを含んでよい。ネットワーク112は、他のサービスプロバイダによって所有および/または運用される有線通信ネットワークおよび/または無線通信ネットワークを含んでよい。例えば、ネットワーク112は、RAN104/113と同じRATを用いてもよいし異なるRATを用いてもよい1つまたは複数のRANに接続された別のCNを含むことがある。
通信システム100内のWTRU102a、102b、102c、102dのうちのいくつかまたは全ては、マルチモード能力を含んでよい(例えば、WTRU102a、102b、102c、102dは、異なる無線リンク上で異なる無線ネットワークと通信するための複数のトランシーバを含んでよい)。例えば、図1Aに示されるWTRU102cは、セルラーベースの無線技術を用い得る基地局114aと、およびIEEE802無線技術を用い得る基地局114bと通信するように構成されることがある。
図1Bは、例示的なWTRU102を図解するシステム図である。図1Bに示されるように、WTRU102は、とりわけ、プロセッサ118、トランシーバ120、送受信要素122、スピーカ/マイクロホン124、キーパッド126、ディスプレイ/タッチパッド128、ノンリムーバブルメモリ130、リムーバブルメモリ132、電源134、GPSチップセット136、および/または他の周辺機器138を含んでよい。WTRU102は、実施形態に一致したままでありながら、前述の要素の任意の副組み合わせを含んでよいことが理解されるであろう。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来のプロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと関連する1つまたは複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、状態機械などであってよい。プロセッサ118は、信号符号化、データ処理、電力制御、入力/出力処理、および/またはWTRU102が無線環境内で動作することを可能にする他の任意の機能を実行してよい。プロセッサ118はトランシーバ120に結合されてよく、トランシーバ120は送受信要素122に結合されてよい。図1Bは、プロセッサ118およびトランシーバ120を別個の構成要素として描いているが、プロセッサ118とトランシーバ120は、電子パッケージまたはチップ内に一緒に統合されてよいことが理解されるであろう。
送受信要素122は、エアインタフェース116上で基地局(例えば、基地局114a)に信号を送信する、またはこれから信号を受信するように構成されてよい。例えば、一実施形態では、送受信要素122は、RF信号を送信および/または受信するように構成されたアンテナであってよい。実施形態では、送受信要素122は、例えば、IR信号、UV信号、または可視光信号を送信および/または受信するように構成されたエミッタ/検出器であってよい。さらに別の実施形態では、送受信要素122は、RF信号と光信号の両方を送信および/または受信するように構成されることがある。送受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成されてよいことが理解されるであろう。
送受信要素122は、図1Bでは単一の要素として描かれているが、WTRU102は、任意の数の送受信要素122を含んでよい。より具体的には、WTRU102は、MIMO技術を用いてよい。従って、一実施形態では、WTRU102は、エアインタフェース116上で無線信号を送信および受信するための2つ以上の送受信要素122(例えば、複数のアンテナ)を含んでもよい。
トランシーバ120は、送受信要素122によって送信可能な信号を変調し、送受信要素122によって受信信号を復調するように構成されることがある。前述のように、WTRU102は、マルチモード能力を有することがある。従って、トランシーバ120は、例えば、WTRU102がNRおよびIEEE802.11などの複数のRATを介して通信することを可能にするための複数のトランシーバを含むことがある。
WTRU102のプロセッサ118は、スピーカ/マイクロホン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば、液晶ディスプレイ(LCD)ディスプレイユニットまたは有機発光ダイオード(OLED)ディスプレイユニット)に結合されることがあり、これらからユーザ入力データを受信することがある。プロセッサ118は、スピーカ/マイクロホン124、キーパッド126、および/またはディスプレイ/タッチパッド128にユーザデータを出力することもある。加えて、プロセッサ118は、ノンリムーバブルメモリ130および/またはリムーバブルメモリ132などの任意のタイプの適切なメモリからの情報にアクセスし、これにデータを記憶し得る。ノンリムーバブルメモリ130は、RAM、ROM、ハードディスク、または他の任意のタイプのメモリ記憶デバイスを含んでよい。リムーバブルメモリ132は、加入者識別モジュール(SIM)カード、メモリスティック、セキュアデジタル(SD)メモリカードなどを含んでよい。他の実施形態では、プロセッサ118は、サーバまたはホームコンピュータ(図示せず)上などの、WTRU102上に物理的に設置されないメモリからの情報にアクセスし、これにデータを記憶してもよい。
プロセッサ118は、電源134から電力を受信してよく、WTRU102内の他の構成要素に電力を分配および/または制御するように構成されてよい。電源134は、WTRU102に給電するための任意の適切なデバイスであってよい。例えば、電源134は、1つまたは複数の乾電池バッテリ(例えば、ニッケル−カドミウム(NiCd)、ニッケル−亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Liイオン)など)、太陽電池、燃料電池などを含んでよい。
プロセッサ118は、GPSチップセット136にも結合されてよく、GPSチップセット136は、WTRU102の現在のロケーションに関するロケーション情報(例えば、経度および緯度)を提供するように構成され得る。GPSチップセット136からの情報に加えて、またはその代わりに、WTRU102は、エアインタフェース116上で基地局(例えば、基地局114a、114b)からロケーション情報を受信する、および/または信号が2つ以上の近くの基地局から受信されたというタイミングに基づいて、そのロケーションを決定することがある。WTRU102は、実施形態に一致したままでありながら、任意の適切なロケーション決定方法によってロケーション情報を獲得し得ることが理解されるであろう。
プロセッサ118は、他の周辺機器138にさらに結合されてよく、他の周辺機器138は、追加の特徴、機能、および/または有線コネクティビティもしくは無線コネクティビティを提供する1つまたは複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含んでよい。例えば、周辺機器138は、加速度計、電子コンパス、衛星トランシーバ、デジタルカメラ(写真および/または映像用)、USBポート、振動デバイス、テレビトランシーバ、ハンズフリーヘッドセット、ブルートゥース(登録商標)モジュール、周波数変調(FM)無線ユニット、デジタル音楽プレーヤー、メディアプレーヤー、ビデオゲームプレーヤーモジュール、インターネットブラウザ、仮想現実および/または拡張現実(VR/AR)デバイス、アクティビティトラッカなどを含んでよい。周辺機器138は、1つまたは複数のセンサを含んでよく、センサは、ジャイロスコープ、加速度計、ホール効果センサ、磁力計、方位センサ、近接センサ、温度センサ、時間センサ、ジオロケーションセンサ、高度計、光センサ、タッチセンサ、磁力計、気圧計、ジェスチャセンサ、バイオメトリックセンサ、および/または湿度センサのうちの1つまたは複数であってよい。
WTRU102は、信号(例えば、UL(例えば、送信用)とダウンリンク(例えば、受信用)の両方のための特定のサブフレームと関連付けられた)のいくつかまたは全ての送信および受信が同時発生および/または同時であり得る全二重無線を含んでよい。全二重無線は、プロセッサ(例えば、別個のプロセッサ(図示せず)、またはプロセッサ118を介して)を介してハードウェア(例えば、チョーク)または信号処理のどちらかを介した自己干渉を減少させるおよび/または実質的になくす干渉管理ユニットを含んでよい。実施形態では、WRTU102は、信号(例えば、UL(例えば、送信用)またはダウンリンク(例えば、受信用)のどちららかのための特定のサブフレームと関連付けられた)のいくつかまたは全ての送信および受信のための半二重無線を含んでよい。
図1A〜図1Bの図、および図1A〜図1Bの対応する説明では、WTRU102a〜d、基地局114a〜b、および/または本明細書において説明される他の任意のデバイスのうちの1つまたは複数に関して本明細書において説明される機能の1つもしくは複数、または全ては、1つまたは複数のエミュレーションデバイス(図示せず)によって実行され得る。エミュレーションデバイスは、本明細書において説明される機能の1つもしくは複数または全てをエミュレートするように構成された1つまたは複数のデバイスであってよい。例えば、エミュレーションデバイスは、他のデバイスをテストするため、並びに/またはネットワークおよび/もしくはWTRU機能をシミュレートするために使用されることがある。
エミュレーションデバイスは、ラボ環境内および/またはオペレータネットワーク環境内で他のデバイスの1つまたは複数のテストを実施するように設計されてよい。例えば、1つまたは複数のエミュレーションデバイスは、通信ネットワーク内の他のデバイスをテストするために有線通信ネットワークおよび/または無線通信ネットワークの一部として完全にもしくは部分的に実施および/または展開されている間、1つもしくは複数または全ての機能を実行することがある。1つまたは複数のエミュレーションデバイスは、有線通信ネットワークおよび/または無線通信ネットワークの一部として一時的に実施/展開されている間、1つもしくは複数または全ての機能を実行することがある。エミュレーションデバイスは、テストの目的で別のデバイスに直接的に結合されることがある、および/またはオーバーザエア無線通信を使用するテストを実行することがある。
1つまたは複数のエミュレーションデバイスは、有線通信ネットワークおよび/または無線通信ネットワークの一部として実施/展開されていない間、全てを含めて1つまたは複数の機能を実行することがある。例えば、エミュレーションデバイスは、1つまたは複数の構成要素のテストを実施するために、テストラボラトリ並びに/または展開されていない(例えば、テスト)有線通信ネットワークおよび/もしくは無線通信ネットワーク内でのテストシナリオにおいて利用されることがある。1つまたは複数のエミュレーションデバイスは、テスト機器であってよい。RF回路(例えば、1つまたは複数のアンテナを含み得る)を介した直接的なRF結合および/または無線通信は、データを送信および/または受信するためにエミュレーションデバイスによって使用されることがある。
立体的視点のためのMFPベースの方法
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、奥行き−画像ベースのレンダリング(DIBR)システム内での費用対効果が大きく柔軟な立体的視点生成のための様々な例示的なMFPベースの実施形態について説明する。仮想視点を生成するための、いくつかの実施形態による例示的な方法は、視聴経験を劣化させることなくユーザが自分の頭部傾きおよび視聴位置をより自由に変化させることを可能にする。加えて、いくつかの実施形態では、ユーザは、立体的不一致を作成するために、本明細書においていくつかの実施形態により開示されるシステムおよび方法によって可能にされる、自然な運動視差、および立体視の個人的な調整が提供される。いくつかの実施形態は、ウェアラブルディスプレイと外部ディスプレイの両方の高品質立体的コンテンツおよび不一致ベースの相互作用を生じさせることを可能にする。相互作用のいくつかの実施形態および手段は、新進のMFPディスプレイとともに使用されることがある。
いくつかの実施形態では、MFPベースの合成不一致は、DIBRのための高品質立体的コンテンツを生じさせるために使用される。いくつかの実施形態では、焦点面の数は制限されない。加えて、受信機における立体的ビューを形成することは、柔軟な機能を可能にする。MFPを使用することは、リアルタイム動作において、調整可能な不一致および方位をもつ仮想視点生成を可能にする。この方法論は、さもなければより複雑でビットレートをより多く消費する方法(例えば、リアルタイム3Dおよび明視野システム)を使用し得る機能を可能にする。奥行きプラステクスチャ入力フォーマットは、より低いビットレートを送信および記憶に使用し得る1つまたは複数の実施形態に適用可能である。
いくつかの実施形態では、MFPは、大きな不一致をもつ高品質立体的コンテンツを生じさせるために使用される。大きい不一致は、大きな立体的奥行き、および/または生じさせられたコンテンツまでの小さい視聴距離を保つことを意味する。所望の精度は、大きい数のMFPを使用することによって、並びにMFPを形成するとき奥行きブレンド関数を選択および最適化することによって、達成され得る。
開示された方法およびシステムのいくつかの実施形態では、仮想の立体的投影は、受信サイトにおいてリアルタイムで形成されることがあり、これは、立体ベースラインの最大の頭部傾き方位とともに視聴されることになる立体コンテンツを作ることを可能にする。不一致およびベースライン方位を変更することは、複数の受信ノードで独立して、ノードごとに数人のユーザに対して個々に生じさせられることがある。加えて、いくつかの実施形態は、任意の視聴方位において運動視差を生じさせることをサポートし、視聴に対するさらなる自然さを可能にする。
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、ウェアラブルディスプレイおよび外部スクリーンを含み、立体的表示の変形態である調節不変(同焦点)NEDを用いた、立体ディスプレイのためのコンテンツを形成する際に使用されることがあり、これは、通常の立体的コンテンツを視聴する場合に自然な調節(VACを回避する)をサポートする。いくつかの実施形態では、仮想不一致調整および関連する相互作用も、自然な調節をもつ新進MFPディスプレイへと実施されることがある。大きな不一致をもつコンテンツを形成するためのいくつかの実施形態では、多項式ブレンド関数(または奥行き範囲全体に対して画素を重み付けする他の関数)を使用することは、物体縁上のより良い品質をもたらし得る。
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、立体的3D(S3D)映像送信システム内および奥行き画像ベースのレンダリング(DIBR)に基づくシステム内で立体的画像ペア(ステレオグラム)を形成することに関する。いくつかの実施形態は、多焦点面(MFP)コンテンツ、MFP能力、並びに面の数およびロケーションを使用することがある。いくつかの実施形態は、不一致を調整するために動的なユーザ行動またはコンテンツを使用することがある。
MFPは焦点キューを提供し得るが、多くのシステムは、不一致を可能にするために2つの焦点面のみを使用する(立体3Dの外観を作成する、眼の間の折衷(compromise)画像が図示される)。多くの以前のシステムは、より大きなMFPスタック(>2面)を使用して連続的な奥行き(調節と不一致の両方から)を認知しない。多くの以前の立体的視聴システムでは、別個のMFPスタックが、立体視聴のために眼ごとに提供される。
図2Aは、ユーザからの異なる奥行きで表示される焦点面の例示的なセットを図解する概略図200である。図2Bは、例示的な焦点面画像を示すイラストを示す。輻輳調節矛盾(VAC)に対処する、1つのシステムは、多焦点面(MFP)ディスプレイを使用してVACを回避する。図2Aおよび図2Bは、MFPディスプレイに対する最適なレンダリングに関する論文(非特許文献1参照)から改変された図である。図2Aでは、4つの提示面(例えば、焦点面)204、206、208、210を見るユーザ202が示されている。4つの面204、206、208、210の各々に対する画像212、214、216、218が図2Bに示されている。そのようなシステムは、視聴者に応答しないことがある。MFPは、焦点キューを提供するが、以前は、不一致を可能にするための2つの焦点面のみとともに使用されていた(折衷画像が、眼の間に図示されており、これは、立体3Dの外観を作成する)。多くの以前の立体的視聴システムでは、別個のMFPスタックが、立体視聴のために眼ごとに提供される。
図3は、パーシバル(Percival)の快適視域に関して、左画像と右画像との間の例示的な画像不一致対観察者−スクリーン間距離を図解するグラフである。図3は、パーシバルの快適視域のグラフ300である。グラフは、パーシバルの快適視域定理に基づく視聴者快適さに関して、左画像と右画像との間の画像不一致302対観察者−スクリーン間距離304を示す。図3は、論文(非特許文献2)に示されている。
図4は、回転されていない方位をもつ視聴者のための立体的表示のための例示的な左眼画像および右眼画像を図解する概略図である。図4は、ユーザによって見られる、ニアアイディスプレイ視聴者のために表示される左画像および右画像を示す。図4は、大きい前景ボートの後ろの距離内の小さいボートを視聴する際の視差シナリオ400を示す。右眼画像404は、大きいボート406の後ろに小さいボート408の上部を示す左眼画像402よりも、小さいボート412を大きいボート410の右に示す。図4の右側の頭部アイコン414は、視聴者の元の方位を示す。
図5は、水平線が頭部とともに傾いた、回転された方位をもつ視聴者のための立体的表示のための、メガネ座標で縛られた例示的な左眼画像および右眼画像を図解する概略図である。図5は、視聴者の回転をもつ、ニアアイディスプレイのために表示される左画像および右画像を示す。図5のシナリオ500では、図5の右側の頭部アイコン506は、視聴者の前に立つ外部の観察者によって見られる視聴者の回転された方位を示す。メガネおよびニアアイディスプレイは、視聴者によって装着されるビューアの観点から図示される。図5の場合、図4に示される同じ画像502、504は、回転される方位とは無関係に図示されている。これは、3D知覚が適切な状態を保つが、水平線が視聴者の方位に沿って回転し、物質世界での視聴を乱すことを意味する。
図6は、回転された方位および未変化の不一致をもつ視聴者のための立体表示のための、水平線の方位に合致するように調整された、例示的な左眼画像および右眼画像を図解する概略図である。図6は、図5に示されるのと同じ視聴者の回転をもつ、ニアアイディスプレイのために表示される左画像および右画像を示す。図6のシナリオ600では、図4の元の方位と同じ画像602、604が、画像を水平に保つために、頭部アイコン606のために図示される回転に対応して回転される。左画像602と右画像604との間の不一致は、図4および図5と同じである(水平ベースラインに沿った状態を保つ)。レンダリングのための水平線は実世界と位置合わせされるが、不一致は回転された方位と合致しないので、3D知覚は歪められる。
図7は、画像不一致の操作のためのインタフェースの例示的なセットを図解するシステム図である。図7は、非特許文献2からのものである、画像不一致の操作のためのシステムインタフェース図である。捕捉時に立体ペアを生じさせる多くのシステムは、個々のユーザ動きをサポートしない(オクルージョン、可変の立体ベースライン、および水平でない方位など)。不一致の何らかのユーザカスタマイゼーションをもつ1つのシステム700が非特許文献2で説明されているが、これは、不一致をレンダリングすることの変形形態に限定されると理解される。そのようなシステム700は、ユーザの好みに基づいて不一致を調整する。そのようなシステムは、間隔調整のみを提供すると理解される。
図8は、DIBRベースの3D送信システムのためのインタフェースの例示的なセットを図解するシステム図である。図8は、学術論文(非特許文献3)から改変された、DIBRベースの3D送信システム800の1つの構成のためのインタフェース図を示す。
多くのDIBRベースのシステムは、受信機における後処理段階として立体的画像形成を可能にするが、多くの以前の立体的映像システムは可撓性が低い。立体的不一致および奥行きバジェット(budget)の量は、捉えられたコンテンツに大きく依存することがあり、不一致および奥行きバジェットの制御は、いくつかの場合には、例えば、シーンのシューティング中よりも後で有利であることがあるが、例えば、産生/フロントエンドにおいて固定されたパラメータにより困難であることもある。
多くのDIBRシステムでは、受信側で、仮想視点生成802は、3Dワーピング804段階と、穴充填806段階からなる(図8の仮想視点生成ブロック802を参照されたい)。3Dワーピング804は、視聴者の2つの眼点から見られる、テクスチャ化された奥行きマップへの2つの仮想ビューを形成するために使用される。
図9は、ソースカメラとターゲットカメラを変化させる場合にディスオクルージョンの外観を示す例示的なシナリオを図解する概略的な平面図である。多くの場合、対応する斜視的変化は、遮蔽物体の後ろのビューの部分を明らかにする。図9の概略ピクチャ900並びに図10Aおよび図10Bの例によって図解されるように、ディスオクルージョン(すなわちディスオクルージョン領域902)は、捉えられたテクスチャまたは奥行きが、それらのエリアから情報を含まないので、各新しい斜視的画像内の間隙または穴904として見えることがある。図9では、ソースカメラ910およびターゲットカメラ912に対する視点線並びにそれぞれのソース画像906およびターゲット画像908によって図示されるようにソースからターゲットに視点を変化させる場合、近い物体914および遠い物体916に関連するディスオクルージョンが生じさせられることがある。
図10Aおよび図10Bは、穴充填の前および後の例示的な3Dワーピング画像を示すイラストである。図10Aおよび図10Bは、3Dワーピング画像の例を示す。例は、左眼画像のみを示す。右眼画像は、同じ手段で形成され、類似の欠陥を有するが、それは物体の右側である。図10Aおよび図10Bは、3Dワーピングによって生じさせられるディスオクルージョンの一例を示す。元のモノスコープ(単眼的)画像1000は左側にあり、3Dワーピング画像1050の詳細は右側にある(本出願とともに黒および白の線画の使用により黒い線として左側画像1000上に示される余白穴1002を充填するための線形補間ベースの穴充填1052)。いくつかの実施形態では、方法は、焦点面画像をシフトすることによって引き起こされるギャップを扱うために焦点面画像を処理することを含んでよい。いくつかの実施形態は、そのような間隙を取り扱うために(例えば、1つまたは複数の焦点面画像をシフトすることによって引き起こされる画像不一致を取り扱うために)、1つまたは複数の焦点面画像をフィルタリングすることがある。図10Aおよび図10Bは、提示(非特許文献4による)のスライド14から改変された線画バージョンである。
穴充填では、様々な画像および奥行きマップフィルタリングおよび修復アルゴリズムは、穴または他の形のディスオクルージョンを充填するために使用されることがある。オクルージョンのタイプおよび数はコンテンツに大きく依存し、歪みおよびそれらの可視性もコンテンツに大きく依存する。3Dワーピングは、コンピュータグラフィックスアルゴリズムによって実行されることがある。これらのアルゴリズムの複雑さ、速度、および結果は、例えば斜視図およびカメラモデルを使用することに依存することとは異なる。シフトセンサセットアップのための数学的公式化の例は、非特許文献5に示されている。
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、3Dワーピングおよび穴充填のための以前の方法とは異なる、仮想視点生成(DIBR)に使用される。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、例えば、いくつかの以前のシステムよりも簡単に後処理として不一致および対応する立体的奥行きバジェットを調整することを可能にし得る。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、例えばいくつかの以前のデバイスよりも容易に(多くの以前のデバイスは水平線視聴のみをサポートする)、例えば恣意的な視聴方位での(例えば、頭部傾きなどの)、立体視聴をサポートすることを可能にし得る。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、例えば、(例えば、平行移動および/または軸方向)運動視差をサポートするための仮想視点のより容易な形成を可能にする。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、いくつかの以前のDIBRシステムよりも分散され、見えにくい歪みを有することがある。
立体的3D(S3D)
立体的表示の使用は、3D情報を示す1つの手段である(立体的3DすなわちS3Dと呼ばれることがある)。立体的視聴は、小さい距離(例えば、立体ベースライン)隔てられている、2つのカメラによって平行なビュー−立体ペア−を捉える。捕捉セットアップは、人間の2つの眼による両眼画像知覚を模倣する。
近年、立体的システムは、3D映画、3DTV並びに拡張現実アプリケーションおよび仮想現実アプリケーション(ARおよびVR)において復活を遂げつつある。多くのAR/VRシステムの場合、ウェアラブルニアアイディスプレイ(またはメガネ)が使用される。
実世界空間では、人間の眼は、異なる距離または奥行きに焦点を合わせ、調節することによって、自由にスキャンし、情報を拾い集めることができる。視聴するとき、眼の輻輳(収束)は、平行な方向を見ること(例えば、無限大離れた距離にある物体)と、交差方向を見ること(例えば、眼に近い物体)で異なる。一般に、収束と調節は多くの場合、非常に強く結合されているため、ほとんどの場合、本来、2つの眼の調節/焦点および収束点は同じ3D点で合う。
多くの以前の立体的視聴システムでは、眼は、同じ画像(または表示)面に焦点が合わされるが、人間視覚系(HVS)および脳は、画像の不一致(例えば、2つの2D投影内の対応する画素の小さい距離)を検出することによって、3D知覚を形成する。
図11A〜図11Cは、多くの立体的視聴システムにおける例示的な輻輳調節矛盾(VAC)を図解する概略斜視図である。図11Aから図11Cは、多くの立体的視聴システムにおける輻輳調節矛盾(VAC)を示す。図11A〜図11Cは、非特許文献6に基づく。図11Aは、輻輳点1102が調節点1102と同じである(これは、裸眼で視聴するときは典型的であり得る)立体的視聴を示す。図11Bおよび図11Cは、立体的表示をもつ視聴を示す。図11Bおよび図11Cは、輻輳点1132、1162および調節点1134、1164が異なり、このことが輻輳調節矛盾(VAC)を引き起こすような視聴を示す。図11Aは、視聴者1110に対する焦点距離1108に等しい輻輳距離1106をもつ実世界環境1100内での自然な視聴を示す。図11Bは、視聴者1140に対して焦点距離1138よりも短い輻輳距離1136をもつ、S3Dディスプレイ上の交差した立体ビュー1130を示す。図11Cは、視聴者1170に対して焦点距離1168よりも長い輻輳距離1166をもつ、S3Dディスプレイ上の交差しない立体ビュー1160を示す。VACは、視覚的歪みおよび他のタイプの不快感を引き起こすことが知られているが、立体映像は依然として、その設備および費用対効果によりニアアイディスプレイに一般に使用されている。
多焦点面(MFP)を使用した3Dディスプレイ
多焦点面(MFP)システムの場合、視聴者は、異なる物体および奥行きに焦点を合わせることができ、これは、立体的表示に典型的なVACを回避する。自然な焦点面画像または仮想焦点面画像のスタックが、異なる奥行きでレンダリングされる。観察されている焦点面は、焦点が合わされて見られ、観察されていない他の焦点面は、人間視覚系によってぼやけさせられる。
MFPディスプレイは、視聴者の視軸に沿った層から3Dシーンを構成する異なる焦点面のスタックを示す。視聴者は、異なる奥行きおよび空間的角度における視聴者の眼点に見える焦点面のそれらの画素を投影することによって、3Dビューが提供される。
多焦点面は主に、眼点からの視聴方向に対して相補的である(追加的でない)。しかしながら、追加的効果は、異なる焦点面から編集されたビューを見たとき、さもなければ何度も知覚される量子化ステップおよび輪郭描画(contouring)を除去することがある。
多焦点面は、例えば、2D表示のスタックを空間的に多重化すること、または対応する多焦点画像フレームの可視部を空間的にレンダリングしながら、高速可変焦点要素(VFE)によって単一の2D表示の焦点距離を順次−時分割される手段で−切り換えることのどちらかによって、表示され得る。
図12は、いくつかの実施形態による例示的な多焦点面(MFP)ニアアイディスプレイを図解する概略平面図である。図12は、多焦点面(MFP)ニアアイディスプレイの概略図1200を示す。仮想焦点面1206の表示スタック1208内の各画像1202、1204は、異なる奥行きのところにレンダリングされ、視聴者の眼1210、1212は、接眼部1214、1216を介して観察されていないそれらの焦点面をぼやけさせる。論文(非特許文献7参照)は、外部ディスプレイ上のコンテンツを視聴することについて説明する。非特許文献7は、物理的プロトタイプによって観察される2つの特別に形成された焦点面および結果を視聴したとき3Dで知覚することという現象について説明している。この論文は、MFP表示の特定のケースについて説明する。
より大きい数の焦点面は、MFP表示のより良い精度を有し得るが、困難な実施を有することもある。MFP表示の場合、焦点面の実現可能な数は小さい数(4から6など)であることがあり、これは、達成される品質を限定し得る。論文(非特許文献8)は、焦点面の数に関する情報を与える。
図13は、いくつかの実施形態による、近焦点画像面、中間焦点画像面、および遠焦点画像面の例示的な視聴を図解する概略平面図である。図13は、プロトタイプのための左眼と右眼に対するビューラインの平面概略図である(非特許文献9に記載されている)。図13は、3D知覚を捉えるために複数のMFP1302、1304、1306を使用する平面概略図1300(非特許文献9から改変され、これに説明されている例示的な数値を使用している)を示す。図13の場合、各眼1308、1310は、わずかに異なる視点から焦点面1302、1304、1306を見て、3D知覚に関する不一致を作成する。図13の例は、視聴者の眼1308、1310から53.6cm(1.87D)の距離のところにある物体の遠画像面1302を、視聴者の眼1308、1310から39.4cm(2.54D)の距離のところにある物体の中間画像面1304を、視聴者の眼1308から31.1cm(3.21D)の距離のところにある物体の近画像面1306を示す。図13の例の場合、±4.4°の場合、垂直方向視野。
焦点面からの3D知覚は、厳密にそれらの面上にある平坦な物体にとって適切である。奥行きブレンドを使用することによって、不一致が焦点面の間に作成され、面間の物体のための連続的で現実に近い奥行き知覚を作成する。MFPレンダリングにおける奥行きブレンドおよび不一致の知覚に関するさらなる詳細は、以下で与えられる。
以前のMFPプロトタイプでは、焦点面は、視聴者から異なる距離のところにある外部ディスプレイ上で示されていた。ニアアイディスプレイ上でMFPを示すとき(図12など)、2つのMFPスタックが形成され、左眼と右眼によって別個に見らえる。
図14は、観察者によって視聴される例示的な焦点画像面を図解する概略図である。そのバージョンは非特許文献7に含まれる図14は、観察者1410によって視聴される2つの画像面1406、1408の上面図1400および正面図1402、1404と、どのようにして面が観察者1412によって3D画像として知覚されるかについての側面図1414を示す。非特許文献7では、2つの焦点面1406、1408が形成され、異なる距離のところに置かれ、2つの眼点から視聴される。このセットアップは、2つの眼点から見られる2つの焦点面の横変位によって生じさせられる不一致および3D知覚を作成する。変位は、物体縁における特定の画素値分布を生じさせ、脳が不一致として、および奥行き変動として、それぞれ解釈する。図14は、シーンから形成された2つの重複する焦点面を視聴することによる3D画像の知覚を示す。2つの眼は、わずかに異なる角度から焦点面を見て、このことが、焦点面間の合成的な立体不一致を作成する。
図15A〜図15Cは、四角の例示的な画像のための例示的な前方焦点面および後方焦点面を図解する概略図である。そのバージョンが非特許文献7に含まれている図15A〜図15Cは、物体の縁に作成される合成的立体不一致を示す。非特許文献7では、合成的立体不一致が、図15A〜図15Cに示されるように四角1504、1506の縁に作成される。非特許文献7では、2つの焦点面によってなる例示的なビュー1500(図14に示されるものなど)は、左眼点1544からの左立体的画像ペア1532、1536および右眼点1546からの右立体的画像ペア1534、1538をプロトタイプディスプレイ(図16A〜図16Bに示される)に捉えることによって、観察者1502によって視覚化される。図15Bは、シーンの斜視図1530である。網膜画像1540は、各網膜画像内で見られる共通領域1542を有する。図15Cの平面概略図1560は、左眼点1562および右眼点1564から知覚される画像輝度分布を示す。これらの輝度分布の不一致(横シフトを参照されたい)が、奥行きの知覚を与える。
図16A〜図16Bは、右眼画像および左眼画像に対して表示される例示的な焦点面を図解する概略正面図である。図16A〜図16B(それらのバージョンは非特許文献7からのものである)は、2つの焦点面によってなる図14のビューの交差した眼ステレオグラムを示す。図16Aは右眼画像1600を示し、図16Bは左眼画像1650を示す。
非特許文献7では、焦点面のための輝度分布は、画素の距離(奥行き座標)およびその補足物に比例する2つの線形重み付け関数によって画像の画素(シーンの捉えられた投影)を重み付けすることによって、コンピュータ的に達成される。対応して、焦点面の形成をサポートする実現可能な画像捕捉フォーマットは、テクスチャプラス奥行きである。非特許文献7は、2つの眼点から見られる、2つの焦点面を用いた奥行き融合またはブレンド影響について説明する。
不一致は、奥行き知覚を示すために使用されることがある。例えば、2つの焦点面が平坦な物体である場合、より近い物体は、2つの眼点から見られるように、より遠いものに関連してわずかにシフトされる。非特許文献7は、2つの焦点面の間の物体が、両極端の間にある位置において知覚されることを述べている。この現象は、2つの焦点面コンテンツを形成するために使用される奥行き重み付け(または奥行きブレンド)によって引き起こされる。奥行きブレンドは、図15A〜図15Cにおいて図解されるように見かけ上の縁ロケーションをシフトし、2つの焦点面間の合成だが現実的な不一致および奥行き知覚を作成する。
図17は、奥行きベースの光度重み付け関数を用いた2つの焦点面の例示的な視聴を図解する概略平面図である。図17は、1つの眼点1702から見られる2つの焦点面1704、1706の奥行き融合の原理を示す平面概略図1700である。非特許文献10および非特許文献11は、どのようにして奥行きブレンド影響が、1つの眼のみによって単眼的に視聴される2つ以上の焦点面と協働すると通知されるかについて説明する。図17は、非特許文献11から改変されたものである。非特許文献11は、式1における2つの焦点面上の2つの重複した画素の知覚される輝度について説明する。
0=L1(z)+L2(z)=w1(z)L0+w2(z)L0 式1
ここで、w1およびw2は、奥行き重み付けされた融合関数である。融合画素の知覚される奥行き
Figure 2021518701
は、式2における2つの焦点面1704、1706の奥行きz1、z2の重み付け和と考えられ得る。
Figure 2021518701
2つ以上のMFPを単眼的に視聴する場合、現象は、当然、非特許文献7によって説明されたように、縁をシフトして不一致(および奥行き知覚)を変化させようとしていないが、非特許文献10によって説明されるように、隣接する焦点面間の移行部のまわりを視聴するときの知覚された網膜のぼやけ内の突然のステップを除去しようとしている。
非特許文献10によって説明されるように、単眼奥行きブレンド影響は、3つ以上の焦点面をもつMFPスタックとも協働することが通知されている。MFP表示における奥行き融合3D(DFD)現象を活用することは、MFP方法の変形態(非特許文献11において説明され、DFD−MFPと表される)につながり、焦点面は、角度(およびx−y)空間内で厳密には隔てられておらず、奥行き(z)次元に沿って何らかの重複および追加的性質も有する。この現象は、奥行きベースのフィルタリングまたは奥行きブレンドと呼ばれることがある。
図18は、いくつかの実施形態による、左眼と右眼による3つの焦点面の例示的な視聴を図解する概略平面図である。非特許文献7は、2つの焦点面のみからなるにもかかわらず、1つの(単眼)MFPスタックの両眼視聴をサポートする方法について説明する。このアイデアは、3つ以上の焦点面をもつMFP表示に一般化可能である。図18は、非特許文献7の視聴セットアップを3つの焦点面表示のための立体的視聴セットアップ1800に拡張し、3つのMFP1802、1804、1806の単眼的スタックが平均眼点1808から形成され、同じ焦点面1802、1804、1806は、左眼および右眼によってわずかに異なる視点1810、1812から見られる。非特許文献7の後、研究報告およびMFP表示は、問題の特定のデバイスが視聴者にMFPの1つのセットを表示するのか2つのセットを表示するのかを正確に指定しないことがある(または、指定すると理解されない)。
いくつかの実施形態による、本明細書において説明される例では、MFP表示の視聴状況は、図18に示されるものであり、1つの単眼MFPスタックが、単眼奥行きプラステクスチャ入力を使用して形成され、2つの(立体的)視点がこのMFPスタックに作成される。ニアアイディスプレイでは、しかしながら、1つの焦点面スタックのみに適切な視聴点を提供することは困難であり、光学部品および反射器を使用して眼にとって適切な横位置を可能にすることがある。さらに、この調整は当然、異なる眼離隔距離(MFPスタックへの異なる視聴角度)を有する人々によって異なる。実際には、立体画像を並べて図示する立体的ニアアイディスプレイと同様に、1つのMFPスタックは、各眼に対して1つである、2つのスタックに分割される必要がある。図12においてと同様に、図18および図27Bによって説明される視聴条件は、わずかに異なる視点からの、2つの平行なMFPスタックと合致される必要がある。これらの2つのMFPスタックの両方は、元の単眼的スタックとは異なり、それに対して、視聴点は眼の間にある(図18を参照)。
MFPスタックを形成するための奥行きブレンド関数
捉えられるシーンは、いくつかの焦点面(例えば、様々な奥行きまたは調節レベルにおける画像層)に分解される。焦点面は、奥行きブレンド関数または重み付け関数を使用して形成され、この関数は、形成されている焦点面からのその距離(例えば、奥行き画像または奥行きマップによって示される距離)に応じて各画像画素に重みを乗算する。ブレンド関数の2つの性質は、1の分割と、奥行きブレンド性質である。1の分割については、焦点面輝度は、合計して元のシーンの輝度になる。奥行きブレンド性質については、同じ画素が複数の焦点面に寄与することがある。この性質は、ブレンド関数の連続性および重複の結果である。いくつかの実施形態による、本明細書において使用または参照される関数は例であり、非制限的である。
ボックスフィルタリング(例えば、画素奥行きに基づいて画像情報をスライスすること)は、奥行きブレンドを理解するための良い開始点である。しかしながら、スライシング結果に対して、各画素は焦点面の1つのみに寄与するので、ボックスフィルタは、実際にはブレンド関数でない。ボックスフィルタを使用する場合、焦点面画像の近似が、各画像に対応する奥行きマップを狭い奥行き領域(スライス)にスライスし、対応する画素を各奥行き領域の中央の(平坦な)焦点面に投影することによって形成される。
焦点面のスタックを視聴する場合、構成されるビューは、視聴者の眼点から見える異なる焦点面に関する情報によって形成される。ボックスフィルタリングでは、奥行き領域へのスライシングは、MFPが、奥行き次元(z次元)に沿って合計するのではなく、空間的な(x−y)方向に互いに完了することを伴う結果になる。対応して、ボックスフィルタによって生成される焦点面は、焦点面間の不一致(3Dの知覚)を作成せず、焦点面上の物体のみに対して作成する。
図19は、いくつかの実施形態による、奥行きブレンド(重み付け)のないMFP表示のための奥行きの例示的な量子化を図解する概略平面図である。図19によって図解されるように、ボックスフィルタの使用から生じると、滑らかな3D表面が奥行き次元において量子化される。図19は、5つの焦点面1902、1904、1906、1908、1910によるビューについて説明するときの奥行きの量子化の概略的な例1900を示す。矢印1912は、視聴方向を示す。
ボックスフィルタは、空間的な(x−y)次元および奥行き(z−)次元において厳密な手段で画像情報を分離する。実際には、少数の焦点面のみが使用されるので、奥行き次元は大きく量子化され、このことが、3D形状および奥行きを提示する際の低い精度を招くことがある。
いくつかの実施形態では、焦点面画像の処理は、複数の焦点面画像のうちの1つまたは複数に対する奥行きブレンド重みを決定することを含んでよい。焦点面画像の処理は、奥行きブレンド重みを使用して焦点面画像を調整することも含んでよい。例えば、奥行き次元値は、奥行きブレンド重みが乗算されてよい。
奥行きベースのブレンドは、さもなければ人間の眼に見え得る、奥行き次元における量子化誤差を減少させるために使用されることがある。奥行きブレンドは、奥行きベースの関数を使用して、各焦点面を構築するために使用される画素に重み付けすることを意味する。1つの奥行きブレンド関数は、区分的線形の、鋸歯形ブレンド関数2050(図20B)であるテントフィルタである。ボックスフィルタの場合、対応する関数2000が図20Aに示されている。
図20Aおよび図20Bは、いくつかの実施形態による重み対奥行きの例を図解するグラフであり、4つのMFPに対する奥行きブレンド関数の概略図を示す。図20Aは、ブレンドのない奥行きスライシング(ボックスフィルタ)を示し、図20Bは、線形(テント)フィルタを示す。いくつかの実施形態では、奥行き値の範囲は0〜255の間である(図20Aおよび図20Bのzminおよびzmaxを参照されたい)。
図21Aは、いくつかの実施形態による重み対奥行きの例示的なブレンド関数を図解するグラフである。図21Bは、例示的なテスト画像を示すイラストである。図21Cは、図21Bの場合の画素距離を図解する例示的な奥行きマップである。図21D〜図21Fは、いくつかの実施形態による、図21Aの奥行き重みを図21Bのテスト画像および図21Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。図21Bおよび図22Bは、ウェブページ(非特許文献12)上で見出される画像に基づいており、図21Dから図21Fは、その画像の修正バージョンである。図21Bおよび図21Cに示される例示的な未処理のテスト画像およびその奥行きマップは、対応して、本開示全体を通じて何回も解説的な目的のために使用される、花の例示的な一般的なテスト画像にすぎない。多くのケースでは、いくつかの実施形態による、例えば、テスト画像に対して行われる例示的なプロセスからの、例示的なテスト画像の修正バージョンが提示される。いくつかの実施形態では、多項式ブレンド関数が、奥行き範囲全体にわたって拡張する。図21Aは、3つの多項式ブレンド関数2100、2102、2104を示す。図21Aおよび図21B〜図21Fは、3つの多項式ブレンド関数2100、2102、2104(図21A)と、テスト画像2110(図21B)およびその対応する奥行きマップ2120(図21C)に対する対応する焦点面(図21D〜図21F)の例を示す。
いくつかの実施形態では、滑らかな細い線1914によって図19に示されるものに類似していることがある、奥行きマップ(例えば、図21C)が、生成されることがある。奥行きマップは、入力画像を、例えば視聴者からの小さい焦点面距離、中間の焦点面距離、および大きい焦点面距離に分離するために使用される。奥行きブレンド関数(例えば、図21A)は、特定の焦点面距離に対する焦点面画像を生成するために使用される。このプロセスは、各焦点面画像(例えば、図21Dから図21F)に対して繰り返されてよい。いくつかの実施形態では、奥行きマップ(図21Cを参照されたい)は、焦点からの奥行き、1つまたは複数のRGB画像からの奥行き、およびRGB−Dセンサ(構造光またはToFを使用する)からの奥行きを含む、いくつかの方法によって生成され得る。奥行き画像を獲得する様々な既知の手段があることが理解されよう。
図22Aは、いくつかの実施形態による重み対奥行きの例示的なブレンド関数を図解するグラフである。図22Bは、例示的なテスト画像を示すイラストである。図22Cは、図22Bの場合の画素距離を図解する例示的な奥行きマップである。図22D〜図22Fは、いくつかの実施形態による、図22Aの奥行き重みを図22Bのテスト画像および図22Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラストである。図22Bおよび図22Cのその例示的な奥行きマップは、ウェブページ(非特許文献12)上で見出される画像に由来し、図22Dから図22Fは、その画像の修正バージョンである。図22Aは、3つの正弦曲線ブレンド関数に対する重みを示す。図22Aは、テストパターン画像2210(図22B)およびその奥行きマップ2220(図22C)に対する3つのMFP2230、2240、2250(図22D〜図22F)を生じさせる3つの正弦曲線関数2200、2202、2204の例を示す。ブレンドフィルタの他の変形形態は、非特許文献11によって提案されている。
奥行きブレンドまたは融合は、非特許文献7によって説明されるように、焦点面の見かけ上の数を、したがって奥行き精度をも増加させる手段である。非特許文献10は、合成不一致知見を、3つ以上の焦点面をもつケースに拡張し、奥行き面の有効数を、実際的なMFP表示実施によって可能にされるそれらの数個から増加させた。非特許文献10は、1つの眼を用いて単眼MFPスタックを視聴するときの奥行きブレンドの利益をさらに報告した。非特許文献10によれば、奥行きブレンドは、疎な焦点面間の移行部において1つの眼によって知覚される焦点距離の段階的な変化をフィルタリングする。
2つの焦点面間の合成不一致(奥行き)の作成および知覚は、非特許文献7で説明されている。3つ以上の焦点面間の奥行き知覚の作成は、非特許文献10および非特許文献9で説明されている。焦点面間の段階的な調節変化のフィルタリングは、非特許文献10で説明されている。非特許文献11では、奥行きブレンド関数に関する変動について説明している。
ウェアラブルメガネタイプのニアアイディスプレイ(NED)は、仮想現実およびゲームで普及しており、最近は拡張現実でも普及してきている。表示要素として携帯電話を使用するメガネは、仮想映像またはカメラで捉えられた映像を視聴するための普及した低費用デバイスの一例である。多くのニアアイディスプレイ(NED)は、立体的画像ペアのシーケンスを提示する。立体的レンダリングは、立体的3D(S3D)TVのためのものを含む外部ディスプレイともに使用されることがある。
立体的映像(立体的画像ペアのシーケンス)を捕捉することは、様々な制限を誘発することがある。立体的コンテンツを捕捉および送信することは、例えば、コンテンツ産生時と受信機でコンテンツをレンダリングまたは視聴するときの両方で、不一致および他の重要なS3Dパラメータを後処理として調整することを防止することがある。
捕捉および送信における映像プラス奥行き(奥行きプラステクスチャ)フォーマットは、奥行き画像ベースのレンダリング(DIBR)において使用される。多くの研究が、当該分野で、受信機におけるレンダリング品質を最適化すること、より具体的には、2つの仮想視点から立体的ビューを生成するときDIBRシステムにおいて誘発されるディスオクルージョンを取り除くことに集中して、行われている。
MFP表示は、奥行きプラステクスチャフォーマットを使用して形成され得る、複数の焦点面の3D知覚に基づく。多くのMFPは、立体的表示に対して発生し得るVACを回避することができる。技術的な理由のために、焦点面の最大数は一般に、MFP表示内で数個のみに限定される。数個の焦点面を使用する場合、レンダリング品質は、奥行きブレンドによって改善し得るが、焦点面の数は依然として、MFPレンダリング品質の限定を提示することがある。
DIBRとMFPの両方のための多くの以前のシステムは、変化する立体的不一致または運動視差のどちらかに対する視点の調整を必要とする、ユーザ動きベースの相互作用のサポートを欠いている。多くのDIBRベースのシステムの場合、1つの理由は、仮想視点生成において使用される方法の演算の複雑さである(例えば、3Dワーピングおよび穴充填)。
いくつかの実施形態は、画像捕捉および送信において奥行きプラステクスチャコンテンツフォーマットを使用する。視点生成のいくつかの実施形態は、以前の奥行き画像ベースのレンダリング(DIBR)方法において使用される3Dワーピングおよび穴充填方法とは異なる。いくつかの実施形態では、多焦点面(MFP)は、奥行きおよびテクスチャデータを使用して受信機内で形成される。性質のセットおよび運動視差をサポートすることをもつ立体的コンテンツは、任意のベースライン方位において、複数の受信機に対して個々に、形成されたMFPを使用してリアルタイムで生じさせられる。
例示的なプロセスおよび構造
MFPベースの方法は、DIBRベースのシステムのための立体的視点を生成する。例示的な方法は、ユーザが自分の頭部傾きおよび視聴位置を変化させることを可能にするために、仮想視点を生成する。加えて、ユーザは、立体的不一致を作成するための例示的な方法によって可能にされる、自然な運動視差、および立体視の個人的な調整が提供される。ユーザの姿勢および動きに適合する不一致を生じさせるために、ユーザの動きは追跡される(例えば、1つまたは複数のヘッドマウントセンサまたは外部センサによって)。
いくつかの実施形態は、ウェアラブルディスプレイと外部ディスプレイの両方の立体的コンテンツおよび不一致ベースの相互作用を生じさせることを可能にする。いくつかの実施形態による、本明細書において説明される相互作用の例示的な実装形態および手段も、MFP表示とともに使用され得る。いくつかの実施形態は、捕捉および送信、並びに受信機内でその中に形成される多焦点面(MFP)において、奥行きプラステクスチャタイプのコンテンツフォーマットを使用する。いくつかの実施形態では、一回受信されたデータを使用して、性質のセットをもつ立体的コンテンツは、任意のベースライン方位において、複数のローカル視聴者に対して個々に、リアルタイムで形成され得る。MFPの形成はいくつかの手段でなされてよく、その例は、本明細書においていくつかの実施形態により開示される。
図23A〜図23Cは、いくつかの実施形態による、立体画像不一致のための例示的なシナリオを図解する概略正面図である。図23A〜図23Cは、ユーザが立体的コンテンツを見る3つの(両眼)視点を示す。図23Aは、横たわりながら奥行き影響を見ることを使用することを示す例2300である。図23Bは、より広く調整された奥行き影響を示す例2330である。図23Cは、視点がユーザの動きに追従する例2360である。ユーザは、異なる方位および変化する量の立体的不一致からコンテンツを見る。コンテンツは、例えば、ウェアラブルディスプレイまたは外部ディスプレイのどちらかを使用して見られてよい。いくつかの実施形態では、3D知覚は、ユーザが2つの眼視点から複数の焦点面の単眼スタックを見ることとの近似された(例えば、仮想)不一致に基づく。
多くの立体360°映像システムは、方位変化のみに反応し、ユーザ視差動きには反応しない。多くの以前のシステムは、方位(純粋な方位変化)を使用して、360°映像を制御する。頭部回転も、眼位置の平行移動を与える。VACを回避することは、例えば、固定位置からの快適な立体視聴を提供し得る。
いくつかの実施形態では、立体的画像を形成するための仮想視点生成は、MFPをシフトおよび追加することによって行われる。立体的表示は、ニアアイS3Dスクリーンおよび外部S3Dスクリーンを含めて、結果を視聴するために使用されることがある。時分割されたS3D表示を使用する場合、ユーザによって装着されるシャッターメガネは、運動視差影響をサポートするために、ユーザ動きを追跡するためのセンサを装備することがある。立体表示と関連付けられたVACを回避するために、立体的表示は、例えば、自然な調節をサポートする表示によって置き換えられてもよい。
いくつかの実施形態では、方法は、3次元映像コンテンツを受信することと、3次元映像コンテンツを使用する多焦点面の数および位置に対して1つまたは複数の多焦点面(MFP)画像を算出することと、運動追跡センサの運動追跡センサ示度を測定することと、運動追跡センサ示度から視聴者方位信号を生成することと、1つまたは複数のMFP画像および視聴者方位信号を使用してシャッターメガネディスプレイの各ビューに対して1つまたは複数の不一致画像(例えば、不一致ベクトルによって示される量分だけ歪曲され、投影され、視聴点に合計されるMFPスタック)を算出することと、1つまたは複数の不一致画像をシャッターメガネディスプレイにレンダリングすることとを含んでよい。
いくつかの実施形態では、デバイスは、1つまたは複数の運動追跡センサと、プロセッサと、このプロセッサ上で実行されるとき、3次元映像コンテンツを受信するプロセスと、3次元映像コンテンツを使用する多焦点面の数および位置に対して1つまたは複数の多焦点面(MFP)画像を算出するプロセスと、運動追跡センサ(例えば、1つまたは複数の運動追跡センサ)の運動追跡センサ示度を測定するプロセスと、運動追跡センサ示度から視聴者方位信号を生成するプロセスと、1つまたは複数のMFP画像および視聴者方位信号を使用してシャッターメガネディスプレイの各ビューに対する1つまたは複数の不一致画像を算出するプロセスと、1つまたは複数の不一致画像をシャッターメガネディスプレイにレンダリングするプロセスとを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを備えてよい。例えば、いくつかの実施形態では、実世界環境に対する視聴者の位置の運動追跡センサ示度を測定することは、例えば、物理的な静止点に対する視聴者の位置の運動追跡センサ示度を測定することを含むことがある。
ユーザ動きによる不一致の変更
図24A〜図24Cは、いくつかの実施形態による、視聴者方位の方向をもつ画像不一致のための例示的なシナリオを図解する概略正面図である。立体的不一致調整は、ユーザ動きおよび動き関連相互作用により行われ得る。図24A〜図24Cは、いくつかの実施形態によってサポートされるユーザ動きによる不一致関連の視点変化を示す。図24A〜図24Cによって図解されるように、合成的不一致の量(例えば、長さ、高さ、または幅)2400(図24A)、方位(例えば、方向)2430(図24B)、および位置(例えば、横平行移動)2460(運動視差)(図24C)は、調整されてもよいし、例えば、これらのユーザ動きの任意の組み合わせであってもよい。不一致(頭部傾きおよび横平行移動の量)は、ユーザのアイウェアからの追跡データに基づいて調整されてもよいし、その手動入力(例えば、不一致の量の個人的な好みを示す)に基づいて調整されてもよい。図24A〜図24Cにおいて図解される3つの不一致関連相互作用は、例えば、任意の順序で発生してよく、連続的なシーケンスを形成してよい。
図24A〜図24Cは、いくつかの実施形態によって作成され、その量(例えば、長さ、高さ、または幅)、方位、および起点に対する位置(運動視差影響をサポートするための)が調整され得るバイポーラベクトル2402、2404、2432、2434、2462、2464を介して表現される不一致を図解する。古い不一致値は、破線矢印2402、2432、2462によって示され、新しい不一致値は、実線矢印2404、2434、2464によって示される。
(左眼および右眼のための)立体的画像ペアの不一致は、眼の間のベースラインに沿った、2つの反対方向を指す、ベクトルのタプル(「バイポーラベクトル」)によって提示されることがある。不一致の量は、2つのベクトルの差の大きさによって与えられる(図24A)。頭部傾きは、不一致ベクトルと水平線(または水平線と平行なベクトル)との間の角度によって示される(図24B)。運動視差(例えば、瞬間的なシフトされた視点)は、2つのベクトルの非対称性によって表現されることがあり、視点は、それらの平均によって示される(図24C)。
不一致の量は、不一致ベクトルをスケーリングする(スカラを乗算する)ことによって調整され、方向は、ベクトルを回転させることによって(または、例えば、回転の量に関する数字表現を修正することによって)調整され、平行移動は、ベクトルの平行シフトによって行われる。システム構成要素間(メガネとシステム端末との間の)で捉えられたユーザ動きを動きベクトルとして伝える代わりに、構成要素インタフェースが、捉えられたユーザ動きに基づいて不一致ベクトルを修正した後でそれらを送信することに基づいてよい。
いくつかの実施形態では、焦点面画像のシフトは、それぞれの焦点面画像のための不一致ベクトルをスケーリングすること(または、例えば、シフトによる不一致調整の量の数値表現を修正することによって)を含んでよい。例えば、スケーリングは、水平(または垂直)次元を広くする(または縮める)ように、図24Aに示されるように実行されることがある。いくつかの実施形態では、焦点面画像のシフトは、それぞれの焦点面画像を平行移動することを含んでよい。例えば、焦点面画像を平行移動することは、焦点面画像を回転させること、または固定された起点に対するオフセットの分だけ焦点面画像を水平に(または垂直に)移動させることを含んでよい。
図25は、いくつかの実施形態による、左眼および右眼のシフトおよび投影されたMFPを生成するための処理ブロックおよびインタフェースの例示的なセットを図解するシステム図である。開示される例示的な方法は、いくつかの実施形態によれば、DIBRにおける仮想視点生成ステージの新しい例示的な実装形態である。DIBRは、上記で図8(非特許文献3から改変された)に図示される仮想視点生成ステージに関して論じられた。図25では、いくつかの実施形態による例示的なDIBRベースの実装形態のためのブロック図2500が示されている。奥行きマップの前処理2506は、奥行きマップ2502に対するフィルタリング動作を含んでよい。1つの動作は、非特許文献13において説明されるように、穴または最大の作成される不一致(例えば、視聴快適さのため)を減少させるために奥行きマップ2502を滑らかにすることである。
MFPの生成2508のためのいくつかの実施形態は、ブレンド関数を使用して、各MFPに対する重みマップ(再マッピングされた奥行きマップ)を生じさせ、捉えられた(テクスチャ2504)画像に形成された重みマップの各々を乗算することによってMFPを形成することであることがある。いくつかの実施形態は、MFPをシフトおよび投影する2512前にMFPを後処理する2510ことがある。いくつかの実施形態では、フィルタリングが、大きい視点変化または不一致に対してMFPがシフトされる場合に穴を減少させるために使用されることがある。いくつかの実施形態では、MFPが、入力として受信されることがある。いくつかの実施形態では、MFPの後処理2510は、(例えば、再配信を介して)MFPを形成することを含むことがある。
いくつかの実施形態によるDIBRベースの方法は、3Dワーピング画像内のディスオクルージョンアーチファクトを減少させる、穴充填およびその他の修復方法を含んでよい。いくつかの開示される実施形態では、焦点面のシフトは、結果に類似した歪みを生じさせることがあり、同等の処理(例えば、奥行き次元または空間的な次元のどちらかにおける修復)が、MFPが奥行きブレンドによって形成された後で、それらに使用されることがある。MFPをシフトして立体的画像2516、2518に投影すること2512は、所望の立体的不一致(または奥行きバジェット)を満たすために使用されることがある。MFPのシフトは、恣意的な頭部傾き(NED内のIMU(慣性測定ユニット)または類似物からのデータ)をサポートするために(例えば、水平だけでなく)任意の選ばれたベースライン方位に沿って行われてよい2514。さらに、運動視差は、ユーザの頭部動きに基づいてサポートされてよい。
MFPの1つのセットを形成することが、様々なベースライン方位、不一致の量と、1つまたは複数のローカル視聴者のための合成的運動視差(例えば、偶然発生する(chancing)視点をもつステレオグラムのシリーズを図示することに基づいた)との両方に役立つことに留意されたい。一度導き出されたMFPスタックは、全ての言及されたケースに役立ち得る。シフトの方向および量、並びに結果がレンダリングされるディスプレイ(または、例えば、人)は、変わる。
図26は、いくつかの実施形態による、視聴者方位の3つのシナリオのための左眼および右眼のシフトおよび投影されたMFPを生成するための処理ブロックおよびインタフェースの例示的なセットを図解するシステム図である。図26は、生成されたMFPスタックが、例えば、異なる不一致、方位、および運動視差をもついくつかのローカル視聴者2602、2604、2606に使用され得るプロセス2600を示す。例えば、受信端末2628は、奥行きマップ2630を受信し、奥行きマップを前処理する2626ことがある。テクスチャ2632は、前処理された奥行きマップ出力を使用してMFPを生成する2624ために受信端末2628によって受信されることがある。いくつかの実施形態は、MFPを後処理する2622ことがある。MFPは、各視聴者2602、2604、2606のための左ビューおよび右ビューのためにシフトおよび投影される2616、2618、2620ことがある。頭部ポーズおよび移動データ(IMUまたは類似物をもつNED)2608、2610、2612は、マルチプレクサおよび無線アクセスポイント2614によって受信されることがある。動きデータは、MFPのシフトおよび投影2616、2618、2620において使用されることがある。
いくつかの実施形態は、いくつかの相互作用機能を用いて、サイトごとに複数の人に個々に役立つ。メガネから受信端末に動きデータを送る(図26における「頭部ポーズおよび移動」ブロックを参照されたい)代わりに、いくつかの実施形態では、データは、動きデータから導き出されるまたは手動入力として(例えば、好ましい不一致を決めるために)与えられる不一致ベクトルであってよいことに留意されたい。
いくつかの実施形態は、単一のMFPスタックがオフセット位置から視聴されるときMFP表示を使用して視覚的に自然な不一致を作成することによって、不一致調整を組み込む。いくつかの実施形態は、不一致が調整された画像を生じさせるために、視聴者からTV/HMDレンダラへのフィードバックを通して不一致調整を組み込む。方位変化は、メガネベースのTVを用いておよび360°映像HMDクライアントを用いて扱われ得る。
いくつかの実施形態では、1つまたは複数の焦点面画像を方位付けることは、それぞれの焦点面画像をシフトすることを含んでよい。そのようなシフトは、例えば、図26に示されるなどの、運動視差を扱うために実行されることがある。
焦点面からの立体ペアの形成
図27A〜図27Dは、いくつかの実施形態による、異なる視聴者方位の下で視聴される例示的な焦点面を図解する概略平面図である。MFPのスタックを形成することに加えて、立体的画像ペア(ステレオグラム)が焦点面から形成される。MFPの単眼スタック(図27A)は、視聴者の(平均)眼点2702から所望の距離のところに置かれ、2つの眼2722によって視聴される(図27B)。
図27Aは、奥行きブレンドによって形成される単眼MFPスタックの平面図イラスト2700を示す。図27Bは、2つの眼2722を用いてMFPスタックを視聴するための平面図イラスト2720を示す。図27Cは、左眼2742を用いて焦点面を視聴するための平面図イラスト2740を示し、そのために焦点面は右にシフトしたように見える。図27Dは、右眼2762を用いて焦点面を視聴するための平面図イラスト2760を示し、そのために焦点面は左にシフトしたように見える。対応して、立体的(または立体的MFP)視聴のために単眼MFPスタックから2つの(立体的)MFPスタックを合成することは、ある方向に、ある量分だけ、MFPをシフトすることによってなされ得る。MFPのシフトは、仮想視点変化に対するより複雑な変形の近似であってよい(DIBRシステムにおける3Dワーピングを参照されたい)。
図27Cおよび図27Dでは、左眼および右眼はわずかに異なる視点からスタックを見る。図27Cおよび図27Dにおける焦点面の見かけ上の横シフトは、焦点面の距離に線形的に依存する。最も遠い面が両眼から同じ位置に見られる(眼から遠くに置かれる)場合、中間の面は「1単位」横にシフトされ、最も近い面は「2単位」横にシフトされる。
いくつかの実施形態では、横にシフトされた焦点面は、それらを各眼点に投影することによって消失(collapse)される。投影する場合、焦点面上の対応する画素は、奥行き軸に沿って合計されることがある。これは一般に、異なる立体不一致または視差をもつ2つの画像の立体的画像ペアをもたらすことがある。単眼的MFPスタックを用いて始まる場合、不一致は、やや人工的または合成であると解釈されることがある。
MFPを使用して形成されるステレオグラムの例
図28Aは、例示的なテスト画像を示すイラストである。図28B〜図28Dは、いくつかの実施形態による、図28Aのテスト画像を使用する例示的な重み付けされた焦点面画像を示すイラストである。図28Aは、ウェブページ(非特許文献12)上で見出される画像に由来し、図28Bから図28Dは、その画像の修正バージョンである。いくつかの実施形態は、多項式ブレンド関数を使用して形成された3つの焦点面の例示的なセットを使用して図解され得る(例えば、図21A)。図28B〜図28Dは、多項式ブレンド関数を使用して3つのMFP2810、2820、2830に分解される例示的なテスト画像2800(図28A)を示す。交差した眼ステレオグラムは、MFPスタックおよび立体ペアの品質を図解するために使用される。図29Aおよび図29Bは、図28B〜図28Dに示されるMFP2810、2820、2830を使用して形成された(対応して、右眼および左眼のための)立体的画像ペア2900、2950を示す。
図29Aおよび図29Bは、いくつかの実施形態による、図28B〜図28Dの焦点面画像を使用して形成された、対応して、例示的な右眼画像および左眼画像を示すイラストである。図29Aおよび図29Bは、3つのMFPを使用して形成された交差した眼ステレオグラムの例である。総不一致は、画像幅の2.76%に相当する(図28Aの特定のテスト画像を用いて最大6画素シフトされたMFPを参照されたい)。画素におけるシフトの量は、使用されるテスト画像の解像度に依存する。レンダリング精度が焦点面の数によって限定される多くのMFP表示とは異なり、いくつかの実施形態では、MFPの精度および数は、同様に限定されない。立体的画像のためのMFPを形成、シフト、および合計することは、図29Aおよび図29Bを形成するために使用される単なる3つの焦点面の例よりも大きい数の焦点面とともに実行されることがある。
立体的コンテンツを生じさせる際の焦点面の適用
立体的コンテンツを形成するのと同様に、異なる調節距離が、ゼロ視差設定(ZPS)のために選ばれてよい。実世界では、ZPS面は、無限遠である(視聴者の視点から遠く離れている)。そのようなセットアップでは、生じさせられた不一致は、最も遠い面の前にある(負の不一致と一般に解釈されるが、符号慣例が逆にされることがある)。多くのケースでは、様々な理由のために、ZPSにより近い距離を使用することがより有益なことがある。より近い距離は、多くの立体的表示のためのスクリーンに使用される。
図30A〜図30Cは、いくつかの実施形態による、異なる眼離隔距離の下で視聴される例示的な焦点面を図解する概略平面図である。図30A〜図30Cは、立体ベースラインの長さ(例えば、眼離隔距離または瞳孔間距離(IPD))3002、3032、3062を調整することが、重複する/下に重なる焦点面の縁影響を減少させ得ることを図解する、3つの平面概略図3000、3030、3060を示す。図30A〜図30Cでは、総不一致(例えば、立体的奥行きの量、およびMFPのロケーション)およびレンダリング距離は、同じままである。図30A〜図30Cでは、これは、対応して減少された瞳孔間距離(IPD)/眼間距離(IOD)をもつ3人の異なる視聴者に当てはまる。実際には、図30A〜図30Cを参照すると、IODの個々の変形形態は、後部(例えば、図30A)、中間(例えば、図30B)、または前方(例えば、図30C)に対するZPS−ロケーションを選択することと同様に知覚される奥行きに影響することがある。
図30A〜図30Cにおいて図解される眼間調整は、コンテンツのための収束点/焦点面(例えば、ゼロ視差設定すなわちZPSとも呼ばれる)を選ぶことに相当する。ZPSにおける焦点面は、負の(近い)不一致と正の(遠い)不一致に総不一致範囲(例えば、奥行きバジェット)を分割する。図30Aでは、全てのコンテンツは、(全ての負の不一致3004、3006により)スクリーンの前にあるように見える。図30Bでは、コンテンツは、(負の不一致3034と正の不一致3064の両方により)スクリーンの両側にあるように見える。図30Cでは、コンテンツは、(正の不一致3064、3066のみを有することにより)シーンの後ろにあるように見える。ZPSは、知覚される奥行き範囲または不一致範囲それ自体に影響しないことに留意されたい。
焦点面縁上でのMFPの部分的なオーバレイのみによって引き起こされる影響を最小にするためのいくつかの実施形態では、焦点面の位置合わせは、一番真ん中の面に対してなされるのが有益である(図30B)。奥行きブレンドの場合、焦点面およびそれらの立体的投影は、画像エリアのためおよび焦点面間の物体のための連続的な奥行き知覚を生じさせる。
MFPの数は、知覚される品質に影響し得るパラメータである。合成的立体映像の場合、焦点面の数は、すなわち、ディスプレイ性質(透明度および多重化速度など)によって限定されない。いくつかの実施形態では、焦点面の数は、例えば任意の所望の奥行き精度を満たすのに十分なほど高く、選ばれることがある。演算の複雑さは、焦点面の数とともに線形的に増加するが、比較的大きい数のMFPでは問題でないことがある。
同じ理由のために、焦点面位置の最適化の利益があまりないことがある。左眼および右眼のための焦点面をシフトすることは、通常の焦点面距離とともに、より容易である(例えば、サブ画素動作なしで実行され得る)ので、等しい変位距離(例えば、インターバル)が使用されることがある。屈折間隔によって位置を最適化する代わりに、通常のインターバルをもつMFPの数が増加されてよい。一番中心の面が位置合わせ/枢動位置にあることにより、奇数の焦点面が使用されてよい。
捉えられたシーンの奥行きマップは、相対的で正規化されてよい。奥行き範囲は、相対的であってもよいし、実世界座標にロックされなくてもよく、システム可変であってもよい。いくつかの実施形態では、シーンの立体的奥行きは、(疑似)立体的画像ペアの形成に使用される横シフトの量によって決定される。
より大きい数のMFPは、より大きな合成的不一致および立体的奥行きを生じさせ得ることに相関することがある。このプロセスは、画像コンテンツにも依存する。大きな奥行き離隔距離をもつ数個の物体のみを有するシーンでは、大きな奥行き範囲にわたる奥行きブレンドは、よりコンパクトな範囲にわたるブレンドの代わりに有益なことがある。
合成的立体ペアの形成
立体的画像ペアは、焦点面から各眼の方への投影を合計することによって、MFPから形成される。プロセスは、立体メガネを用いて視聴され、VACを誘発し得る立体ペアをもたらす、またはVACを回避することができる立体メガネのMFPバージョンをもたらす。このように形成されるステレオグラム内の最大不一致または視差は、立体的コンテンツのために観察される同じものである。奥行き範囲または(立体)バジェットとも呼ばれる、非特許文献5のこの推奨される最大視差は、コンテンツに依存するが、画像幅の3%程度である。この限定の後、非特許文献5において説明されるように、立体影響は壊れる傾向があり、立体コンテンツの(主観的)品質が劣化することを意味する。
例えば、図13では、最大視差/不一致は約2.5%であり、非特許文献5からの3%の推奨最大値を下回る。図13は、立体的視聴に対する対応する最大視野は、(頭部動きなしで眼を回転させるための約70度と比較して)比較的小さい、約20度水平であることを示す。垂直次元では、最大視野は、頭部回転なしで最高55度である。垂直方向では、立体的(または他の任意の)表示は、眼によって可能にされるものよりも小さい。
ソースに応じて、異なる推奨が、立体的表示スクリーンの前と後ろにある奥行きに(負の視差と正の視差に)分けられる、奥行きバジェットの割り当てに対して与えられる。コンテンツそれ自体に加えて、この割り当ては、スクリーンサイズによって影響されることがあり、ソースに応じて変わる。
非特許文献14によれば、(スクリーンよりも近い物体に対する)交差した不一致は、スクリーン幅の2〜3%を超えるべきでなく、(スクリーンよりも遠い物体に対する)交差しない不一致は、スクリーン幅の1〜2%を超えるべきでない。
いくつかの実施形態では、限度、または、例えば、非特許文献5および非特許文献14によって識別されるそれらのものなど、例えば推奨は、設計上の考慮事項として適用され、それに補償されてよい。
大きい不一致をもつ例
以下では、正弦曲線ブレンド関数および多項式ブレンド関数をもつさらなる例が与えられる。印刷時の歪みを見やすくするために、4.6%の大きい総不一致が、これらの例のために選ばれる。これは非特許文献5における3%の推奨最大値よりもはるかに大きい。影響は、図31A〜図31Fにおいて図解されている。
図31Aは、いくつかの実施形態による、正弦曲線奥行き重み付けとともに形成された右眼のための例示的な立体的画像の拡大された抜粋部を示すイラストである。図31B〜図31Cは、いくつかの実施形態による、対応して、正弦曲線奥行き重み付けとともに形成された右眼および左眼のための例示的な立体的画像を示すイラストである。図31Dは、いくつかの実施形態による、多項式奥行き重み付けとともに形成された右眼のための例示的な立体的画像の拡大された抜粋部を示すイラストである。図31E〜図31Fは、いくつかの実施形態による、対応して、多項式奥行き重み付けとともに形成された例示的な右眼画像および左眼画像を示すイラストである。図31B〜図31Cおよび図31E〜図31Fは、いくつかの実施形態による、その奥行きマップ図21Cを使用してテスト画像を処理することによる、例えば図21Bの未処理の花テスト画像の修正バージョンである。図31B〜図31Cおよび図31E〜図31Fは、3つのMFPのシフトおよび合計によって生じさせられ、正弦曲線ブレンド関数および多項式ブレンド関数のどちらかを使用して形成された、大きい合成的不一致(±2.3%)をもつ交差した眼ステレオグラムの比較を示す(対応して、図31Bおよび図31Cの上方ステレオグラム3110、3120、並びに図31Eおよび図31Fの下方ステレオグラム3140、3150を参照されたい)。左の挿入図3100および3130(図31Aおよび図31D)は、両方の方法を用いた対応する右眼画像3110、3140の詳細を示す。挿入図は、大きい不一致によって生じさせられるディスオクルージョンを減少させる、物体縁上の多項式関数の利益を示す。利益は、正弦曲線関数をこえる多項式関数による、より強力な奥行きブレンドに由来し得る。
多項式関数の場合、背景画像詳細が、わずかによりぼやけている。これは、2つの最終視点を形成するためにシフトされた焦点面構成要素が合計されるとき結果をフィルタリングする、より強力な空間的なフィルタリング影響によって引き起こされる。大きい不一致の場合、多項式ブレンド関数は、物体縁に対する利益を有する。利益は、大きい不一致によって生じさせられる可視ディスオクルージョンを減少させる、奥行き方向におけるより強力なブレンドの修復影響に由来する。
フリー(free)ベースライン立体のサポート
画像、映像、および仮想コンテンツは、立体的VRメガネを用いて視聴され得る。これらのサービスは、(頭部を直立させて視聴する場合)水平次元における立体的不一致のみを提供することが可能であり得る。自分のポーズおよびバランスに対する視聴者の知覚を妨げないために、視聴されるコンテンツの水平線は、視聴者の現実の水平線に一般にロックされる。これは、視聴デバイス(例えば、「ボール紙」VRメガネ内の携帯電話)内の位置センサによってユーザの頭部傾きを感知することによって行われる。
以前のシステムでは、ユーザの頭部傾きによりコンテンツを向けるにもかかわらず、コンテンツ不一致は一般的には、ユーザの頭部傾きに追従しないが、頭部方位にかかわらず水平である。頭部傾きを増加させると、水平不一致ベースの3D知覚が歪められるか、弱められるか、または失われすらする。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、頭部方位と無関係な立体的コンテンツを提供するために使用されることがある。立体的(疑似)不一致は、視聴者の測定された頭部傾きに応じて、受信エンドにおいてリアルタイムで形成されることがある。いくつかの実施形態では、視聴者方位信号が視聴者の傾きを示す場合、示された視聴者の傾きに対応する回転された不一致ベクトルを使用する不一致画像が計算されることがある。
図32A〜図32Cは、いくつかの実施形態による、異なるユーザ方位をもつ第1の立体的表示のための例示的な不一致を図解する概略正面図である。図32D〜図32Fは、いくつかの実施形態による、異なるユーザ方位をもつ第2の立体的表示のための例示的な不一致を図解する概略正面図である。図32A〜図32Fは、以前のシステムと本明細書においていくつかの実施形態により開示されるシステムとの間の差のいくらかを図解する。図32A〜図32Fでは、立体的画像ペア3200、3210、3220、3230、3240、3250が、それらがディスプレイとして携帯電話を使用してVRメガネとともに図示されていると、描かれている。眼の近くでフラットディスプレイ上で視聴するための画像幾何学的形状を最適化することは、特徴的なピンクッション形状をもつ立体的画像を生じさせる。
図32A〜図32Fは、ニアアイディスプレイ(例えば、携帯電話)上に立体的コンテンツを示すための2つの方法を示す。図32A〜図32Cは、視聴者の頭部ポーズに沿ってコンテンツが傾いていることを示しており、これは、実世界の水平傾き線と図示されているものとの矛盾をもたらす。この矛盾は、シミュレータ症および方向感覚喪失を引き起こし得る。図32D〜図32Fは、いくつかの実施形態では、ユーザの頭部ポーズを追跡することによってコンテンツの水平線を実世界水平線と位置合わせするための方法を示す。このシステムの短所は、立体ペアのベースラインが位置合わせ不良であり、奥行きの誤った知覚または知覚消失につながることである。
図33A〜図33Cは、いくつかの実施形態による、異なるユーザ方位をもつ立体的表示のための例示的な不一致を図解する概略正面図である。図33A〜図33Cによって図解されるなどの、いくつかの実施形態では、適切なベースラインおよび不一致をもつ立体ペア3300、3330、3360が、ユーザの頭部ポーズの変化に続いて、リアルタイムで形成されることがある。サポートされる相互作用は、運動視差も含むことがある。頭部傾きおよび動きが、仮想視点生成において、それに応じて不一致を変更するために捉えられる(図25および図26を参照されたい)ことに留意されたい。
図34は、いくつかの実施形態による、回転された方位をもつ視聴者のための立体的表示のための例示的な左眼画像および右眼画像を図解する概略的なユーザの図である。図34は、ニアアイディスプレイ視聴者のために表示される左画像および右画像の正面図である。図34の右側の頭部アイコン3414は、視聴者の方位の回転を示す。図34の左側のメガネは、視聴者によって装着されるビューアの観点から示される。視聴者の頭部回転の後で、右眼画像3404はより高い、上から見られており、左眼画像3402は、低いところから見られている。図5の元の方位で示される同じ画像は、画像を水平に保つために、図34のシナリオ3400のために回転される。左画像と右画像との間の不一致は、回転される方位に変えられる(図5に示される小さいボートのロケーションは、図34が、小さいボート3408は、左眼画像3402の場合は図5と比較して大きいボート3406により近く、小さいボート3412は、右眼画像3404の場合は図5と比較して大きいボート3410からより遠く離れているように垂直不一致と水平不一致の両方の変化を示すように変えられる)。
いくつかの実施形態では、1つまたは複数の焦点面画像を方位付けることは、それぞれの焦点面画像を回転させることを含んでよい。例えば、1つまたは複数の焦点面画像は、図34に示される左眼画像3402および右眼画像3404に関する画像を示すように回転されることがある。いくつかの実施形態では、焦点面画像を回転させることは、焦点面画像のうちの1つまたは複数に関する不一致ベクトルを、水平線と平行なベクトルに対して回転させることを含んでよい。
運動視差のサポート
任意のベースライン方位(例えば、頭部傾き)における合成的不一致に基づいた焦点面シフトは、左眼および右眼のための少量の運動視差をサポートするためにも使用されてよい。この実施形態は、大きい数の焦点面を使用し、不一致のスパンは、その範囲内で様々な頭部位置(運動視差)がサポートされ得るように大きく拡張されてよい。
図35は、いくつかの実施形態による、焦点面画像のセットを左右に歪曲することによってビューへの複数の視点を生じさせる例示的なプロセスを図解する概略的な処理図である。図35は、いくつかの実施形態による、例えば図21Bの未処理の花テスト画像の、例えば図21Cのその奥行きマップを使用した、様々な修正バージョンを示す。図35の例では、5つの(例えば、正弦曲線)MFPおよび12単位の最大視差/横シフト(どちらかの眼に関する)が使用されている。7つのフレーム3502、3504、3506、3508、3510、3512、3514のマルチビュー画像が、選ばれた不一致/視差範囲に対して形成される3516。フレーム3502〜3514の各々は、最初に変化する度合いにMFPスタックを歪曲し、次いで、視聴者の方へMFPを投影および合計することによって形成される。また、元のゼロ不一致画像は、シリーズに入れられる。マルチビュー画像は、右眼の視点が左側にあり、逆も同様である、交差した眼ステレオグラムのシリーズを含む。図35のマルチビューシリーズ内で、あらゆる他のフレームを拾い集めることによって、5つのステレオグラムペア3502/3506、3504/3508、3506/3510、3508/3512、3510/3514が形成されることがあり、これは、視差/横シフトの8単位分だけ異なる。対応して、線形的に変化する立体的視差(8単位の立体的不一致をもつ)は、5つの位置においてサポートされることがある。図35は、合成的不一致を使用してマルチビュー画像を形成するための例3500を示す。各眼に対する最大不一致範囲(例えば、5つのMFPスタックの最大横シフト範囲)は、12単位(テスト画像幅の±2.75%)である。例えば、MFPスタックは、右に歪曲される3518(または、例えば、MFPシフトされる)ことがあり、MFPスタックは、左に歪曲される3520(または、例えば、MFPシフトされる)ことがある。MPFのスタックは、様々な量の分だけ、歪曲される(または、例えば、MFPシフトされる)。結果は、シフト方向に応じて、左または右に傾いたMFPのスタックである。
マルチビュー画像を立体ペアに分けることは、印刷からの視差影響を知覚するためにより好都合である。運動視差影響と知覚される立体不一致(奥行き)との間の折衷は、1)6つの位置における2つの隣接する画像(総不一致0.46%、正の不一致および負の不一致は両方とも0.23%)、2)5つの位置における1つおきの画像(総不一致0.92%)、3)4つの位置における2つおきの画像(総不一致1.38%)、4)3つの位置における3つおきの画像(総不一致1.84%)、または2つの位置における4つおきの画像(総不一致2.3%)、のいずれかを使用することによって行われてよい。2つのエンド画像をもつ立体ペアは、運動視差なしで2.76%の総最大不一致を提供する。
図36は、いくつかの実施形態による、図35の歪曲された画像(それらの各々は、最初に様々な度合いで歪曲され、次いで視聴者の方へ投影および合計されるMFPスタックである)を使用する立体的表示のための3つの立体的画像の例示的なシリーズを示すイラストである。図36は、1つおきの画像を拾い集めることによって形成される、上記のシリーズからの3つのサンプル3602/3604、3606/3608、3610/3612(不一致0.92%をもつ交差した眼立体ペア)を示す。印刷からの運動視差影響(総合で3.7%)を知覚することはやや難しいが、それは、アニメーションが図35のマルチビュー画像を使用して形成されるとき、明らかである。図36は、図35に示されるマルチビュー画像を使用して形成された、運動視差(視点は左から右に動く)をもつ3つの立体的ビュー3602/3604、3606/3608、3610/3612の例3600を図解する。図36は、左から右への視点変化(図35を参照されたい)をもつ3つの(交差した眼)ステレオグラム3602/3604、3606/3608、3610/3612を示す。配列によって接続される画像は同じである。
図36の例における運動視差の量が推定され得る。立体的コンテンツに対する2つの視点は、眼離隔距離、一般的には約60mm、隔てられる。対応して、図36において図解される仮想ビューは、ユーザが、自分の頭部を2つの極の間で12cm動かすことを可能にする。しかしながら、結果を小さい交差した眼ステレオグラムと見なすことは、より現実的な条件で影響を観察することと比較して、影響を歪める可能性が高い。説明される頭部傾きおよび運動視差サポートは、一度だけ送信される(ブロードキャスト)コンテンツに対してMFPの形成および処理が受信機内で複数回行われ得るので、複数のローカル視聴者に個々に提供されてよい。
合成的運動視差の場合、立体ペアは、対称的に左および右にシフトされたバージョンをもつようにではなく、例えば、異なる量のシフトを用いた2つの左にシフトされたバージョンをもつように、形成される。しかしながら、これは、運動視差影響を知覚するうえで顕著な劣化を引き起こすと思われない。別の関連する詳細は、元のシフトされないテクスチャ画像(物体縁の両側に影響のない)も、マルチビュー画像シリーズの一部として使用されてよいことである。
焦点またはZPSを選ぶこと(図30A〜図30Cおよびその解説を参照されたい)は、立体画像から知覚される奥行き範囲に影響しない(総不一致を参照されたい)が、合成的運動視差を作成するとき、選定からの重大性は小さい。焦点が中央にある(例えば、一般に、本開示における例のために選ばれる)とき、横に動く視聴者は、すなわち、レンダリングされたボリュームが枢動点のまわりで(ZPSの距離のところで)回転すると知覚する。しかしながら、運動視差にとってより自然であるのは、ボリュームがその最も遠い点のまわりで回転することである。いくつかの実施形態では、運動視差影響を形成する場合、遠い面(と、この遠い面の前にある全ての不一致)が、仮想視点生成において使用されることがある。
MFPを形成するために適用可能なソースフォーマット
映像プラス奥行きマップは、画像内の各画素の距離を与える、いくつかの実施形態による開示される方法に適用可能なフォーマットである。3DワーピングまたはMFPベースの設計を使用して、そのようなフォーマットから立体的ビューを解析することは、視点を変化させることによりビューの遮蔽エリアが明らかにされるとき、物体縁においていくつかの誤差を引き起こすことがある。1つの例示的な実施形態は、奥行きマップをもつ立体的映像である。上述のフォーマットの両方は、映像圧縮方法、例えば、H.264 MVCによってサポートされる。
奥行き画像を生成する複数のプロセスが存在する。いくつかの実施形態による1つの方法は、2つのカメラビュー(立体ペア)の不一致を導き出し、不一致を奥行きにマッピングすることである。画像画素間の対応を見つけることは、線が2つのカメラ点を接続する(ベースライン)ことと並列に行われる。真の対応を見つけることは、誤差が起こりやすいプロセスであり、潜在的な偽陽性対応および不一致をもつ。様々なタイプのフィルタリング動作およびセグメンテーション動作が、誤差を除去するために使用されてよい。
いくつかの実施形態は、(RGB−DまたはToF(飛行時間型)などの)奥行きセンサによって捉えられた奥行きプラステクスチャのソースフォーマットを使用する。奥行き情報は、送信前に圧縮されてよい。これは、立体的視点または対応する奥行きマップに対する仮想(3Dモデリングされた)シーンのリアルタイム送信よりも小さいビットレートを使用する。
外部ディスプレイを使用する例示的な実施形態
図37は、いくつかの実施形態による、3つの視聴者方位のための柔軟なベースライン立体的表示のためのシフトおよび投影されたMFP画像を生成するための処理ブロックおよびインタフェースの例示的なセットを図解するシステム図である。いくつかの実施形態では、柔軟なベースライン立体的表示は、例えば、柔軟ビューTVであってよい。いくつかの実施形態を説明するための文脈は主に、ニアアイディスプレイであってきたが、同じ相互作用は、例えば、いくつかの実施形態による外部ディスプレイを使用しても実施され得る。例えば、時分割されたS3Dディスプレイに使用される場合、ユーザによって装着されるシャッターメガネは、ユーザ動きを追跡するため、およびメガネからデータを受信する3718ため、およびデータをメガネに送る3720ために、センサを装備することがある。外部追跡が、いくつかの実施形態に使用されることがある。3人のユーザ3722、3724、3726の例のためにユーザ姿勢および動きを追跡することによって、本明細書においていくつかの実施形態により開示されるシステムおよび方法(仮想不一致関連機能を含む)は、外部ディスプレイを使用することがある。マルチユーザビュー(時分割3716とともに実施され得る)は、複数の同じ場所にいる視聴者にサービスを提供するために使用されることがある。図37は、奥行きマップ3702およびテクスチャ3704の入力のための受信サイト3706における受信機3708内での仮想視点生成3710のための外部ディスプレイおよび2つの例示的な方法3712、3714を使用するいくつかの実施形態を図解する。技法は、図37では代替(「または」)であると示されているが、いくつかの実施形態では、これらの任意の組み合わせが使用されてよい。
視点生成にDIBRベースの手段を使用する例示的な実施形態
MFPによる仮想視点生成のためのいくつかの実施形態は、3Dワーピングおよび穴充填に基づいたDIBRシステムとともに使用されることがある。いくつかの実施形態は、自由に姿勢をとるまたは動くユーザのためにフリーベースライン立体および運動視差を生じさせるためのDIBRベースの方法を使用することがある。この実施形態は、複数のユーザおよび視点の変化のための3D幾何学的変形を算出することがある。この実施形態は、図37において図解される(方法3712および3714に対応する、「仮想視点生成」内部の2つのボックスを参照されたい)。
MFP NEDにおけるフリーベースライン立体および運動視差の例示的な実施形態
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、MFPを形成し、それらを使用して、選ばれた(様々な)立体的不一致を所望の方位(頭部傾き)で生じさせる。いくつかの実施形態は、ベースライン方位に適合するようにMFPをシフトする。いくつかの実施形態は、実際のMFP表示に対するフリーベースライン立体および運動視差影響を作成する。実際のMFP表示上に図示される場合、自然な調節がサポートされる。MFPスタックは、調節によってサポートされる立体的知覚が実際には視聴者の頭部傾きに対して不変である(「鼻のまわりでの」回転)ように、図34では立体的表示のために図解されるなどの頭部傾きとともに視聴されることがある。
非対称的な視点生成のための例示的な実施形態
代替実施形態は、シフトされたMFPをもつ一方の眼情報を形成および図示し、シフトのない他方の眼MFPを図示することである(一方の眼のために直接的に受信されたテクスチャ画像に焦点面を使用する)。非特許文献15によれば、1つの高品質画像および1つの低品質画像(ここでは、非遮蔽エリア)を同時に図示することが、モノビジョン方法と類似した品質利益をもたらし得る。しかしながら、この変形態は、非対称的な視点生成および歪みによる、より小さい不一致を可能にする。
MFPおよび仮想視点の産生
MFPおよび仮想視点を形成するためのいくつかの実施形態は、各焦点面のための奥行きブレンド重みを計算し、各焦点面に対して計算された奥行きブレンド重みによって画像奥行きマップを再マッピングすることによってMFP重みマップを形成し、捉えられた画像または入力画像に各MFP重みマップを乗算して各焦点面画像を形成し、各焦点面画像の空間的なシフトを実行して、形成されたMFPを追加して不一致のために立体的画像ペアを生成する。いくつかの実施形態では、奥行きブレンド重みが計算されることがあり、画像処理が、MFP重みマップ(図38Bにおいて図解される)を形成し、各焦点面画像(1つの焦点面画像のために図39A〜図39Cにおいて図解される)を形成し、空間的なシフトおよび追加(例えば、立体画像が選ばれた不一致のために)を実行するために使用されることがある。
図38A〜図38Cは、いくつかの実施形態による、奥行きマップ画像、奥行き重み付けグラフ、および生成された焦点面画像をそれぞれ図示する画像操作プログラムのためのインタフェースの例示的なセットを図解するコンピュータウィンドウのセットである。図38A〜図38Cは、奥行きマップ3800(図38A)が1つの焦点面3860(図38C)のための重みマップを作成するために正弦曲線重み関数3830(図38B)によって再マップされている例を示す。他の重みマップ(例では、全体で5つ)は、類似の手段で形成されてよい。
図39A〜図39Cは、シミュレーション環境内の生成された焦点面画像の例示的なセットを示すイラストである。図39A〜図39Cは、対応する焦点面3960(図39C)を形成するために重みマップ3930(図38の中央グラフ)によって乗算されたテスト画像3900(図39A)を示す。他の焦点面(例では、全体で5つ)は、同じ手段で生成される。
仮想視点生成における演算の複雑さについて
視点変化のための3Dワーピングは、コンピュータグラフィックスアルゴリズムによって行われてよい。これらのアルゴリズムの複雑さ、速度、および結果は、例えば使用された斜視図およびカメラモデルに依存することとは異なる。シフトセンサセットアップのための数学的公式化の例は、非特許文献5において見つけられる。3Dワーピングのための演算の複雑さは、大きいFoV(視野または視界)および多くの外部ディスプレイにおいてよりも大きい解像度をもつ高品質ニアアイディスプレイを用いるなど、高いことがある。加えて、3Dワーピングを使用してMFP表示に対する視点を形成する場合、焦点面は、3Dワーピングの後に形成され、これは、多くの以前のシステムのための複雑さをさらに増加させ得る。
一方、MFPのスタックを形成することは、各焦点面へのその距離によって各画素値を重み付けする(例えば、奥行きマップから取得される)ための画素ベースの動作を使用する手順である。分解が行われた後で、視点または立体ベースライン方位のいかなる変化も、一度導き出された焦点面の単なる、互いに対する側方(例えば、バルク)シフト、および新しい視点への投影を形成するための、それらの画素ごとの追加である。いくつかの実施形態では、補間による解像度変化などなしで画素変位の乗算において焦点面のシフトが行われることがあるので、サブ画素シフトおよび動作がない。
代わりに、伝統的な3Dワーピング手順を用いて、視点を変化させることは、一般的には、サブ画素精度における複数の3Dジオメトリベースの算術演算(例えば、行列計算)を必要とする。さらに、ディスオクルージョンを取り除くための修復および穴充填動作は、単純な画素ベース動作の代わりに、いくつかの画素幅カーネルまたはウィンドウを用いた動作を使用することがある。
図40は、いくつかの実施形態による、多焦点面(MFP)表示画像を生成するための例示的なプロセスを図解するメッセージシーケンス図である。図40は、焦点面画像をシフトおよび投影することによって立体的MFPスタック(例えば、対応して、左眼および右眼のためのMFPの2つの単眼スタック)を生成するいくつかの実施形態のためのメッセージシーケンス図4000である。MFP表示4006は、レンダラ制御モジュール4002にMFP面位置を送る4008。テクスチャ画像および奥行きマップがレンダラ制御モジュール4002によって受信される4010。レンダラ制御モジュール4002が、各MFP面のための画像を生成する4012。追跡モジュール4004(またはセンサ)が、レンダラ制御モジュール4002に視聴者位置/方位を送る4014。MFP画像が、レンダラ制御モジュール4002によってシフトおよび投影される4016。立体的MFPスタック(左/右ペア)が、レンダラ制御モジュール4002からMFP表示4006に送られ4018、MFP表示によってユーザに表示される。
図41は、いくつかの実施形態による、立体3Dディスプレイ画像を生成するための例示的なプロセスを図解するメッセージシーケンス図である。図41は、立体3Dディスプレイ(例えば、外部フラットスクリーン)のための焦点面画像の不一致ビューを生成するいくつかの実施形態のためのメッセージシーケンス図4100である。テクスチャ画像および奥行きマップがレンダラ制御モジュール4102によって受信される4108。レンダラ制御モジュール4102が、各MFP面のための画像を生成する4110。いくつかの実施形態では、レンダラ制御4102は、不一致ビューを算出する4114ために使用されることがある。メガネ/HMDセンサ4104は、レンダラ制御モジュール4102に視聴者位置/方位を送る4112。不一致ビューが、レンダラ制御モジュール4102によって算出される。立体画像左/右ペアが、レンダリング制御モジュール4102から立体3Dディスプレイ4106に送られる4116。立体3Dディスプレイ4106は、立体ディスプレイ4106からメガネ/HMD4104にアクティブなメガネ信号を送り4118、画像がユーザに表示される。
いくつかの実施形態では、方法は、3次元映像コンテンツを受信することと、3次元映像コンテンツを使用する多焦点面の数および位置に対して1つまたは複数の多焦点面(MFP)画像を算出することと、視聴者方位信号を受信することと、1つまたは複数のMFP画像および視聴者方位信号を使用して立体的ディスプレイの共通ビューに対する1つまたは複数の不一致画像を算出することと、1つまたは複数の不一致画像を立体的ディスプレイにレンダリングすることであって、立体的ディスプレイの共通ビューが立体的ディスプレイの各眼ビューにレンダリングされる、ことを含んでよい。いくつかの実施形態では、共通ビューは、単眼的MFPスタックの平均眼視点に対する左眼視点および右眼視点であってよい。MFP NEDの場合、光学的配置は、交差していない眼の状態で眼の間で単眼的MFPスタックが視聴されることを可能とするペリスコープタイプ接眼部を使用することがある。
いくつかの実施形態では、共通ビューのための1つまたは複数の不一致画像を算出する方法は、立体的表示の各眼ビューの平均(または画像の左/右ペアの平均)である平均眼点を算出することがある。
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、MFPを形成し、それらを使用して、選ばれた(様々な)立体的不一致を所望の方位(頭部傾き)で生じさせる。MFPは、ベースライン方位に適合する方向にシフトされてよい。得られる立体的画像は、ウェアラブルディスプレイ、並びに、例えば、外部スクリーンの上に表示されることがある。いくつかの実施形態は、立体的ディスプレイを使用するサービスのための立体的コンテンツを生じさせるために使用されることがある。いくつかの実施形態は、立体的表示の発展を可能にし、歪んでいない視差並びにセンサによりサポートされた運動視差影響をもつ頭部傾きと無関係な(フリーベースライン)立体的レンダリングを生じさせる簡単で費用対影響の高い手段を可能にする。そのようなシステムは、ユーザがそれらの頭部および身体を動かすための立体視および運動視差をサポートし得る。
いくつかの実施形態は、以前の立体的ディスプレイ上で視聴される場合にVACを引き起こし得る立体的画像を生じさせる。VACは、調節不変タイプの立体的メガネを用いてコンテンツを図示することによって減少され得る。代替実施形態では、MFP表示との不一致ベースの相互作用機能がサポートされる。
いくつかの実施形態では、方法は、3次元映像コンテンツおよび視聴者方位信号を使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを算出することと、算出された画像データを使用して、1つまたは複数のMFP画像をMFPディスプレイにレンダリングすることとを含んでよい。
いくつかの実施形態では、デバイスは、プロセッサと、このプロセッサ上で実行されるとき、3次元映像コンテンツおよび視聴者方位信号を使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを算出するプロセスと、算出された画像データを使用して、1つまたは複数のMFP画像をMFPディスプレイにレンダリングするプロセスを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを備えてよい。
奥行きプラステクスチャからの仮想視点生成
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、立体的3D(S3D)表示システム内で立体的画像ペア(ステレオグラム)を形成することに関する。ステレオグラムを形成するための1つの方法は、奥行き画像ベースのレンダリング(DIBR)である。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、複数の焦点面(MFP)から合成的立体的ビューを生成する。いくつかの実施形態による1つの例示的な方法は、DIBRシステム内で使用される3Dワーピングによる仮想視点生成を使用する。DIBRとMFP立体方法の両方では、奥行きプラステクスチャ入力フォーマットが、ビューを捉える際に使用されることがある。いくつかの実施形態は、仮想視点生成のためおよびMFPレンダリングのために複数の焦点面(MFP)の後処理を使用する。
MFPベースの方法において奥行き知覚を改善するために使用される奥行きブレンドは、非特許文献10および非特許文献11において説明されており、周波数領域内の焦点(再提示)面情報の再配信に基づく奥行きブレンド方法は、非特許文献1において説明されている。自然なぼやけおよびオクルージョンは、立体的レンダリングおよび3D画像レンダリングにおける品質にとって重要な要因である。人間視覚系(HVS)によるそれらの知覚に関する情報については、例えば、非特許文献16を参照されたい。
多くの立体的3Dシステムは、奥行き画像ベースのレンダリング(DIBR)を使用する。DIBRベースの3D送信システムの概略的なピクチャは、非特許文献3から改変された図8に示されている。多くのDIBRシステムでは、受信側で、仮想視点生成は、3Dワーピング段階と、穴充填段階からなる(図8の仮想視点生成ブロックを参照されたい)。3Dワーピングは、視聴者の2つの眼点から見られる、3Dビュー(テクスチャ化された奥行きマップ)への2つの仮想ビューを形成するために使用されることがある。3Dワーピングは、コンピュータグラフィックスアルゴリズムによって行われる。
MFPのスタックから合成された立体的3D
多焦点面(MFP)レンダリングは、ニアアイディスプレイにおける自然な眼調節をサポートするために使用される。上記で説明したように、立体的ビューは、複数の焦点面から合成されることがある(DIBRにおける3Dワーピングを参照されたい)。MFPディスプレイは、視聴者の視軸に沿った層から3Dシーンを構成する異なる焦点面のスタックを作成する。3Dシーンへのビューは、ユーザには異なる奥行きおよび空間的角度で見える全てのそれらのボリューム画素(例えば、より正確には、ボクセル)を投影することによって形成される。多焦点面は、例えば、2D表示のスタックを空間的に多重化すること、または対応する多焦点面の可視部をレンダリングしながら、高速可変焦点要素(VFE)によって単一の2D表示の焦点距離を順次−時分割される手段で−切り換えることのどちらかによって、レンダリングされ得る。
図12は、多焦点面ニアアイディスプレイのための概略図を示す。MFPディスプレイは表示されるシーンの明視野のための近似を作成する。多くのニアアイディスプレイでは1つのユーザ視点のみがサポートされる。対応して、近似は、より簡単であり、完全な明視野捕捉を入力として使用しないことがある。大きな数のMFPを異なる距離で(3D空間に)レンダリングする場合、視聴者による自然な調節に近いものがサポートされる(VACが回避される)。MFPを形成するときに奥行きブレンドを使用することによって、レンダリング品質はさらに改善され得るおよび/またはMFPの数が減少され得る。
奥行きブレンドは、画素の、一般的には2つの最も近い焦点面からのそれらの距離による重み付けを意味する。その距離は、例えば、奥行きマップから取得されることがある。奥行きブレンドは、焦点面間の奥行き知覚を改善することがある。焦点面は、1の分割に適合するように、元の捉えられたシーンに(または、ほぼそれに)合計される。この要件を追加の面が満たすようにシーンをそれらに分解する多くの手段がある。対応して、本明細書において開示されるシステムおよび方法は、いくつかの実施形態による例証的な例示として提示される。
多くのMFPレンダリングシステムは、立体的知覚をサポートする、各眼のための異なるMFPスタックを形成および図示する。非特許文献7は、2つの空間的に形成された焦点面の間の奥行き融合された3D(DFD)現象を説明する。非特許文献10は、この現象(奥行きブレンドと説明される)を、複数の(3つ以上の)焦点面をもつセットアップに拡張した。しかしながら、非特許文献10は、奥行きおよびテクスチャのための立体的捕捉から形成された(不一致を合成するためにMFPをシフトすることによってではなく)、各眼によって別個のMFPスタックを視聴することを説明すると理解される。
本明細書においていくつかの実施形態により開示されるいくつかの例示的なシステムおよび方法では、両方の眼は、わずかに異なる視点から焦点面の同じ単眼スタックを視聴しており、3D知覚のためのやや合成された不一致を作成する。従って、いくつかの実施形態では、図18に示されるように、各眼のために別個に捕捉および形成されるMFPの2つのセットの代わりに、MFPの1つのスタックのみが形成され、眼の間の点に向かって位置合わせされる。図18は、平均的眼点から形成されるMFPのスタックを示し、同じ焦点面は、わずかに異なる視点から左眼および右眼によって見られる。いくつかの実施形態では、形成され、眼の間の点に向かって位置合わせされたMFPの1つのスタックが、図18に示されるように、わずかに異なる視点からの1つの単眼MFPスタックの2つのバージョンを形成することによって立体的MFPディスプレイの各眼ビューにレンダリングされる。いくつかの実施形態では、MFPスタックの2つのバージョンの投影が合計され、従来の立体的表示(S3D)を使用して各眼に表示される。
焦点面からの3D知覚は、厳密にそれらの面上にある平坦な物体にとって適切である。しかしながら、奥行きブレンドを使用すると、知覚は、面間でも適切に近い。MFPスタックは、各眼に対して別々に形成され得るので、奥行きブレンドは、立体的なMFP(その2つのセット)に対する調節を調べることによって発展されている。しかしながら、奥行きブレンドは、(合成された)立体的不一致を通してより連続的な奥行き知覚を提供し得る(2つの眼で1つの単眼奥行きブレンドされたMFPスタックを視聴する場合(図18を参照されたい))。この現象は、図29A、図29B、図46A、および図46Bに対応する、奥行きブレンドをもつ交差した眼ステレオグラムを、これをもたないものと比較することによって見られることがある。
MFPから立体的画像を合成することが、以下で説明される。MFPのスタックを形成することに加えて、立体的画像ペア(ステレオグラム)が焦点面から形成される。例えば、MFPの単眼スタック(図27Aを参照されたい)が形成され、視聴者の(平均)眼点から、設定された(または所望のまたは決まった)距離のところに置かれ、2つの眼によって視聴される(図27Bを参照されたい)。
図27Aは、奥行きブレンドによって形成される単眼MFPスタックを示す。図27Bは、2つの眼で視聴スタックを視聴することを示す。図27Cは、左眼のための焦点面を示し、そのために焦点面は右にシフトしたように見える。図27Dは、右眼のための焦点面を示し、そのために焦点面は左にシフトしたように見える。左眼と右眼は、わずかに異なる視点からスタックを見る。対応して、立体的(または立体的MFP)視聴のために単眼MFPスタックから2つの(立体的)MFPスタックを合成することは、ある方向に、ある量、MFPをシフトすることによってなされ得る。MFPのシフトは実際には、仮想視点変化に対するより複雑な変形の近似である(従来のDIBRシステムにおける3Dワーピングを参照されたい)。眼によって知覚される各焦点面の横位置は、焦点面の距離に線形的に依存する(図27Bを参照されたい)。図27Bに記載の固定された焦点面インターバルを使用するとき、最も遠い面が両方の眼から同じ位置に見られる(例えば、眼から遠くに置かれる)場合、中間の面は「1単位」横にシフトされるように見え、最も近い面は「2単位」横にシフトされるように見える。焦点面の離隔距離が屈折スケールで決まっている場合、それらの実際のメトリック距離は、様々な量の横シフトを導き出すために使用される。
眼位置に対応する立体的画像ペアを形成する場合、横にシフトされた焦点面は、それらを各眼点に投影することによって消失される。立体的画像ペアのために投影することは、実際には、焦点面上の対応する画素が、奥行き軸に沿って合計されることを意味する。これは、異なる立体不一致/視差をもつ2つの画像の立体的画像ペアをもたらす。いくつかの実施形態は、(例えば、図28Bから図28Dなどの)単眼MFPスタックとともに始まることがあり、合成的不一致を使用して立体的MFPスタックを生成することがある。
図29Aおよび図29Bは、説明された手順によって形成された立体的画像ペアの例を与える。図29Aおよび図29Bの例において使用される3つの焦点面を形成する際、線形(テント)フィルタをもつ奥行きブレンドが使用された。図29Aおよび図29Bは、3つの線形的にブレンドされたMFPをシフトおよび合計することによって形成された交差した眼ステレオグラムの例を示す。総不一致は、画像幅の2.76%に相当する(特定のテスト画像を用いて最大6画素シフトされたMFPを参照されたい)。焦点面の離隔距離が屈折スケールで決まっている場合、それらの実際のメトリック距離は、様々な量の横シフトを導き出すために使用される。
奥行きブレンドは、MFPレンダリングにおける奥行き知覚を改善する
いくつかの実施形態では、3D映像コンテンツは、高周波数コンテンツおよび低周波数コンテンツにフィルタリングされることがある。高周波数コンテンツは、1つまたは複数の高周波数焦点面に分解され得る。低周波数コンテンツは、1つまたは複数の再配信された焦点面を生成するために、1つまたは複数の高周波数焦点面に再配信され得る。1つまたは複数の再配信された焦点面は、1つまたは複数の多焦点面画像をレンダリングするために使用されることがある。
非特許文献17によれば、あらゆる人間に対して、最大28の焦点ペインは、焦点面のための1/7ジオプトリー間隔に対応する、無限遠から4ジオプトリー(25cm)までの奥行き範囲をカバーするのに十分である。平均的な視力をもつ人の場合、非特許文献17は、14個の焦点面が範囲をカバーすると述べている。従って、大きい数の焦点面が、高品質奥行き知覚のために使用されてよい。
多数の焦点面をレンダリングすることは、様々な技術的理由によって限定される。その数は、奥行きブレンドを使用することによって減少され得る。数個の焦点面のみを使用する場合、最適な留置は、人間の眼性質にとって有益であることがある。奥行き知覚の精度が視聴者からの距離に反比例して減少することにより、より大きい精度が、奥行き面を屈折奥行きの関数とすることによって取得されることがある。
線形スケールと屈折スケールとの間のマッピングが決定され得る。多くの例が、線形スケールで焦点面間の決まった間隔を使用することによって取得される。奥行きベースのブレンドは、さもなければ人間の眼に見え得る、奥行き次元における量子化誤差を減少させるために使用されることがある。奥行きブレンドは、奥行きベースの関数を使用して、各焦点面を構築するために使用される画素に重み付けすることを意味する。
図42Aは、いくつかの実施形態による重み対奥行きの例示的なブレンド関数4200、4202、4204を図解するグラフである。1つの奥行きブレンド関数は、図42Aに示されるボックスフィルタ(ブレンドなしにスライスする)である。比較のために、区分的線形の、鋸歯形ブレンド関数であるテントフィルタが図43Aに示されている。いくつかの実施形態では、奥行き値の範囲は0から255の間であり、これは、本明細書では、図42Aおよび図42Cなど、例のいくつかにおいて使用される。図42Bは、例示的なテスト画像を示すイラスト4210である。図42Cは、図42Bの場合の画素距離を図解する例示的な奥行きマップ4220である。図42D〜図42Fは、いくつかの実施形態による、図42Aの奥行き重みを図42Bのテスト画像4210および図42Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラスト4230、4240、4250である。図42Bおよび図42Cは、ウェブページ(非特許文献12)上で見出される画像に由来し、図42Dから図42Fは、その画像の修正バージョンである。
図43Aは、いくつかの実施形態による重み対奥行きの例示的なブレンド関数4300、4302、4304を図解するグラフである。図43Bは、例示的なテスト画像を示すイラスト4310である。図43Cは、図43Bの場合の画素距離を図解する例示的な奥行きマップ4320である。図43D〜図43Fは、いくつかの実施形態による、図43Aの奥行き重みを図43Bのテスト画像4310および図43Cのその例示的な奥行きマップとともに使用する例示的な焦点面画像を示すイラスト4330、4340、4350である。図43Bおよび図43Cは、ウェブページ(非特許文献12)上で見出される画像に由来し、図43Dから図43Fは、その画像の修正バージョンである。
いくつかの実施形態では、多項式ブレンド関数が、奥行き範囲全体にわたって拡張する。図21A〜図21Fは、3つの多項式ブレンド関数(図21A)を使用して焦点面を形成する例を示す。対応する焦点面は、テスト画像(図21B)および図21Cのその奥行きマップに関して、図21D〜図21Fに示されている。
図22A〜図22Fは、3つの正弦曲線ブレンド重み関数(図22A)を使用して焦点面を形成する例を示す。対応する焦点面は、テスト画像(図22B)および図22Cのその奥行きマップに関して、図22D〜図22Fに示されている。
上記のブレンドフィルタに加えて、他の変形形態が、非特許文献11によって提案されている。非特許文献1では、屈折的に(dioptrically)置かれるMFPを形成するための方法が説明されている。シーンから奥行きおよびテクスチャを連続して捉える代わりに、この方法は、焦点スタックのシリーズ、すなわち、様々な焦点距離をもつ複数の画像の連続したセットを捉える。
焦点スタックを使用すると、MFPは、人間視覚系(HVS)により、より正確に最適化され得る。具体的には、非特許文献1によれば、この方法は、捉えられたビューにおけるオクルージョン、反射、および他の非ランバート現象の影響に適用される。異なる焦点距離をもつカメラに加えて、入力画像のセットは、シーンから捉えられた明視野から導き出されることがある。非特許文献1では、第1世代Lytro Illumカメラが、この目的で実験された。
図44は、ユーザからの異なる奥行きで捉えられた例示的な焦点スタック画像を図解する概略図である。図44は、実世界ビューから捉えられ、ユーザの眼4402のための焦点(提示)面4404、4406、4408、4410を形成するために処理された焦点スタック(異なる焦点距離をもつ4つの画像4412、4414、4416、4418)の例4400を示す(非特許文献1から改変されている)。挿入図4420、4422、4424、4426、4428、4430、4432、4434は、様々な焦点ぼけをもつ焦点スタック画像4400の詳細を示す(非特許文献1から改変されている)。
図45A〜図45Dは、例示的な線形的にブレンドされた焦点面を示すイラストである。図45E〜図45Hは、焦点スタックから処理された例示的な焦点(提示)面を示すイラストである。図45A〜図45Dは、線形的奥行きブレンドによって形成されたMFPの比較を示し、図45E〜図45Hは、非特許文献1における最適化された手順によって形成されたMFPの比較を示す。図45A〜図45Hは、従来の線形ブレンドを用いて形成された焦点面4500、4510、4520、4530(図45A〜図45D)と、最適化されたブレンドを用いて焦点スタックから形成された焦点(例えば、提示)面4540、4550、4560、4570(図45E〜図45H)を比較する。印刷されたときのより良い可視性のために、図45E〜図45Hにおける画像の明るさが増加されていることに留意されたい。図45Aから図45Hは、非特許文献1に掲載されている画像の線画バージョンである。
非特許文献1の手法は、シーン捕捉のために奥行きプラステクスチャフォーマットを使用しない。代わりに、システムは、異なる焦点距離をもつ画像のセットを捉え、それらを周波数領域で処理し、人間視覚系のモデル(網膜ぼやけなど)により異なる焦点面(または非特許文献1に表される提示面)に情報を割り当てる。
非特許文献1において説明されるように、おそらく印刷したときのより良い可視性のために、最適化された焦点面の輝度(図45E〜図45H)は、(約)2倍に高められていると思われる。本開示において後で、これらの焦点面をテスト画像として使用するとき、0.5による逆スケーリングが、それらに対して結果の飽和(1の分割の違反)を防止するために行われる。
特に、図45A〜図45Dに示される線形的にブレンドされた焦点面内にいくつかの水平輝度アーチファクトもある。これらのアーチファクトは、(1の分割を論証する)元のテスト画像を再び生じさせるために焦点面を合計するときに気づかれる。非特許文献1は、彼らの論文集またはその補足資料においてテスト画像のための奥行きマップを与えると理解されず、そのため、本発明者らは、MFPを再生成することはできない。観察されたアーチファクトにもかかわらず、これらの焦点面は、非特許文献1における手法とのそれらの性能の比較を可能にするために、いくつかの実施形態の影響を視覚化するために使用される。
非特許文献1によれば、高周波数(生成された縁およびテクスチャ)構成要素は、それらの最も近い焦点距離に割り当てられることから利益を得る。低周波数構成要素も、より遠く離れた焦点面に割り当てられることがある。非特許文献1を引用すると、「高周波数画像コンテンツは、その最も近い面に割り振られなければならず、低周波数は、不十分に強制され、面間で再配信されることがある。それは、表示強度に関する制約を満たすためにアルゴリズムが活用するのが、これらの不十分に強制される自由度である。」高周波数構成要素は、焦点性から奥行きを知覚する際に優位を占める。低周波数構成要素、例えば、ゆっくりと変わる輝度またはカラーは、奥行き知覚のための数個のキューのみを生成する。いくつかの実施形態では、既知の方法によって生じさせられた焦点面(例えば、線形奥行きブレンドを使用して生じさせられた図45A〜図45D)は、元の焦点面位置間でそれらの低周波数コンテンツを再配信することによって処理され、再配信された焦点面は、それらを使用して、立体的視点または変化する視点(後者は運動視差のため)を作成するとき、元の未処理焦点面にまさる利益を有するために示される。
奥行きセンサによって検出される見かけ上の距離は、反射または屈折される(非ランバート)画像コンテンツに必ずしも当てはまらない。焦点距離の関数として画像情報を捉える場合、非特許文献1のシステムと同様に、焦点性質および距離は、奥行き次元における小さい十分な離隔距離(焦点距離の小さい十分な差)を用いて画像が捉えられる場合、そのようなコンテンツにも合致する。
多くの3D表示システムの場合、新しい視点は、立体的レンダリングまたはマルチビューレンダリングをサポートするために導き出されることから利益を得る。例えば、奥行きプラステクスチャ捕捉フォーマットを使用する場合、立体的ビューは、2つのビューの両方が合成されるように、捕捉点のまわりで対称的に仮想視点を形成することによって導き出されることがある。
奥行きプラステクスチャを捕捉フォーマットとして使用することは、立体的3Dにおける利益を有する。立体的ベースラインはフロントエンドで固定されていないが、不一致の量および方向は、記憶されるコンテンツの場合も、受信機内で合成されることがある。
多くの場合に、対応する観点変化は、遮蔽物体の後ろのビューの部分を明らかにし、これは、非特許文献3において説明されている。図9の概略的ピクチャ並びに図10Aおよび図10Bの例によって図解されるように、これらのディスオクルージョンは、捉えられたテクスチャまたは奥行きはそれらのエリアからの情報を含まないので、各新しい斜視画像における間隙または穴として現れる。
図9は、ソース位置/画像からターゲット位置/画像にカメラ視点を変化させるときに図解されるように、視点を変化させるときディスオクルージョンが生じさせられ得ることを示す。
ディスオクルージョンを生じさせる仕組みは、DIBRおよびMFPベースの仮想視点生成に類似してよい。これらのディスオクルージョンは、視点生成において、またはMFPビューアが視聴点から十分外れる場合、作成されることがある。より大きい不一致または視点変化は、ディスオクルージョンの可視性を減少させる手段を使用することによって達成されることがある。多くの以前のシステムの場合、ディスオクルージョンは依然として、最大不一致を限定する。
図10Aおよび図10Bは、3Dワーピング画像の例を与える。この例は、左眼画像のみを示す。右眼画像は、同じ手段で形成され、類似の欠陥を有するが、それは物体の右側である。図10Aおよび図10Bは、3Dワーピングによって生じさせられるディスオクルージョンの例を示す。3Dワーピング後の元の単眼画像は左にあり、3Dワーピングされた画像の詳細は右にある(線形補間ベースの穴充填を使用する場合)。
穴充填では、様々な画像および奥行きマップフィルタリングおよび修復アルゴリズムは、穴または他の形のディスオクルージョンを充填するために使用される。オクルージョンのタイプおよび量はコンテンツに大きく依存し、歪みおよびそれらの可視性もコンテンツに大きく依存する。ディスオクルージョンは、物体縁のまわりで知覚される立体的品質を劣化させることがある。それらは、合成的不一致の量および奥行きの知覚を限定することがある。MFPをシフトすることに基づいた仮想視点生成のための手順は、垂直な縁、またはより一般に、選ばれた立体ベースラインに垂直な縁のそばにディスオクルージョンを生じさせ得る。
図46Aおよび図46Bは、いくつかの実施形態による、ブレンドされていない焦点面画像を使用して形成された、対応して、右眼および左眼のための例示的な立体的画像を示すイラストである。いくつかの実施形態では、ブレンドされていない焦点面画像を形成するためにボックスフィルタリング(例えば、図20Aの奥行き重み関数など、歯形奥行き重み関数を使用するボックスフィルタ)が使用される。図46Aおよび図46Bは、MFPのスタックに2つの視点4600、4650を導出することによって形成される、立体画像内のディスオクルージョンの例を与える。いくつかの実施形態では、ブレンドされていない焦点面画像は、入力画像をボックスフィルタリングすることによって生成されてよい。この例では、MFPは、それらを形成するためにボックスフィルタが使用されたので、ブレンドされている奥行きでなかった。図46Aおよび図46Bは、3つのブレンドされていない(ボックスフィルタリングされた)MFPをシフトし合計することによって形成される、交差した眼ステレオグラムにおけるディスオクルージョンの例を示す。総不一致は画像幅の2.76%に対応する(両方の画像のために最大6画素シフトされたMFPを参照されたい)。奥行きブレンドが使用されるとき、ディスオクルージョンはあまりでない。奥行きブレンドはまた、MFP間の奥行き値を作成する。これらの改善の両方は、図46Aおよび図46Bを、奥行きブレンドが使用された図29Aおよび図29Bに比較することによって見られるであろう。
奥行き次元における量子化効果を減少させることに加えて、奥行きブレンドは、MFPからの視点を合成した場合、ディスオクルージョンを減少させることがある。ディスオクルージョンを減少させるために、隣接する奥行き面からのコンテンツが奥行きブレンドのために使用される。焦点面に対応する奥行きにおけるコンテンツがない場合、近い(閉塞している)焦点面を横にシフトすることにより、どんなテクスチャまたは色情報も有しない(および透明のように見える)空のエリアが明らかになる。これらの空のエリアは、(全ての焦点面を通る透過性により)物体縁のそばの黒いストライプとして見えることがある。隣接する焦点面におけるコンテンツがない場合、ディスオクルージョンを減少させるべき奥行きブレンドはない。従って、奥行きブレンドによるディスオクルージョンの減少は、コンテンツに依存する。
MFPからの合成立体の形成では、以前の奥行きブレンド方法の1つの課題は、それらが、低周波数コンテンツ(輝度および色が緩やかに変化する画像エリア)の大部分を(多くの焦点面の)1つの焦点面に集中させることによるディスオクルージョンを有することがある、MFPを生じさせることである。対応して、MFP内の大きいエリアは、どんな情報もなく残される。
いくつかの実施形態は、複数の焦点面(MFP)を、それらが仮想視点生成またはMFPレンダリングについてより良い性質を有するように後処理する。いくつかの実施形態は、MFPの典型的な穴または非テクスチャ(例えば、白色背景)エリアを、それらの低い周波数コンテンツを再配信することによって取り除くことに基づく。特に、再配信は、大きい不一致の場合でも、仮想(例えば、立体的)視点を生成するためにMFPを使用したとき、ディスオクルージョンを減少させる。
再配信は、MFP内にコンテンツを集中する代わりに、全ての焦点面上に、より一様に低周波数コンテンツを割り振る。この方法は、他のMFPシステムよりも一様に分散された輝度値および色値を生成し得る。低周波数コンテンツは、3D知覚を劣化させることなしに再割り振りされ得る。この手順は、MFPのために1の分割を保持し、これは、それらが合計されて(例えば、十分に近く)元の画像に戻ることを意味する。
2つの仮想視点から視聴される、モノスコープMFPスタックは、何らかのベースライン方位において不一致および運動視差をサポートするそれらの能力が魅力的である。この利益は、立体的3Dにおけるより従来の奥行き画像ベースのレンダリング(DIBR)のそれに匹敵する。
シーンを捉える前に立体的視点、不一致、およびベースラインが選ばれた場合、受信端末は、シーンを捉えた後にこれらのパラメータを変更することを可能にしないことがある。視聴者がこれらのパラメータを設定することを希望する場合、またはシステムが、異なるパラメータを用いて生じる立体的コンテンツのレンダリングを組み合わせることを試みた場合、問題が発生することがある。
DIBRシステムは、DIBRを使用する立体的画像形成が受信機の後処理段階において追加のオプションを可能にし得るので、従来の立体的映像の代わりに使用されてよい。(奥行きバジェットを使用する)立体的不一致の量は、例えば、シーンのシューティング中よりも後で制御するのに有益であり得る、捉えられたコンテンツに依存し得る。同様に、複数の焦点面を生じるために奥行きプラステクスチャフォーマットを使用することは、シューティングしている間よりも後で制御しやすいことがある。MFPの単眼スタックの受信端末における後処理は、可変の不一致とともにベースライン方位においてレンダリングする立体的MFPを可能にする。
調節サポートを伴う多くの3Dディスプレイシステムまたはニアアイディスプレイは、視点のさらに小さい変化をサポートまたは許容しない。(再配信される)MFPを生じるためのいくつかの実施形態は、比較的大きい視点変化、不一致、および運動視差をサポートし、例えば3DoF+アプリケーションにおける視覚的品質を改善する。比較的大きいディスオクルージョンは、前のMFPシステムにおけるよりも一様にMFP輝度値および色値を分散させることによって減少され得る。この一様な分布は、低周波数コンテンツをMFPのうちの1つに集中させる代わりに、低周波数コンテンツをいくつかまたは全ての焦点面上に割り振ることに基づく。
いくつかの実施形態は、何らかの既存の方法を使用して形成されるMFPの性質を改善するために後処理を実行する。これらの方法は、入力として奥行きおよびテクスチャ入力並びに焦点面のスタックを使用してよく、複数の捕捉および送信フォーマットを用いて動いてよい。
以前のMFPディスプレイでは、立体的不一致に関連するディスオクルージョンは、テクスチャおよび奥行きのために立体的捕捉を使用して取得される、眼ごとに別個のMFPスタックをレンダリングすることにより、問題でないことがある。しかしながら、高い輝度およびコントラスト差をもつ焦点面を使用することにより、眼の回転によって引き起こされるさらに小さい視点変化が、小さくはあるが可視のディスオクルージョンとして現れ得る。これらのアーチファクトは、いくつかのシナリオの下で取り除かれ得る。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、不一致が大きい仮想視点の生成を可能にする。
視点変化をサポートするためのMFPの再配信
以下で説明されるのは、視点の変動を伴う視点生成のための最適化されたMFPを生じるための例示的な手順である。再配信されたMFPを生じるためのいくつかの実施形態は、奥行きブレンド方法によって生じ得るMFP入力を受信することを含む。入力画像をローパスフィルタリングすることによって、および各MFPをローパスフィルタリングすることによって発生し得る、低周波画像エリアが検出される。各MFPのローパス構成要素は、各MFPから対応するローパス構成要素を取り除くことによって、およびローパスフィルタリングされた入力画像の整数分の1を追加することによって発生し得る、ローパス画像フィルタ出力の等しいシェアによって置き換えられてよく、この整数分の1は、使用されるMFPの数の逆数である。MFPは、ディスオクルージョンの量が減少した立体的ビューを合成するためのMFPを生じるように、および/または奥行き次元をもつMFPをレンダリングして自然な調節をサポートする(VACを取り除く)ように再配信されてよい。高周波画像コンテンツは、そのようなものとして導き出されないことがあるが、低周波数構成要素のための補足であり得る。
図47は、いくつかの実施形態による、前方奥行き範囲、中間奥行き範囲、および後部奥行き範囲の再配信される焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。図47は、3つのMFPのための再配信プロセスのブロック図4700である。いくつかの実施形態では、再配信4708は、従来の方法で形成されたMFPのための後プロセスである。いくつかの実施形態では、(例えば、従来の)焦点面(MFP)のセットが入力として使用される。受信される画像(ピクチャ)4704は、ピクチャ奥行きデータ4702を使用してそれらの焦点面から合計され得るか、またはMFPブロック4706によって受信され得る。MFPブロック4706は、前方、中間、および後部奥行き4710、4712、4714面を出力し得る。各焦点面(Nのうちの1つ)のローパス構成要素は、スケーリングファクタ1/Nによって入力画像のローパス構成要素によって置き換えられ、Nは焦点面の数である。例えば、Nは3である。このプロセスは、MFPの1の分割の性質を保持し得る。
図48A〜図48Cは、いくつかの実施形態による、再配信のない例示的な焦点面画像を示すイラストである。図48D〜図48Fは、いくつかの実施形態による、再配信のある例示的な焦点面画像を示すイラストである。図48A〜図48Fは、いくつかの実施形態による、未処理の花テスト画像、および対応して、例えば、図21Bおよび図21Cの、それのそれぞれの奥行きマップの修正バージョンである。図48A〜図48Fは、再配信の前および後のMFPの例を示す。図48A〜図48Cは、再配信の前に線形的にブレンドされたMFP4800、4810、4820を示す。図48D〜図48Fは、同じMFP4830、4840、4850の再配信されたバージョンを示す。(水平方向と垂直方向の両方において)20画素の半径をもつガウシアンフィルタがローパスフィルタリングのために使用された。図48A〜図48Fは、再配信が、低周波数構成要素を(図48D〜図48Fの白色背景などの)元々情報のないエリアにもたらしながら、各焦点面の高周波数構成要素(詳細)を保持することを明らかにする。
図48A〜図48Cと図48D〜図48Fにおける両方のMFPの例は、捉えられた情報を異なる調節レベル(焦点距離)に分割する。しかしながら、それらは、それらがディスオクルージョンを修復する能力に差を有する。図48A〜図48Cにおける線形ブレンドによって生じるMFPスタックは、ディスオクルージョンを引き起こし得る非テクスチャ/未着色(例えば、白色背景)エリアを有するが、図48D〜図48Fにおける同じMFPの再配信されたバージョンは、改善を示し、より均一な特性を有する。新しい視点のためにまたは視聴者の小さい動きのためにMFPの第2のセットをシフトしたとき、ディスオクルージョンはより見えにくい。
図48D〜図48FにおけるMFPは、テクスチャエリアと非テクスチャ(例えば、白色背景)エリアの間のハイコントラスト移行部がフィルタ処理されないように、選択的にローパスフィルタリングされる。低周波数画像構成要素は、様々な奥行きにおいて割り振られることに敏感でないので、いくつかの例示的な実施形態では、低周波数画像構成要素は、全ての焦点面に一様に割り振られる。低周波数は、ただ1つの焦点面に割り振られるか、または元のMFP距離のいずれかの間のもしくは外部の(それに属しない)余分の焦点面に割り振られ得る。
特定の割振りを選好する様々な理由があってよい。例えば、割振りの比が、コンテンツの性質に応じて変動してよい。また、視聴者は、結果のMFPが1の分割に適合する(かまたはそれに近い)ことを期待することがある。
図49A〜図49Bは、いくつかの実施形態による、線形的にブレンドされた焦点面を使用して形成された交差した眼ステレオグラムのための例示的な右画像および左画像を示すイラストである。図49Aおよび図49Bは、図45A〜図45Dに示される線形的にブレンドされた焦点面を使用して形成された交差した眼ステレオグラムの例を示す。図49Aおよび図49Bは、いくつかの実施形態による、線形的にブレンドされた焦点面(非特許文献1に現れる画像の線画バージョンである図45A〜図45D)をシフトすることによって形成された交差した眼ステレオグラム4900、4950を示す。総不一致は4%(600×600画素画像内の2×12画素)である。図49Aおよび図49Bは、物体縁のそばの例示的なディスオクルージョン誤差4902、4952を示す。
図50A〜図50Bは、いくつかの実施形態による、再配信された焦点面を使用して形成された交差した眼ステレオグラムのための例示的な右画像および左画像を示すイラストである。図50Aおよび図50Bは、図49Aおよび図49Bの同じだが、再配信された焦点面の一実施形態を示す。図50Aおよび図50Bでは、例示的なディスオクルージョン5002、5052ははるかにより小さい。図50Aおよび図50Bは、説明される簡略化された手順を用いて再配信された焦点面を使用して形成された交差した眼ステレオグラムを示す。総不一致は4%である。ディスオクルージョン誤差は、図49Aおよび図49Bにおけるものに対して減少される。図50Aおよび図50Bは、非特許文献1からの未処理の画像(図45A〜図45D)の処理済みバージョンである。
図49A、図49B、図50Aおよび図50Bでは、4つのMFPは、画像幅の4.0%に対応する合成不一致の量で使用された(600×600画素MFPが、両方の視点のために最高12画素分だけシフトされる)。図50Aおよび図50Bの例では、MFPは、テクスチャエリアと非テクスチャ(例えば、白色背景)エリアの間のハイコントラスト移行部がフィルタ処理されないように、選択的にローパスフィルタリングされる。
MFPの低周波数構成要素の再配信
非特許文献1によって示されるように、調節は、再配信されたMFPに対してより自然であり得る。特に、これはシーン内の非ランバート効果について成り立つ。非特許文献1は、後プロセスとしてMFPを再配信するように理解されず、恣意的なベースライン方位においてさえ、立体的ビューにおいて大きい合成不一致を可能にするために使用されるように理解されない。
いくつかの実施形態によれば、低周波数構成要素の再配信は、不一致が大きい仮想視点生成の多焦点面(MFP)のために使用される。低周波数構成要素を(再)配信することによって、従来の焦点面内のおよびそれらの間の画素値の大きい変動が回避され得る。これは、今度は、新しい視点のための焦点面をシフトするとき(3Dワーピングを参照されたい)、ハイコントラスト効果および可視のディスオクルージョンを減少させる。
フィルタリング動作の実行に関して
再配信は、各焦点面が、全シーンの低周波数コンテンツの指定された整数分の1、および(対応する調節距離における)焦点面に固有のそれらの高周波数構成要素の合計となるように、修正されたMFPを生じ得る。このプロセスは、MFP固有の低周波数構成要素を、低周波数構成要素全体の特定の部分と置き換える。
高周波数構成要素と低周波数構成要素は、それらのいずれか一方を導き出す際に、他方の構成要素が減算によって決定され得るように相補的である。図47に示される例示的なプロセスでは、低周波数構成要素が導き出され、高周波数構成要素は、フィルタリングされていない画像から(減算による)それらの補足として取得される。このプロセスは反対であってよく、または両方の構成要素が、周波数ドメインにおいて相補的伝達関数を有する、2つのフィルタを用いて直接取得されてよい。ユーザの調節距離はレンダリングするときに決定または記憶されないので、多くのシステムは、全ての焦点面のために同じフィルタ関数を使用し得る。
元のMFPは、テクスチャエリアと非テクスチャ(例えば、白色背景)エリアの間のハイコントラスト変化がフィルタリングされないように(例えば、図45A〜図45D参照)、選択的にフィルタリングされることに留意されたい。選択的フィルタリングなしでは、ハイコントラストエリアは、元の画像コンテンツの一部ではない高周波数構成要素を生じ、物体縁の周りにリンギングを誘発し、それらを使用した再配信されたMFPおよびレンダリングの品質を劣化させ得る。
いくつかの実施形態による開示される例では、ガウシアンローパスフィルタが、調整可能な半径(フィルタウィンドウ)とともに使用された。いくつかの実施形態では、非0値(有色)エリアと0値(透明またはボイド)エリアの間の急激な移行部に属しない画素にのみフィルタリング動作が適用されることが、最終結果にとって有益である。選択的ガウシアンフィルタは、設定されたしきい値よりも大きい色差を有する画像エリアをフィルタリングしない。有色エリアと黒いエリアの間の一般に高いコントラストにより、それらの縁は確実に検出され得、検出はしきい値に敏感でない。
図51A〜図51Bは、いくつかの実施形態による、MFPを再配信する際に選択的ガウシアンフィルタリングを使用して形成された交差した眼ステレオグラムのための例示的な右画像および左画像を示すイラストである。図51Aおよび図51Bは、MFPを再配信する際に選択的ガウシアンフィルタリングを使用する交差した眼ステレオグラムを示す。パラメータは、フィルタリングがしきい値(例えば、ここでは60)よりも大きく画素値を変化させる場合はフィルタリングが適用されないことを除いて、通常ならば図50A〜図50Bにおけるのと同じである。例示的なディスオクルージョン誤差5102、5152は、図50A〜図50Bにおけるものからさらに減少される。この結果は、実装において使用されるいくつかの不正確さによって誘発され得る、シーンの滑らかな部分における何らかの輪郭描画を示す。図51Aおよび図51Bは、非特許文献1からの未処理の画像(図45A〜図45D)の処理済みバージョンである。
非ランバートコンテンツのサポートに関して
非特許文献1は、反射または屈折についての非ランバート効果が正しく提示される方法を報告している。多くの以前の方法は、このタイプのコンテンツをサポートしないが、このサポートの欠如は、特定のタイプのコンテンツだけに伴う欠点であり得る。
開示される方法が複数の捕捉および送信フォーマットを使用し得るように、非ランバートコンテンツは、例えば、ある入力フォーマットを選択することによって同様に使用されてよい。多くの以前のシステムは、奥行きセンサを用いた奥行きマップ生成をサポートしないが、焦点スタック(非特許文献1を参照されたい)をサポートするか、または非ランバートコンテンツについても正しい画素距離を捕捉することが可能であり得るいくつかの他のカメラベース(不一致から奥行き)の方法によってサポートし得る。従って、入力として受信されたMFPは、反射または屈折された画像コンテンツを正しい距離において図示するように生じさせられるかまたは補正され得る。
いくつかの実施形態では、焦点スタック由来のMFP(提示面)が、フロントエンドにおいて入力として受信され、例えば、立体または運動視差を合成するために、MFP形成段階なしに使用されてよい。いくつかの実施形態では、方法は、複数の焦点面画像を受信することと、左眼と右眼の間の立体不一致を提供するために頭部情報を使用して複数の焦点面画像を方位付けることと、方位付けられた複数の焦点面画像を表示することとを含んでよい。
再配信された焦点面を形成するための例示的な実施形態
低周波数構成要素を再配信するための手順が上記で説明された。この手順は、テクスチャ画像を異なるMFPに分解することと、奥行きブレンド方法(例えば、線形フィルタリング)を使用して異なる面の間で補間することとに基づいてよい。MFPの間で低周波数を再配信するためのフィルタリング動作は、後プロセスとして行われてよい。
図52Aは、いくつかの実施形態による、低周波数フィルタリングおよび高周波数フィルタリングを使用して再配信される焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。図52Bは、いくつかの実施形態による、ローパスフィルタリングを使用して高周波数焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。例示的なプロセス5200(図52Aを参照されたい)は、フィルタ5206を使用してピクチャ5202の高周波数コンテンツと低周波数コンテンツを隔て、その後、5208において、ピクチャ奥行きデータ5204を使用してコンテンツを焦点面5210に分解する。低周波数の再配信5212およびMFPのレンダリング5214も行われる。フィルタリング段階を変更することは、代替のMFPを生成する。図52Aは、いくつかの実施形態による、MFPのための別の再配信プロセスのブロック図である。図52Bは、ピクチャデータ5252の相補的なローパスフィルタ5254およびハイパスフィルタ5256の実装のために例示的なプロセス5250を図示する。例示的なプロセス5200は、ローパスフィルタリングが、ハイコントラスト移行部をしばしば含んでいる焦点面に対して行われないとき、例えば、選択的ガウシアンフィルタを使用すること、およびそれのしきい値パラメータを最適化することを回避し得る。対応して、例示的なプロセス5200を使用するいくつかの実施形態は、品質を改善し得る。
後プロセスとしてのフィルタリングは、MFPプロセスおよび出力によって使用されてよい。しかしながら、本明細書においていくつかの実施形態により開示されるいくつかの例示的な方法およびシステムは、品質を改善し得る。いくつかの実施形態は、選択的または案内されたフィルタリングの使用を回避して、フィルタリングからボイドエリア(実際の焦点面コンテンツに属しない画素)を除外する。ボイドエリアは、MFP内で白いまたは黒い領域として見えることがあり、フィルタリングした場合に正しく検出されないことがある。画像コンテンツによっては、これは、フィルタリング結果において欠陥として見え、再配信された焦点面の品質を減少させることがある。いくつかの実施形態は、パラメータが使用されないので、選択的フィルタリングのためのしきい値の最適化を回避する。
いくつかの実施形態では、再配信された焦点面を形成するためのプロセスは、低周波数コンテンツについて入力画像をフィルタリングすることと、低周波数コンテンツを複数の焦点面画像に再配信することとを含んでよい。いくつかの実施形態では、再配信された焦点面を形成するためのプロセスは、高周波数コンテンツについて入力画像をフィルタリングすることと、高周波数コンテンツを複数の焦点面画像に分解することとを含んでよい。いくつかの実施形態では、分解する場合、高周波数構成要素は、例えば、低周波数コンテンツを再配信する場合とは異なり、それらの元の奥行きから移動されない。再配信された焦点面の形成のための例示的なプロセスは、図52Aに示されるようなものであってよい。いくつかの実施形態では、図52Aに示される高周波数コンテンツHFは、図52Aに示される低周波数コンテンツLFから導き出されてよく、またはその逆も同様である。
符号付き算術の使用の回避
図53は、いくつかの実施形態による、前方奥行き範囲、中間奥行き範囲、および後部奥行き範囲に対する再配信される焦点面画像を生成するための例示的なプロセスを図解するフローチャートである。所与の例のために再配信を行う場合、図53に示されるわずかに修正されたプロセスフローが使用される。図53は、再配信プロセス5300のブロック図を示す。3つのMFPの再配信5320が例として示される。画像処理ソフトウェアにおける飽和を防止するために、定数(0.5および2)を用いるスケーリング演算が使用される。いくつかの実施形態は、入力として焦点面(MFP)のセットを使用する。受信される画像(ピクチャ)5304は、それらの焦点面5306から合計され得るか、またはMFPブロック5306によって受信され得る。MFPブロック5306は、ピクチャ5304に加えてピクチャ奥行きデータ5302を受信し得る。MFPは、前方範囲面5314、中間範囲面5316、および後部範囲面5318に分けられ得る。再配信プロセス5300は、前方、中間、および後部の再配信されたピクチャを出力し得る。いくつかの実施形態では、算術演算および算術演算を実行する構成要素(例えば、ALU)が、十分なビットを用いる符号付き算術を使用して符号付き計算を扱ってよい。
図53では、各焦点面(Nのうちの1つ)のローパス(低周波数)構成要素は、スケーリングファクタ1/Nによって入力画像のローパス構成要素によって置き換えられ、Nは、使用される焦点面の数である。この例では、Nは3であり、これは、1/3によるスケーリングに対応する。
画像処理ソフトウェアにおける飽和を防止するために、他の定数(0.5および2で乗算)を用いるスケーリング演算が使用される。0.5によるスケールダウンが第1の加算演算において行われ、これは、オーバーレイしている画像に50%透過性を適用することによって行われる。各焦点面からの低周波数構成要素の減算は、0.5によるダウンスケーリング、および対応して、その演算後の2による結果の乗算を必要とする。
MFPの低周波数構成要素は、合計されて(例えば、十分に近く)元の画像の低周波数構成要素になり、従って、加算および減算演算は、MFP分解について1の分割を(例えば、十分に近く)保持することに留意されたい。
図53に図示される実装は、計算精度の何らかの減少を引き起こすことがある。特に、いくつかの画素は、最後の減算フェーズにおいて0に飽和することがあり、2によって乗算されたとき、元にスケーリングしないことがある。これは、画像のいくつかの部分におけるわずかな輪郭描画として現れることがあり、これは、再配信の、いくつかの実施形態による、開示される例示的な方法では引き起こされない。
変形形態における符号付き画素の使用の回避
図54は、いくつかの実施形態による、ローパスフィルタリングを使用して再配信される焦点面画像を生成する例示的なプロセスを図解するフローチャートである。図54に対応するシミュレーションを行う際に、手順5400は、符号付き整数/画素(または(符号付き)高周波数表現)を使用することを回避するために適用された。図54は代替的実施形態を示す。いくつかの実施形態では、ピクチャ5402およびピクチャ奥行き5404が手順5400によって受信される。ピクチャ5402は、5406において、フィルタリングされて高周波数構成要素および低周波数構成要素になり得る。高周波数構成要素および低周波数構成要素は、ピクチャ奥行きデータと組み合わせて使用されて、MFP分解プロセス5408、5410への入力が生成され得る。ピクチャは、低周波数構成要素および高周波数構成要素のためにN個の層5412、5414に分解され得る。分解された層5412、5414は、再配信5416され、レンダリング5418され得る。
(画像画素のために予約された8ビット値内に結果を保って)合計における飽和を回避するために、再配信されるLF5416は50%透過性で合計される。(再配信される面がある結果になるために)低周波数面を減算するとき、スケールアップが対応して行われる。図52Aおよび図52Bに示されるプロセスに対する1つの代替的実施形態は、符号付き表現とともに高周波数面を用いて処理することを回避する。いくつかの実施形態は、再配信LF5416のために(符号付き)フル精度計算を使用してよい。
本明細書においていくつかの実施形態により開示されるシステムおよび方法は、立体的3Dビューを生じるために使用されるときにディスオクルージョンの減少した量を示す、単眼MFPスタックを形成する。いくつかの実施形態は、MFPを再配信し、後処理されたMFPをシフトして、不一致およびベースライン方位を生成する。得られた立体的画像は、例えば、自然な調節をサポートするものを含む、外部スクリーンおよびウェアラブルディスプレイ上に表示されてよい。
本明細書にていくつかの実施形態により開示されるシステムおよび方法は、立体的ディスプレイを使用するサービスのための立体的コンテンツを生じるために使用されてよい。
いくつかの実施形態は、比較的大きい調整可能な不一致および運動視差効果がある、ベースラインなし(頭部傾き非依存の)立体的レンダリングを生じる容易で費用対効果の高い仕方を可能にする立体的ディスプレイの開発を可能にする。これらの性質は3DoF+アプリケーションとともに使用されてよい。
多くのMFPディスプレイ実装は、時間的または空間(画像)的なMFPの多重化を使用する。異なる奥行きにおいて物体をもつ好適なテストシーンを設計することによって、および物体縁における特性行動を示すことによって、再配信アルゴリズムが認識され得る。いくつかの実施形態は、自分の頭部および自分自身を動かしているユーザについて立体視および運動視差をサポートするそれらの能力に基づいて認識され得る。
いくつかの実施形態は、前の立体的ディスプレイ上で視聴された場合にVACを引き起こし得る立体的画像を生じる。本明細書においていくつかの実施形態により開示されるシステムおよび方法によって形成されるMFPは、自然な調節をサポートするMFPディスプレイを使用してレンダリングされ得る。
(例えば、(例えば、S3DディスプレイとMFPディスプレイの両方のためにMFPをシフトすることによって)MFPを処理することに基づく)合成不一致がいくつかの実施形態では使用される。本明細書においていくつかの実施形態により開示されるシステムおよび方法は、(印刷において可視化するために問題となる性質などの)MFPの調節依存の性質を、印刷すると可視であり、対応するMFPの多くの性質が奥行き次元にあることを示す空間的不一致に向ける。
軸方向運動視差
多くの以前のシステムの共通問題は、運動視差が、小さい横方向(一般的には水平方向)移動のためにのみサポートされ、軸方向移動のために適用されないことである。多焦点面(MFP)は、明視野の経済的な近似である。多くの以前のMFPディスプレイは、単一の正確な視点のみをサポートし、視聴者が奥行き(軸方向)次元において動いているときの視点変化をサポートしない。従って、そのような以前のシステムにおける使用は、固定の視聴者ロケーションに概して限定される。
多くの以前の360度パノラマレンダリングシステムは、方位センサを使用して様々な方角への視聴をサポートするが、軸方向運動視差はサポートされない。これらの3の自由度(3DOF)システムは、ユーザを視聴方角における変化のみに制約する。計算された自動仮想環境(CAVE)など、多くの6の自由度(6DOF)システムは、一般的にコストがかかり、ブロードキャストシステムでは実現可能でない。小さい一般的なユーザ動きを3DOFシステムにもたらす能力は、3DOF+として説明されている。本出願では、いくつかの実施形態によれば、「自然な3D動き」という用語は、この3DOF+機能を指す。
低減した複雑さおよびレガシー3DOFまたは2D立体コンテンツを伴う3DOF+システムを可能にすることは、本明細書においていくつかの実施形態により開示されるシステムおよび方法によって対処される課題である。追加の課題は、これらの新しい3DOF+ソリューションにおいて、(輻輳調節矛盾(VAC)を回避して)表示されるコンテンツの自然な調節を可能にすることである。
図55A〜図55Bは、いくつかの実施形態による、空間内にレンダリングされる例示的な多焦点面を図解する概略斜視図5500、5550である。図55Aおよび図55Bは、実線矩形によって示される焦点面(MFP)5506に対する、破線によって示される公称視点5504を図解する。視聴者5502が移動する場合、公称起点視点からの情報(焦点面)を見る代わりに、新しい視点が生成され得る。焦点面は3Dシーンの近似であり、新しい視点は、例えば、3Dモデルを新しい方位にワーピングすることにいくつかの点において同様の方法で生成されてよい(仮想視点生成ブロックを参照されたい)。図55Aでは、ユーザは、ユーザのMFPメガネによって空間内でレンダリングされた焦点面を見る。図55Bでは、運動視差は、図示される例示的な立方体など、公称視点(0,0,0)5552の周りの例示的なボリューム(dx、dy、dz)5554の内側のユーザのためにサポートされる。
運動視差は、公称視点(0,0,0)の周りで焦点面に対する観点を変動させる。ユーザが公称点から遠ざかる場合、焦点面画像は、わずかに変動している視点から見られ、単に平行移動(シフト)され、相応にスケーリングされて、正しいMFPレンダリングが作成され得る。各座標(x、y、およびz)は、作成される歪みを許容できるように保つために、いくつかの限界内で変動され得る。運動視差は、このようにして、(図55Bに示される立方体などの)公称視点の周りのボリュームの内側でサポートされ得る。視聴者の公称位置の周りの立方体は、3D運動視差をサポートするために(およびユーザ動きを捕捉するために)選択されてよい。いくつかの実施形態では、運動視差についてユーザ動きの捕捉をサポートするために球体または他の形状が選択されてよい。
図56A〜図56Cは、いくつかの実施形態による、異なる視点に対してシフトおよびスケーリングされる多焦点面の3つの例を図解する概略斜視図である。ユーザの動きは、破線の変化によって示されるように焦点面に対する彼または彼女の視点を変化させ得る。図56A〜図56Cは、運動視差立方体5604、5634、5664の内側の視点5602、5632、5662を変化させるための数個の例示的なビュー5600、5630、5660を示す。破線は、焦点面スタックに対する視点変化を示す。MFPスタックに対する新しい視点は、MFPを相応に変形することによって作成され得る。変形を行うための数学は、いくつかの点において、3Dモデルをワーピングすることと同様であり得る。いくつかの実施形態では、変形は、後述される他の演算を用いて近似されてよい。
立方体内の各3D座標またはボクセルは、焦点面スタック(または立体的ディスプレイのためのスタックのペア)に対する異なる視点を表す。これらの視点の各々について、(公称視点から視聴された)元のMFPスタックの変形が行われる。従って、3D視点/ボクセルの各々について、(変形によって再方位付けおよびスケーリングされた)一意のMFPスタックがあり得る。いくつかの実施形態では、MFPスタックのセットは、事前に導き出され、記憶されてよい。これらの導き出されたMFPスタックは、捕捉された動き情報によってカテゴリー分類されてよい。
図57は、いくつかの実施形態による、運動視差システム内で多焦点面を生成するための例示的なプロセスを図解するプロセス図である。図57は、モノスコープMFP形成、処理(例えば、立体映像および運動視差のための視点の合成)、並びにレンダリングのためのプロセス5700を図解する。簡潔のために、運動視差効果を作成することは、ただ1人の視聴者のために図示される。いくつかの実施形態では、本システムは、各ユーザが運動視差を個々に知覚することを可能にする、1つまたは複数のウェアラブルユーザ端末(ヘッドマウントディスプレイ、HMDなど)を含んでよい。いくつかの実施形態は、例えば、より分散型のまたはより集中型のアーキテクチャを使用してよい。
テクスチャ5702および奥行き(映像プラス奥行き)5704の信号が、MFP形成ブロック5706への入力として受信され、MFP形成ブロック5706は、シーンから捕捉された奥行きマップ(映像)を使用して多焦点面(MFP)を形成する。MFPは不一致形成ブロック5708に送られる。
不一致形成ブロック5708は、(例えば、x−y座標系内のベクトルriによって示される)指定されたベースライン方位および長さを使用して、合成された立体的視点(または不一致)を作成する。いくつかの実施形態は、不一致の方角および量(≧0%)5710を使用してよい。いくつかの実施形態は、例えば、眼ごとに別個のテクスチャおよび奥行き信号が使用されるような立体的入力が使用される場合、この段階を省略してよい。
(例えば、外部センサ5714の慣性測定ユニット(IMU)5720および/またはKinectタイプ5718を用いた)運動検出および追跡は、MFPレンダリングのための公称視聴セットアップ(焦点面のサイズおよび距離)を用いてユーザの初期視聴位置に対するユーザ動きを捕捉するために使用されてよい。例示的なプロセス5700では、および他のプロセスでは、他の運動検出および追跡デバイスが代わりにまたは追加として使用されてよい。横方向運動視差ブロック5712は、x次元とy次元の両方において2つの立体的視点をシフトし得る。各MFPスタック内の焦点面は、奥行きにおけるそれらの距離に対応する異なる量分だけシフトされ得る。
軸方向運動視差モジュール5716は、初期/公称位置および視点に関連する測定された軸方向運動に従ってスケーリングおよび/またはサイジングすることによって焦点面を調整し得る。異なる焦点面は、それらが異なる距離に対応するので、別様にスケーリングされ得る。
コンテンツのブロードキャストタイプを視聴する場合、ユーザ動きは、一般的には入力ストリーム(ビューを捕捉する際に使用される視点)に影響を及ぼさないことがある。従って、ユーザ5724が身体運動によって運動視差を経験した後に、変化した視点は、選ばれた機構(遅延、レート、軌道、および時刻)によって公称視点に元に移され得る。
いくつかの実施形態では、頭部方位情報を生成するために、視聴者の位置の運動追跡センサ示度が焦点面ディスプレイに対して測定されてよい。いくつかの実施形態では、頭部方位情報を生成したことに応答して、運動視差は、焦点面画像のうちの1つまたは複数を変えることによって合成されてよい。
いくつかの以前のデバイスは、(ベースラインなし)立体視および横方向運動視差をサポートするとき、視点変化のためにMFPを使用する。下記のセクションは、軸方向運動視差について説明する。中間的または複合運動のための焦点面調整は、これらの2つのケースを適用することによって導き出され得る。例えば、軸方向運動視差は、いくつかの実施形態では1つまたは複数の焦点面をスケーリングすることによって作成され得る。
図58は、いくつかの実施形態による、軸方向移動のための例示的な焦点面スケーリングを図解する概略平面図である。図58は軸方向運動中のMFPスタックに対するモノスコープ視点に関して説明されるが、対応するプロセスは、立体的システムまたは方法において各視点の変形とともに実行されてよい。平行移動運動の場合と同様に、軸方向運動を扱うために焦点画像の変形が実行されてよい。例示的なモノスコープ視点環境5800では、視聴者5810がMFPスタックに軸方向に近づく場合、焦点面5808の縁は、外側に移動(またはシフト)するように調整され得る。視聴者5810がMFPスタックから軸方向に離れる場合、焦点面5806の縁は、内側に移動(またはシフト)するように調整され得る。ゼロ視差設定(ZPS)5802に位置する焦点面5804の縁は、視聴者5810がMFPスタックから軸方向に近づくかまたは離れる場合、所定の位置にある(または調整されない)ままである。軸方向移動による視聴者5810の視点の変化が、2つの例のために破線として示される。図58は、軸方向運動中にMFPの見かけのサイズがどのように変化するかを図解する。等しい量の離隔距離をもつ3つのMFPが示される。ゼロ視差設定(ZPS)5802は、最も遠い焦点面に配置される。この最も遠い焦点面は、立体的不一致または横方向視差が作成される場合にシフトせず、この最も遠い焦点面は、軸方向運動視差を作成する場合にスケーリングされない。例示的なモノスコープ視点環境5800ではシングルステップ軸方向移動が示されるが、視聴者5810によって移動された軸方向ステップの数に比例する量分だけMFPをスケーリングする同様のプロセスを用いて多重軸方向ステップ移動がサポートされ得る。
視聴者5810がMFPスタックに対して軸方向に(1つの距離ユニットなどの)1ステップ近づく場合、焦点面5808のサイズは、より(1つの距離ユニットなどの)1ユニット大きく調整され得る。視聴者5810がMFPスタックから軸方向に1ステップ離れる場合、焦点面5806のサイズは、より1ユニット小さく調整され得る。ゼロ視差設定(ZPS)5802に位置する焦点面5804のサイズは、視聴者5810がMFPスタックから軸方向に近づくかまたは離れる場合、同じサイズのままである(例えば、または不変である)。軸方向移動による視聴者5810の視点の変化が、2つの例のために破線として示される。
いくつかの実施形態では、1つまたは複数の焦点面画像のスケーリング変形は、画像のアスペクト比が保持されるように、焦点面のサイズをそれの中心の周りに対称的に調整することによって近似され得る。立体的不一致を生じる際のように、運動視差に対する小さい変化は、焦点面画像解像度の小さい変化(5画素の変化など、しきい値までの増分または減分)によって取得される。より高い解像度画像を用いるいくつかの実施形態では、より高いしきい値が使用されてよい。
画像サイズを調整した場合、画像の上部縁および下部縁は、量分だけ反対方向に移動され得る(画像の垂直サイズは画素の数だけ変化される)。MFPのスケーリングファクタは、図58の例に示されるように、奥行きの関数として線形的に変化し得る。この線形変化は、変形されたMFPのセット、および視聴軸に沿った適用可能な視聴位置(焦点ポイント)のセットを生じる。調整の量は、(最も遠い面が視聴者から無限大に離れて位置するかのように)最も遠い面が調整されないように、奥行きにおける焦点面の位置(距離)に依存する。いくつかの実施形態では、最も遠い焦点面の次の焦点面は、1ユニット(または画素乗算)によってスケーリングされる。次に最も近い焦点面は、いくつかの実施形態では2ユニットによってスケーリングされ得る。残りの焦点面のためのスケーリングの量は、いくつかの実施形態では、漸進的により近い焦点面のためにこのパラダイムに従い得る。
いくつかの実施形態によるMFPをスケーリングするための例示的なプロセスが、N個の焦点面(MFP)のスケーリングについて以下で説明される。本明細書では、焦点面は、均一な距離によって隔てられ、距離の関数として線形増分および線形減分を使用する。いくつかの実施形態では、均一でない離隔距離が、距離の関数として非線形増分および非線形減分とともに使用されてよい。非線形スケーリング(ジオプティックスケールにおいて線形)は、ユーザによって線形知覚を生じるために使用され得る。焦点面(またはMFPのセット)のサイズは、視聴軸に沿っていくつかの等しくないステップについて取得される。この例示的なプロセスは、例えば、サイズ調整の検証のために使用されてよい。いくつかの実施形態ではより厳密な幾何学的演算が実行されてよい。
視聴者がMFPスタックに対してより1ステップ近づく場合、最も遠い焦点面(FP1)は、(「無限大における」)ゼロ視差面であり、スケーリング(またはサイズによって調整)されない。したがって、FP1は0ユニット分だけ調整される。残りの焦点面(FP2、FP3、…、FPN)について、各焦点面FPiは、(i−1)ユニット分だけ大きく調整され、i∈(2,3,…,N)である。この調整プロセスは、MFPスタックに対してより近いステップごとに繰り返されてよい。
視聴者がMFPスタックからより1ステップ離れる場合、最も遠い焦点面(FP1)は、(「無限大における」)ゼロ視差面であり、スケーリング(またはサイズによって調整)されない。したがって、FP1は0ユニット分だけ調整される。残りの焦点面(FP2、FP3、…、FPN)について、各焦点面FPiは、(i−1)ユニット分だけ小さく調整され、i∈(2,3,…,N)である。この調整プロセスは、MFPスタックからさらに離れるステップごとに繰り返されてよい。
いくつかの実施形態では、焦点面の高さは、式3に示される増加スケーリングファクタによって高さをスケーリングすることによってサイズが増加され得る。
Figure 2021518701
ここで、Vresは、焦点面の垂直解像度である。同様に、焦点面の高さは、式4に示される減少スケーリングファクタによって高さをスケーリングすることによってサイズが低下され得る。
Figure 2021518701
ここで、Vresは、焦点面の垂直解像度である。増分と減分の両方のための焦点面の幅は、調整前のアスペクト比を保持するように調整される。
いくつかの実施形態では、上述したプロセスを使用してステップ分だけ移動することは、メトリックスケール上で線形でない。物理的距離は、各焦点面(MFP)の位置、サイズ、および距離を含む、公称視聴条件に依存し得る。加えて、物理的距離は、(入力)コンテンツ性質、例えば選ばれたゼロ視差設定(ZPS)、および物理的距離との奥行きマップの間の対応に依存し得る。
いくつかの実施形態による例示的なプロセスを使用して、使用される焦点面画像解像度およびユニットサイズは、視聴軸に沿って位置を決定し得、ここで、焦点面は、変形の後に位置合わせされる(視点に焦点が「合わされる」)のが見られる。これらの点は、ユーザ動き中にコンテンツをレンダリングするために使用されてよい。
画像解像度が高いほど、およびユニットサイズが小さいほど、決定される軸方向(焦点が合わされた)位置の間の差はより小さくなる。画像解像度とともに使用されるユニットサイズは、焦点ポイントの密度が、なだらかな運動視差を知覚することをサポートするように、実験的に検証されおよび/または幾何学的形状から計算され得る。
シフティングおよびスケーリングアーチファクトは、軸方向視差(運動)を、妥当であるとユーザが決定する少量に限定し得る。この量は、少数のステップ(または軸方向位置)に設定され得る。ステップ位置およびサイズ(物理的距離)は、(図58に示される幾何学的形状などの)幾何学的形状から近似され得る。
いくつかの実施形態では、公称視聴位置および焦点面距離は設定されない。いくつかの実施形態では、MFPサイズ調整のために使用されるユニットサイズを設定することは、軸方角におけるステップ位置およびサイズ(焦点および関連する距離)を決定し得る。いくつかの実施形態では、ステップは、ユーザによって決定された自然さの劣化なしに距離に対して線形的にマッピングされ得る。
いくつかの実施形態では、運動視差効果は、(不一致および奥行き範囲を含み得る)3Dコンテンツ産生のための条件が標準化または設定されないなどの場合、物理的位置に対して較正されなくてよい。一部のユーザは、(軸方向)運動視差の自然さの知覚に関して奥行き情報に比較的鈍感なことがある。
図59A〜図59Cは、いくつかの実施形態による、軸方向運動中の例示的な焦点面コンテンツの例示的な変形を図解する概略平面図である。図59Aは、視聴者の左眼の例示的な不一致シフト5902の公称「開始」点のためのMFP構成5900を示す。図59Aのモノスコープビューを使用するプロセスと同様のプロセスは、立体視聴者の右眼ビューをスケーリングするために適用されてよい。距離dkは、1、2、…、Nに等しいkをもつベクトルの焦点面距離を示す。距離deは、例示的なMFP変形(または平行移動)のための不一致距離ベクトルを示す。座標(xk,yk)は、焦点面kの画素の元の座標を示す。座標(xk’,yk’)5904は、変形(またはいくつかの実施形態では平行移動)の後の、しかしスケーリングの前の焦点面kの画素の座標を示す。座標(xk’,yk’)5904は、3つの焦点面の例示的な左眼視点の焦点面FN上に示される。図59Aから図59Cは、3に等しいNの例のために焦点面F1、F2、…、FNを示す。
図59Bは、MFPスタックに近づいている視聴者の軸方向運動のためのMFP構成5930を示す。視聴者は、運動ベクトルdz5932によって示される軸方向に移動する。3つの焦点面の左眼視点は、各焦点面が、図59Aにおけるよりも図59Bにおいて大きいことを示す。左眼視点は、視聴者がMFPスタックに近づいていることにより、平行移動される。
図59Cは、焦点面距離を変化させることなしに軸方向運動を近似する焦点面変形のためのMFP構成5960を示す。3つの焦点面の左眼視点は、変形の後の画素の座標に対する変化を示す。座標(xk’’,yk’’)5962は、変形(またはいくつかの実施形態では平行移動)の後のおよびスケーリングの後の焦点面kの画素の座標を示す。
関連パラメータの以前の概念を保ち、(xk’’,yk’’)によってスケーリング変形の後の焦点面k上の画素の座標を表すと、スケーリングは式5に示されるように記述され得る。
(xk’’,yk’’)=S(xk’,yk’,dz,de) 式5
ここで、Sは、固定点として各焦点面中心を使用する均一なスケーリング変形である。
軸方向運動について、焦点面サイズは、レンダリングされた環境のビューを介して物理的空間および座標の変形の幻影をユーザに提供するように調整され得る。焦点面レンダリングプロセスは、軸方向運動視差を経験している場合、調節距離を変更しないことがある。対応して、MFPディスプレイの光学部品またはメカニクスの調整はない。このプロセスは、視聴者の調節距離が、焦点が合わされた物体からの彼または彼女の距離に対応して変化するように、現実世界のケースとは異なる。しかしながら、VACは生じず、運動視差を経験するための(サポートされる)移動が小さい場合、調節変化の欠如は、ユーザの自然さの経験を劣化させない。
いくつかの実施形態は、(MFPディスプレイの代替または追加として)従来の2Dディスプレイのために運動視差効果をサポートし得る。2Dディスプレイの使用は、MFPディスプレイの複雑さを回避し得るが、ユーザはVACを受けることがある。いくつかの実施形態は、2つ以上のMFPを合計することによって2Dディスプレイをサポートし得る。2Dディスプレイのサポートについては後で詳細に説明される。
軸方向移動のサポートが、横方向(横)移動およびベースラインなし(頭部傾きなし)運動視差のサポートとともに提供される場合、焦点面レンダリングを使用する公称視点の周りの現実的な3D運動視差が、VACなしに提供され得る。
いくつかの実施形態では、主に固定(公称)の視点の周りの相対運動は、新しい公称視点についての新しいデータを受信することなしに視点を変化させない。視聴セットアップは、ブロードキャストコンテンツを視聴することと同等であり得るが、本明細書においていくつかの実施形態により開示される視聴セットアップは、(3DOF+機能などの)小さい移動および対応する視点/視差変化を可能にすることによってユーザ相互作用をサポートし得る。
サポートされるユーザ機能は、受信されるコンテンツの公称または固有の視点に影響を及ぼさないことがある。小さい運動視差は、例えばユーザが彼または彼女の座席を変更するかまたは部屋の周りを歩く場合、ユーザの環境内の視聴位置ごとに同じ仕方でサポートされてよい。ユーザが移動した場合、公称視点は、彼または彼女の平均ロケーションに追従する。いくつかの実施形態では、視点は、(いくつかの実施形態では運動視差を生じた後に遅延を伴うことがある)公称視点に戻る。公称視点から見ることに戻ることは、ユーザによる手動入力および/または自動ポリシーに基づいてよい。
図60は、いくつかの実施形態による、ユーザ動き中の例示的な視点座標の追跡を示すグラフである。大きい位置変化は、例えば、ユーザの着座ロケーションの変化として処理されてよく、視差の小さい調整によって追従されなくてよい。代わりに、視点は、視差のどんな変化もない受信されたコンテンツの公称視点に戻され得る。小さい動きは、対応する仮想視点変化で扱われてよい。小さい動き変化がより永続的である場合、例えば、ユーザが背もたれに彼または彼女の体を載せている場合、公称視点は、いくつかの実施形態では何らかの変化レートで公称視点に戻る。
図60のグラフは、ユーザ動き中に視点座標(例えば、軸方向)を制御するための例示的な制御ポリシーを図解する。図60は、様々な時間ステップにおいて公称値と比較した座標の変化を示す。例示的なグラフ6000では、ゼロラインは公称値を表し、グラフのトレースは、公称値と比較した差値6004を測定している。時間ステップ28と時間ステップ40の間では(6002)、座標値は0の方へ低下する。時間ステップ67において(6006)、ユーザ動きは、最大および最小視差限界6008、6010の外側に出て、ユーザ動きの追跡は0にリセットされる。図60に関して使用される例示的な視点制御プロセスと同様の視点制御プロセスが、座標系の各軸(例えば、1つの軸方向座標値および2つの横方向座標値)のために使用されてよい。
いくつかの実施形態では、座標は最大値(または最小値)に飽和され、ユーザ動きが停止した後に(例えば、視聴者が、異なる椅子に座った後に)各座標系軸を0の方へドリフトさせてよい。いくつかの実施形態では、ユーザ動きが最大および最小限界の外側に出る場合、並びにユーザの視聴方角が最大および最小限界の外側に出る場合、ユーザの視点は公称視点に戻されてよい。いくつかの実施形態では、ユーザが彼または彼女の視聴方角を変化させることは、焦点面の横方向(x−y)シフトのように見え、ユーザの視点は、動きが停止するかまたは最大値もしくは最小値を超えた後、公称視点に戻されてよい。ユーザの視点を公称視点に戻すプロセスは、手動相互作用プロセス、自動プロセスまたは手動プロセスと自動プロセスの組み合わせであってよいことが理解されるだろう。3D運動視差を制御するための適用可能なポリシーは、いくつかの実施形態に従って開発され得る。
いくつかの実施形態では、モノスコープMFPスタックから立体的またはシフトされた視点を合成するための説明されたプロセスは、真の(例えば、合成とは対照的な)立体的MFPスタックを使用する運動視差、合成された立体的MFPスタックを使用する運動視差、2Dディスプレイ上のMFPの投影およびレンダリングを使用する運動視差、並びに真の立体的MFPスタック、合成された立体的MFPスタックおよび2Dディスプレイとともに使用されるMFPの組み合わせであるMFP形成など、他の構成に拡張され得る。
図61は、いくつかの実施形態による、多焦点面の真の立体セットを生成するための例示的なプロセスを図解するプロセス図である。図61は、真の立体入力を使用する運動視差MFP生成およびレンダリングプロセス6100を示す。右眼MFP形成プロセス6110は、右眼のためのテクスチャ6102および奥行きマップ6104を受信する。左眼MFP形成プロセス6112は、左眼のためのテクスチャ6102および奥行きマップ6108を受信する。いくつかの実施形態では、右眼および左眼のためのMFPは、横方向不一致調整プロセス6114に送られる。方角および量(≧0%)のための不一致調整6116は、MFPの視点離隔距離を調整するために横方向不一致調整プロセス6114によって受信されてよい。立体的MFP入力の使用は、ベースラインMFPの再方位付けおよび調整を制限し得る。MFPのレンダリングは、空間内の位置および方角にアンカリングされる。左眼および右眼のための調整されたMFPは、横方向視差調整プロセス6118に送られる。運動追跡プロセス6120は、ユーザ動きデータを横方向視差調整プロセス6118に、および軸方向視差のためのスケール調整プロセス6122、6124に送ってよい。動きデータは、空間内にアンカリングされたMFPのための公称視点および方角に対して捕捉されるx(t)およびy(t)データとして表され得る。いくつかの実施形態では、例えば、動きデータを測定するために慣性動きユニット(IMU)6130および/またはKinectタイプユニット6132が使用されてよい。横方向視差調整プロセス6118は、横方向運動視差(例えば、視差の水平視点変化)のためにMFPを平行移動させ得る。焦点面は、新しい視点からの軸方向視差のために互いにスケーリングされ得る。右眼および左眼のための横方向視差調整されたMFPは、軸方向視差のためのスケール調整プロセス6122、6124によって受信されてよい。右眼のためのスケーリングされたMFPは、MFPレンダリングプロセス6126によって受信されてよい。同様に、左眼のためのスケーリングされたMFPは、MFPレンダリングプロセス6128によって受信されてよい。MFPは、ユーザ6134による真の立体的視聴のための新しい視点/観点のためにレンダリングおよび表示される。いくつかの実施形態では、合成運動視差は、(運動追跡データなどの)ユーザ/視聴者の軸方向運動を示す情報を使用して多焦点面を互いにスケーリングすることを含んでよい。
図62は、いくつかの実施形態による、多焦点面の合成された立体セットを生成するための例示的なプロセスを図解するプロセス図である。図62は、合成された立体MFPスタックを生成するための運動視差MFP生成およびレンダリングプロセス6200を示す。MFP形成プロセス6206は、モノスコープビューのためのテクスチャ6202および奥行きマップ6204を受信する。MFPは横方向不一致形成プロセス6208に送られる。方角および量(≧0%)のための不一致調整6210は、MFPの視点離隔距離を調整するために横方向不一致調整プロセス6208によって受信されてよい。MFPのレンダリングは、空間内の位置および方角にアンカリングされる。横方向不一致形成プロセス6208は、(例えば、ベースライン方位を用いて)左眼および右眼のためのMFPを生成し、これらは横方向視差調整プロセス6212に送られる。いくつかの実施形態では、不一致形成をサポートするために、横方向または軸方向視点変化の前の何らかのベースライン方位が選択されてよい。運動追跡プロセス6214は、ユーザ動きデータを横方向視差調整プロセス6212に、および軸方向視差のためのスケール調整プロセス6216、6218に送ってよい。動きデータは、空間内にアンカリングされたMFPのための公称視点および方角に対して捕捉されるx(t)およびy(t)データとして表され得る。いくつかの実施形態では、例えば、動きデータを測定するために慣性動きユニット(IMU)6224および/またはKinectタイプユニット6226が使用されてよい。横方向視差調整プロセス6212は、横方向運動視差(例えば、視差の水平視点変化)のためにMFPを平行移動させ得る。焦点面は、新しい視点からの軸方向視差のために互いにスケーリングされ得る。右眼および左眼のための横方向視差調整されたMFPは、軸方向視差のためのスケール調整プロセス6216、6218によって受信されてよい。右眼のためのスケーリングされたMFPは、MFPレンダリングプロセス6220によって受信されてよい。同様に、左眼のためのスケーリングされたMFPは、MFPレンダリングプロセス6222によって受信されてよい。MFPは、ユーザ6228による合成された立体的視聴のための新しい視点/観点のためにレンダリングおよび表示される。モノスコープビューを捉えることは、送信においてより少ない帯域幅を使用し得る。さらに、受信機内で2つの視点を合成する場合、これらの2つの視点は、選択されたベースライン方位および不一致の量において形成され、何らかの頭部傾きの立体視および奥行き知覚の個人的な好みをサポートし得る。ビューを合成する際に若干のアーチファクトが生成されることがあるが、これらのアーチファクトは、焦点面の再配信および/または拡張を使用することによって減少され得る。
図63は、いくつかの実施形態による、2次元表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。図63は、2D表示のためのMFPスタックを生成および合計するための運動視差MFP生成およびレンダリングプロセス6300を示す。MFP、不一致、および視差形成プロセス6306は、モノスコープビューのためのテクスチャ6302および奥行きマップ6304を受信する。方角および量(≧0%)のための不一致調整6308は、MFPの視点離隔距離を調整するためにMFP、不一致、および視差形成プロセス6306によって受信されてよい。MFPは、空間内の位置および方角に対して生成されてよい。運動追跡プロセス6310は、ユーザ動きデータをMFP、不一致、および視差形成プロセス6306に送ってよい。動きデータは、空間内にアンカリングされたMFPのための公称視点および方角に対して捕捉されるx(t)、y(t)およびz(t)データとして表され得る。いくつかの実施形態では、動きデータを測定するために、例えば、ニアアイディスプレイ(NED)メガネをもつ慣性動きユニット(IMU)6316、および/または、例えばフラットスクリーンをもつKinectタイプユニット6318が使用されてよい。いくつかの実施形態では、MFP、不一致、および視差形成プロセス6306は、MFPを形成することと、横方向不一致のためにMFPを調整することと、横方向運動視差(視差の水平視点変化)のためにMFPを調整することと、軸方向視差のためにスケーリングすることとを含むプロセスのうちの1つまたは複数を実行してよい。焦点面は、新しい視点からの軸方向視差のために互いにスケーリングされ得る。MFPは、MFP合計プロセス6312によって合計される。合計されたMFPは、ユーザ6320による視聴のために2D NEDまたはフラットスクリーン6314によってレンダリングおよび表示される。いくつかの実施形態では、2Dディスプレイは、自然な調節のためのサポートがないが、ユーザ動きに追従する運動視差効果を示し得る。いくつかの実施形態では、合計されたMFPをレンダリングおよび表示するために立体的3次元(S3D)ディスプレイが使用されてよい。
図64、図65および図66は、2Dディスプレイに対してMFPを投影および合計するためのいくつかの実施形態を図解する。図64は、いくつかの実施形態による、単眼2D表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。図64は、運動視差MFP生成および合計プロセス6400を示す。MFP形成プロセス6406は、モノスコープビューのためのテクスチャ6402および奥行きマップ6404を受信する。MFPは横方向視差調整プロセス6408に送られる。調整されたMFPは横方向視差調整プロセス6408に送られる。運動追跡プロセス6410は、ユーザ動きデータを横方向視差調整プロセス6408に、および軸方向視差のためのスケール調整プロセス6412に送ってよい。動きデータは、空間内にアンカリングされたMFPのための公称視点および方角に対して捕捉されるx(t)およびy(t)データとして表され得る。いくつかの実施形態では、動きデータを測定するために慣性動きユニット(IMU)6418および/またはKinectタイプユニット6416が使用されてよい。横方向視差調整プロセス6408は、横方向運動視差(視差の水平視点変化)のためにMFPを平行移動させ得る。焦点面は、新しい視点からの軸方向視差のために互いにスケーリングされ得る。横方向視差調整されたMFPは、MFPのスケーリングのために、軸方向視差のためのスケール調整プロセス6412によって受信されてよい。スケーリングされたMFPはMFP合計プロセス6414によって受信されてよい。MFPは、MFP合計プロセス6414によって合計される。合計されたMFPは、ユーザ6422による視聴のために2D NEDまたはフラットスクリーン6420(単眼2Dディスプレイ)によってレンダリングおよび表示される。
図65は、いくつかの実施形態による、真の立体的3次元(S3D)表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。いくつかの実施形態では、ベースライン変化が、真の立体的3D入力の限定とともにサポートされてよい。入力された立体的視点(例えば、ベースライン方位)は、後の視点変化(例えば、横方向または軸方向変化)にいくつかの制限を与え得る。図65は、真の立体入力を使用する運動視差MFP生成および合計プロセス6500を示す。右眼MFP形成プロセス6510は、右眼のためのテクスチャ6502および奥行きマップ6504を受信する。左眼MFP形成プロセス6512は、左眼のためのテクスチャ6502および奥行きマップ6508を受信する。いくつかの実施形態では、右眼および左眼のためのMFPは、横方向不一致調整プロセス6514に送られる。方角および量(≧0%)のための不一致調整6516は、MFPの視点離隔距離を調整するために横方向不一致調整プロセス6514によって受信されてよい。立体的MFP入力の使用は、ベースラインMFPの再方位付けおよび調整を制限し得る。MFPは、空間内の位置および方角に対して生成されてよい。左眼および右眼のための調整されたMFPは、横方向視差調整プロセス6518に送られる。運動追跡プロセス6520は、ユーザ動きデータを横方向視差調整プロセス6518に、および軸方向視差のためのスケール調整プロセス6522、6524に送ってよい。動きデータは、空間内にアンカリングされたMFPのための公称視点および方角に対して捕捉されるx(t)およびy(t)データとして表され得る。いくつかの実施形態では、動きデータを測定するために慣性動きユニット(IMU)6530および/またはKinectタイプユニット6532が使用されてよい。横方向視差調整プロセス6518は、横方向運動視差(視差の水平視点変化)のためにMFPを平行移動させ得る。焦点面は、新しい視点からの軸方向視差のために互いにスケーリングされ得る。右眼および左眼のための横方向視差調整されたMFPは、軸方向視差のためのスケール調整プロセス6522、6524によって受信されてよい。右眼のためのスケーリングされたMFPは、右眼のためのMFP合計プロセス6526によって受信されてよい。右眼のためのMFPは、右眼のためのMFP合計プロセス6526によって合計される。同様に、左眼のためのスケーリングされたMFPは、左眼のためのMFP合計プロセス6528によって受信されてよい。左眼のためのMFPは、左眼のためのMFP合計プロセス6528によって合計される。右眼と左眼の両方のための合計されたMFPは、ユーザ6536に対するレンダリングおよび表示のために、2D NEDまたはフラットスクリーン6534(単眼2Dディスプレイ)に送られる。
図66は、いくつかの実施形態による、合成された立体的3次元(S3D)表示のための多焦点面のセットを生成および合計するための例示的なプロセスを図解するプロセス図である。図66は、運動視差MFP生成および合計プロセス6600を示す。MFP形成プロセス6606は、モノスコープビューのためのテクスチャ6602および奥行きマップ6604を受信する。MFPは横方向不一致形成プロセス6608に送られる。方角および量(≧0%)のための不一致調整6610は、MFPの視点離隔距離を調整するために横方向不一致調整プロセス6608によって受信されてよい。MFPは、空間内の位置および方角に対して生成されてよい。横方向不一致形成プロセス6608は、左眼および右眼のためのMFPを生成し、これらは横方向視差調整プロセス6612に送られる。運動追跡プロセス6614は、ユーザ動きデータを横方向視差調整プロセス6612に、および軸方向視差のためのスケール調整プロセス6616、6618に送ってよい。動きデータは、空間内にアンカリングされたMFPのための公称視点および方角に対して捕捉されるx(t)およびy(t)データとして表され得る。いくつかの実施形態では、動きデータを測定するために慣性動きユニット(IMU)6626および/またはKinectタイプユニット6628が使用されてよい。横方向視差調整プロセス6612は、横方向運動視差(視差の水平視点変化)のためにMFPを平行移動させ得る。焦点面は、新しい視点からの軸方向視差のために互いにスケーリングされ得る。右眼および左眼のための横方向視差調整されたMFPは、軸方向視差のためのスケール調整プロセス6616、6618によって受信されてよい。右眼のためのスケーリングされたMFPは、右眼のためのMFP合計プロセス6620によって受信されてよい。右眼のためのMFPは、右眼のためのMFP合計プロセス6620によって合計される。同様に、左眼のためのスケーリングされたMFPは、左眼のためのMFP合計プロセス6622によって受信されてよい。左眼のためのMFPは、左眼のためのMFP合計プロセス6622によって合計される。右眼と左眼の両方のための合計されたMFPは、ユーザ6630に対するレンダリングおよび表示のために、S3D NEDまたはフラットスクリーン6624に送られる。2Dディスプレイデータを用いた運動視差効果のサポートは、MFPを合計して、外部立体的またはモノスコープディスプレイによって表示され得る2Dディスプレイデータを生成することによって提供され得る。
モノスコープディスプレイを使用するいくつかの実施形態では、ユーザ動きを追跡するために外部運動追跡センサが使用されてよく、ユーザはシャッターメガネを装着していないことがある。立体的3次元(S3D)ディスプレイを使用するいくつかの実施形態では、ユーザ動きを追跡するセンサ(例えば、IMU)がシャッターメガネ内に埋め込まれるなどしてよい。S3Dディスプレイを使用するいくつかの実施形態では、何らかの輻輳調節(VAC)矛盾が生じることがある。視聴距離がディスプレイサイズ(例えば、立体的TVまでの通常視聴距離を参照されたい)と比較して長い場合、この矛盾は小さい。いくつかの実施形態では、方位付けられた焦点面画像を表示することは、シフトされた焦点面画像を組み合わせて(合計などして)立体的画像ペアを生成することを含んでよい。
図67は、いくつかの実施形態による、フロントエンド処理経路および表示エンド経路をもつ多焦点面を生成するための例示的なプロセスを図解するプロセス図である。図67は、真の立体入力を使用する運動視差MFP生成および合計プロセス6700を示す。フロントエンドプロセス6702のいくつかの実施形態では、テクスチャ6706および奥行きマップ6708は、奥行きブレンドプロセスを用いるMFP形成6714によって受信されてよい。MFPは、前に説明されたように奥行き次元におけるMFPの量子化効果を減少させるために奥行きブレンド(重み付け)を使用して生成されてよい。フロントエンドプロセス6704のいくつかの実施形態では、テクスチャ6710および奥行きマップ6712は、再配信プロセスを用いるMFP形成6716によって受信されてよい。MFPは、前に説明されたようにMFP再配信を使用して生成されてよい。
いくつかの実施形態では、奥行きブレンドおよび/または再配信されたMFPは、不一致形成プロセス6718に送られてよい。方角および量(≧0%)のための不一致調整6720は、MFPの視点離隔距離を調整するために不一致形成プロセス6718によって受信されてよい。調整されたMFPは横方向視差形成プロセス6722に送られてよい。運動追跡プロセス6724は、ユーザ動きデータを横方向視差形成プロセス6722に、および軸方向視差のためのスケール調整プロセス6726に送ってよい。動きデータは、空間内にアンカリングされたMFPのための公称視点および方角に対して捕捉されるx(t)およびy(t)データとして表され得る。いくつかの実施形態では、動きデータを測定するために慣性動きユニット(IMU)6730および/またはKinectタイプユニット6732が使用されてよい。横方向視差形成プロセス6722は、横方向運動視差(視差の水平視点変化)のためにMFPを平行移動させ得る。軸方向視差のためのスケール調整プロセス6726は、スケーリングのために、平行移動されたMFPを受信してよい。焦点面は、新しい視点からの軸方向視差のために互いにスケーリングされ得る。いくつかの実施形態では、フロントエンドは、非特許文献1において開示される方法など、知られている方法を用いて形成された(例えば、奥行きマップなしの)焦点面6742の直接入力を含んでよく、処理段階6718、6720、6722、6724、6726のうちの1つまたは複数は、上記で説明されたように使用されてよい。
表示経路1のいくつかの実施形態では、スケーリングされたMFPは、ユーザ6738に表示するために、MFPレンダリングプロセス6728によって受信されてよい。表示経路2のいくつかの実施形態では、スケーリングされたMFPは、受信されたMFPを合計するために、MFP合計プロセス6734によって受信されてよい。合計されたMFPは、ユーザ6740に対してコンテンツをレンダリングおよび表示するために、2D NEDまたはフラットスクリーンディスプレイ6736によって受信されてよい。
図68A〜図68Jは、いくつかの実施形態による、各セット画像ペア(例えば、図68Cおよび図68D)間の軸方向移動のための例示的な右画像および左画像のシリーズを示すイラストである。図68A〜図68Jは、図58に示される配置、および上述した焦点面サイズ調整プロセスを使用する、軸方向運動中の交差した眼ステレオグラムのシリーズを示す。図68Aから図68Jは、非特許文献12上で見出される画像およびそれの奥行きマップの修正バージョンである。図68Aから図69Jの例示的なシーケンスのために、線形奥行きブレンドを用いる3つのMFPが使用される。画像スケーリング調整のために2画素のユニットサイズが使用される。使用されるテスト画像は、157×436画素の解像度をもつ花である。低解像度の焦点面画像では、ユーザは、2画素のユニットサイズが妥当であると見出し得る。より高解像度の焦点面画像は、より大きいユニットサイズを使用し得る。
単眼MFPスタックを形成した後に、立体的不一致は、焦点面を水平方向にシフトすることによって合成される。交差した眼ステレオグラムの例示的なシーケンスでは、後部から前方への3つの面(後部、中間、および前方)は、それぞれ、0、2、および4画素分だけシフトされる。シフティングは、左眼ビュー6810、6830、6850、6870、6890については右側に、および右眼ビュー6800、6820、6840、6860、6880については左側に行われる。合成された総不一致は、画像幅の1.8%に対応する。立体的不一致のためにシフトした後に、焦点面は、図67に図解されるように、軸方向運動視差を作成するためにスケーリングされる。図68Aから図68Jにおいてシーケンスを上部から下部に視聴することは、シーンから離れることに対応する。図68Aから図68J内の全てのビューは、1つのモノスコープMFPスタックからのシフトによって形成される。横方向視差は、この例では図解されない。
3つの焦点面テスト画像のスケーリングについて上述した例示的な手順を適用して、公称視聴点d0を中心とする5つの軸方向運動(+2、+1、0、−1、−2ステップ)のために、表1および表2に記載された垂直解像度高さが取得される。実際のスケーリングファクタは、表の値をVresで除算することによって取得され得る。
Figure 2021518701
Figure 2021518701
表3は、軸方向位置diに対する垂直解像度調整を示す。水平解像度は、調整前のアスペクト比を保持するように調整される。スケーリングのユニットサイズは2画素(1画素分だけ対称的にシフトされている対応する焦点面縁)である。左眼ビュー(焦点面画像)と右眼ビュー(焦点面画像)の両方のサイズは、公称視点d0におけるのと同じである(この例では157×436画素)。動き中に、サイズは、無限大にあるものとして処理される、最も遠い焦点面PFbackについて不変(157×436画素)のままである。
表3に示されるように、軸方向運動(位置di)について、スケーリングは、(不一致のためにシフトされた)左眼焦点面と右眼焦点面の両方について同じである。元のテスト画像では、Vres=157画素である。スケーリングの後に、5つの異なる視点についての左焦点面と右焦点面の両方(FP1、FP2、FP3)の垂直解像度が表3に示される。位置d0は公称視点である。
Figure 2021518701
焦点面サイズのための実際のスケーリングファクタは、表3内の値をVres=157で除算することによって取得される。これらのスケーリング値をテスト画像の3つの焦点面に適用することによって、図68A〜図68Jに示される、軸方向運動のための交差した眼ステレオグラムのシーケンスが取得される。図68Aから図68Jにおいてシーケンスを上部から下部に視聴することは、シーンから離れることに対応する。スケーリングのための基準を与えるために、黒い矩形が図68Aおよび図68Iに示される。各行ペア(例えば、図68Cおよび図68D)は、同じ視聴方角(または軸)に沿う位置に対応する。図68Aから図68Jは運動視差効果を実証する。
軸方向におけるステップサイズ(図68Cおよび図68Dなど、図68A〜図68Jの各行に対応する物理的距離は、シーケンスの1つの交差した眼立体ビューを示す行を形成する)は、使用される解像度およびユニットサイズによって決定されてよい。この例は、(選ばれた量分だけ焦点面をシフトすることに基づく)合成された不一致を伴う立体ペアの(焦点面のスケーリングに基づく)軸方向視差を示す。横方向視差は、(横方向)不一致を形成する場合と同じ(または同様の)変形を適用することによって作成され得る。横方向構成要素と軸方向構成要素を組み合わせるどんな3D動きも、この例において使用される変形(またはいくつかの実施形態では近似)を適用することによって決定され得る。
公称位置から焦点面を視聴する場合、焦点面は全て、同じ立体/空間角の内側に見られるであろう。調整されていない焦点面解像度は同じであるので、1つの画素は同じ立体角を占有し、知覚されるMFPレンダリング(または図68A〜図68Jに示されるように、投影)に対する焦点面が合計されてよい。合成された運動視差のための焦点面サイズを調整する場合、解像度およびサイズは、合計する前に調整されてよい。画素は、互いに対してサブ画素量分だけシフトしてよい。対応する画素の合計を正確なものにするために、画像の補間を実行してサブ画素値を取得してよい。
図68A〜図68Jに示されるシーケンスでは、ステレオグラムのためのゼロ視差設定、および軸方向運動視差の消失点は、最も遠い焦点面である。軸方向運動視差は、全ての焦点面のサイズを調整することによって拡張され得る。この状況は、ゼロ視差面を焦点面の全ての背後に置くこと、およびより下側の1焦点面のために導き出されたスケーリングファクタを使用すること、例えば、表2に示されるようにFP1のためにFP2のスケーリングファクタを使用することに対応する。この結果は、より小さいユーザ動きをもつより強い運動視差効果である。
図69は、いくつかの実施形態による、例示的なプロセスを図解するフローチャートである。プロセス6900のいくつかの実施形態は、奥行き情報をもつ入力画像を受信すること6902を含んでよい。プロセス6900は、入力画像を複数の焦点面画像にマッピングすること6904をさらに含んでよい。プロセス6900は、左眼と右眼の間の立体不一致を提供するために頭部方位情報を使用して複数の焦点面画像を方位付けること6906をさらに含んでよい。プロセス6900は、方位付けられた複数の焦点面画像を表示すること6908をさらに含んでよい。いくつかの実施形態は、1つまたは複数の運動追跡センサと、プロセッサと、このプロセッサ上で実行されるとき、プロセス6900を実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とをもつデバイスを含んでよい。いくつかの実施形態では、プロセス6900は、多焦点面(MFP)ディスプレイを有するデバイスによって実行されてよい。
図70は、いくつかの実施形態による、例示的なプロセスを図解するフローチャートである。プロセス7000のいくつかの実施形態は、3次元(3D)コンテンツの説明を受信すること7002を含んでよい。プロセス7000は、視聴者の実世界環境に対する彼または彼女の動きを示す情報をトラッカから受信すること7004をさらに含んでよい。プロセス7000は、視聴者の動きを示す情報を受信したことに応答して、例えば、テクスチャおよび奥行き情報を含む3Dコンテンツを使用して形成される多焦点面を変えることによって運動視差を合成すること7006をさらに含んでよい。プロセス7000は、変えられた多焦点面レンダリングを使用して多焦点面ディスプレイに画像をレンダリングすること7008をさらに含んでよい。いくつかの実施形態は、1つまたは複数の運動追跡センサと、プロセッサと、このプロセッサ上で実行されるとき、プロセス7000を実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とをもつデバイスを含んでよい。いくつかの実施形態では、プロセス7000は、多焦点面(MFP)ディスプレイを有するデバイスによって実行されてよい。
いくつかの実施形態による方法およびシステムは仮想現実(VR)および拡張現実(AR)の文脈において論じられたが、いくつかの実施形態は、同様に複合現実(MR)、拡張現実(AR)、および仮想現実(VR)の文脈に適用されてよい。また、「ヘッドマウントディスプレイ(HMD)」という用語が、本明細書ではいくつかの実施形態に従って使用されるが、いくつかの実施形態は、例えば、いくつかの実施形態ではVR、AR、および/またはMRが可能である(頭部に取り付けられても取り付けられなくてもよい)ウェアラブルデバイスに適用され得る。
いくつかの実施形態では、「不一致ベクトル」という用語は、例えば、MFPをシフトおよび投影することによって形成される合成立体的ペア内の対応する画素の(方向を伴う)最大離隔距離を指す。幾何学的形状により、最大シフトは、視聴者に最も近い焦点面に対して行われる。この最大シフトの量および方向が「不一致ベクトル」と呼ばれる。
文献では、2つの画像(左および右)の各対応する画素の空間離隔距離は、輝度値によって表され得る。これは「不一致画像」と通常呼ばれる。本出願のいくつかの実施形態では、文献とは異なって、「不一致画像」は、例えば、(不一致ベクトルによって示され得る)量分だけスキューされ、投影され、合計されて視聴点になるMFPスタックである。
いくつかの実施形態では、3Dコンテンツは、例えば、奥行きマップおよびテクスチャ画像を含む。いくつかの実施形態では、テクスチャ画像は、選択された視点への3Dモデルおよび/またはコンテンツの投影を含む。いくつかの実施形態では、MFPディスプレイへのレンダリングは、モノスコープ(例えば、モノスコープMFPスタック)フォーマット、真の立体(例えば、対応して、右眼点および左眼点のための2つのモノスコープMFPスタック)フォーマット、または合成立体(例えば、シフトによる、合成された2つのMFPスタック)フォーマットに関し得る。
いくつかの実施形態による例示的な方法は、奥行き情報をもつ入力画像を受信することと、奥行き情報を使用して、入力画像を複数の焦点面画像にマッピングすることと、左眼と右眼の間の立体不一致を提供するために頭部方位情報を使用して複数の焦点面画像を方位付けることと、方位付けられた複数の焦点面画像を表示することとを含んでよい。
例示的な方法のいくつかの実施形態では、少なくとも入力画像を受信することおよび方位付けられた複数の焦点面画像を表示することは、多焦点面(MFP)ディスプレイによって実行される。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を方位付けることは、複数の焦点面画像のうちの1つまたは複数を回転させることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数を回転させることは、水平線と平行なベクトルに対して焦点面画像のうちの1つまたは複数のための不一致ベクトルを回転させることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を方位付けることは、複数の焦点面画像のうちの1つまたは複数をシフトすることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数をシフトすることは、それぞれの1つまたは複数の焦点面画像のための不一致ベクトルをスケーリングすることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数をシフトすることは、固定された起点に対して複数の焦点面画像のうちの1つまたは複数を回転させることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの1つまたは複数をシフトすることは、固定された起点に対するオフセットの分だけ複数の焦点面画像のうちの1つまたは複数を移動させることを含む。
例示的な方法のいくつかの実施形態は、(例えば、ディスオクルージョンまたは穴を減少させるために)焦点面画像をシフトすることによって引き起こされる画像不一致を扱うために複数の焦点面画像を処理することをさらに含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を処理することは、焦点面画像のうちの1つまたは複数をフィルタリングすることを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を処理することは、複数の焦点面画像のうちの少なくとも1つに対する奥行きブレンド重みを決定することと、それぞれの奥行きブレンド重みを使用して複数の焦点面画像のうちの少なくとも1つを生成することとを含む。
例示的な方法のいくつかの実施形態では、複数の焦点面画像のうちの少なくとも1つを生成することは、複数のテクスチャのうちの少なくとも1つにそれぞれの奥行きブレンド重みを乗算することを含む。
例示的な方法のいくつかの実施形態では、方位付けられた複数の焦点面画像を表示することは、立体的画像ペアを生成するために、シフトされた焦点面画像を結合することを含んでよい。
例示的な方法のいくつかの実施形態は、頭部方位情報を生成するために実世界環境に対する視聴者の位置の運動追跡センサ示度を測定することをさらに含んでよい。
例示的な方法のいくつかの実施形態は、頭部方位情報を生成したことに応答して、複数の焦点面画像のうちの1つまたは複数を変えることによって運動視差を合成することをさらに含んでよい。
例示的な方法のいくつかの実施形態では、合成された運動視差は、頭部方位情報を使用して互いに対して複数の焦点面画像のうちの1つまたは複数をスケーリングすることを含んでよく、頭部方位情報は、軸方向運動を示してよい。
例示的な方法のいくつかの実施形態は、低周波数コンテンツに対して入力画像をフィルタリングすることと、低周波数コンテンツを複数の焦点面画像に再配信することとをさらに含んでよい。
例示的な方法のいくつかの実施形態は、高周波数コンテンツに対して入力画像をフィルタリングすることと、高周波数コンテンツを複数の焦点面画像に分解することとをさらに含んでよい。
いくつかの実施形態による例示的な装置は、プロセッサと、このプロセッサ上で実行されるとき、上記で説明される例示的な方法のうちの1つを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、3次元(3D)コンテンツの説明を受信することと、実世界環境に対する視聴者の動きを示す情報をトラッカから受信することと、視聴者の動きを示す情報を受信したことに応答して、3Dコンテンツの多焦点面を変えることによって運動視差を合成することと、変えられた多焦点面レンダリングを使用して多焦点面ディスプレイに画像をレンダリングすることとを含んでよい。
例示的な方法のいくつかの実施形態では、合成された運動視差は、視聴者の動きを示す情報を使用して互いに対して多焦点面をスケーリングすることを含んでよく、視聴者の動きは軸方向であってよい。
いくつかの実施形態による例示的な装置は、プロセッサと、このプロセッサ上で実行されるとき、上記で説明される例示的な方法のうちの1つを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、入力画像にマッピングされる複数の焦点面画像を決定することと、左眼と右眼の間の立体不一致を提供するために頭部方位情報を使用して複数の焦点面画像を方位付けることと、方位付けられた複数の焦点面画像を表示することとを含んでよい。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を決定することは、複数の焦点面画像を受信することを含む。
例示的な方法のいくつかの実施形態では、複数の焦点面画像を決定することは、複数の焦点面画像を生成するために入力画像を複数の焦点面画像にマッピングすることを含む。
いくつかの実施形態による例示的な装置は、プロセッサと、このプロセッサ上で実行されるとき、上記で説明される例示的な方法のうちの1つを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、3次元(3D)映像コンテンツを受信することと、視聴者方位信号を受信することと、3D映像コンテンツおよび視聴者方位信号を使用してディスプレイの1つまたは複数の焦点面のための画像データを決定することと、画像データを使用して1つまたは複数の焦点面画像をディスプレイにレンダリングすることとを含んでよい。
いくつかの実施形態による例示的な装置は、プロセッサと、このプロセッサ上で実行されるとき、上記で説明される例示的な方法を実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、多焦点面(MFP)ディスプレイの能力の説明を受信することと、3次元(3D)映像コンテンツを受信することと、視聴者方位信号を受信することと、3D映像コンテンツおよび視聴者方位信号を使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを計算することと、計算された画像データを使用して1つまたは複数のMFP画像をMFPディスプレイにレンダリングすることとを含んでよい。
例示的な方法のいくつかの実施形態では、3D映像コンテンツは、1つまたは複数のテクスチャ画像および対応する奥行きマップを含んでよい。
例示的な方法のいくつかの実施形態は、奥行きマップをフィルタリングすることをさらに含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の焦点面のための画像データを計算することは、3D映像コンテンツから1つまたは複数の画像を抽出することと、1つまたは複数の焦点面について奥行きブレンド重みを計算することと、奥行きブレンド重みによって奥行きマップを再マッピングすることによって1つまたは複数のMFP重みマップを生成することと、各焦点面画像を形成するために1つまたは複数の画像に各MFP重みマップを乗算することと、焦点面画像ごとに空間シフトを実行することとを含んでよい。
例示的な方法のいくつかの実施形態では、MFPディスプレイの能力の説明は、焦点面の数および位置を含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の焦点面のための画像データを計算することは、3D映像コンテンツを使用してMFPディスプレイの1つまたは複数の焦点面について1つまたは複数のMFP画像を計算することと、1つまたは複数の計算されたMFP画像をシフトすることとを含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の計算されたMFP画像をシフトすることは、MFP画像のうちの1つまたは複数のための不一致ベクトルをスケーリングすることを含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の計算されたMFP画像をシフトすることは、水平線と平行なベクトルに対してMFP画像のうちの1つまたは複数のための不一致ベクトルを回転させることを含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の計算されたMFP画像をシフトすることは、MFP画像の1つまたは複数を平行移動させることを含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の焦点面のための画像データを計算することは、3D映像コンテンツを使用してMFPディスプレイの1つまたは複数の焦点面について1つまたは複数のMFP画像を計算することと、1つまたは複数の計算されたMFP画像を3Dワーピングすることと、1つまたは複数の計算されたMFP画像上で穴充填を実行することとを含んでよい。
いくつかの実施形態による例示的な方法は、3次元映像コンテンツを受信することと、3次元映像コンテンツを使用して多焦点面の数および位置について1つまたは複数の多焦点面(MFP)画像を計算することと、視聴者方位信号を受信することと、1つまたは複数のMFP画像および視聴者方位信号を使用して立体的ディスプレイの各ビューについて1つまたは複数の不一致画像を計算することと、1つまたは複数の不一致画像を立体的ディスプレイにレンダリングすることとを含んでよい。
例示的な方法のいくつかの実施形態では、3次元映像コンテンツは、1つまたは複数のテクスチャ画像および対応する奥行きマップを含んでよい。
例示的な方法のいくつかの実施形態は、奥行きマップをフィルタリングすることをさらに含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の焦点面のための画像データを計算することは、3D映像コンテンツから1つまたは複数の画像を抽出することと、1つまたは複数の焦点面について奥行きブレンド重みを計算することと、奥行きブレンド重みによって奥行きマップを再マッピングすることによって1つまたは複数のMFP重みマップを生成することと、各焦点面画像を形成するために1つまたは複数の画像に各MFP重みマップを乗算することと、焦点面画像ごとに空間シフトを実行することとを含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の不一致画像を立体的ディスプレイにレンダリングすることは、1つまたは複数の不一致画像の各々について立体的画像ペアを生成するために、各空間的にシフトされた焦点面を合計することを含む。
例示的な方法のいくつかの実施形態は、多焦点面(MFP)画像のうちの1つ内の1つまたは複数の画素に対応する1つまたは複数の画素値を受信することと、奥行きマップ内の対応する距離によって1つまたは複数の画素値を調整することとをさらに含んでよい。
例示的な方法のいくつかの実施形態では、MFPディスプレイの能力の説明は、焦点面の数および位置を含んでよい。
例示的な方法のいくつかの実施形態では、視聴者方位信号は、視聴者の傾きを示してよく、立体的ディスプレイの各ビューについて1つまたは複数の不一致画像を計算することは、示された視聴者の傾きに対応する回転された不一致ベクトルを使用してよい。
例示的な方法のいくつかの実施形態では、多焦点面の数および位置について1つまたは複数のMFP画像を計算することは、3D映像コンテンツを使用して各焦点面位置について1つまたは複数のMFP画像を計算することと、1つまたは複数の計算されたMFP画像を3Dワーピングすることと、1つまたは複数の計算されたMFP画像上で穴充填を実行することとを含んでよい。
いくつかの実施形態による例示的な方法は、3次元映像コンテンツを受信することと、3次元映像コンテンツを使用して多焦点面の数および位置について1つまたは複数の多焦点面(MFP)画像を計算することと、運動追跡センサの運動追跡センサ示度を測定することと、運動追跡センサ示度から視聴者方位信号を生成することと、1つまたは複数のMFP画像および視聴者方位信号を使用してシャッターメガネディスプレイの各ビューについて1つまたは複数の不一致画像を計算することと、1つまたは複数の不一致画像をシャッターメガネディスプレイにレンダリングすることを含んでよい。
いくつかの実施形態による例示的なデバイスは、1つまたは複数の運動追跡センサと、プロセッサと、このプロセッサ上で実行されるとき、3次元映像コンテンツを受信することと、3次元映像コンテンツを使用して多焦点面の数および位置について1つまたは複数の多焦点面(MFP)画像を計算することと、運動追跡センサの運動追跡センサ示度を測定することと、運動追跡センサ示度から視聴者方位信号を生成することと、1つまたは複数のMFP画像および視聴者方位信号を使用してシャッターメガネディスプレイの各ビューについて1つまたは複数の不一致画像を計算することと、1つまたは複数の不一致画像をシャッターメガネディスプレイにレンダリングすることとのプロセスを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的なデバイスは、プロセッサと、このプロセッサ上で実行されるとき、多焦点面(MFP)ディスプレイの能力の説明を受信することと、3次元映像コンテンツを受信することと、視聴者方位信号を受信することと、3次元映像コンテンツおよび視聴者方位信号を使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを計算することと、計算された画像データを使用して1つまたは複数のMFP画像をMFPディスプレイにレンダリングすることとのプロセスを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、3次元(3D)映像コンテンツを受信することと、3D映像コンテンツを高周波数コンテンツおよび低周波数コンテンツにフィルタリングすることと、高周波数コンテンツを1つまたは複数の高周波数計算された画像に分解することと、1つまたは複数の再配信された焦点面を生成するために低周波数コンテンツを1つまたは複数の高周波数計算された画像に再配信することと、1つまたは複数の再配信された焦点面に対応する1つまたは複数の多焦点面画像をレンダリングすることとを含んでよい。
例示的な方法のいくつかの実施形態では、3D映像コンテンツは、1つまたは複数のテクスチャ画像および対応する奥行きマップを含んでよい。
例示的な方法のいくつかの実施形態では、高周波数コンテンツを1つまたは複数の高周波数計算された画像に分解することは、高周波数コンテンツを使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを計算することと、計算された画像データを1つまたは複数の高周波数計算された画像に分解することとを含んでよい。
例示的な方法のいくつかの実施形態では、1つまたは複数の焦点面のための画像データを計算することは、3D映像コンテンツから1つまたは複数の画像を抽出することと、1つまたは複数の焦点面について奥行きブレンド重みを計算することと、奥行きブレンド重みによって奥行きマップを再マッピングすることによって1つまたは複数のMFP重みマップを生成することと、各焦点面画像を形成するために1つまたは複数の画像に各MFP重みマップを乗算することと、焦点面画像ごとに空間シフトを実行することとを含んでよい。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みはボックスフィルタであってよい。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みは線形ランプであってよい。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みは多項式関数であってよい。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みは正弦曲線関数であってよい。
例示的な方法のいくつかの実施形態では、低周波数コンテンツを1つまたは複数の高周波数計算された画像に再配信することは、低周波数コンテンツの画素値をNで除算することと、1つまたは複数の再配信された焦点面を生成するために、除算された低周波数コンテンツをN個の高周波数計算された画像の各々と組み合わせることとを含んでよく、Nは正の整数である。
いくつかの実施形態による例示的な方法は、3次元(3D)映像コンテンツを受信することと、3D映像コンテンツを使用してMFPディスプレイのN個の焦点面のための画像データを計算することと、低周波数3D映像コンテンツを生成するために3D映像コンテンツをローパスフィルタリングすることと、低周波数3D映像コンテンツの画素値をNで除算することと、N個の再配信された画像を生成するために、除算された低周波数3D映像コンテンツを、計算された画像データのN個の焦点面に再配信することと、N個の再配信された画像を使用してMFP画像のN個のセットをMFPディスプレイにレンダリングすることを含んでよく、Nは正の整数である。
例示的な方法のいくつかの実施形態では、3次元映像コンテンツは、1つまたは複数のテクスチャ画像および対応する奥行きマップを含んでよい。
例示的な方法のいくつかの実施形態では、除算された低周波数3D映像コンテンツを再配信することは、計算された画像データのN個の焦点面の各々をローパスフィルタリングすることと、合計された画像データのN個のセットを生成するために、除算された低周波数映像コンテンツを、計算された画像データのN個の焦点面の各々と合計することと、再配信された画像データのN個のセットを生成するために、それぞれの合計された画像データから、ローパスフィルタリングされた計算された画像データのN個のセットの各々を減算することとを含んでよい。
例示的な方法のいくつかの実施形態では、N個の焦点面のための画像データを計算することは、3D映像コンテンツからN個の画像を抽出することと、N個の焦点面について奥行きブレンド重みを計算することと、奥行きブレンド重みによって奥行きマップを再マッピングすることによってN個の多焦点面(MFP)重みマップを生成することと、各焦点面画像を形成するためにN個の画像に各MFP重みマップを乗算することと、N個の焦点面画像の各々について空間シフトを実行することとを含んでよく、Nは正の整数である。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みはボックスフィルタであってよい。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みは線形ランプであってよい。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みは多項式関数であってよい。
例示的な方法のいくつかの実施形態では、奥行きブレンド重みは正弦曲線関数であってよい。
例示的な方法のいくつかの実施形態では、低周波数コンテンツを1つまたは複数の高周波数焦点面に再配信することは、低周波数コンテンツの画素値をNで除算することと、再配信された画像データの1つまたは複数のセットを生成するために、除算された低周波数コンテンツを、高周波数計算された画像データのN個のセットの各々と組み合わせることとを含んでよく、Nは正の整数である。
いくつかの実施形態による例示的なデバイスは、プロセッサと、このプロセッサ上で実行されるとき、3次元(3D)映像コンテンツを受信することと、3D映像コンテンツを高周波数コンテンツおよび低周波数コンテンツにフィルタリングすることと、高周波数コンテンツを使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを計算することと、計算された画像データを高周波数計算された画像データのN個のセットに分解することと、低周波数コンテンツの画素値をNで除算することと、除算された低周波数コンテンツをN個の高周波数計算された画像に再配信することと、N個の再配信された画像を使用してMFP画像のN個のセットをMFPディスプレイにレンダリングすることとのプロセスを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよく、Nは正の整数である。
いくつかの実施形態による例示的な方法は、3次元(3D)映像コンテンツを受信することと、3D映像コンテンツを高周波数コンテンツおよび低周波数コンテンツにフィルタリングすることと、高周波数コンテンツを1つまたは複数の高周波数焦点面に分解することと、1つまたは複数の再配信された焦点面を生成するために低周波数コンテンツを1つまたは複数の高周波数焦点面に再配信することと、1つまたは複数の再配信された焦点面を使用して1つまたは複数の多焦点面画像をレンダリングすることとを含んでよい。
いくつかの実施形態による例示的な方法は、テクスチャプラス奥行きとして表される画像を受信することと、画像の奥行き面の値に基づいて複数のN個の焦点面画像への第1の分解を形成することと、テクスチャ画像にローパスフィルタを適用し、画素値をNで除算することによってスケーリングすることによって、スケーリングされた低周波数表現を作成することと、複数のN個の焦点面画像の各々について、複数の再配信された焦点面画像を計算することであって、それぞれの焦点面画像のローパス表現を計算することと、調整された焦点面画像を生成するために、それぞれの焦点面画像に、スケーリングされた低周波数表現を追加することと、再配信された焦点面画像を生成するために、調整された焦点面画像から、それぞれの焦点面画像の計算されたローパス表現を減算することとを含んでよい、計算することとを含んでよい。
例示的な方法のいくつかの実施形態では、複数の再配信された焦点面画像は、多焦点面ディスプレイにレンダリングされてよい。
例示的な方法のいくつかの実施形態では、複数の再配信された焦点面画像は、立体的ディスプレイに立体ペア投影を生じるための入力として使用されてよい。
いくつかの実施形態による例示的な方法は、画像の奥行き面の値に基づいて複数のN個の焦点面画像から構成される画像の多焦点面スタックとして表される画像を受信することと、画像にローパスフィルタを適用し、画素値をNで除算することによってスケーリングすることによって、スケーリングされた低周波数表現を作成することと、複数のN個の焦点面画像の各々について、複数の再配信された焦点面画像を計算することであって、それぞれの焦点面画像のローパス表現を計算することと、調整された焦点面画像を生成するために、それぞれの焦点面画像に、スケーリングされた低周波数表現を追加することと、再配信された焦点面画像を生成するために、調整された焦点面画像から、それぞれの焦点面画像の計算されたローパス表現を減算することとを含んでよい、計算することとを含んでよい。
例示的な方法のいくつかの実施形態では、複数の再配信された焦点面画像は、多焦点面ディスプレイにレンダリングされてよい。
例示的な方法のいくつかの実施形態では、複数の再配信された焦点面画像は、立体的ディスプレイに立体ペア投影を生じるための入力として使用されてよい。
いくつかの実施形態による例示的な方法は、3次元映像コンテンツおよび視聴者方位信号を使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを計算することと、計算された画像データを使用して1つまたは複数のMFP画像をMFPディスプレイにレンダリングすることとを含んでよい。
いくつかの実施形態による例示的なデバイスは、プロセッサと、このプロセッサ上で実行されるとき、3次元映像コンテンツおよび視聴者方位信号を使用してMFPディスプレイの1つまたは複数の焦点面のための画像データを計算することと、計算された画像データを使用して1つまたは複数のMFP画像をMFPディスプレイにレンダリングすることとのプロセスを実行するように動作する命令を記憶する非一時的なコンピュータ可読媒体とを含んでよい。
いくつかの実施形態による例示的な方法は、多焦点面ディスプレイにレンダリングし、ユーザ頭部方位に応答して立体的映像を作成することを含んでよい。
いくつかの実施形態による例示的な方法は、奥行きマップを含む3D映像コンテンツを受信することを含んでよい。
いくつかの実施形態による例示的な方法は、テクスチャ画像からなる3D映像コンテンツを受信することを含んでよい。
いくつかの実施形態による例示的な方法は、視聴者から方位信号を受信することを含んでよい。
いくつかの実施形態による例示的な方法は、(焦点面の数および位置を含む)多焦点面ディスプレイ能力の説明を受信することを含んでよい。
いくつかの実施形態による例示的な方法は、方位信号を使用して多焦点面ディスプレイの面のための画像データを計算することを含んでよい。
いくつかの実施形態による例示的な方法は、多焦点面の選ばれた数および位置について画像データを計算することを含んでよい。
いくつかの実施形態による例示的な方法は、多焦点面および方位信号を使用して立体的ディスプレイの個々のビューについて不一致画像(または、例えば、不一致をもつ画像)を計算することを含んでよい。
いくつかの実施形態による例示的な方法は、多焦点面/不一致画像をディスプレイにレンダリングすることを含んでよい。
表4は、図71〜図92の黒と白の線画へのネイティブ画像のグレースケールバージョンのマッピングを示す。
Figure 2021518701
説明された実施形態のうちの1つまたは複数の様々なハードウェア要素は、それぞれのモジュールに関連して本明細書で説明した様々な機能を行う(すなわち、実施、実行などする)「モジュール」として呼ばれることに留意されたい。本明細書で使用されるとき、モジュールは、所与の実装のために当業者によって好適であると見なされるハードウェア(例えば、1つまたは複数のプロセッサ、1つまたは複数のマイクロプロセッサ、1つまたは複数のマイクロコントローラ、1つまたは複数のマイクロチップ、1つまたは複数のASIC、1つまたは複数のFPGA、1つまたは複数のメモリデバイス)を含む。各説明されたモジュールはまた、それぞれのモジュールによって行われるものとして説明された1つまたは複数の機能を行うように実行可能な命令を含むことがあり、それらの命令は、ハードウェア(すなわち、ハードワイヤード)命令、ファームウェア命令、ソフトウェア命令などの形態をとるかまたはそれらを含むことができ、また、RAM、ROMなどと通例呼ばれるような、任意の好適な非一時的なコンピュータ可読媒体またはメディアに記憶され得ることに留意されたい。
上記では、特徴および要素を特定の組み合わせで説明したが、各特徴または要素は、単独でまたは他の特徴および要素との任意の組み合わせで使用可能なことを当業者は諒解されよう。本明細書において説明される方法は、コンピュータまたはプロセッサによる実行のためにコンピュータ可読媒体に組み込まれたコンピュータプログラム、ソフトウェア、またはファームウェアにおいて実施できる。コンピュータ可読記憶媒体の例は、限定はされないが、ROM、RAM、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよびリムーバブルディスク、磁気光学媒体などの磁気媒体、並びにCD−ROMディスク、およびDVDなどの光媒体を含む。WTRU、UE、端末、基地局、RNCまたは任意のホストコンピュータにおいて使用するための無線周波数トランシーバを実施するために、ソフトウェアと関連付けられたプロセッサを使用できる。

Claims (28)

  1. 奥行き情報をもつ入力画像を受信することと、
    前記奥行き情報を使用して、前記入力画像を複数の焦点面画像にマッピングすることと、
    左眼と右眼との間の立体不一致を提供するために頭部方位情報を使用して前記複数の焦点面画像を方位付けることと、
    前記方位付けられた複数の焦点面画像を表示することと
    を備える方法。
  2. 少なくとも前記入力画像を受信すること、および前記方位付けられた複数の焦点面画像を表示することは、多焦点面(MFP)ディスプレイによって実行される、請求項1に記載の方法。
  3. 前記複数の焦点面画像を方位付けることは、前記複数の焦点面画像のうちの1つまたは複数を回転させることを備える、請求項1または請求項2に記載の方法。
  4. 前記複数の焦点面画像のうちの1つまたは複数を回転させることは、水平線と平行なベクトルに対して前記焦点面画像のうちの1つまたは複数のための不一致ベクトルを回転させることを備える、請求項3に記載の方法。
  5. 前記複数の焦点面画像を方位付けることは、前記複数の焦点面画像のうちの1つまたは複数をシフトすることを備える、請求項1乃至4のいずれか一項に記載の方法。
  6. 前記複数の焦点面画像のうちの1つまたは複数をシフトすることは、それぞれの1つまたは複数の焦点面画像のための不一致ベクトルをスケーリングすることを備える、請求項5に記載の方法。
  7. 前記複数の焦点面画像のうちの1つまたは複数をシフトすることは、固定された起点に対して前記複数の焦点面画像のうちの1つまたは複数を回転させることを備える、請求項5に記載の方法。
  8. 前記複数の焦点面画像のうちの1つまたは複数をシフトすることは、固定された起点に対するオフセットの分だけ前記複数の焦点面画像のうちの1つまたは複数を移動させることを備える、請求項5に記載の方法。
  9. 前記焦点面画像をシフトすることによって引き起こされる画像不一致を扱うために前記複数の焦点面画像を処理することをさらに備える、請求項5乃至8のいずれか一項に記載の方法。
  10. 前記複数の焦点面画像を処理することは、前記焦点面画像のうちの1つまたは複数をフィルタリングすることを備える、請求項9に記載の方法。
  11. 前記複数の焦点面画像を処理することは、
    前記複数の焦点面画像のうちの少なくとも1つに対する奥行きブレンド重みを決定することと、
    それぞれの奥行きブレンド重みを使用して前記複数の焦点面画像のうちの少なくとも1つを生成することと
    を備える、請求項9に記載の方法。
  12. 前記複数の焦点面画像のうちの少なくとも1つを生成することは、複数のテクスチャのうちの少なくとも1つにそれぞれの奥行きブレンド重みを乗算することを備える、請求項11に記載の方法。
  13. 前記方位付けられた複数の焦点面画像を表示することは、立体的画像ペアを生成するためにシフトされた焦点面画像を結合することを備える、請求項5乃至12のいずれか一項に記載の方法。
  14. 前記頭部方位情報を生成するために実世界環境に対する視聴者の位置の運動追跡センサ示度を測定することをさらに備える、請求項1乃至13のいずれか一項に記載の方法。
  15. 前記頭部方位情報を生成したことに応答して、前記複数の焦点面画像のうちの1つまたは複数を変えることによって運動視差を合成することをさらに備える、請求項14に記載の方法。
  16. 前記運動視差を合成することは、前記頭部方位情報を使用して互いに対して前記複数の焦点面画像のうちの1つまたは複数をスケーリングすることを備え、前記頭部方位情報は、軸方向運動を示す、請求項15に記載の方法。
  17. 低周波数コンテンツに対して前記入力画像をフィルタリングすることと、
    フィルタリングされた前記入力画像からの前記低周波数コンテンツを前記複数の焦点面画像に再配信することと
    をさらに備える、請求項1乃至16のいずれか一項に記載の方法。
  18. 高周波数コンテンツに対して前記入力画像をフィルタリングすることと、
    フィルタリングされた前記入力画像からの前記高周波数コンテンツを複数の焦点面画像に分解することと
    をさらに備える、請求項1乃至17のいずれか一項に記載の方法。
  19. プロセッサと、
    命令を記憶する非一時的なコンピュータ可読媒体と
    を備え、前記命令は、前記プロセッサによって実行されると、請求項1乃至18のいずれか一項に記載の方法を実行するように動作する、装置。
  20. 3次元(3D)コンテンツの説明を受信することと、
    実世界環境に対する視聴者の動きを示す情報をトラッカから受信することと、
    前記視聴者の動きを示す情報を受信したことに応答して、3Dコンテンツの多焦点面を変えることによって運動視差を合成することと、
    変えられた多焦点面レンダリングを使用して多焦点面ディスプレイに画像をレンダリングすることと
    を備える方法。
  21. 前記合成された運動視差は、前記視聴者の動きを示す情報を使用して互いに対して前記多焦点面をスケーリングすることを備え、前記視聴者の動きは軸方向である、請求項20に記載の方法。
  22. プロセッサと、
    命令を記憶する非一時的なコンピュータ可読媒体と
    を備え、前記命令は、前記プロセッサによって実行されると、請求項20または請求項21に記載の方法を実行するように動作する、装置。
  23. 入力画像にマッピングされる複数の焦点面画像を決定することと、
    左眼と右眼との間の立体不一致を提供するために頭部方位情報を使用して前記複数の焦点面画像を方位付けることと、
    前記方位付けられた複数の焦点面画像を表示することと
    を備える方法。
  24. 前記複数の焦点面画像を決定することは、前記複数の焦点面画像を受信することを備える、請求項23に記載の方法。
  25. 前記複数の焦点面画像を決定することは、前記複数の焦点面画像を生成するために前記入力画像を前記複数の焦点面画像にマッピングすることを備える、請求項23に記載の方法。
  26. プロセッサと、
    命令を記憶する非一時的なコンピュータ可読媒体と
    を備え、前記命令は、前記プロセッサによって実行されると、請求項23乃至25のいずれか一項に記載の方法を実行するように動作する、装置。
  27. 3次元(3D)映像コンテンツを受信することと、
    視聴者方位信号を受信することと、
    3D映像コンテンツおよび前記視聴者方位信号を使用してディスプレイの1つまたは複数の焦点面のための画像データを決定することと、
    前記画像データを使用して1つまたは複数の焦点面画像をディスプレイにレンダリングすることと
    を備える方法。
  28. プロセッサと、
    命令を記憶する非一時的なコンピュータ可読媒体と
    を備え、前記命令は、前記プロセッサによって実行されると、請求項27に記載の方法を実行するように動作する、装置。
JP2020550166A 2018-03-23 2019-03-20 Dibrシステムにおいて立体的視点を生じさせるための、多焦点面ベースの方法(mfp−dibr) Pending JP2021518701A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862647568P 2018-03-23 2018-03-23
US62/647,568 2018-03-23
PCT/US2019/023149 WO2019183211A1 (en) 2018-03-23 2019-03-20 Multifocal plane based method to produce stereoscopic viewpoints in a dibr system (mfp-dibr)

Publications (2)

Publication Number Publication Date
JP2021518701A true JP2021518701A (ja) 2021-08-02
JPWO2019183211A5 JPWO2019183211A5 (ja) 2022-03-30

Family

ID=66041666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550166A Pending JP2021518701A (ja) 2018-03-23 2019-03-20 Dibrシステムにおいて立体的視点を生じさせるための、多焦点面ベースの方法(mfp−dibr)

Country Status (6)

Country Link
US (2) US11477434B2 (ja)
EP (2) EP4266113A3 (ja)
JP (1) JP2021518701A (ja)
CN (1) CN112136324A (ja)
MX (1) MX2020009791A (ja)
WO (1) WO2019183211A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200137380A1 (en) * 2018-10-31 2020-04-30 Intel Corporation Multi-plane display image synthesis mechanism
WO2020259839A1 (en) * 2019-06-27 2020-12-30 Huawei Technologies Co., Ltd. Multifocal display device and method
EP4053630A4 (en) * 2019-10-31 2022-12-21 Sony Group Corporation IMAGE DISPLAY DEVICE
US11575882B2 (en) 2019-12-27 2023-02-07 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
CN111427166B (zh) * 2020-03-31 2022-07-05 京东方科技集团股份有限公司 一种光场显示方法及系统、存储介质和显示面板
US11449004B2 (en) 2020-05-21 2022-09-20 Looking Glass Factory, Inc. System and method for holographic image display
FI20205528A1 (en) * 2020-05-25 2021-11-26 Teknologian Tutkimuskeskus Vtt Oy Method and system for enabling 3D detection from monocular images
WO2022119940A1 (en) 2020-12-01 2022-06-09 Looking Glass Factory, Inc. System and method for processing three dimensional images
WO2022155950A1 (zh) * 2021-01-25 2022-07-28 京东方科技集团股份有限公司 虚拟视点合成方法、电子设备和计算机可读介质
CN114815241B (zh) * 2021-12-16 2022-12-16 北京灵犀微光科技有限公司 抬头显示系统、方法及车载系统
US20230344975A1 (en) * 2022-04-22 2023-10-26 Faurecia Irystec Inc. System and method for controlling perceptual three-dimensional elements for display
US11902503B1 (en) 2022-11-18 2024-02-13 Rovi Guides, Inc. System and method for preprocessing of focal planes data for rendering

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156876A (ja) * 1998-09-17 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示方法及び装置
JP2010217859A (ja) * 2009-03-17 2010-09-30 Chunghwa Picture Tubes Ltd 深さ融合型ディスプレイ表示方法
WO2014119555A1 (ja) * 2013-01-31 2014-08-07 株式会社ニコン 画像処理装置、表示装置及びプログラム
US20150145977A1 (en) * 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
JP2017529635A (ja) * 2014-06-14 2017-10-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想および拡張現実を作成する方法およびシステム
JP2017229037A (ja) * 2016-06-24 2017-12-28 日本電信電話株式会社 表示装置

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793985A (en) 1996-06-17 1998-08-11 Hewlett-Packard Company Method and apparatus for block-based motion estimation
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
WO2001035154A1 (de) 1999-11-11 2001-05-17 4D-Vision Gmbh Verfahren und anordnung zur dreidimensionalen darstellung
NZ511444A (en) 2001-05-01 2004-01-30 Deep Video Imaging Ltd Information display
JP4130780B2 (ja) 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
US7483488B1 (en) 2002-05-30 2009-01-27 Intervideo, Inc. Systems and methods for improving bit rate control of video encoding by correcting for the effects of scene changes and bit stuffing in a video buffer verifier (VBV) buffer model
JP3862620B2 (ja) 2002-06-28 2006-12-27 キヤノン株式会社 画像処理装置、及び画像処理方法
EP1727352B1 (en) 2004-02-23 2014-05-07 Toa Corporation Image compression method, image compression device, image transmission system, data compression pre-processing device, and computer program
US8094927B2 (en) 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US8717423B2 (en) 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
US8107540B2 (en) 2005-07-11 2012-01-31 Cheetah Technologies, L.P. Image complexity computation in packet based video broadcast systems
WO2008038205A2 (en) 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
US8100539B2 (en) 2007-04-10 2012-01-24 Tunable Optix Corporation 3D imaging system employing electronically tunable liquid crystal lens
US8331663B2 (en) 2007-06-28 2012-12-11 Qualcomm Incorporated Efficient image compression scheme to minimize storage and bus bandwidth requirements
US9866826B2 (en) * 2014-11-25 2018-01-09 Ricoh Company, Ltd. Content-adaptive multi-focal display
US8897595B2 (en) * 2008-03-26 2014-11-25 Ricoh Co., Ltd. Adaptive image acquisition for multiframe reconstruction
WO2009155688A1 (en) * 2008-06-23 2009-12-30 Craig Summers Method for seeing ordinary video in 3d on handheld media players without 3d glasses or lenticular optics
US8184196B2 (en) 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
US8666189B2 (en) 2008-08-05 2014-03-04 Aptina Imaging Corporation Methods and apparatus for flat region image filtering
WO2010036128A2 (en) 2008-08-27 2010-04-01 Puredepth Limited Improvements in and relating to electronic visual displays
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
US8788197B2 (en) 2010-04-30 2014-07-22 Ryan Fink Visual training devices, systems, and methods
US20110273466A1 (en) 2010-05-10 2011-11-10 Canon Kabushiki Kaisha View-dependent rendering system with intuitive mixed reality
US9832441B2 (en) 2010-07-13 2017-11-28 Sony Interactive Entertainment Inc. Supplemental content on a mobile device
US9143699B2 (en) 2010-07-13 2015-09-22 Sony Computer Entertainment Inc. Overlay non-video content on a mobile device
US8730354B2 (en) 2010-07-13 2014-05-20 Sony Computer Entertainment Inc Overlay video content on a mobile device
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US20120128244A1 (en) 2010-11-19 2012-05-24 Raka Singh Divide-and-conquer filter for low-light noise reduction
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
EP2698658B1 (en) 2011-04-15 2018-09-12 Panasonic Corporation Image pickup apparatus, semiconductor integrated circuit and image pickup method
GB201110661D0 (en) 2011-06-23 2011-08-10 Univ Durham Apparatus and method for displaying images
US8432434B2 (en) 2011-07-08 2013-04-30 Mitsubishi Electric Research Laboratories, Inc. Camera and method for focus based depth reconstruction of dynamic scenes
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
NZ700887A (en) 2012-04-05 2016-11-25 Magic Leap Inc Wide-field of view (fov) imaging devices with active foveation capability
KR20130127347A (ko) 2012-05-10 2013-11-22 삼성전자주식회사 아날로그 및 디지털 하이브리드 빔포밍을 통한 통신 방법 및 장치
US9030749B2 (en) 2012-08-01 2015-05-12 Microvision, Inc. Bifocal head-up display system
CN103634588A (zh) 2012-08-27 2014-03-12 联想(北京)有限公司 一种影像构成方法及电子设备
JP2014071207A (ja) 2012-09-28 2014-04-21 Canon Inc 画像処理装置、撮像システム、画像処理システム
US8976323B2 (en) 2013-01-04 2015-03-10 Disney Enterprises, Inc. Switching dual layer display with independent layer content and a dynamic mask
KR102079629B1 (ko) 2013-05-02 2020-02-21 삼성전자주식회사 무선 통신 시스템에서 하이브리드 빔포밍의 복잡도 개선을 위한 방법 및 장치
US9437038B1 (en) 2013-09-26 2016-09-06 Amazon Technologies, Inc. Simulating three-dimensional views using depth relationships among planes of content
US9508173B2 (en) 2013-10-30 2016-11-29 Morpho, Inc. Image processing device having depth map generating unit, image processing method and non-transitory computer redable recording medium
CN107315249B (zh) 2013-11-27 2021-08-17 奇跃公司 虚拟和增强现实系统与方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US9405122B2 (en) 2014-01-29 2016-08-02 Ricoh Co., Ltd Depth-disparity calibration of a binocular optical augmented reality system
NZ722903A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
AU2015227092B2 (en) 2014-03-05 2019-07-04 Arizona Board Of Regents On Behalf Of The University Of Arizona Wearable 3D augmented reality display
US9971153B2 (en) * 2014-03-29 2018-05-15 Frimory Technologies Ltd. Method and apparatus for displaying video data
US9606359B2 (en) 2014-05-15 2017-03-28 Atheer, Inc. Method and apparatus for controlling focal vergence of optical content
KR102258289B1 (ko) 2014-05-22 2021-05-31 삼성전자 주식회사 이차원 배열 안테나를 사용하는 이동통신 시스템에서의 채널 피드백의 생성 및 전송 방법 및 장치
EP3149528B1 (en) 2014-05-30 2023-06-07 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CA3141963A1 (en) 2014-05-30 2015-12-03 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
KR102300532B1 (ko) 2014-09-05 2021-09-13 삼성전자주식회사 빔 포밍 시스템에서 채널 정보 피드백을 위한 방법 및 장치
US9997199B2 (en) 2014-12-05 2018-06-12 Warner Bros. Entertainment Inc. Immersive virtual reality production and playback for storytelling content
WO2016138313A1 (en) * 2015-02-26 2016-09-01 Puredepth Inc. A display interposing a physical object within a three-dimensional volumetric space
WO2016154026A2 (en) 2015-03-20 2016-09-29 Castar, Inc. Retroreflective light field display
WO2017055894A1 (en) 2015-09-30 2017-04-06 Lightspace Technologies Sia Multi-planar volumetric real time three-dimensional display and method of operation
US10187880B2 (en) 2015-12-18 2019-01-22 Futurewei Technologies, Inc. System and method for transmission and reception of control and data channels with group reference signal
US10056057B2 (en) 2016-04-13 2018-08-21 Google Llc Resonant modulation of varifocal liquid membrane lens to provide multiple concurrent focal planes in VR display for realistic focus cues
US10516879B2 (en) * 2016-08-12 2019-12-24 Avegant Corp. Binocular display with digital light path length modulation
AU2017328161B2 (en) * 2016-09-13 2022-02-17 Magic Leap, Inc. Sensory eyewear
FR3057095B1 (fr) 2016-10-03 2019-08-16 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede de construction d'une carte de profondeur d'une scene et/ou d'une image entierement focalisee
CN106875436B (zh) 2016-12-14 2019-10-22 北京信息科技大学 一种基于特征点密度由聚焦堆栈估计深度的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156876A (ja) * 1998-09-17 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示方法及び装置
JP2010217859A (ja) * 2009-03-17 2010-09-30 Chunghwa Picture Tubes Ltd 深さ融合型ディスプレイ表示方法
WO2014119555A1 (ja) * 2013-01-31 2014-08-07 株式会社ニコン 画像処理装置、表示装置及びプログラム
US20150145977A1 (en) * 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
JP2017529635A (ja) * 2014-06-14 2017-10-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想および拡張現実を作成する方法およびシステム
JP2017229037A (ja) * 2016-06-24 2017-12-28 日本電信電話株式会社 表示装置

Also Published As

Publication number Publication date
EP4266113A3 (en) 2023-12-27
WO2019183211A1 (en) 2019-09-26
CN112136324A (zh) 2020-12-25
US20230027251A1 (en) 2023-01-26
EP3769517B1 (en) 2023-09-13
EP3769517A1 (en) 2021-01-27
US20210136354A1 (en) 2021-05-06
MX2020009791A (es) 2020-11-11
EP4266113A2 (en) 2023-10-25
US11477434B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
JP2021518701A (ja) Dibrシステムにおいて立体的視点を生じさせるための、多焦点面ベースの方法(mfp−dibr)
US10460459B2 (en) Stitching frames into a panoramic frame
KR101944050B1 (ko) 파노라마 가상 현실 콘텐츠의 캡쳐 및 렌더링
CN112585963B (zh) 用于2d显示器上的内容的3d感知的近眼焦平面覆盖层的方法和系统
Terzić et al. Methods for reducing visual discomfort in stereoscopic 3D: A review
US9445072B2 (en) Synthesizing views based on image domain warping
CN107105213B (zh) 立体图像显示装置
US8711204B2 (en) Stereoscopic editing for video production, post-production and display adaptation
US20180192033A1 (en) Multi-view scene flow stitching
US9031356B2 (en) Applying perceptually correct 3D film noise
KR20170123666A (ko) 카메라 리그 및 입체 이미지 캡쳐
EP3818695B1 (en) Method and system for forming extended focal planes for large viewpoint changes
CN108141578A (zh) 呈现相机
CN115052139A (zh) 具有变化位置的多焦平面
US20170171534A1 (en) Method and apparatus to display stereoscopic image in 3d display system
CN114080582A (zh) 用于稀疏分布式渲染的系统和方法
Gurrieri et al. Stereoscopic cameras for the real-time acquisition of panoramic 3D images and videos
Chappuis et al. Subjective evaluation of an active crosstalk reduction system for mobile autostereoscopic displays
CN118158376A (zh) 用于近眼焦平面覆盖层的方法和系统
JP2024062935A (ja) 立体視表示コンテンツを生成する方法および装置
CN117203668A (zh) 2d数字图像捕获系统、帧速度和模拟3d数字图像序列
CN108924530A (zh) 一种3d拍摄异常图像校正的方法、装置及移动端
Zilly Method for the automated analysis, control and correction of stereoscopic distortions and parameters for 3D-TV applications: new image processing algorithms to improve the efficiency of stereo-and multi-camera 3D-TV productions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201014

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240319