JP6596510B2 - ステレオレンダリングシステム - Google Patents

ステレオレンダリングシステム Download PDF

Info

Publication number
JP6596510B2
JP6596510B2 JP2017556681A JP2017556681A JP6596510B2 JP 6596510 B2 JP6596510 B2 JP 6596510B2 JP 2017556681 A JP2017556681 A JP 2017556681A JP 2017556681 A JP2017556681 A JP 2017556681A JP 6596510 B2 JP6596510 B2 JP 6596510B2
Authority
JP
Japan
Prior art keywords
eye image
image
eye
view
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017556681A
Other languages
English (en)
Other versions
JP2018533232A (ja
Inventor
ラッセル,アンドリュー・イアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018533232A publication Critical patent/JP2018533232A/ja
Application granted granted Critical
Publication of JP6596510B2 publication Critical patent/JP6596510B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Description

関連出願への相互参照
この出願は、継続出願であり、2015年9月10日に出願された米国特許出願第14/850,114号に対する優先権を主張し、その開示をここに引用により援用する。
分野
実施形態は、ステレオ画像ならびに/またはビデオの左目用および右目用画像および/もしくはビデオをレンダリングすることに関する。
背景
典型的なステレオレンダリングは、カメラの対間の高密度のオプティカルフロー場を計算し、その後3D画像全体にわたってビューポイントを補間することを含む。これは困難であり、半透明の物体など、場合によっては、不可能とみなされることさえある。それは、通常の固体の物体であっても、ほとんどのオプティカルフローアルゴリズムはリアルタイムで実行するには遅すぎるため、困難である。換言すれば、キャプチャされた2D画像から3D画像を補間することは、プロセッサ集中型であり得る。結果として、3D画像および/または3Dビデオをリアルタイムで生成して所望の再生ユーザ経験を達成することは、困難であり得る。したがって、リアルタイムで、および/または画像もしくはビデオがストリーミングされる際に、オプティカルフロー補間なしに3D画像および/または3Dビデオをレンダリングすることが望ましい。
概要
例示的な実施形態は、3D画像および/またはビデオに対するシステムならびに方法を記載する。一般的な態様において、方法は、ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野(a field of view)の指示を受信することと、HMD上に表示されている3D画像に関連付けられる視深度(a depth of view)の指示を受信することと、視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、視深度に基づいて第1の右目用画像と第2の右目用画像とを合成することと、視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、視深度に基づいて第1の左目用画像と第2の左目用画像とを合成することとを備える。
図面の簡単な説明
例示的な実施形態は、以下に与えられる詳細な説明および添付の図面からより充分に理解されることになり、同様の要素は、同様の参照番号によって示されるが、それらは例示のみのために与えられており、したがって例示的な実施形態を限定するものではない。
少なくとも1つの例示的な実施形態による画像および/またはビデオをキャプチャおよびレンダリングするためのシステムのブロック図を示す。 少なくとも1つの例示的な実施形態による画像処理システムのブロック図を示す。 少なくとも1つの例示的な実施形態による画像キャプチャ構成のブロック図の上面視点を示す。 少なくとも1つの例示的な実施形態による画像キャプチャ構成のブロック図の正面視点である。 少なくとも1つの例示的な実施形態による方法のブロック図を示す。 少なくとも1つの例示的な実施形態による、キャプチャされるシーンの左に位置決めされたカメラによってキャプチャされた画像を示す。 少なくとも1つの例示的な実施形態による、キャプチャされるシーンの中央に位置決めされたカメラによってキャプチャされた画像を示す。 少なくとも1つの例示的な実施形態による、キャプチャされるシーンの右に位置決めされたカメラによってキャプチャされた画像を示す。 少なくとも1つの例示的な実施形態による、カメラと同じ面に沿った目で見た同じ画像を示す。 少なくとも1つの例示的な実施形態による、カメラと同じ面に沿った目で見た同じ画像を示す。 人間の視覚系によって視覚化された画像を示す。 人間の視覚系によって視覚化された画像を示す。 人間の視覚系によって視覚化された画像を示す。 少なくとも1つの例示的な実施形態による合成された画像の図を示す。 少なくとも1つの例示的な実施形態による合成された画像の図を示す。 少なくとも1つの例示的な実施形態によるHMDのディスプレイ上に表示された場合の合成された画像に基づく視覚化された画像を示す図である。 少なくとも1つの例示的な実施形態による合成された画像を示す図である。 少なくとも1つの例示的な実施形態による合成された画像を示す図である。 少なくとも1つの例示的な実施形態によるHMDのディスプレイ上に表示されたときの視覚化された画像を示す図である。 少なくとも1つの例示的な実施形態による合成された画像の図を示す。 少なくとも1つの例示的な実施形態による合成された画像の図を示す。 少なくとも1つの例示的な実施形態によるHMDのディスプレイ上に表示されたときの視覚化された画像を示す。 少なくとも1つの例示的な実施形態による遠い視深度での視覚化された画像の並べての比較の図を示す。 少なくとも1つの例示的な実施形態による遠い視深度での視覚化された画像の並べての比較の図を示す。 少なくとも1つの例示的な実施形態による中間の視深度での視覚化された画像の並べての比較の図を示す。 少なくとも1つの例示的な実施形態による中間の視深度での視覚化された画像の並べての比較の図を示す。 少なくとも1つの例示的な実施形態による近い視深度での視覚化された画像の並べての比較の図を示す。 少なくとも1つの例示的な実施形態による近い視深度での視覚化された画像の並べての比較の図を示す。 少なくとも1つの例示的な実施形態によるヘッドマウントディスプレイ(HMD)のブロック図を示す。 少なくとも1つの例示的な実施形態によるヘッドマウントディスプレイ(HMD)のブロック図を示す。 視野の概略表現を示す。 前額面および正中矢状前額面を示す。 目を二等分する前額面に直交する平面を示す。目から点Aまでの注視ベクトルも示されている。 コンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す。
これらの図は、特定の例示的な実施形態において利用される方法、構造および/または材料の一般的特徴を説明し、以下の記述を補足することを意図していることに留意されたい。しかしながら、これらの図面は、縮尺どおりではなく、任意の所与の実施形態の正確な構造または性能特性を精密に反映しない場合があり、例示的実施形態によって包含される値または特性の範囲を規定または限定するものとして解釈されるべきではない。例えば、構造要素の相対的な厚さおよび配置は、明瞭にするために、低減または誇張されるかもしれない。様々な図面において類似または同一の参照番号を使用することは、類似または同一の要素または特徴の存在を示すことを意図している。
実施形態の詳細な説明
例示的な実施形態は、様々な修正物および代替形態を含んでもよく、それらの実施形態は、図面において例として示され、本明細書で詳細に説明される。しかしながら、例示的な実施形態を開示された特定の形態に限定する意図はなく、むしろ、例示的な実施形態は、特許請求の範囲内に入るすべての修正物、均等物および代替物を包含するものであることを理解されたい。同様の番号は、図面の説明を通して同様の要素を指す。
図1は、3D仮想現実(VR)環境における画像および/またはビデオをキャプチャおよびレンダリングするための例示的なシステム100のブロック図である。例示的なシステム100では、カメラリグ102が画像をキャプチャし、ネットワーク104を介して提供するか、または代替的に、画像を分析および処理のために画像処理システム106に直接提供することができる。システム100のいくつかの実現例では、画像処理システム106は、カメラリグ102によってキャプチャされた画像に基づいて、画像および/またはビデオを格納、修正、および/またはストリーミングすることができる。画像処理システム106は、この後、より詳細に説明される。システム100のいくつかの実現例では、モバイルデバイス108は、カメラリグ102として機能して、ネットワーク104全体に画像を提供することができる。画像がキャプチャされると、画像処理システム106は、例えば、ネットワーク104を介してレンダリングするために、画像に対して多数の計算および処理を行い、処理された画像をヘッドマウントディスプレイ(HMD)デバイス110に提供することができる。いくつかの例示的実現例では、画像処理システム106は、処理された画像を、レンダリング、保存、またはさらなる処理のために、モバイルデバイス108および/またはコンピューティングデバイス112に提供することもできる。
HMDデバイス110は、仮想現実ヘッドセット、眼鏡、接眼レンズ、または仮想現実コンテンツを表示することができる他のウェアラブルデバイスを表すことができる。動作中、HMDデバイス110は、受信した画像および/または処理した画像をユーザに再生することができるVRアプリケーション(図示せず)を実行することができる。いくつかの実現例では、VRアプリケーションは、図1に示すデバイス106、108、または112の1つ以上によってホストされることができる。一例では、HMDデバイス110は、カメラリグ102によってキャプチャされたシーンのビデオ再生を提供することができる。別の例では、HMDデバイス110は、単一のシーンにステッチングされた静止画像の再生を提供することができる。
カメラリグ102は、VR環境でコンテンツをレンダリングするために画像データを収集するようカメラ(キャプチャデバイスとも呼ばれ得る)および/または処理装置として使用するために構成することができる。例えば、システム100の機能性を説明するために、図1は、画像をキャプチャするようリグの周りに配置されるカメラなしにカメラリグ102を示す。カメラリグ102の他の実現例は、リグ102などの円形カメラリグの周囲に配置することができる任意の数のカメラを含むことができる。
図1に示すように、カメラリグ102は、ある数のカメラ130と、通信システム132とを含む。カメラ130は、単一のスチルカメラまたは単一のビデオカメラを含むことができる。いくつかの実現例では、カメラ130は、カメラリグ102の外周(例えば、リング)に沿って並んで配置された(例えば座した)複数のスチルカメラまたは複数のビデオカメラを含むことができる。カメラ130は、ビデオカメラ、画像センサ、立体カメラ、赤外線カメラ、モバイルデバイスなどであってもよい。通信システム132は、画像、命令、および/または他のカメラ関連コンテンツをアップロードおよびダウンロードするために使用することができる。通信は、有線でも無線でもよく、プライベートネットワークまたは公衆ネットワークを介してインターフェイスすることができる。
いくつかの実現例では、カメラリグ102は、並列にまたは背中合わせの態様で配置された複数のデジタルビデオカメラを含み、周囲のシーンまたは環境の異なる部分を見るために、それらのレンズが各々径方向外側方向を指すようにする。いくつかの実現例では、複数のデジタルビデオカメラは、視線方向が円形カメラリグ102に接する接線構成で配置される。例えば、カメラリグ102は、複数のデジタルビデオカメラを含むことができ、それらのレンズが各々リグのベースに対して接線方向に配置されながら径方向外側方向を指すように、配置される。デジタルビデオカメラは、周囲のシーンの異なる角度の部分を見るために、異なる方向においてコンテンツをキャプチャするように向けられることができる。
いくつかの実現例では、カメラは、特定の時点でカメラリグ上のカメラからビデオをキャプチャするように同期して機能するように構成(例えば、設定)することができる。いくつかの実現例では、カメラは、ある期間にわたって1つ以上のカメラからビデオの特定の部分をキャプチャするように同期して機能するように構成することができる。カメラリグを較正する他の例は、入力画像がどのように保存されるかを構成することを含むことができる。例えば、入力画像は、個々のフレームまたはビデオ(例えば、.aviファイル、.mpgファイル)として保存することができ、このような保存画像は、インターネット、別のサーバもしくはデバイスにアップロードすることができ、またはカメラリグ102上の各カメラでローカルに保存されてもよい。いくつかの実現例では、入力画像をエンコードされたビデオとして保存することができる。
例示的なシステム100では、デバイス106,108、および112は、ラップトップコンピュータ、デスクトップコンピュータ、モバイルコンピューティングデバイス、またはゲームコンソールであってもよい。いくつかの実現例では、デバイス106,108、および112は、HMDデバイス110内に配置さ(例えば、置かれ/位置さ)れ得るモバイルコンピューティングデバイスであり得る。モバイルコンピューティングデバイスは、例えば、HMDデバイス110のためのスクリーンとして使用することができるディスプレイデバイスを含むことができる。デバイス106,108、および112は、VRアプリケーションを実行するためのハードウェアおよび/またはソフトウェアを含むことができる。さらに、デバイス106,108、および112は、これらのデバイスがHMDデバイス110の前方に置かれているかまたはHMDデバイス110に対してある範囲の位置内に保持されているとき、HMDデバイス110の3D移動を認識し、監視し、追跡することができるハードウェアおよび/またはソフトウェアを含むことができるいくつかの実現例では、デバイス106,108、および112は、ネットワーク104を介してHMDデバイス110に追加のコンテンツを提供することができる。いくつかの実現例では、デバイス102,106,108,110、および112は、ネットワーク104を介してペアになっているかまたは接続されている互いの1つ以上に接続されるかまたはそれ(ら)とインターフェイスされることができる。接続は有線または無線で行うことができる。ネットワーク104は、パブリック通信ネットワークまたはプライベート通信ネットワークとすることができる。
HMD(例えば、HMDデバイス110)において、視聴者は、知覚された3次元(3D)ビデオまたは画像を投影する左(例えば、左目)ディスプレイおよび右(例えば、右目)ディスプレイの使用を通して視覚的仮想現実を体験する。例示的な実施形態によれば、ステレオもしくは3Dビデオまたは画像は、(例えば、カメラリグ102によってキャプチャされた複数の関連付けられる2D画像として)サーバ上に格納される。ビデオまたは画像は、エンコードされ、サーバからHMDにストリーミングされることができる。3Dビデオまたは画像は、左画像および右画像に関するメタデータとともに(例えば、データパケット内に)パッケージ化される左画像および右画像としてエンコードすることができる。次いで、左画像および右画像は、左(例えば、左目)ディスプレイおよび右(例えば、右目)ディスプレイによってデコードおよび表示される。例示的な実施形態によれば、左画像および右画像は、同期キャプチャされた2つ以上の画像に基づいて生成される画像(例えば、1つの画像として合成される)であり得る。例示的な実施形態によれば、左画像および右画像は、視野および/または視深度に基づいて生成される(例えば、1つの画像として合成される)画像であり得る。
本明細書で説明されるシステムおよび方法は、左画像および右画像の両方に適用可能であり、本開示を通して、使用例に応じて、画像、フレーム、画像の一部、フレームの一部、タイルおよび/または同様のものとして言及される。言い換えれば、サーバ(例えば、ストリーミングサーバ)からユーザデバイス(例えば、HMD)に通信され、次いで表示のためにデコードされる、エンコードされたデータは、3Dビデオまたは画像に関連付けられる左画像および/または右画像であり得る。
システム100は、電子記憶部を含むことができる。電子記憶部は、電子的に情報を記憶する非一時的記憶媒体を含むことができる。電子記憶部は、キャプチャされた画像、取得された画像、前処理された画像、後処理された画像などを記憶するように構成されてもよい。開示されるカメラリグのいずれかでキャプチャされた画像は、処理され、1つ以上のビデオストリームとして保存されるか、または個々のフレームとして保存され得る。いくつかの実現例では、保存はキャプチャ中に生じ得るものであり、レンダリングはキャプチャの部分の直後に生じ得るものであり、仮にキャプチャと処理とが同時に行われた場合よりも早く、コンテンツへのより高速なアクセスを可能にする。
図2は、少なくとも1つの例示的な実施形態による画像処理システム106を含む装置200のブロック図を示す。図2に示すように、装置200は、少なくとも1つのメモリ205および少なくとも1つのプロセッサ210を含むことができる。少なくとも1つのメモリ205は、画像処理システム106を含むことができる。画像処理システム106は、少なくとも1つの画像/ビデオソースリポジトリ215、画像選択モジュール220、深度処理モジュール225、および画像合成モジュール230を含むことができる。装置200は、デバイス106,108,110または112の少なくとも1つの要素とすることができる。さらに、装置200の要素は、デバイス106,108,110または112の少なくとも1つの間で分割することができる。例えば、少なくとも1つの画像/ビデオソースリポジトリ215は、画像処理システム106に関連付けられる前述の電子記憶部に含まれてもよく、一方、深度処理モジュール225は、HMD110のサブシステムであってもよい。
少なくとも1つの画像/ビデオソースリポジトリ215は、複数の2Dおよび/もしくは3D画像ならびに/またはビデオを格納するように構成することができる。画像および/またはビデオは、カメラ130によってキャプチャされ、通信モジュール132を使用してカメラリグ102によって少なくとも1つの画像/ビデオソースリポジトリ215に通信されるシーンを表すことができる。画像および/またはビデオは、カメラ位置、視野、画像解像度、キャプチャ時間、フレーム順序などを示す対応するメタデータを有することができる。
画像選択モジュール220は、(例えば、HMD110から受信した)視野の指示に基づいて、画像/ビデオソースリポジトリ215から2D画像を選択するように構成することができる。例えば、画像選択モジュール220は、画像/ビデオソースリポジトリ215から視野に基づいて、2つ以上の右目用画像と2つ以上の左目用画像を選択することができる。2つ以上の右目用画像および2つ以上の左目用画像は、実質的に同じ瞬間に異なるカメラ130によって撮影されたシーンの画像であり得る。この選択は、画像/ビデオソースリポジトリ215に記憶される画像に対する対応するメタデータに基づくことができる。
深度処理モジュール225は、HMD110を使用して画像および/またはビデオを見ているユーザの視深度または焦点深度を判断するように構成することができる。例えば、HMD110は、視深度を判断するよう、および/または視深度を判断することができる測定を行うよう構成された眼球追跡装置(例えば、図12Bに示す第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−R)を含む。例えば、眼球追跡装置は、ユーザの目の瞳孔の位置を測定することができる。眼球追跡装置は、瞳孔の収束を測定し、角度Cを判断することができる(図13A参照)。角度Cを使用して、視深度を判断することができる。
画像合成モジュール230は、HMD110のディスプレイ上でレンダリングするためにHMD110に通信される第3の画像を生成するために、2つ以上の画像を合成するように構成することができる。例えば、2つ以上の左目用画像を合成して、合成された画像が視深度において鮮鋭である(例えば、歪んだりぼけたりしていない)ようにして、左目用画像を生成することができる。合成された画像を生成するために、第1の画像(例えば、カメラ320−1によってキャプチャされたもの)は、第1の画像と同時(または実質的に同時)にキャプチャされた第2の画像(例えば、カメラ320−2によってキャプチャされたもの)に関して、合成された画像の一部が鮮鋭になる(例えば、第1の画像の、深度における部分が、第2の画像の、同じ深度における部分と、実質的に重なる)まで、シフトされ得る。例示的な実施形態では、第1の画像は、2つのカメラ間の距離および角度(例えば、C、図13A参照)に基づいて、ある数の画素分だけシフトされる。別の例示的実現例では、両方の画像は、視野の位置に関連する対応するカメラ位置に基づいて、および合成された画像の一部(視深度に対応する)が鮮鋭になるまで、視野の中心に向かって(例えば、左目の中心に)シフトされる。
図3Aは、少なくとも1つの例示的な実施形態による画像キャプチャ構成のブロック図の上面視点を示す。図3Aに示すように、構成は、画像300の3つの部分を含む。画像300の3つの部分は、画像300の遠方部分305、画像300の中間部分310、および画像300の近方部分315を含む。遠方、中間および近方は、画像300の見る者(例えば、目325−1および325−2を有する)に関連付けられる焦点深度を示す。言い換えれば、画像300の遠方部分305は、観察者から見て比較的遠い焦点深度にあり、画像300の中間部分310は観察者から見て近い焦点深度と遠い焦点深度との間にあり、画像300の近方部分315は、観察者から見て比較的近いまたは接近した焦点深度にある。
図3Bは、少なくとも1つの例示的な実施形態による画像300キャプチャ構成のブロック図の正面視点である。図3Bに示すように、画像300の近方部分315は、画像300の中間部分310の前にあるように示されている。さらに、画像300の遠方部分305は、画像300の近方部分315および画像300の中間部分310の後ろに(および明確にするために上に)示されている。
例示的な実施形態では、3D画像キャプチャは、各々が異なる位置にある複数のカメラを使用することを含むことができる。これは、カメラ320−1,320−2および320−3によって示されている。カメラ320−1,320−2および320−3は、静止画像、ビデオおよび/またはビデオのフレームをキャプチャするように構成されたデジタルカメラとすることができる。
図4は、少なくとも1つの例示的な実施形態による方法のブロック図を示す。図4を参照すると、ステップS405において、視野が判断される。例えば、HMD110は、HMD110ヘッドのユーザの位置または動きを監視する加速度計を含むことができる。例えば、HMD110の外部のデバイス(例えば、カメラおよび/または赤外線センサ)で、HMD110ヘッドのユーザの位置または動きを監視することができる。例えば、HMD110は、注視の方向を判断するように構成された眼球追跡装置(例えば、図12Bに示すような第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−R)を含むことができる。HMD110の位置および/もしくは動きならびに/または注視の方向から、視野を判断することができる。換言すれば、HMD110の位置および/もしくは動きならびに/または注視の方向で、HMD110のユーザが何を見ているか(例えば、視野)を判断することができる。
ステップS410において、視深度が判断される。例えば、HMD110は、視深度を判断するよう、および/または視深度を判断できる測定を行なうよう構成される眼球追跡装置(例えば、第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−R)を含むことができる。例えば、眼球追跡装置は、ユーザの目の瞳孔の位置を測定することができる。眼球追跡装置は、瞳孔の収束を測定し、角度Cを判断することができる(図13A参照)。角度Cを使用して、視深度を判断することができる。深度処理モジュール225は、HMD110から受信される視深度の測定値および/または視深度の指示を使用して、視深度を、それが画像に関連するとおりに判断するように構成することができる。
ステップS415では、視野に基づいて、2つ以上の右目用画像および2つ以上の左目用画像が選択される。例えば、画像は、データ記憶部(例えば、メモリおよび/もしくはデータベース)から、ならびに/またはライブキャプチャに基づいて、選択することができる。例えば、画像選択モジュール220は、左目および右目の各々について、視野の指示に基づいて、画像/ビデオソースリポジトリ215から2D画像を選択することができる。例示的な実現例では、複数のカメラ(例えば、カメラ320−1,320−2,320−3または1230)を使用して、画像および/またはビデオをキャプチャすることができる。左目用の視野は、2つのカメラ(例えば、カメラ320−1および320−2)の間にあり得、右目用の視野は、2つの(例えば、異なる)カメラ(例えば、カメラ320−2および320−3)の間にあり得る。したがって、左目に隣接する各カメラ(例えば、カメラ320−1および320−2)によってキャプチャされた画像が選択され得、右目に隣接する各カメラ(例えば、カメラ320−2および320−3)によってキャプチャされた画像が選択され得る。
ステップS420では、2つ以上の左目用画像および視深度に基づいて左目用画像が生成される。例えば、左目用画像は、(例えば画像合成モジュール230によって、)2つ以上の左目用画像を合成して、合成された画像が視深度において鮮鋭である(例えば、歪んだりぼけたりしていない)ようにして、生成することができる。合成された画像を生成するために、プロセッサ(例えば命令のセットを実行するプロセッサ210)によって、第1の画像(例えば、カメラ320−1によってキャプチャされたもの)を、第1の画像と同時(または実質的に同時)にキャプチャされた第2の画像(例えば、カメラ320−2によってキャプチャされたもの)に関して、合成された画像の一部が鮮鋭になる(例えば、第1の画像の、深度における部分が、第2の画像の、同じ深度における部分と、実質的に重なる)まで、シフトすることができる。例示的な実現例では、第1の画像は、2つのカメラ間の距離および角度(例えば、C、図13A参照)に基づいて、ある数の画素分だけシフトされる。別の例示的実現例では、両方の画像は、合成された画像の一部(視深度に対応する)が鮮鋭になるまで、視野の中心に向かって(例えば、左目の中心に)シフトされる。
次いで、第1の画像と第2の画像とを、シフトに基づいて互いに合成(例えばオーバレイ)することができる。さらに、後処理が行われてもよい。例えば、画像の合成された部分が、第1の画像および/または第2の画像における画像の部分と実質的に同じカラーパレットを有するように、カラーマージまたは調整を実行することができる。例えば、カラー(または画素データ値)オフセットを判断し、合成された画像にわたって適用してもよい。カラーオフセットは、視野の中心からのカメラ距離に基づく加重オフセットであってもよい。
ステップS425では、2つ以上の右目用画像および視深度に基づいて右目用画像を生成する。例えば、右目用画像は、(例えば画像合成モジュール230によって、)2つ以上の右目用画像を合成して、合成された画像が視深度において鮮鋭である(例えば、歪んだりぼけたりしていない)ようにして、生成することができる。合成された画像を生成するために、プロセッサ(例えば命令のセットを実行するプロセッサ210)によって、第1の画像(例えば、カメラ320−2によってキャプチャされたもの)を、第1の画像と同時(または実質的に同時)にキャプチャされた第2の画像(例えば、カメラ320−3によってキャプチャされたもの)に関して、合成された画像の一部が鮮鋭になる(例えば、第1の画像の、深度における部分が、第2の画像の、同じ深度における部分と、実質的に重なる)まで、シフトすることができる。例示的な実現例では、第1の画像は、2つのカメラ間の距離および角度(例えば、C、図13A参照)に基づいて、ある数の画素分だけシフトされる。別の例示的実現例では、両方の画像は、合成された画像の一部(視深度に対応する)が鮮鋭になるまで、視野の中心に向かって(例えば、右目の中心に)シフトされる。
次いで、第1の画像と第2の画像とを、シフトに基づいて互いに合成(例えばオーバレイ)することができる。さらに、後処理が行われてもよい。例えば、画像の合成された部分が、第1の画像および/または第2の画像における画像の部分と実質的に同じカラーパレットを有するように、カラーマージまたは調整を実行することができる。例えば、カラー(または画素データ値)オフセットを判断し、合成された画像にわたって適用してもよい。カラーオフセットは、視野の中心からのカメラ距離に基づく加重オフセットであってもよい。
ステップS430で、HMD110の少なくとも1つのディスプレイに、左目用画像および右目用画像が表示される。例えば、HMD110は、左目に関連付けられる第1のディスプレイと、右目に関連付けられる第2のディスプレイとを有することができる。生成された左目用画像は、第1のディスプレイ上でレンダリングされ、生成された右目用画像は、第2のディスプレイ上でレンダリングされ得る。例示的な実現例では、HMD110は、左目に関連付けられる第1の部分と右目に関連付けられる第2の部分とを含む単一のディスプレイを含むことができる。
図5A、図5Bおよび図5Cは、カメラ320−1,320−2および320−3によってそれぞれキャプチャされた画像300を示す。図6Aおよび図6Bは、それぞれ目325−1および325−2で見たときの画像300を示す。図5Bに示すように、カメラ320−2は、実質的にまっすぐに画像300をキャプチャすることができ、なぜならば、図3Bに示される画像300を図5Bに示される画像300と比較したとき、差が(あったとしても)最小であるからである。対照的に、カメラ320−1によってキャプチャ画像300を図5Aに示す。図から分かるように、画像300は、近方部分315は中間部分310と比較して右に(またはカメラ320−1から離れるように)シフトされ、遠方部分305は中間部分310と比較して左に(またはカメラ320−1に向かって)シフトされた状態で、示されている。さらに、図5Cに示されるように、カメラ320−3によってキャプチャされた画像300は、近方部分315は中間部分310と比較して左に(またはカメラ320−3から離れるように)シフトされ、遠方部分305は中間部分310と比較して右に(またはカメラ320−3に向かって)シフトされた状態で、示されている。
図6Aに示すように、(例えば、目325−2を閉じて見たときに)目325−1によって見られる画像300は、カメラ320−1によってキャプチャされるかまたは図5Aに示されるような画像300と幾分類似している。これにより、図6Aでは、画像300は、近方部分315は中間部分310と比較して右に(または目325−1から離れるように)シフトされ、遠方部分305は中間部分310と比較して左に(または目325−1に向かって)シフトされた状態で、示されている。図6Bに示すように、(例えば、目325−1を閉じて見たときに)目325−2によって見られる画像300は、カメラ320−3によってキャプチャされるかまたは図5Cに示されるような画像300と幾分類似している。これにより、図6Aでは、画像300は、近方部分315は中間部分310と比較して左に(または目325−2から離れるように)シフトされ、遠方部分305は中間部分310と比較して右に(または目325−2に向かって)シフトされた状態で、示されている。
図7A、図7Bおよび図7Cは、人間の視覚系によって視覚化された画像300によって表されるシーンを示す。例えば、図7A、図7Bおよび図7Cは、実時間または現実世界で見た場合の人間の視覚系によって視覚化された画像300を示す。図7Aは、焦点深度が遠い場合に人間の視覚系によって視覚化されるような画像300によって表されるシーンを示す。換言すれば、図7Aは、実時間または現実世界で見た場合の画像300によって表されるシーンの視覚化を示し、目(例えば、目205−1,205−2または325−1,325−2)は、画像300によって表されるシーンの遠方部分305によって表わされるシーンに合焦している。
図7Aに示されるように、画像300の遠方部分305は図3Bに示される通りである。言い換えれば、画像300の遠方部分305は、画像300の近方部分315および画像300の中間部分310の後ろに(および明瞭にするために、上に)示されている。画像300の遠方部分305も、図3Bに示すような形状(例えば、単一の陰影付きの星)である。しかしながら、図7Aに示すように、画像300の近方部分315および画像300の中間部分310は、図3Bに示す画像300の近方部分315および画像300の中間部分310と比較して歪んでいるように示されている。これは、人間の視覚系が1つの焦点深度でしかはっきりと見ることができないためである。
図7Aに示すように、画像300の近方部分315および画像300の中間部分310は、二重視(double vision)部分として示されている。例えば、画像300の近方部分315は、3つの視覚化された近方部分315−1,315−2,315−3に分割される。視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。視覚化された近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された近方部分315−1および315−3は、図3Bに示される画像300の中間部分310と同様の画像300の中間部分310の幅を通り越して画像300の近方部分315の幅を延ばすものとして示されている。視覚化された近方部分315−1および315−3は、実時間または現実世界で見られたときの画像300の近方部分315の二重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の遠方部分305によって表されるシーンに合焦されている。
例えば、画像300の中間部分310は、3つの視覚化された中間部分310−1,310−2および310−3に分割される。視覚化された中間部分310−2は、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された中間部分310−2は、図3Bに示される画像300の中間部分310よりも狭いものとして示されている。視覚化された中間部分310−1および310−3は、図3Bに示される画像300の中間部分310と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された中間部分310−1および310−3は、画像300の中間部分310の幅が図3Bに示される画像300の中間部分310よりも広いように、画像300の中間部分310の幅を拡張するものとして示されている。視覚化された中間部分310−1および310−3は、実時間または現実世界で見られるときの画像300の中間部分310の二重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の遠方部分305によって表されるシーンに合焦されている。
図7Bは、焦点深度が中間である場合に人間の視覚系によって視覚化される画像300によって表されるシーンを示す。換言すれば、図7Bは、実時間または現実世界で見た場合の画像300によって表されるシーンの視覚化を示し、目(例えば、目205−1,205−2または325−1,325−2)は、画像300によって表されるシーンの中間部分310によって表わされるシーンに合焦している。
図7Bに示されるように、画像300の中間部分310は図3Bに示される通りである。言い換えれば、画像300の中間部分310は、画像300の近方部分315の後ろおよび画像300の遠方部分305の前に示されている。図7Bの画像300の中間部分310も、図3Bに示すような形状(例えば、格子陰影付きの矩形)およびサイズである。しかしながら、図7Bに示すように、画像300の近方部分315および遠方部分305は、図3Bに示す画像300の近方部分315および画像300の遠方部分305と比較して歪んでいるように示されている。これは、人間の視覚系が1つの焦点深度でしかはっきりと見ることができないためである。
図7Bに示すように、画像300の近方部分315および画像300の遠方部分305は、二重視部分として示されている。例えば、画像300の近方部分315は、3つの視覚化された近方部分315−1,315−2,315−3に分割される。視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。視覚化された近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された近方部分315−1および315−3は、図3Bに示される画像300の中間部分310と同様の画像300の中間部分310の幅を通り越して画像300の近方部分315の幅を延ばすものとして示されている。視覚化された近方部分315−1および315−3は、実時間または現実世界で見られたときの画像300の近方部分315の二重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の中間部分310によって表されるシーンに合焦されている。
例えば、画像300の遠方部分305は、2つの視覚化された遠方部分305−1および305−2に分割される。図7Bに示される視覚化された遠方部分305−1および305−2は、図3Bに示される画像300の遠方部分305と比較して、同じ形状(例えば星)およびより明るい陰影を有するものとして示されている。視覚化された遠方部分305−1および305−2は、実時間または現実世界で見られるときの画像300の遠方部分305の二重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の中間部分310によって表されるシーンに合焦されている。
図7Cは、焦点深度が近い場合に人間の視覚系によって視覚化される画像300によって表されるシーンを示す。換言すれば、図7Cは、実時間または現実世界で見た場合の画像300によって表されるシーンの視覚化を示し、目(例えば、目205−1,205−2または325−1,325−2)は、画像300によって表されるシーンの近方部分315によって表わされるシーンに合焦している。
図7Cに示されるように、画像300の近方部分315は図3Bに示される通りである。言い換えれば、画像300の近方部分315は、画像300の中間部分310の前および画像300の遠方部分305の前にあるように示されている。図7Cの画像300の近方部分315も、図3Bに示すような形状(例えば、点描陰影付きの矩形)およびサイズである。しかしながら、図7Cに示すように、画像300の中間部分310および画像300の遠方部分305は、図3Bに示す画像300の中間部分310および画像300の遠方部分305と比較して歪んでいるように示されている。これは、人間の視覚系が1つの焦点深度でしかはっきりと見ることができないためである。
図7Cに示すように、画像300の中間部分310および画像300の遠方部分305は、二重視部分として示されている。例えば、画像300の中間部分310は、3つの視覚化された中間部分310−1,310−2および310−3に分割される。視覚化された中間部分310−2は、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された中間部分310−2は、図3Bに示される画像300の中間部分310よりも狭いものとして示されている。視覚化された中間部分310−1および310−3は、図3Bに示される画像300の中間部分310と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された中間部分310−1および310−3は、画像300の中間部分310の幅が図3Bに示される画像300の中間部分310よりも広いように、画像300の中間部分310の幅を拡張するものとして示されている。視覚化された中間部分310−1および310−3は、実時間または現実世界で見られるときの画像300の中間部分310の二重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の近方部分315によって表されるシーンに合焦されている。
例えば、画像300の遠方部分305は、2つの視覚化された遠方部分305−1および305−2に分割される。図7Cに示される視覚化された遠方部分305−1および305−2は、図3Bに示される画像300の遠方部分305と比較して、同じ形状(例えば星)およびより明るい陰影を有するものとして示されている。視覚化された遠方部分305−1および305−2は、実時間または現実世界で見られるときの画像300の遠方部分305の二重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の近方部分315によって表されるシーンに合焦されている。
図7A、図7B、および図7Cに示す例は、互いとも比較され得る。例えば、前述の二重視部分は、焦点深度が視覚化から遠いほど大きな歪みを有するものとして示されている。例えば、図7Bは、画像300の中間部分310によって表されるシーンに焦点を合わせたときの画像300を示し、図7Cは、画像300の近方部分315によって表されるシーンに焦点を合わせたときの画像300を示す。したがって、画像300の遠方部分305によって表されるシーンと比較した焦点深度は、図7Bにおいてよりも図7Cにおいての方がより遠く離れて示されている。したがって、図7Cおよび図7Bに示す視覚化された遠方部分305−1および305−2は、異なる位置で示されている。例えば、図7Bに示す視覚化された遠方部分305−1および305−2は、図7Cに示された視覚化された遠方部分305−1および305−2と比較して、互いにより近く(例えば、歪みが少なく)、実質的に中間部分310の幅内にある。同様の分析が、焦点が画像300の中間部分310および遠方部分305によって表されるシーンにあるときに対して、行なわれることができる。
図8Aおよび図8Bは、少なくとも1つの例示的な実施形態による合成された画像の図を示す。図8Aは、カメラ320−1および320−2によってキャプチャされた画像300を合成することに基づく合成された画像805を示す。合成された画像805は、画像300の遠方部分305に基づいた焦点深度で合成されて示されている。言い換えれば、合成された画像805は、2つの異なる視野からの画像300の組み合わせである。図8Aに示すように、合成された画像805の遠方部分305は、図3Bに示される画像300の遠方部分305と実質的に同様である。言い換えれば、図8Aにおいては、合成された画像805の遠方部分305は、近方部分315および中間部分310の後ろに(および明瞭にするために、上に)示されている。合成された画像805の遠方部分305も、図3Bに示すような形状(例えば、単一の陰影付きの星)である。しかしながら、図8Aにおいては、合成された画像805の遠方部分305は、図3Bに示される画像300の遠方部分305と比較して左にシフトされて示されている。代替的に、近方部分315および中間部分310は、右にシフトされて示されている。さらに、図8Aに示すように、近方部分315および中間部分310は、図3Bに示す画像300の近方部分315および画像300の中間部分310と比較して歪んでいるように示されている。
図8Aに示すように、近方部分315および中間部分310は、二重視部分として示されている。例えば、近方部分315は、3つの近方部分315−1,315−2,315−3に分割される。合成された画像805の近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている(例えば、歪んでいない)。しかしながら、合成された画像805の近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。合成された画像805の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像805の近方部分315−1および315−3は、図3Bに示される画像300の中間部分310と同様の画像300の中間部分310の幅を通り越して画像300の近方部分315の幅を延ばすものとして示されている。合成された画像805の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、右にシフトされるように示されている。
例えば、中間部分310は、3つの中間部分310−1,310−2および310−3に分割される。合成された画像805の中間部分310−2は、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、合成された画像805の中間部分310−2は、図3Bに示される画像300の中間部分310よりも狭いものとして示されている。合成された画像805の中間部分310−1および310−3は、図3Bに示される画像300の中間部分310と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像805の中間部分310−1および310−3は、画像300の中間部分310の幅が図3Bに示される画像300の中間部分310よりも広いように、画像300の中間部分310の幅を拡張するものとして示されている。合成された画像805の中間部分310−1および310−3は、図3Bに示す画像300の近方部分315と比較して、合成された画像805の近方部分315−1および315−3のシフトよりわずかに小さいシフトで、右側にシフトして示されている(例えば、合成された画像805の近方部分315−2は中間部分310−2の右境界を通り過ぎて延在し、これは図7Aに示されたものとは異なる)。
図8Bは、カメラ320−2および320−3によってキャプチャされた画像300を合成することに基づく合成された画像810を示す。合成された画像810は、画像300の遠方部分305に基づいた焦点深度で合成されて示されている。言い換えれば、合成された画像810は、2つの異なる視野からの画像300の組み合わせである。図8Bに示すように、合成された画像810の遠方部分305は、図3Bに示される画像300の遠方部分305と実質的に同様である。言い換えれば、図8Bにおいては、合成された画像810の遠方部分305は、近方部分315および中間部分310の後ろに(および明瞭にするために、上に)示されている。合成された画像810の遠方部分305も、図3Bに示すような形状(例えば、単一の陰影付きの星)である。しかしながら、図8Bにおいては、合成された画像805の遠方部分305は、図3Bに示される画像300の遠方部分305と比較して右にシフトされて示されている。代替的に、近方部分315および中間部分310は、左にシフトされて示されている。さらに、図8Bに示すように、近方部分315および中間部分310は、図3Bに示す画像300の近方部分315および画像300の中間部分310と比較して歪んでいるように示されている。
図8Bに示すように、近方部分315および中間部分310は、二重視部分として示されている。例えば、近方部分315は、3つの近方部分315−1,315−2,315−3に分割される。合成された画像810の近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている(例えば、歪んでいない)。しかしながら、合成された画像810の近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。合成された画像810の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像810の近方部分315−1および315−3は、図3Bに示される画像300の中間部分310と同様の画像300の中間部分310の幅を通り越して画像300の近方部分315の幅を延ばすものとして示されている。合成された画像810の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、左にシフトされるように示されている。
例えば、中間部分310は、3つの中間部分310−1,310−2および310−3に分割される。合成された画像810の中間部分310−2は、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、合成された画像810の中間部分310−2は、図3Bに示される画像300の中間部分310よりも狭いものとして示されている。合成された画像810の中間部分310−1および310−3は、図3Bに示される画像300の中間部分310と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像810の中間部分310−1および310−3は、画像300の中間部分310の幅が図3Bに示される画像300の中間部分310よりも広いように、画像300の中間部分310の幅を拡張するものとして示されている。合成された画像810の中間部分310−1および310−3は、図3Bに示す画像300の近方部分315と比較して、合成された画像810の近方部分315−1および315−3のシフトよりわずかに小さいシフトで、左側にシフトして示されている(例えば、合成された画像810の近方部分315−2は中間部分310−1の左境界を通り過ぎて延在し、これは図7Aに示されたものとは異なる)。
合成された画像(例えば合成された画像805および/または合成された画像810)を生成するために、プロセッサ(例えば命令のセットを実行するプロセッサ210)によって、第1の画像(例えば、カメラ320−1によってキャプチャされたもの)を、第1の画像と同時(または実質的に同時)にキャプチャされた第2の画像(例えば、カメラ320−2によってキャプチャされたもの)に関して、合成された画像の一部(例えば遠方部分305)が鮮鋭になる(例えば、第1の画像の部分が第2の画像の部分と実質的に重なる)まで、シフトすることができる。例示的な実現例では、第1の画像は、2つのカメラ間の距離および角度(例えば、C、図13A参照)に基づいて、ある数の画素分だけシフトされる。これに代えて、またはそれに加えて、プロセッサは、(例えば、カメラ320−1によってキャプチャされた)第1の画像内の画像の一部(例えば、遠方部分305)の位置を、第1の画像と同じ(または実質的に同じ)時間にキャプチャされた(例えば、カメラ320−2によってキャプチャされた)第2の画像内の画像の同じ部分(例えば、遠方部分305)の位置と一致させることができる。次いで、一致させた位置に基づいて、第1の画像をシフトすることができる。
次いで、第1の画像と第2の画像とを、シフトに基づいて互いに合成(例えばオーバレイ)することができる。さらに、後処理が行われてもよい。例えば、画像の合成された部分が、第1の画像および/または第2の画像における画像の部分と実質的に同じカラーパレットを有するように、カラーマージまたは調整を実行することができる。例えば、カラー(または画素データ値)オフセットを判断し、合成された画像にわたって適用してもよい。
図8Cは、少なくとも1つの例示的な実施形態によるHMDのディスプレイ上に表示され(および見られ)たときの視覚化された画像815を示す。例えば、合成された画像805および合成された画像810を、それぞれ、図1Bに示すHMD150のディスプレイ105−Lおよびディスプレイ105−Rに表示することができる。視覚化された画像815は、人間の視覚系によって、完全両眼オーバーラップ視野1320および/または両眼オーバーラッピング視野の高解像度領域1325(図13A参照)で視覚化されるように知覚される画像であり得る。換言すれば、図8Cは、合成された画像805および810を使用してHMDを通してレンダリングされ見られる際に画像300によって表されるシーンの視覚化を示す。さらに、合成された画像805および810を使用することによって、知覚された3D画像は、キャプチャされた2D画像から3D画像を補間することなくレンダリングされる。
図8Cに示すように、視覚化された画像815の遠方部分305は、図3Bに示される画像300の遠方部分305と実質的に同様である。言い換えれば、視覚化された画像815の遠方部分305は、視覚化された画像815の近方部分315および視覚化された画像815の中間部分310の後ろに(および明瞭にするために、上に)示されている。視覚化された画像815の遠方部分305も、図3Bに示すような画像300の遠方部分305と同じ形状(例えば、単一の陰影付きの星)である。しかしながら、図8Cに示すように、視覚化された画像815の近方部分315および視覚化された画像815の中間部分310は、図3Bに示す画像300の近方部分315および画像300の中間部分310と比較して歪んでいるように示されている。これは、人間の視覚系が1つの焦点深度でしかはっきりと見ることができないためである。
図8Cに示すように、視覚化された画像815の近方部分315および視覚化された画像815の中間部分310は、三重視(triple vision)部分として示されている。例えば、視覚化された画像815の近方部分315は、5つの視覚化された近方部分315−1,315−2,315−3,315−4および315−5に分割される。視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。視覚化された近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された近方部分315−4および315−5は、視覚化された近方部分315−1および315−3と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された近方部分315−1,315−3,315−4および315−5は、図3Bに示される画像300の中間部分310と同様の視覚化された画像815の中間部分310の幅を通り越して視覚化された画像815の近方部分315−2の幅を延ばすものとして示されている。視覚化された近方部分315−1,315−3,315−4および315−5は、合成された画像805および810を用いてHMDを通して見られたときの画像300の近方部分315の三重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の遠方部分305で合焦されている。
例えば、視覚化された画像815の中間部分310は、5つの視覚化された中間部分315−1,315−2a,315−2b,315−3,および315−4に分割される。視覚化された画像815の視覚化された中間部分315−2aおよび315−2bは、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された中間部分310−2aおよび310−2bはそれらの間に歪み部分310−4を有するものとして示されており、一方、図3Bに示される画像300の中間部分310は連続的である。視覚化された画像815の視覚化された中間部分310−1および310−3は、図3Bに示される画像300の中間部分310と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された画像815の視覚化された中間部分310−1および310−3は、画像300の中間部分310の幅が図3Bに示される画像300の中間部分310よりも広いように、画像300の中間部分310の幅を拡張するものとして示されている。視覚化された画像815の視覚化された中間部分310−1、310−3および310−5は、合成された画像805および810を用いてHMDを通して見られたときの画像300の中間部分310の三重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の遠方部分305で合焦されている。
図9Aおよび図9Bは、少なくとも1つの例示的な実施形態による合成された画像の図を示す図である。図9Aは、カメラ320−1および320−2によってキャプチャされた画像300を合成することに基づく合成された画像905を示す。合成された画像905は、画像300の中間部分310に基づいた焦点深度で合成されて示されている。言い換えれば、合成された画像905は、2つの異なる視野からの画像300の組み合わせである。図9Aに示すように、合成された画像905の中間部分310は、図3Bに示される画像300の中間部分310と実質的に同様である。言い換えれば、図9Aにおいては、合成された画像905の中間部分310は、近方部分315の後ろおよび遠方部分305の前に示されている。合成された画像905の中間部分310も、図3Bに示すような形状(例えば、格子陰影付きの矩形)およびサイズである。しかしながら、図9Aにおいては、合成された画像905の中間部分310は、図3Bに示される画像300の中間部分310と比較して左にシフトされて示されている。代替的に、近方部分315および遠方部分305は、右にシフトされて示されている。さらに、図9Aに示すように、近方部分315および遠方部分305は、図3Bに示す画像300の近方部分315および画像300の遠方部分305と比較して歪んでいるように示されている。
図9Aに示すように、近方部分315および遠方部分305は、二重視部分として示されている。例えば、近方部分315は、3つの近方部分315−1,315−2,315−3に分割される。合成された画像905の近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている(例えば、歪んでいない)。しかしながら、合成された画像905の近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。合成された画像905の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像905の近方部分315−1および315−3は、図3Bに示される画像300の中間部分310と同様の画像300の中間部分310の幅を通り越して画像300の近方部分315の幅を延ばすものとして示されている。合成された画像905の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、右にシフトされるように示されている。
例えば、遠方部分305は、2つの遠方部分305−1および305−2に分割される。図9Aに示される遠方部分305−1および305−2は、図3Bに示される画像300の遠方部分305と比較して、同じ形状(例えば星)およびより明るい陰影を有するものとして示されている。合成された画像905の遠方部分305−1および305−2は、図3Bに示される画像300の近方部分315と比較して、右にシフトされるように示されている。
図9Bは、カメラ320−2および320−3によってキャプチャされた画像300を合成することに基づく合成された画像910を示す。合成された画像910は、画像300の中間部分310に基づいた焦点深度で合成されて示されている。言い換えれば、合成された画像910は、2つの異なる視野からの画像300の組み合わせである。図9Bに示すように、合成された画像910の中間部分310は、図3Bに示される画像300の中間部分310と実質的に同様である。言い換えれば、図9Bにおいては、合成された画像910の中間部分310は、近方部分315の後ろおよび遠方部分305の前に示されている。合成された画像910の遠方部分305も、図3Bに示すような形状(例えば、格子陰影付きの矩形)およびサイズである。しかしながら、図9Bにおいては、合成された画像910の中間部分310は、図3Bに示される画像300の中間部分310と比較して右にシフトされて示されている。代替的に、近方部分315および遠方部分305は、左にシフトされて示されている。さらに、図9Bに示すように、近方部分315および遠方部分305は、図3Bに示す画像300の近方部分315および画像300の遠方部分305と比較して歪んでいるように示されている。
図9Bに示すように、近方部分315および遠方部分305は、二重視部分として示されている。例えば、近方部分315は、3つの近方部分315−1,315−2,315−3に分割される。合成された画像910の近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている(例えば、歪んでいない)。しかしながら、合成された画像910の近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。合成された画像910の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像910の近方部分315−1および315−3は、図3Bに示される画像300の中間部分310と同様の画像300の中間部分310の幅を通り越して画像300の近方部分315の幅を延ばすものとして示されている。合成された画像910の近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、左にシフトされるように示されている。
例えば、遠方部分305は、2つの遠方部分305−1および305−2に分割される。図9Bに示される遠方部分305−1および305−2は、図3Bに示される画像300の遠方部分305と比較して、同じ形状(例えば星)およびより明るい陰影を有するものとして示されている。合成された画像910の遠方部分305−1および305−2は、図3Bに示される画像300の近方部分315と比較して、左にシフトされるように示されている。
合成された画像(例えば合成された画像905および/または合成された画像910)を生成するために、プロセッサ(例えば命令のセットを実行するプロセッサ210)によって、第1の画像(例えば、カメラ320−1によってキャプチャされたもの)を、第1の画像と同時(または実質的に同時)にキャプチャされた第2の画像(例えば、カメラ320−2によってキャプチャされたもの)に関して、合成された画像の一部(例えば中間部分310)が鮮鋭になる(例えば、第1の画像の部分が第2の画像の部分と実質的に重なる)まで、シフトすることができる。例示的な実現例では、第1の画像は、2つのカメラ間の距離および角度(例えば、C、図2A参照)に基づいて、ある数の画素分だけシフトされる。これに代えて、またはそれに加えて、プロセッサは、(例えば、カメラ320−1によってキャプチャされた)第1の画像内の画像の一部(例えば、中間部分310)の位置を、第1の画像と同じ(または実質的に同じ)時間にキャプチャされた(例えば、カメラ320−2によってキャプチャされた)第2の画像内の画像の同じ部分(例えば、遠方部分305)の位置と一致させることができる。次いで、一致させた位置に基づいて、第1の画像をシフトすることができる。
次いで、第1の画像と第2の画像とを、シフトに基づいて互いに合成(例えばオーバレイ)することができる。さらに、後処理が行われてもよい。例えば、画像の合成された部分が、第1の画像および/または第2の画像における画像の部分と実質的に同じカラーパレットを有するように、カラーマージまたは調整を実行することができる。例えば、カラー(または画素データ値)オフセットを判断し、合成された画像にわたって適用してもよい。
図9Cは、少なくとも1つの例示的な実施形態によるHMDのディスプレイ上に表示され(および見られ)たときの視覚化された画像915を示す。例えば、合成された画像905および合成された画像910を、それぞれ、図1Bに示すHMD150のディスプレイ105−Lおよびディスプレイ105−Rに表示することができる。視覚化された画像915は、人間の視覚系によって、完全両眼オーバーラップ視野1320および/または両眼オーバーラッピング視野の高解像度領域1325(図13A参照)で視覚化されるように知覚される画像であり得る。換言すれば、図9Cは、合成された画像905および910を使用してHMDを通してレンダリングされ見られる際に画像300によって表されるシーンの視覚化を示す。さらに、合成された画像905および910を使用することによって、知覚された3D画像は、キャプチャされた2D画像から3D画像を補間することなくレンダリングされる。
図9Cに示すように、視覚化された画像915の中間部分310は、図3Bに示される画像300の中間部分310と実質的に同様である。言い換えれば、図9Cにおいては、視覚化された画像915の中間部分310は、近方部分315の後ろおよび遠方部分305の前に示されている。視覚化された画像915の中間部分310も、図3Bに示すような形状(例えば、格子陰影付きの矩形)およびサイズである。しかしながら、図9Cに示すように、視覚化された画像915の近方部分315および視覚化された画像915の遠方部分305は、図3Bに示す画像300の近方部分315および画像300の遠方部分305と比較して歪んでいるように示されている。これは、人間の視覚系が1つの焦点深度でしかはっきりと見ることができないためである。
図9Cに示すように、視覚化された画像915の近方部分315および視覚化された画像915の遠方部分305は、三重視部分として示されている。例えば、視覚化された画像915の近方部分315は、5つの視覚化された近方部分315−1,315−2,315−3,315−4および315−5に分割される。視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された近方部分315−2は、図3Bに示される画像300の近方部分315よりも狭いものとして示されている。視覚化された近方部分315−1および315−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された近方部分315−4および315−5は、視覚化された近方部分315−1および315−3と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された近方部分315−1,315−3,315−4および315−5は、図3Bに示される画像300の中間部分310と同様の視覚化された画像915の中間部分310の幅を通り越して視覚化された画像915の近方部分315−2の幅を延ばすものとして示されている。視覚化された近方部分315−1,315−3,315−4および315−5は、合成された画像905および910を用いてHMDを通して見られたときの画像300の近方部分315の三重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の遠方部分305で合焦されている。
例えば、視覚化された画像915の遠方部分305は、3つの視覚化された遠方部分305−1,305−2および305−3に分割される。視覚化された画像915の視覚化された遠方部分305−2は、図3Bに示された画像300の遠方部分305と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された画像915の視覚化された遠方部分305−1および305−3は、図3Bに示される画像300の遠方部分305と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された画像915の視覚化された遠方部分305−1および305−3は、合成された画像905および910を用いてHMDを通して見られたときの画像300の遠方部分305の三重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の遠方部分305で合焦されている。
図10Aおよび図10Bは、少なくとも1つの例示的な実施形態による合成された画像の図を示す。図10Aは、カメラ320−1および320−2によってキャプチャされた画像300を合成することに基づく合成された画像1005を示す。合成された画像1005は、画像300の近方部分315に基づいた焦点深度で合成されて示されている。言い換えれば、合成された画像1005は、2つの異なる視野からの画像300の組み合わせである。図10Aに示すように、合成された画像1005の近方部分315は、図3Bに示される画像300の近方部分315と実質的に同様である。言い換えれば、図10Aにおいては、合成された画像1005の中間部分315は、中間部分310の前および遠方部分305の前にあるように示されている。合成された画像1005の近方部分315も、図3Bに示すような形状(例えば、点描陰影付きの矩形)およびサイズである。しかしながら、図10Aにおいては、合成された画像1005の近方部分315は、図3Bに示される画像300の近方部分315と比較して右にシフトされて示されている。代替的に、中間部分310および遠方部分305は、左にシフトされて示されている。さらに、図10Aに示すように、中間部分310および遠方部分305は、図3Bに示す画像300の中間部分310および画像300の遠方部分305と比較して歪んでいるように示されている。
図10Aに示すように、中間部分310および遠方部分305は、二重視部分として示されている。例えば、中間部分310は、3つの中間部分310−1,310−2および310−3に分割される。合成された画像1005の中間部分310−2は、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、合成された画像1005の中間部分310−2は、図3Bに示される画像300の中間部分310よりも狭いものとして示されている。合成された画像1005の中間部分310−1および310−3は、図3Bに示される画像300の中間部分310と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像1005の中間部分310−1および310−3は、画像300の中間部分310の幅が図3Bに示される画像300の中間部分310よりも広いように、画像300の中間部分310の幅を拡張するものとして示されている。合成された画像1005の中間部分310−1,310−2,310−3は、左側にシフトして示されている。
例えば、遠方部分305は、2つの遠方部分305−1および305−2に分割される。図10Aに示される遠方部分305−1および305−2は、図3Bに示される画像300の遠方部分305と比較して、同じ形状(例えば星)およびより明るい陰影を有するものとして示されている。合成された画像1005の遠方部分305−1および305−2は、図3Bに示される画像300の近方部分315と比較して、左にシフトされるように示されている。
図10Bは、カメラ320−2および320−3によってキャプチャされた画像300を合成することに基づく合成された画像1010を示す。合成された画像1010は、画像300の近方部分315に基づいた焦点深度で合成されて示されている。言い換えれば、合成された画像1010は、2つの異なる視野からの画像300の組み合わせである。図10Bに示すように、合成された画像1010の近方部分315は、図3Bに示される画像300の近方部分315と実質的に同様である。言い換えれば、図10Bにおいては、合成された画像1010の近方部分315は、中間部分310の前および遠方部分305の前にあるように示されている。合成された画像1010の近方部分315も、図3Bに示すような形状(例えば、点描陰影付きの矩形)およびサイズである。しかしながら、図10Bにおいては、合成された画像1010の近方部分315は、図3Bに示される画像300の近方部分315と比較して左にシフトされて示されている。代替的に、中間部分310および遠方部分305は、右にシフトされて示されている。さらに、図10Bに示すように、中間部分310および遠方部分305は、図3Bに示す画像300の中間部分310および画像300の遠方部分305と比較して歪んでいるように示されている。
図10Bに示すように、中間部分310および遠方部分305は、二重視部分として示されている。例えば、中間部分310は、3つの中間部分310−1,310−2および310−3に分割される。合成された画像1010の中間部分310−2は、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、合成された画像1010の中間部分310−2は、図3Bに示される画像300の中間部分310よりも狭いものとして示されている。合成された画像1010の中間部分310−1および310−3は、図3Bに示される画像300の中間部分310と比較して、同じ形状およびより明るい陰影を有するものとして示されている。合成された画像1010の中間部分310−1および310−3は、画像300の中間部分310の幅が図3Bに示される画像300の中間部分310よりも広いように、画像300の中間部分310の幅を拡張するものとして示されている。合成された画像1005の中間部分310−1,310−2,310−3は、右側にシフトして示されている。
例えば、遠方部分305は、2つの遠方部分305−1および305−2に分割される。図10Bに示される遠方部分305−1および305−2は、図3Bに示される画像300の遠方部分305と比較して、同じ形状(例えば星)およびより明るい陰影を有するものとして示されている。合成された画像1010の遠方部分305−1および305−2は、図3Bに示される画像300の近方部分315と比較して、右にシフトされるように示されている。
合成された画像(例えば合成された画像1005および/または合成された画像1010)を生成するために、プロセッサ(例えば命令のセットを実行するプロセッサ210)によって、第1の画像(例えば、カメラ320−1によってキャプチャされたもの)を、第1の画像と同時(または実質的に同時)にキャプチャされた第2の画像(例えば、カメラ320−2によってキャプチャされたもの)に関して、合成された画像の一部(例えば近方部分315)が鮮鋭になる(例えば、第1の画像の部分が第2の画像の部分と実質的に重なる)まで、シフトすることができる。例示的な実現例では、第1の画像は、2つのカメラ間の距離および角度(例えば、C、図2A参照)に基づいて、ある数の画素分だけシフトされる。これに代えて、またはそれに加えて、プロセッサは、(例えば、カメラ320−1によってキャプチャされた)第1の画像内の画像の一部(例えば、近方部分315)の位置を、第1の画像と同じ(または実質的に同じ)時間にキャプチャされた(例えば、カメラ320−2によってキャプチャされた)第2の画像内の画像の同じ部分(例えば、近方部分315)の位置と一致させることができる。次いで、一致させた位置に基づいて、第1の画像をシフトすることができる。
次いで、第1の画像と第2の画像とを、シフトに基づいて互いに合成(例えばオーバレイ)することができる。さらに、後処理が行われてもよい。例えば、画像の合成された部分が、第1の画像および/または第2の画像における画像の部分と実質的に同じカラーパレットを有するように、カラーマージまたは調整を実行することができる。例えば、カラー(または画素データ値)オフセットを判断し、合成された画像にわたって適用してもよい。
図10Cは、少なくとも1つの例示的な実施形態によるHMDのディスプレイ上に表示され(および見られ)たときの視覚化された画像1015を示す。例えば、合成された画像1005および合成された画像1010を、それぞれ、図1Bに示すHMD150のディスプレイ105−Lおよびディスプレイ105−Rに表示することができる。視覚化された画像1015は、人間の視覚系によって、完全両眼オーバーラップ視野1320および/または両眼オーバーラッピング視野の高解像度領域1325(図13A参照)で視覚化されるように知覚される画像であり得る。換言すれば、図10Cは、合成された画像1005および1010を使用してHMDを通してレンダリングされ見られる際に画像300によって表されるシーンの視覚化を示す。さらに、合成された画像1005および1010を使用することによって、知覚された3D画像は、キャプチャされた2D画像から3D画像を補間することなくレンダリングされる。
図10Cに示すように、視覚化された画像1015の中間部分310は、図3Bに示される画像300の近方部分315と実質的に同様である。言い換えれば、図10Cにおいては、視覚化された画像1015の近方部分315は、中間部分310の前および遠方部分305の前にあるように示されている。視覚化された画像1015の近方部分315も、図3Bに示すような形状(例えば、点描陰影付きの矩形)およびサイズである。しかしながら、図10Cに示すように、視覚化された画像1015の中間部分310および視覚化された画像915の遠方部分305は、図3Bに示す画像300の近方部分315および画像300の遠方部分305と比較して歪んでいるように示されている。これは、人間の視覚系が1つの焦点深度でしかはっきりと見ることができないためである。
図10Cに示すように、視覚化された画像1015の中間部分310および視覚化された画像1015の遠方部分305は、三重視部分として示されている。例えば、視覚化された画像1015の中間部分310は、5つの視覚化された中間部分315−1,315−2,315−3,315−4,および315−5に分割される。視覚化された中間部分310−2は、図3Bに示された画像300の中間部分310と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された中間部分310−2は、図3Bに示される画像300の中間部分310よりも狭いものとして示されている。視覚化された中間部分310−1および310−3は、図3Bに示される画像300の近方部分315と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された中間部分310−4および310−5は、視覚化された中間部分310−1および310−3と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された中間部分310−1,310−3,310−4および310−5は、図3Bに示される画像300の中間部分310と同様の視覚化された画像915の中間部分310の幅を通り越して視覚化された画像915の中間部分310−2の幅を延ばすものとして示されている。視覚化された中間部分310−1,310−3,310−4および310−5は、合成された画像1005および1010を用いてHMDを通して見られたときの画像300の近方部分315の三重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の近方部分315で合焦されている。
例えば、視覚化された画像1015の遠方部分305は、3つの視覚化された遠方部分305−1,305−2および305−3に分割される。視覚化された画像1015の視覚化された遠方部分305−2は、図3Bに示された画像300の遠方部分305と同じ形状および陰影を有するものとして示されている。しかしながら、視覚化された画像1015の視覚化された遠方部分305−1および305−3は、図3Bに示される画像300の遠方部分305と比較して、同じ形状およびより明るい陰影を有するものとして示されている。視覚化された画像915の視覚化された遠方部分305−1および305−3は、合成された画像1005および1010を用いてHMDを通して見られたときの画像300の遠方部分305の三重視部分を表すことができ、目(例えば、目205−1,205−2または325−1,325−2)は、画像300の近方部分315で合焦されている。
図11Aおよび図11Bは、少なくとも1つの例示的な実施形態による遠い視深度での視覚化された画像の並べての比較の図を示す。図11Aに示す視覚化された画像300は、図7Aに示されている同じ視覚化された画像300である。したがって、図11Aに示す視覚化された画像300は、上記において図7Aに関して記載されている。図11Bに示す視覚化された画像815は、図8Cに示されている同じ視覚化された画像815である。したがって、図11Bに示す視覚化された画像815は、上記において図8Cに関して記載されている。図11Aに示す視覚化された画像300は、図3Bに示す画像300に対応するシーンを見るときに人間の視覚系が実際に見るであろうものに対応することができる。図11Bに示す視覚化された画像815は、例示的な実施形態による、合成された画像805および810を使用してHMD上にレンダリングされる、図3Bに示す画像300に対応する3D画像を見るときに、人間の視覚系が実際に見るであろうものに対応することができる。
図11Aに示す視覚化された画像300を図11Bの視覚化された画像815と比較すると、視覚化された画像の焦点深度における部分は実質的に同じである。換言すれば、図11Aに示す画像300の遠方部分305は、図11Bに示される画像815の遠方部分305と実質的に同じである。図11Aに示す画像300の中間部分310および近方部分315は、図11Bに示される画像815の中間部分310および近方部分315とは異なる。例えば、図11Aに示す画像300の中間部分310および近方部分315は二重にされ、図11Bに示す画像815の中間部分310および近方部分315は三重にされる。図11Aに示される視覚化された画像300と図11Bに示すレンダリングされた視覚化された画像815との間の相違は許容可能であり、なぜならば、人間の視覚系は1つの焦点深度でしかはっきりと見ることができないためである。
図11Cおよび図11Dは、少なくとも1つの例示的な実施形態による中間の視深度での視覚化された画像の並べての比較の図を示す。図11Cに示す視覚化された画像300は、図7Bに示されている同じ視覚化された画像300である。したがって、図11Cに示す視覚化された画像300は、上記において図7Bに関して記載されている。図11Dに示す視覚化された画像915は、図9Cに示されている同じ視覚化された画像915である。したがって、図11Dに示す視覚化された画像915は、上記において図9Cに関して記載されている。図11Cに示す視覚化された画像300は、図3Bに示す画像300に対応するシーンを見るときに人間の視覚系が実際に見るであろうものに対応することができる。図11Dに示す視覚化された画像915は、例示的な実施形態による、合成された画像905および910を使用してHMD上にレンダリングされる、図3Bに示す画像300に対応する3D画像を見るときに、人間の視覚系が実際に見るであろうものに対応することができる。
図11Cに示す視覚化された画像300を図11Dの視覚化された画像915と比較すると、視覚化された画像の焦点深度における部分は実質的に同じである。換言すれば、図11Cに示す画像300の中間部分310は、図11Dに示される画像915の中間部分310と実質的に同じである。図11Cに示す画像300の遠方部分305および近方部分315は、図11Dに示される画像915の遠方部分305および近方部分315とは異なる。例えば、図11Cに示す画像300の遠方部分305および近方部分315は二重にされ、図11Dに示す画像915の遠方部分305および近方部分315は三重にされる。図11Cに示される視覚化された画像300と図11Dに示すレンダリングされた視覚化された画像915との間の相違は許容可能であり、なぜならば、人間の視覚系は1つの焦点深度でしかはっきりと見ることができないためである。
図11Eおよび図11Fは、少なくとも1つの例示的な実施形態による近い視深度での視覚化された画像の並べての比較の図を示す。図11Eに示す視覚化された画像300は、図7Cに示されている同じ視覚化された画像300である。したがって、図11Eに示す視覚化された画像300は、上記において図7Cに関して記載されている。図11Fに示す視覚化された画像1015は、図10Cに示されている同じ視覚化された画像1015である。したがって、図11Fに示す視覚化された画像1015は、上記において図10Cに関して記載されている。図11Eに示す視覚化された画像300は、図3Bに示す画像300に対応するシーンを見るときに人間の視覚系が実際に見るであろうものに対応することができる。図11Fに示す視覚化された画像1015は、例示的な実施形態による、合成された画像1005および1010を使用してHMD上にレンダリングされる、図3Bに示す画像300に対応する3D画像を見るときに、人間の視覚系が実際に見るであろうものに対応することができる。
図11Eに示す視覚化された画像300を図11Fの視覚化された画像1015と比較すると、視覚化された画像の焦点深度における部分は実質的に同じである。換言すれば、図11Eに示す画像300の近方部分315は、図11Fに示される画像1015の近方部分315と実質的に同じである。図11Eに示す画像300の遠方部分305および中間部分310は、図11Fに示される画像1015の遠方部分305および中間部分310とは異なる。例えば、図11Eに示す画像300の遠方部分305および中間部分310は二重にされ、図11Fに示す画像1015の遠方部分305および中間部分310は三重にされる。図11Eに示される視覚化された画像300と図11Fに示すレンダリングされた視覚化された画像1015との間の相違は許容可能であり、なぜならば、人間の視覚系は1つの焦点深度でしかはっきりと見ることができないためである。
図12Aは、少なくとも1つの例示的な実施形態によるヘッドマウントディスプレイ(HMD)のブロック図を示す。図12Aに示すように、HMD1200は、ディスプレイ1205と、ディスプレイの第1の部分1210と、ディスプレイの第2の部分1215とを含む。ディスプレイの第1の部分1210は、目が焦点を合わせられるディスプレイ1205の一部またはHMD1200のユーザの視野であってもよい。ディスプレイの第2の部分1215は、ディスプレイ1205の目の焦点の周辺の部分またはHMD1200のユーザの周辺景であり得る。
例示的な実施形態によれば、2D画像および/またはビデオの2Dフレームを、3D画像および/または3Dビデオをレンダリングするために眼球追跡センサを使用して目の視野および視深度を追跡することに基づいて、HMDの各ディスプレイ上に表示するために選択し得る。結果として、HMDのユーザは、キャプチャされた2D画像から3D画像を補間することなく3D体験を有する。
図12Bは、少なくとも1つの例示的な実施形態によるヘッドマウントディスプレイ(HMD)のブロック図を示す。図12Bに示すように、HMD1250は、第1のディスプレイ1205−Lと、第2のディスプレイ1205−Rと、第1の眼球追跡センサ1220−Lと、第2の眼球追跡センサ1220−Rとを含む。第1のディスプレイ1205−Lは、ディスプレイの第1の部分1210−Lとディスプレイの第2の部分1215−Lとを含み得る。ディスプレイの第1の部分1210−Lは、第1のディスプレイ1205−Lの目が焦点を合わせられる部分またはHMD1250のユーザの視野であり得る。ディスプレイの第2の部分1215−Lは、第1のディスプレイ1205−Lの目の焦点の周辺の一部またはHMD1250のユーザの周辺景であり得る。第2のディスプレイ1205−Rは、ディスプレイの第1の部分1210−Rおよびディスプレイの第2の部分1215−Rを含み得る。ディスプレイの第1の部分1210−Rは、第2のディスプレイ1205−Rの目が焦点を合わせられる部分またはHMD1250のユーザの視野であり得る。ディスプレイの第2の部分1215−Rは、第2のディスプレイ1205−Rの目の焦点の周辺の一部またはHMD1250のユーザの周辺景であり得る。
第1のディスプレイ1205−Lの第1のディスプレイ部分1210−Lおよび第2のディスプレイ1205−Rの第1のディスプレイ部分1210−Rは、両眼オーバーラップの高解像度領域に関連付けられる視野内に画像および/またはビデオデータを表示するように構成することができる(以下により詳細に後述する)。第1のディスプレイ1205−Lの第2のディスプレイ部分1215−Lおよび第2のディスプレイ1205−Rの第2のディスプレイ部分1215−Rは、より低い解像度を含む両眼オーバーラップのさらなる領域を含む、両眼オーバーラップの高解像度領域の外部または周辺の視野に、画像および/またはビデオを表示するように構成することができる。第1のディスプレイ1205−Lは、左目に関連付けることができ、左目用画像を3D画像またはビデオで表示するように構成することができる。第2のディスプレイ1205−Rは、右目に関連付けることができ、右目用画像を3D画像またはビデオで表示するように構成することができる。別の実施形態では、第1のディスプレイ1205−Lおよび第2のディスプレイ1205−Rは、左右の画像を含む2つの部分に分割された画像を示すことができる1つの一体型ディスプレイパネルから形成される。
第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−Rは、対応する目の位置を追跡するように構成することができる。第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−Rは、カメラ、赤外線センサ、それらの組み合わせなどであってもよい。例示的実施例では、第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−Rは、低出力の赤外光をユーザの目に投射するように構成することができる。次いで、反射された赤外光を検出することができ、反射された赤外光の測定(例えば、プルキンエ像として)を用いて、目の位置を判断することができる。別の例示的実現例では、注視の方向を、環境光条件下で瞳孔の位置を目の残りの部分に対して突きとめることによって判断することができる。第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−Rは、HMD上の点に対するユーザの注視の絶対方向および/または各眼球運動時の瞳孔の角変位を測定することができる。
例示的な実現例では、第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−Rを使用して、注視の方向(本開示では視点(view perspective)とも呼ばれる)およびHMDのユーザの注視の深度を判断することができる。注視の方向および注視の深度を用いて、第1のディスプレイ1205−Lおよび第2のディスプレイ1205−Rの各々に表示されるべき画像を判断することができる。
図13Aは、水平視野の上面図からの概略図を示す。図13Aに示すように、瞳孔1330−1,1330−2を含む目1305−1,1305−2(例えば、人間の目)は、左視野1310および右視野1315を視覚的に知覚することができる。左視野1310および右視野1315内で、目1305−1,1305−2は、120度と同じ大きさであってもよい完全両眼オーバーラップ視野1320を視覚的に知覚することができる。完全両眼オーバーラップのサブ領域は、両眼オーバーラップ視野の高解像度領域1325と呼ぶことができる。図13Bに示すように(および本記載を通じて)、以下において正中矢状前額面である垂直面が、頭部を目の間で二分し、以下において垂直前額面である垂直面が、目1305−1,1305−2を二等分する位置において、正中矢状面に直交して頭部と交差する。図13Cは、目1305−1,1305−2に対して左右方向(水平方向)に延び、かつ目を二等分する水平面を示している。図13Cにおけるこの平面は、水平前額面と呼んでもよい。図13Bおよび図13Cに定義された3つの平面は、左目の中心から右目の中心まで延びる線分の中点で交差することができる。
中心窩は、最高解像度を知覚する各目1305−1,1305−2の網膜の中央部分である。注視の方向(正中矢状面に平行なベクトルGによって示される)は、中心窩の中心から瞳孔の中心を通るベクトルによって規定されてもよい。目1305−1および目1305−2のいずれも、注視の方向が完全な水平視野1310または1315を走査することを可能にするように十分には回転しない。したがって、目1305−1,1305−2の回転限界を超える像は、(このような像は網膜の他の部分によって見られるが)中心窩によって見ることはできない。
中心窩は小さい弧のみに対するが、目の回転はディスプレイが中心窩の解像度と一致すべき角度の範囲を広げることができることに注目すべきである。ユーザの目が動いて注視の方向が変化するとき、中心窩と一致する解像度が、快適な注視走査の範囲にわたって望ましい。快適な注視走査の範囲は、図13AのベクトルGに対して任意の方向に約15度である。注視は、走査角度がベクトルGから15度を超えて増加するにつれて、漸進的に不快感を増しながら、より大きな角度にわたって走査し得る。
(図13Cを参照しながら)HMDのある例示的実現例では、すべての水平角度(例えば、θのような水平前額面に沿った角度)を、(例えば、第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−Rを用いて、)矢状方向前額面(例えば、目の間に中心を配される頭部の対称性の面)に対して測定することができる。左視野1310の領域および右視野1315の領域は、片目ごとに120度程度であり得る部分的な両眼の重なりを有する供給された画像であり得る左目および右目の視野を表す(例えば、完全両眼オーバーラップ視野1320領域であり、人間の視覚系における重なりと一致する)。両眼オーバーラップ視野の高解像度領域1325は、左および右ディスプレイ(例えば、ディスプレイ105−Lおよびディスプレイ105−R)によって供給されることができる。
このように、目1305−1,1305−2は、両眼オーバーラップ視野の高解像度領域1325(およびある程度、完全両眼オーバーラップ視野1320領域)において左右の目の視野を表す左右のディスプレイに投影される(またはそれらによって表示される)画像を選択することに基づいて3D画像を視覚化することができる。言い換えれば、完全両眼オーバーラップ視野1320領域における表示のために画像を選択することは、人間の視覚系における重なりに合致することができ、その結果、人間の視覚系は、3D画像および/または3Dビデオを視覚化する。以下でより詳細に説明するように、注視の深度を用いて、人間の視覚系をより現実的に表現することができる。
ある例示的実現例によれば、各目に対するディスプレイ上に投影するための画像は、図13Cに示される点Aおよび角度θに関して示される注視の方向に基づくことができる。次いで、各画像は、図13Aに示される角度Cに基づく視界の深度によって修正され得る。例えば、点A、角度θおよび角度Cは、第1の眼球追跡センサ1220−Lおよび第2の眼球追跡センサ1220−Rを使用して取得された測定値に基づいて判断することができる。点A、角度θおよび/または角度Cは、上述した視野および/または視深度を判断するために使用することができる。例えば、角度Cは、視深度を示すことができ、角度θと組み合わされた点Aは、視野を示すことができる。
図14は、ここに記載される技術とともに用いられてもよいコンピュータデバイス1400およびモバイルコンピュータデバイス1450の例を示す。コンピューティングデバイス1400は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータといった、様々な形態のデジタルコンピュータを表わすことを意図している。コンピューティングデバイス1450は、携帯情報端末、セルラー電話、スマートフォン、および他の同様のコンピューティングデバイスといった、様々な形態のモバイルデバイスを表わすことを意図している。ここに示すコンポーネント、それらの接続および関係、ならびにそれらの機能は例示であることが意図されているに過ぎず、本文書に記載のおよび/または請求項に記載の本発明の実現例を限定することを意図していない。
コンピューティングデバイス1400は、プロセッサ1402、メモリ1404、記憶装置1406、メモリ1404および高速拡張ポート1410に接続している高速インターフェイス1408、ならびに低速バス1414および記憶装置1406に接続している低速インターフェイス1412を含む。コンポーネント1402,1404,1406,1408,1410および1412の各々は様々なバスを用いて相互に接続されており、共通のマザーボード上にまたは他の態様で適宜搭載され得る。プロセッサ1402は、コンピューティングデバイス1400内で実行される命令を処理可能であり、この命令には、GUIのためのグラフィック情報を高速インターフェイス1408に結合されているディスプレイ1416などの外部入出力デバイス上に表示するためにメモリ1404内または記憶装置1406上に記憶されている命令が含まれる。他の実現例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数種類のメモリとともに必要に応じて用いられ得る。また、複数のコンピューティングデバイス1400が接続され得、各デバイスは(例えばサーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の一部を提供する。
メモリ1404は情報をコンピューティングデバイス1400内に記憶する。一実現例では、メモリ1404は1つまたは複数の揮発性メモリユニットである。別の実現例では、メモリ1404は1つまたは複数の不揮発性メモリユニットである。また、メモリ1404は、磁気ディスクまたは光ディスクといった別の形態のコンピュータ読取可能媒体であってもよい。
記憶装置1406は、コンピューティングデバイス1400に大容量記憶を提供可能である。一実現例では、記憶装置1406は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、またはストレージエリアネットワークもしくは他のコンフィギュレーションにおけるデバイスを含む多数のデバイスといった、コンピュータ読取可能媒体であってもよく、または当該コンピュータ読取可能媒体を含んでいてもよい。コンピュータプログラムプロダクトが情報媒体内に有形に具体化され得る。また、コンピュータプログラムプロダクトは、実行されると上述のような1つ以上の方法を実行する命令を含み得る。情報媒体は、メモリ1404、記憶装置1406、またはプロセッサ1402上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体である。
高速コントローラ1408はコンピューティングデバイス1400のための帯域幅集約的な動作を管理するのに対して、低速コントローラ1412はより低い帯域幅集約的な動作を管理する。そのような機能の割当ては例示に過ぎない。一実現例では、高速コントローラ1408はメモリ1404、ディスプレイ1416に(例えばグラフィックスプロセッサまたはアクセラレータを介して)、および様々な拡張カード(図示せず)を受付け得る高速拡張ポート1410に結合される。当該実現例では、低速コントローラ1412は記憶装置1406および低速拡張ポート1414に結合される。様々な通信ポート(例えばUSB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、キーボード、ポインティングデバイス、スキャナ、またはスイッチもしくはルータといったネットワーキングデバイスなどの1つ以上の入出力デバイスに、例えばネットワークアダプタを介して結合され得る。
コンピューティングデバイス1400は、図に示すように多数の異なる形態で実現されてもよい。例えば、コンピューティングデバイス1400は標準的なサーバ1420として、またはそのようなサーバのグループ内で複数回実現されてもよい。また、コンピューティングデバイス1400はラックサーバシステム1424の一部として実現されてもよい。さらに、コンピューティングデバイス1400はラップトップコンピュータ1422などのパーソナルコンピュータにおいて実現されてもよい。あるいは、コンピューティングデバイス1400からのコンポーネントは、デバイス1450などのモバイルデバイス(図示せず)内の他のコンポーネントと組合されてもよい。そのようなデバイスの各々がコンピューティングデバイス1400,1450の1つ以上を含んでいてもよく、システム全体が、互いに通信する複数のコンピューティングデバイス1400,1450で構成されてもよい。
コンピューティングデバイス1450は、数あるコンポーネントの中でも特に、プロセッサ1452、メモリ1464、ディスプレイ1454などの入出力デバイス、通信インターフェイス1466、およびトランシーバ1468を含む。また、デバイス1450には、マイクロドライブまたは他のデバイスなどの記憶装置が提供されて付加的なストレージが提供されてもよい。コンポーネント1450,1452,1464,1454,1466および1468の各々は様々なバスを用いて相互に接続されており、当該コンポーネントのいくつかは共通のマザーボード上にまたは他の態様で適宜搭載され得る。
プロセッサ1452は、メモリ1464に記憶されている命令を含む、コンピューティングデバイス1450内の命令を実行可能である。プロセッサは、別個の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実現されてもよい。プロセッサは、例えば、ユーザインターフェイス、デバイス1450が実行するアプリケーション、およびデバイス1450による無線通信の制御といった、デバイス1450の他のコンポーネントの協調を提供し得る。
プロセッサ1452は、ディスプレイ1454に結合された制御インターフェイス1458およびディスプレイインターフェイス1456を介してユーザと通信し得る。ディスプレイ1454は、例えば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)もしくはOLED(有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であり得る。ディスプレイインターフェイス1456は、ディスプレイ1454を駆動してグラフィックおよび他の情報をユーザに提示するための適切な回路を含み得る。制御インターフェイス1458はユーザからコマンドを受信し、当該コマンドをプロセッサ1452に提出するために変換し得る。さらに、外部インターフェイス1462が、デバイス1450と他のデバイスとの隣接通信を可能にするために、プロセッサ1452と通信した状態で提供されてもよい。外部インターフェイス1462は、例えば、ある実現例では有線通信を提供し、他の実現例では無線通信を提供してもよく、また、複数のインターフェイスが用いられてもよい。
メモリ1464は情報をコンピューティングデバイス1450内に記憶する。メモリ1464は、1つもしくは複数のコンピュータ読取可能媒体、1つもしくは複数の揮発性メモリユニット、または1つもしくは複数の不揮発性メモリユニットの1つ以上として実現され得る。さらに、拡張メモリ1474が提供され、例えばSIMM(Single In Line Memory Module)カードインターフェイスを含み得る拡張インターフェイス1472を介してデバイス1450に接続されてもよい。このような拡張メモリ1474はデバイス1450に余分のストレージスペースを提供し得るか、またはデバイス1450のためのアプリケーションもしくは他の情報をさらに記憶し得る。具体的には、拡張メモリ1474は上述のプロセスを実行または補足するための命令を含み得、さらにセキュア情報を含み得る。ゆえに、例えば、拡張メモリ1474はデバイス1450のためのセキュリティモジュールとして提供されてもよく、デバイス1450のセキュアな使用を許可する命令でプログラムされてもよい。さらに、ハッキング不可能なようにSIMMカード上に識別情報を置くといったように、セキュアなアプリケーションが付加的な情報とともにSIMMカードを介して提供されてもよい。
メモリは、以下に記載のように、例えばフラッシュメモリおよび/またはNVRAMメモリを含み得る。一実現例では、コンピュータプログラムプロダクトが情報媒体内に有形に具体化される。コンピュータプログラムプロダクトは、実行されると上述のような1つ以上の方法を実行する命令を含む。情報媒体は、メモリ1464、拡張メモリ1474、またはプロセッサ1452上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体であり、これは、例えばトランシーバ1468または外部インターフェイス1462上で受信され得る。
デバイス1450は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス1466を介して無線通信し得る。通信インターフェイス1466は、とりわけ、GSM(登録商標)音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSといった、様々なモードまたはプロトコル下の通信を提供し得る。そのような通信は、例えば無線周波数トランシーバ1468を介して起こり得る。さらに、ブルートゥース、Wi−Fi、または他のそのようなトランシーバ(図示せず)を用いるなどして、短距離通信が起こり得る。さらに、GPS(全地球測位システム)レシーバモジュール1470が付加的なナビゲーション関連および位置関連の無線データをデバイス1450に提供し得、当該データはデバイス1450上で実行されるアプリケーションによって適宜用いられ得る。
また、デバイス1450は、ユーザから口頭情報を受信して当該情報を使用可能なデジタル情報に変換し得る音声コーデック1460を用いて可聴的に通信し得る。音声コーデック1460も同様に、例えばデバイス1450のハンドセット内で、スピーカを介すなどしてユーザに可聴音を生成し得る。そのような音は音声電話からの音を含んでいてもよく、録音された音(例えば音声メッセージ、音楽ファイル等)を含んでいてもよく、さらに、デバイス1450上で実行されるアプリケーションが生成する音を含んでいてもよい。
コンピューティングデバイス1450は、図に示すように多数の異なる形態で実現されてもよい。例えば、コンピューティングデバイス1450はセルラー電話1480として実現されてもよい。また、コンピューティングデバイス1450は、スマートフォン1482、携帯情報端末、または他の同様のモバイルデバイスの一部として実現されてもよい。
一般的な局面において、方法は、ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、HMD上に表示されている3D画像に関連付けられる視深度の指示を受信することと、視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、視深度に基づいて第1の右目用画像と第2の右目用画像とを合成することと、視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、視深度に基づいて第1の左目用画像と第2の左目用画像とを合成することとを備える。
別の一般的な局面において、方法は、ヘッドマウントディスプレイ(HMD)に3次元(3D)ビデオをストリーミングすることを含む。3Dビデオの各フレームは、左目用画像と右目用画像とを含む。方法は、さらに、後続フレームを生成することを含み、後続フレームを生成することは、3Dビデオに関連付けられる視野を判断することと、3Dビデオに関連付けられる視深度を判断することと、視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、第1の右目用画像と第2の右目用画像とを視深度に基づいて右目用画像として合成することと、視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、第1の左目用画像と第2の左目用画像とを視深度に基づいて左目用画像として合成することとを含む。
さらに別の一般的な局面において、コンピュータ実行可能なプログラムコードを記憶する非一時的なコンピュータ読取可能記憶媒体であって、前記プログラムコードは、コンピュータシステム上で実行されると、前記コンピュータシステムにステップを実行させる。それらのステップは、ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、HMD上に表示されている3D画像に関連付けられる視深度の指示を受信することと、視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、視深度に基づいて第1の右目用画像と第2の右目用画像とを合成することと、視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、視深度に基づいて第1の左目用画像と第2の左目用画像とを合成することとを含む。
実施形態は、以下の特徴の1つ以上をそれらの1つ以上の組み合わせで含むことができる。例えば、第1の右目用画像および第2の右目用画像を選択することは、HMDのユーザの右目位置を判断することと、右目位置の右に位置する第1のカメラによって撮影された画像として第1の右目用画像を選択することと、右目位置の左に位置する第2のカメラによって撮影された画像として第2の右目用画像を選択することとを含み得る。
例えば、第1の左目用画像および第2の左目用画像を選択することは、HMDのユーザの左目位置を判断することと、左目位置の右に位置する第1のカメラによって撮影された画像として第1の左目用画像を選択することと、左目位置の左に位置する第2のカメラによって撮影された画像として第2の左目用画像を選択することとを含み得る。第1の右目用画像、第2の右目用画像、第1の左目用画像および第2の左目用画像は、実質的に同じ瞬間にキャプチャされた複数の画像から選択され得る。第1の右目用画像と第2の右目用画像とを合成することは、視深度に基づいて合成された画像の一部が鮮鋭になるまで、第1の右目用画像を第2の右目用画像に対してシフトさせることを含み得る。第1の右目用画像と第2の右目用画像とを合成することは、視深度に基づいて合成された画像の一部が鮮鋭になるまで、第1の右目用画像および第2の右目用画像の両方を視野の中心に向かってシフトさせることを含み得る。
例えば、第1の右目用画像と第2の右目用画像とを合成することは、合成された画像の一部が第1の右目用画像および第2の右目用画像の少なくとも1つの対応する部分と実質的に同じカラーパレットを有するようにカラーマージすることを含み得る。第1の右目用画像と第2の右目用画像とを合成することは、視野の中心からのカメラ距離に関連付けられる加重オフセットに基づくカラーオフセットを使用してカラーマージすることを含み得る。第1の左目用画像、第2の左目用画像、第1の左目用画像および第2の左目用画像は、実質的に同じ瞬間にキャプチャされた複数の画像から選択され得る。第1の左目用画像と第2の左目用画像とを合成することは、視深度に基づいて合成された画像の一部が鮮鋭になるまで、第1の左目用画像を第2の左目用画像に対してシフトさせることを含み得る。
例えば、第1の左目用画像と第2の左目用画像とを合成することは、視深度に基づいて合成された画像の一部が鮮鋭になるまで、第1の左目用画像および第2の左目用画像の両方を視野の中心に向かってシフトさせることを含み得る。第1の左目用画像と第2の左目用画像とを合成することは、合成された画像の一部が第1の左目用画像および第2の左目用画像の少なくとも1つの対応する部分と実質的に同じカラーパレットを有するように、合成された画像をカラーマージすることを含み得る。第1の左目用画像と第2の左目用画像とを合成することは、視野の中心からのカメラ距離に関連付けられる加重オフセットに基づくカラーオフセットを使用して、合成された画像をカラーマージすることを含み得る。
例えば、第1の右目用画像および第2の右目用画像を選択することは、HMDのユーザの右目位置を判断することと、右目位置の右に位置する第1のカメラによって撮影された画像として第1の右目用画像を選択することと、右目位置の左に位置する第2のカメラによって撮影された画像として第2の右目用画像を選択することとを含み得る。例えば、第1の左目用画像および第2の左目用画像を選択することは、HMDのユーザの左目位置を判断することと、左目位置の右に位置する第1のカメラによって撮影された画像として第1の左目用画像を選択することと、左目位置の左に位置する第2のカメラによって撮影された画像として第2の左目用画像を選択することとを含み得る。
本明細書に記載のシステムおよび技術の様々な実現例は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せで実現され得る。これらの様々な実現例は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能な1つ以上のコンピュータプログラムにおける実現例を含んでいてもよく、当該プロセッサは専用であっても汎用であってもよく、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信するように、かつこれらにデータおよび命令を送信するように結合されている。本明細書で説明されるシステムおよび技術の様々な実現例は、ソフトウェアおよびハードウェアの態様を組み合わせることができる回路、モジュール、ブロック、もしくはシステムとして実現され、および/または一般に本明細書で言及され得る。例えば、モジュールは、プロセッサ(例えば、シリコン基板、GaAs基板などの上に形成されたプロセッサ)または他のプログラム可能なデータ処理装置上で実行する機能/動作/コンピュータプログラム命令を含むことができる。
上記の例示的な実施形態のうちのいくつかはフローチャートとして示される処理または方法として記載される。フローチャートは動作をシーケンシャルな処理として記載しているが、動作の多くは、並列、同時または一斉に行なわれ得る。さらに、動作の順序は再構成され得る。処理は、それらの動作が完成すると、終了し得るが、当該図に含まれていない付加的なステップを有し得る。これらの処理は、メソッド、ファンクション、プロシージャ、サブルーチン、サブプログラムなどに対応し得る。
いくつかがフローチャートによって示されている上で論じた方法は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語またはその任意の組合せによって実現され得る。ソフトウェア、ファームウェア、ミドルウェアまたはマイクロコードにおいて実現されると、必要なタスクを実行するプログラムコードまたはコードセグメントは、記憶媒体のような機械読取可能媒体またはコンピュータ読取可能媒体に格納され得る。プロセッサは必要なタスクを実行し得る。
本願明細書において開示される特定の構造的および機能的な詳細は単に、例示的な実施形態を説明する目的のための代表的なものである。しかしながら、例示的な実施形態は、多くの代替的な形態で具現化され、本願明細書において記載される実施形態のみに限定されると解釈されるべきでない。
第1、第2などといった用語は、本願明細書において様々な要素を記載するために使用され得るが、これらの要素はこれらの用語によって限定されるべきでないということが理解されるであろう。これらの用語は単に、1つの要素を別の要素と区別するために使用されている。例えば、例示的な実施形態の範囲から逸脱することがなければ、第1の要素は、第2の要素と称することが可能であり、同様に、第2の要素を第1の要素と称することが可能である。本願明細書において使用されるように、「および/または」という用語は、関連付けられる列挙された項目の1つ以上のいずれかおよびすべての組合せを含む。
ある要素が別の要素に接続または結合されると称される場合、ある要素は直接的に他の要素に接続または結合され得るか、または、介在要素が存在し得るということが理解されるであろう。対照的に、ある要素が別の要素に直接的に接続または直接的に結合されると称される場合、介在要素は存在しない。要素同士の関係を説明するように用いられる他の単語は、類似の態様(例えば、「間に」と「直接的に間に」、「隣接」と「直接的に隣接」、など)で解釈されるべきである。
本願明細書において使用される用語は単に特定の実施形態を説明するためのものであり、例示的な実施形態に限定するようには意図されない。本願明細書において使用されるように、「ある(a, an)」および「その(the)」といった単数形は、文脈が別の態様を明白に示していなければ、複数形も含むように意図される。「備える(comprises, comprising)」および/または「含む(includes, including)」という用語は、本願明細書において使用される場合、言及された特徴、整数、ステップ、動作、要素および/またはコンポーネントの存在を特定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、コンポーネントおよび/またはそのグループの存在または追加を排除しないということがさらに理解されるであろう。
さらに、いくつかの代替的な実現例では、言及された機能/動作が、図に示される順番とは異なって行われ得る。例えば、連続して示される2つの図は実際には、関連する機能/動作に依存して、同時に実行されてもよく、または、時には逆の順序で実行されてもよい。
別の態様で規定されていなければ、本願明細書において使用されるすべての用語(技術用語および科学用語を含む)は、例示的な実施形態が属する技術の当業者によって一般に理解されるのと同じ意味を有する。さらに、例えば、一般に用いられている辞書において規定されている用語のような用語は、関連技術の文脈にあるそれらの意味と一致する意味を有すると解釈されるべきであり、理想化または過度に形式的な意味で、本願明細書においてそのように明らかに規定されていなければ、解釈されないということが理解されるであろう。
ソフトウェアまたはアルゴリズム、および、コンピュータメモリ内でのデータビットに対する動作の記号的な表現に関して、上記の例示的な実施形態および対応する詳細な説明の部分が提示される。これらの記載および表現は、当業者が、他の当業者に自身の成果の実体を有効に伝えるものである。ここで使用される場合および一般的に使用される場合のアルゴリズムという用語は、所望の結果に至るステップの首尾一貫したシーケンスであると考えられる。ステップは、物理量の物理的な操作を必要とするものである。必ずではなく通常は、これらの量は、格納、転送、組み合わせ、比較、および別の態様で操作されることが可能である光学信号、電気信号、または磁気信号の形態を取る。これらの信号をビット、値、要素、記号、文字、項、または数字などと称することは、主に一般的な使用の理由により、時に簡便であると理解されている。
上記の例示的な実施形態において、プログラムモジュールまたは機能的処理として実現され得る(例えばフローチャートの形態での)行為および動作の記号的表現への参照は、特定のタスクを実行または特定の抽象データタイプを実現するとともに既存の構造要素において既存のハードウェアを使用して記述および/または実現され得るルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。そのような既存のハードウェアは、1つ以上の中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、特定用途向け集積回路、または、フィールドプログラマブルゲートアレイ(FPGA)コンピュータなどを含み得る。
しかしながら、これらおよび同様の用語のすべては、適切な物理量に関連付けられるべきであり、単に、これらの量に適用された簡便なラベルであるということが念頭に置かれるべきである。特に別記しない限り、あるいは、議論から明白なように、表示の処理、コンピューティング、計算、または決定といった用語は、コンピュータシステムのレジスタおよびメモリ内で物理的な電子量として表わされるデータを操作し、コンピュータシステムメモリ、レジスタ、または、他のそのような情報記憶デバイス、送信デバイスもしくは表示デバイス内の物理量として同様に表わされる他のデータへ当該データを変換するコンピュータシステムまたは同様の電子コンピューティングデバイスのアクションおよび処理を意味する。
また、例示的な実施形態のソフトウェアによって実現される局面は典型的に、何らかの形態の一時的でないプログラム記憶媒体上でエンコードされるか、または、何らかのタイプの伝送媒体上で実現される。プログラム記憶媒体は、磁気的(例えばフロッピー(登録商標)ディスクまたはハードドライブ)であるか、または、光学的(例えば読み取り専用コンパクトディスクすなわちCDROM)であり得、読み取り専用またはランダムアクセスであり得る。同様に、伝送媒体は、当該技術について公知であるツイストペア線、同軸ケーブル、光ファイバ、または、何らかの他の好適な伝送媒体であり得る。例示的な実施形態は、所与の実現例のこれらの局面によって限定されない。
最後に、添付の請求の範囲は、本願明細書において記載された特徴の特定の組合せを記載しているが、本開示の範囲は、請求される特定の組合せに限定されず、その代わりに、その特定の組合せが今回、添付の請求の範囲において具体的に列挙されているかどうかに関係なく本願明細書において開示される特徴または実施形態の任意の組合せを包含するよう拡張される。

Claims (17)

  1. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え
    前記第1の右目用画像と前記第2の右目用画像とを合成することは、画像の一部が一致した視深度で構成されるまで、前記第2の右目用画像に対して水平に前記第1の右目用画像をシフトさせることを含む、方法。
  2. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え、
    前記第1の右目用画像と前記第2の右目用画像とを合成することは、前記視深度に基づいて合成された画像の一部の歪みがなくなるまで、前記第1の右目用画像および前記第2の右目用画像の両方を、前記視深度に基づいて、前記視野の中心に向かってシフトさせることを含む、方法。
  3. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え
    前記第1の右目用画像と前記第2の右目用画像とを合成することは、前記合成された画像の一部が前記第1の右目用画像および前記第2の右目用画像の少なくとも1つの対応する部分と実質的に同じカラーパレットを有するようにカラーマージすることを含む、方法。
  4. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え
    前記第1の右目用画像と前記第2の右目用画像とを合成することは、前記視野の中心からのカメラ距離に関連付けられる加重オフセットに基づくカラーオフセットを使用してカラーマージすることを含む、方法。
  5. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え
    前記第1の左目用画像と前記第2の左目用画像とを合成することは、前記視深度に基づいて合成された画像の一部がぼけなくなるまで、前記第1の左目用画像を前記第2の左目用画像に対してシフトさせることを含む、方法。
  6. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え
    前記第1の左目用画像と前記第2の左目用画像とを合成することは、合成された画像の一部の歪みがなくなるまで、前記第1の左目用画像および前記第2の左目用画像の両方を、前記視深度に基づいて、前記視野の中心に向かってシフトさせることを含む、方法。
  7. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え
    前記第1の左目用画像と前記第2の左目用画像とを合成することは、前記合成された画像の一部が前記第1の左目用画像および前記第2の左目用画像の少なくとも1つの対応する部分と実質的に同じカラーパレットを有するように、前記合成された画像をカラーマージすることを含む、方法。
  8. ヘッドマウントディスプレイ(HMD)上に表示されている3次元(3D)画像に関連付けられる視野の指示を受信することと、
    前記HMDに表示されている前記3D画像に関連付けられる視深度の指示を受信することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記視深度に基づいて前記第1の右目用画像と前記第2の右目用画像とを合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記視深度に基づいて前記第1の左目用画像と前記第2の左目用画像とを合成することとを備え
    前記第1の左目用画像と前記第2の左目用画像とを合成することは、前記視野の中心からのカメラ距離に関連付けられる加重オフセットに基づくカラーオフセットを使用して、前記合成された画像をカラーマージすることを含む、方法。
  9. 前記第1の右目用画像および前記第2の右目用画像を選択することは、
    前記HMDのユーザの右目位置を判断することと、
    前記右目位置の右に位置する第1のカメラによって撮影された画像として前記第1の右目用画像を選択することと、
    前記右目位置の左に位置する第2のカメラによって撮影された画像として前記第2の右目用画像を選択することとを含む、請求項1〜8のいずれかに記載の方法。
  10. 前記第1の左目用画像および前記第2の左目用画像を選択することは、
    前記HMDのユーザの左目位置を判断することと、
    前記左目位置の右に位置する第1のカメラによって撮影された画像として前記第1の左目用画像を選択することと、
    前記左目位置の左に位置する第2のカメラによって撮影された画像として前記第2の左目用画像を選択することとを含む、請求項1〜9のいずれかに記載の方法。
  11. 前記第1の右目用画像、前記第2の右目用画像、前記第1の左目用画像および前記第2の左目用画像は、実質的に同じ瞬間にキャプチャされた複数の画像から選択される、請求項1〜10のいずれか1項に記載の方法。
  12. ヘッドマウントディスプレイ(HMD)に3次元(3D)ビデオをストリーミングすることを備え、前記3Dビデオの各フレームは左目用画像および右目用画像を含み、さらに、
    次のフレームを生成することを備え、前記次のフレームを生成することは、
    前記3Dビデオに関連付けられる視野を判断することと、
    前記3Dビデオに関連付けられる視深度を判断することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記第1の右目用画像と前記第2の右目用画像とを前記視深度に基づいて前記右目用画像として合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記第1の左目用画像と前記第2の左目用画像とを前記視深度に基づいて前記左目用画像として合成することとを含み、
    前記第1の右目用画像と前記第2の右目用画像とを合成することは、前記視深度に基づいて合成された画像の一部が一致した視深度で構成されるまで、前記第1の右目用画像を前記第2の右目用画像に対してシフトさせることを含み、
    前記第1の左目用画像と前記第2の左目用画像とを合成することは、前記視深度に基づいて合成された画像の一部が一致した視深度で構成されるまで、前記第1の左目用画像を前記第2の左目用画像に対してシフトさせることを含む、方法。
  13. ヘッドマウントディスプレイ(HMD)に3次元(3D)ビデオをストリーミングすることを備え、前記3Dビデオの各フレームは左目用画像および右目用画像を含み、さらに、
    次のフレームを生成することを備え、前記次のフレームを生成することは、
    前記3Dビデオに関連付けられる視野を判断することと、
    前記3Dビデオに関連付けられる視深度を判断することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記第1の右目用画像と前記第2の右目用画像とを前記視深度に基づいて前記右目用画像として合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記第1の左目用画像と前記第2の左目用画像とを前記視深度に基づいて前記左目用画像として合成することとを含み、
    前記第1の右目用画像と前記第2の右目用画像とを合成することは、前記視深度に基づいて、前記第1の右目用画像および前記第2の右目用画像の両方を前記視野の中心に向かって水平にシフトさせることを含み、
    前記第1の左目用画像と前記第2の左目用画像とを合成することは、前記視深度に基づいて、前記第1の左目用画像および前記第2の左目用画像の両方を前記視野の中心に向かってシフトさせることを含む、方法。
  14. ヘッドマウントディスプレイ(HMD)に3次元(3D)ビデオをストリーミングすることを備え、前記3Dビデオの各フレームは左目用画像および右目用画像を含み、さらに、
    次のフレームを生成することを備え、前記次のフレームを生成することは、
    前記3Dビデオに関連付けられる視野を判断することと、
    前記3Dビデオに関連付けられる視深度を判断することと、
    前記視野に基づいて第1の右目用画像および第2の右目用画像を選択することと、
    前記第1の右目用画像と前記第2の右目用画像とを前記視深度に基づいて前記右目用画像として合成することと、
    前記視野に基づいて第1の左目用画像および第2の左目用画像を選択することと、
    前記第1の左目用画像と前記第2の左目用画像とを前記視深度に基づいて前記左目用画像として合成することとを含み、
    前記第1の左目用画像と前記第2の左目用画像とを合成することは、前記合成された画像をカラーマージすることを含む、方法。
  15. 前記第1の右目用画像および前記第2の右目用画像を選択することは、
    前記HMDのユーザの右目位置を判断することと、
    前記右目位置の右に位置する第1のカメラによって撮影された画像として前記第1の右目用画像を選択することと、
    前記右目位置の左に位置する第2のカメラによって撮影された画像として前記第2の右目用画像を選択することとを含み、
    前記第1の左目用画像および前記第2の左目用画像を選択することは、
    前記HMDのユーザの左目位置を判断することと、
    前記左目位置の右に位置する第1のカメラによって撮影された画像として前記第1の左目用画像を選択することと、
    前記左目位置の左に位置する第2のカメラによって撮影された画像として前記第2の左目用画像を選択することとを含む、請求項12〜14のいずれかに記載の方法。
  16. 前記第1の右目用画像、前記第2の右目用画像、前記第1の左目用画像および前記第2の左目用画像は、実質的に同じ瞬間にキャプチャされた複数の画像から選択される、請求項12〜15のいずれかに記載の方法。
  17. 請求項1〜16のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
JP2017556681A 2015-09-10 2016-09-09 ステレオレンダリングシステム Active JP6596510B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/850,114 2015-09-10
US14/850,114 US10757399B2 (en) 2015-09-10 2015-09-10 Stereo rendering system
PCT/US2016/051012 WO2017044790A1 (en) 2015-09-10 2016-09-09 Stereo rendering system

Publications (2)

Publication Number Publication Date
JP2018533232A JP2018533232A (ja) 2018-11-08
JP6596510B2 true JP6596510B2 (ja) 2019-10-23

Family

ID=56959077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556681A Active JP6596510B2 (ja) 2015-09-10 2016-09-09 ステレオレンダリングシステム

Country Status (8)

Country Link
US (1) US10757399B2 (ja)
EP (1) EP3348054B1 (ja)
JP (1) JP6596510B2 (ja)
KR (1) KR101978896B1 (ja)
CN (1) CN107810633B (ja)
DE (1) DE112016004114T5 (ja)
GB (1) GB2556207B (ja)
WO (1) WO2017044790A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5996814B1 (ja) * 2016-02-08 2016-09-21 株式会社コロプラ 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2017145154A1 (en) * 2016-02-22 2017-08-31 Real View Imaging Ltd. Wide field of view hybrid holographic display
US11663937B2 (en) 2016-02-22 2023-05-30 Real View Imaging Ltd. Pupil tracking in an image display system
US10788791B2 (en) 2016-02-22 2020-09-29 Real View Imaging Ltd. Method and system for displaying holographic images within a real object
WO2019005045A1 (en) * 2017-06-28 2019-01-03 Halliburton Energy Services, Inc. INTERACTIVE HANDLING WITH VIRTUAL REALITY OF DOWNHOLE DATA
US10659771B2 (en) * 2017-07-13 2020-05-19 Google Llc Non-planar computational displays
JP2019053644A (ja) * 2017-09-19 2019-04-04 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
WO2019113742A1 (zh) * 2017-12-11 2019-06-20 深圳市柔宇科技有限公司 图像处理方法、头戴显示设备和头戴显示系统
CN110324601A (zh) * 2018-03-27 2019-10-11 京东方科技集团股份有限公司 渲染方法、计算机产品及显示装置
US10409068B1 (en) * 2018-03-27 2019-09-10 Tectus Corporation Binocular femtoprojector layouts
JP6868288B2 (ja) * 2018-09-11 2021-05-12 株式会社アクセル 画像処理装置、画像処理方法、及び画像処理プログラム
US10911743B2 (en) * 2018-10-19 2021-02-02 Facebook Technologies, Llc Field of view expansion by color separation
TWI683136B (zh) * 2019-01-03 2020-01-21 宏碁股份有限公司 視訊穿透式頭戴顯示器及其控制方法
WO2020185219A1 (en) 2019-03-13 2020-09-17 Hewlett-Packard Development Company, L.P. Detecting eye tracking calibration errors
CN111988533B (zh) * 2019-05-23 2022-07-22 川田科技株式会社 焊接辅助方法及装置
US11190755B2 (en) * 2019-06-12 2021-11-30 Sony Interactive Entertainment Inc. Asymmetric arrangement of left and right displays to improve image quality for a stereoscopic head-mounted display (HMD)
CN114365027A (zh) * 2019-11-06 2022-04-15 海思智财控股有限公司 显示具有景深的物体的系统与方法
US11698535B2 (en) 2020-08-14 2023-07-11 Hes Ip Holdings, Llc Systems and methods for superimposing virtual image on real-time image
EP4073572A1 (en) 2020-09-03 2022-10-19 HES IP Holdings, LLC Systems and methods for improving binocular vision
EP4197188A1 (en) 2020-09-30 2023-06-21 HES IP Holdings, LLC Virtual image display system for virtual reality and augmented reality devices
US20220122239A1 (en) * 2020-10-21 2022-04-21 Johnson & Johnson Surgical Vision, Inc. Visualizing an organ using multiple imaging modalities combined and displayed in virtual reality

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6327381B1 (en) 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
GB0119859D0 (en) 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
AU2002361572A1 (en) 2001-10-19 2003-04-28 University Of North Carolina At Chape Hill Methods and systems for dynamic virtual convergence and head mountable display
JP2006229725A (ja) 2005-02-18 2006-08-31 Konica Minolta Photo Imaging Inc 画像生成システム及び画像生成方法
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
WO2008063170A1 (en) 2006-11-20 2008-05-29 Thomson Licensing System and method for compositing 3d images
KR20090052169A (ko) 2007-11-20 2009-05-25 삼성전자주식회사 두부(頭部) 장착 디스플레이
US8363090B1 (en) * 2008-07-17 2013-01-29 Pixar Animation Studios Combining stereo image layers for display
US20100278232A1 (en) 2009-05-04 2010-11-04 Sehoon Yea Method Coding Multi-Layered Depth Images
CN102714739A (zh) 2009-12-04 2012-10-03 诺基亚公司 处理器、设备以及相关联的方法
JP5641200B2 (ja) * 2010-05-28 2014-12-17 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラムならびに記録媒体
JP4939639B2 (ja) 2010-09-28 2012-05-30 シャープ株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
JP5414946B2 (ja) 2011-06-16 2014-02-12 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US20130088413A1 (en) 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
US8704882B2 (en) 2011-11-18 2014-04-22 L-3 Communications Corporation Simulated head mounted display system and method
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US9734633B2 (en) 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
US20140247286A1 (en) 2012-02-20 2014-09-04 Google Inc. Active Stabilization for Heads-Up Displays
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US8736692B1 (en) 2012-07-09 2014-05-27 Google Inc. Using involuntary orbital movements to stabilize a video
JP6520119B2 (ja) 2012-08-06 2019-05-29 ソニー株式会社 画像処理装置および画像処理方法
KR101373188B1 (ko) 2012-09-26 2014-03-12 연세대학교 산학협력단 능동 루프 필터 기능을 탑재한 전원 안정 전압 제어 발진기 및 이를 이용한 위상 고정 루프
US9137524B2 (en) 2012-11-27 2015-09-15 Qualcomm Incorporated System and method for generating 3-D plenoptic video images
JP6337418B2 (ja) 2013-03-26 2018-06-06 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6369005B2 (ja) 2013-10-25 2018-08-08 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
EP2979446A1 (en) 2013-03-26 2016-02-03 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
GB201310368D0 (en) 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
KR102098277B1 (ko) 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US20150187115A1 (en) 2013-12-27 2015-07-02 Mark A. MacDonald Dynamically adjustable 3d goggles
US20150312558A1 (en) * 2014-04-29 2015-10-29 Quentin Simon Charles Miller Stereoscopic rendering to eye positions

Also Published As

Publication number Publication date
JP2018533232A (ja) 2018-11-08
GB201717596D0 (en) 2017-12-13
CN107810633B (zh) 2020-12-08
KR20170133461A (ko) 2017-12-05
GB2556207A (en) 2018-05-23
WO2017044790A1 (en) 2017-03-16
GB2556207B (en) 2021-08-11
EP3348054B1 (en) 2022-11-02
KR101978896B1 (ko) 2019-05-15
CN107810633A (zh) 2018-03-16
US10757399B2 (en) 2020-08-25
EP3348054A1 (en) 2018-07-18
DE112016004114T5 (de) 2018-06-14
US20170078651A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
JP6596510B2 (ja) ステレオレンダリングシステム
JP6427688B2 (ja) パノラマバーチャルリアリティコンテンツの全方位ステレオキャプチャおよびレンダリング
US10375381B2 (en) Omnistereo capture and render of panoramic virtual reality content
US10078367B2 (en) Stabilization plane determination based on gaze location
EP3350653B1 (en) General spherical capture methods
JP7042286B2 (ja) 滑らかに変化するフォービエイテッドレンダリング
JP6484349B2 (ja) カメラリグおよび立体画像キャプチャ
US10038887B2 (en) Capture and render of panoramic virtual reality content
CN114631127A (zh) 说话头的小样本合成
US20220232201A1 (en) Image generation system and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190930

R150 Certificate of patent or registration of utility model

Ref document number: 6596510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250