JP6377863B2 - 反射マップ表現による奥行きマップ表現の増補 - Google Patents

反射マップ表現による奥行きマップ表現の増補 Download PDF

Info

Publication number
JP6377863B2
JP6377863B2 JP2017558699A JP2017558699A JP6377863B2 JP 6377863 B2 JP6377863 B2 JP 6377863B2 JP 2017558699 A JP2017558699 A JP 2017558699A JP 2017558699 A JP2017558699 A JP 2017558699A JP 6377863 B2 JP6377863 B2 JP 6377863B2
Authority
JP
Japan
Prior art keywords
map representation
representation
pattern
reflection
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017558699A
Other languages
English (en)
Other versions
JP2018518750A5 (ja
JP2018518750A (ja
Inventor
ロマーノ、ニタイ
グロッシンガー、ナダブ
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2018518750A publication Critical patent/JP2018518750A/ja
Application granted granted Critical
Publication of JP6377863B2 publication Critical patent/JP6377863B2/ja
Publication of JP2018518750A5 publication Critical patent/JP2018518750A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0156Head-up displays characterised by mechanical features with movable elements with optionally usable elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本開示は、概ね、立体照明の撮像の分野に関し、より具体的には、オブジェクトの反射マップ表現によって、オブジェクトの三次元(3D)表現を拡張することに関する。
シーンまたはシーン内のオブジェクトの三次元表現を使用して、バーチャルリアリティ(VR)システムのユーザに対してバーチャル体験を提供するVRシステム用の画像を表す。
しかしながら、オブジェクトの奥行きマップ表現だけを従来通りの方法で使用して、オブジェクトの三次元表現を生成することには欠点がある。例えば、シーンの三次元表現のために、あるシーンのキャプチャされたオブジェクトの奥行き情報だけを使用すると、オブジェクトの表面の詳細な情報が提供されないので、キャプチャされたオブジェクトの奥行きマップ表現から生成される三次元シーンの効果において、ユーザ体験の質が低下する。
開示された発明の実施形態は、オブジェクトの反射マップ表現によって、オブジェクトの奥行きマップ表現を増補して、オブジェクトの三次元(3D)表現を生成するためのシステム(またはコンピュータに実装される方法、または非一時的なコンピュータ可読媒体)を含む。「オブジェクト」は、任意の数の特定の要素および/または画像の背景を含むデジタル画像の任意のターゲットに及ぶ。オブジェクトは、画像全体、または画像によってキャプチャされたシーン内の特定の要素であってもよい。オブジェクトの「三次元表現」は、二次元(2D)画像と比較してより現実的に見えるオブジェクトの立体的表現に及ぶ。オブジェクトの「奥行きマップ表現」は、指定された視点(例えば、オブジェクトの画像をキャプチャするセンサの位置)からの、オブジェクトの表面の様々な部分の距離に関する情報を含む画像に及ぶ。オブジェクトの奥行きマップ表現は、Z軸データで全ドットを結ぶメッシュの形体であってもよく、Z軸は、オブジェクトから指定された視点への距離を測定する。オブジェクトの「反射マップ表現」は、オブジェクトの表面の様々な部分の反射に関する情報を含む画像に及び、反射マップ表現は、オブジェクトの奥行きマップ表現と比較して、オブジェクトの表面のより微細なスケールの詳細を提供する。
方法の実施形態は、立体照明に照射されたシーン内のオブジェクトの画像をキャプチャする動作を含む。「立体照明」は、オブジェクトに投影される特定の不均一な照射パターンの光に及ぶ。キャプチャ済み画像は、照射パターンに由来するパターン特性(例えば、一次元のストライプ)を含む。「パターン特性」または「パターン」は、不均一な照射、例えば、特定の立体照明によって生成される特定の形体または形状(例えば、線、ストライプ、ドット、および特定の幾何学形状)に及ぶ。複数のパターン特性は、均一のまたは異なる特徴(例えば、形状、サイズ、および/または強度)を有してもよい。パターン特性の幾何学的な変形に由来する情報をモデル化することによって、パターン特性を分析して、シーン内のキャプチャされたオブジェクトの奥行きマップ表現が導出される。また、オブジェクトの反射特性に関する情報を得ることによって、パターン特性を分析して、反射マップ表現が導出される。例えば、シーン内のオブジェクトのパターン特性は、まず、特性の特徴(例えば、強度、色、形状)に従って指標化され、次いで、パターン特性の機能的挙動が導出される。機能的挙動が導出された後、パターン特性は、キャプチャ済み画
像から除去され、オブジェクトの反射マップ表現が生成される。生成された奥行きマップ表現および反射マップ表現を組み合わせて、オブジェクトの三次元(3D)表現が生成される。オブジェクトの三次元表現はまた、オブジェクトの反射マップ表現によって提供される表面の詳細およびオブジェクトの奥行きマップ表現によって提供される奥行き情報の両方を反映する。オブジェクトの奥行きマップ表現をオブジェクトの反射マップ表現と組み合わせるプロセスは、オブジェクトの奥行きマップ表現をオブジェクトの反射マップ表現によって増補することに及ぶ。
いくつかの実施形態では、追加の照射を提供して、オブジェクトの反射マップ表現の導出を改善し、オブジェクトの追加の画像がキャプチャされる。オブジェクトの反射マップ表現は、追加の画像をオブジェクトの奥行きマップ表現に登録して、追加の三次元データを導出する。オブジェクトの拡張された三次元表現は、導出された追加の三次元データに基づいて生成される。いくつかの実施形態では、オブジェクトの三次元表現を使用して、VRシステム内のオブジェクトのバーチャルシーンを提供する。VRヘッドセットを着用しているユーザは、オブジェクトの増補された奥行きマップ表現によって提供されるオブジェクトのバーチャルシーンを体験できる。
一実施形態に係る、オブジェクトの三次元表現を使用して、オブジェクトのバーチャルシーンを提供するためのバーチャルリアリティ(VR)システムを含むシステム環境のブロック図。 一実施形態に係る、図1Aに示すVRシステム内で動作する例示的なVRヘッドセットの斜視図。 一実施形態に係る、図1Aに示すVRシステム内で動作するプロセッサのブロック図。 一実施形態に係る、シーン内のオブジェクトの画像をキャプチャし、オブジェクトの反射マップ表現によってオブジェクトの奥行きマップ表現を増補する工程を示すフロー図。 一実施形態に係る、特定の照射パターンを有する立体照明によって照射されたオブジェクトの例示的なキャプチャ済み画像を示す図。 一実施形態に係る、図3に示すキャプチャ済み画像内のオブジェクトの例示的な奥行きマップ表現を示す図。 一実施形態に係る、図3に示すキャプチャ済み画像内のオブジェクトの例示的な反射マップ表現を示す図。 一実施形態に係る、図3に示すキャプチャ済み画像内のオブジェクトのパターン特性の機能的挙動と、パターン特性の除去と、パターン特性の除去からの残存信号と、の一例を示すグラフ。 一実施形態に係る、図3に示すキャプチャ済み画像内のオブジェクトの照射された信号と、オブジェクトの表面上のパターン特性を除去するために使用される乗算関数と、を示すグラフ。 一実施形態に係る、オリジナル信号と、乗算関数と、キャプチャ済み画像内のオブジェクトの反射マップ表現を生成するための照射モデルと、の他の例を示すグラフ。 一実施形態に係る、図4に示す奥行きマップ表現と図5に示す反射マップ表現とを組み合わせることによって、図3に示すオブジェクトの三次元表現を生成することを示すフロー図。 一実施形態に係る、パターン特性とオブジェクトをキャプチャした画像内のオブジェクトのピクセルとの間の相対位置の効果の例。 一実施形態に係る、パターン特性とオブジェクトをキャプチャした画像内のオブジェクトのピクセルとの間の相対位置の効果の他の例。 一実施形態に係る、オブジェクトの奥行きマップ表現をオブジェクトの反射マップ表現で増補することによって、オブジェクトをキャプチャした画像内のオブジェクトの三次元表現を、プロセッサが生成するプロセスを示す例示的なフローチャート。 一実施形態に係る、図9Aに示すプロセスに基づいて、拡張三次元表現を生成するプロセスを示す例示的なフローチャート。
図面は、例示の目的のためだけに本開示の実施形態を示している。当業者であれば、以下の説明から、本明細書に示される構造および方法の代替の実施形態が、本明細書に記載された開示の原理または得られる利点から逸脱することなく利用することができることを容易に認識するであろう。
図1Aは、一実施形態に係る、バーチャルリアリティ(VR)システム100を含むシステム環境のブロック図である。VRシステム100は、それぞれがVRコンソール120に連結される、VRヘッドセット140と、撮像装置115と、を備える。簡潔化のために、1つのVRヘッドセット140、1つの撮像装置115、および1つのVRコンソール120のみがVRシステム100内に図示されている。図示していない代替の実施形態では、VRシステム100は、VRヘッドセット140と、撮像装置115と、VRコンソール120と、追加のまたは異なる構成要素と、を複数備えてもよい。同様に、VRシステム100に備えられる様々なエンティティによって実行される機能は、実施形態によって異なっていてもよい。
VRヘッドセット140は、ユーザにメディアを提示するヘッドマウントディスプレイ(HMD)である。VRヘッドセット140によって提示されるメディアの例として、1以上の画像、映像、オーディオ、またはこれらの組み合わせが挙げられる。いくつかの実施形態では、VRヘッドセット140はまた、拡張現実(AR)および複合現実(MR)、あるいは拡張現実(AR)または複合現実(MR)のヘッドセットとしても機能することができる。これらの実施形態では、VRヘッドセット140は、物理的な実世界の環境のビューを、サウンド、映像、グラフィックスデータなどのコンピュータ生成知覚入力によって物理的な実世界の環境を補填するなど、コンピュータ生成要素(例えば、画像、映像、サウンド等)によって増補する。図1Aに示す実施形態では、VRヘッドセット140は、電子ディスプレイ142と、光学ブロック143と、1以上の発光体144と、1以上の画像センサ145と、1以上のロケータ146と、1以上の位置センサ147と、慣性測定装置(IMU)148と、を備える。
電子ディスプレイ142および光学ブロック143は、VRヘッドセット140を着用しているユーザの目に対して提示される画像光を共にモニタする。より具体的には、電子ディスプレイ142は、元の画像光を提供する。光学ブロック143は、電子ディスプレイ142から受光した画像光を拡大し、受光した画像光に関連する光学誤差を補正し、補正された画像光は、VRヘッドセット140のユーザに提示される。光学ブロック143は、1以上の光学素子を有してもよい。光学素子は、口径、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、または電子ディスプレイ142から放出された画像光に影響を与える任意の他の好適な光学素子であってもよい。更に、光学ブロック143は、異なる光学素子の組み合わせを含んでもよい。いくつかの実施形態では、光学ブロック143内の光学素子のうち1以上は、1以上の反射防止コーティングなどのコーティングを有してもよい。
発光体144は、シーン内のオブジェクトを照射するための照明を提供する。一実施形態では、発光体144は、オブジェクトを照射するための立体照明を提供する。
「立体照明」は、ピクセルの既知の照射パターンを照射されたオブジェクトまたはシーン
に対して投影する1以上の発光体144によって提供される光を意味する。例示的な発光体144として、レーザー発信器および赤外線(IR)パターン発光体を挙げることができる。
画像センサ145は、発光体144によって照射されたオブジェクトまたはシーンの画像をキャプチャする。VRヘッドセット140に備えられる画像センサ145は、視距離内の単色センサ、カラー(RGB)センサ、またはIRセンサであってもよい。例示的な画像センサ145として、IRカメラまたはカラー(RGB)カメラを挙げることができる。
ロケータ146は、互いに対する、かつVRヘッドセット140上の特定の基準点に対する、VRヘッドセット140上の特定の位置に位置するオブジェクトの位置を識別する。ロケータ146は、発光ダイオード(LED)、コーナーキューブリフレクタ、反射マーカ、VRヘッドセット140が動作する環境と対照的である、ある種の光源、またはこれらの組み合わせであってもよい。ロケータ146がアクティブ(つまり、LEDまたは他のタイプの発光装置)である実施形態では、ロケータ146は、可視帯(約380nm〜750nm)、赤外(IR)帯(約750nm〜1mm)、紫外帯(10nm〜380nm)、電磁スペクトルのある他の部分、またはこれらのある組み合わせの光を放つことができる。
いくつかの実施形態では、ロケータ146は、VRヘッドセット140の外側表面の下に位置し、外側表面は、ロケータ146によって放出または反射された光の波長に対して透過性を有し、ロケータ146によって放出または反射された光の波長を実質的に減衰しない程度に薄い。更に、いくつかの実施形態では、VRヘッドセット140の外側表面または他の部分は、光の可視帯の波長において不透過性である。したがって、ロケータ146は、IR帯では透過性であるが、可視帯では不透過性である外側表面下で、IR帯の光を放ってもよい。
IMU148は、位置センサ147のうち1以上から受信した測定信号に基づく較正データを生成する電子機器である。位置センサ147は、VRヘッドセット140の動きに応じて、1以上の測定信号を生成する。位置センサ147の例として、1以上の加速度計と、1以上のジャイロスコープと、1以上の磁気計と、動きを検出する他の好適なタイプのセンサと、IMU148の誤差補正のために使用されるタイプのセンサと、またはこれらの組み合わせと、が挙げられる。位置センサ147は、IMU148の外部、IMU148の内部、またはこれらの組み合わせに位置することができる。
1以上の位置センサ147からの1以上の測定信号に基づいて、IMU148は、VRヘッドセット140の初期の位置に対するVRヘッドセット140の推定位置を示す較正データを生成する。例えば、位置センサ147は、並行動作(例えば、前/後、上/下、左/右)を測定するための複数の加速度計と、回転動作(例えば、ピッチ、ヨー、ロール)を測定するための複数のジャイロスコープと、を含む。いくつかの実施形態では、IMU148は、測定信号をサンプリングし、VRヘッドセット140の推定位置をサンプリングデータから算出する。例えば、IMU148は、加速度計から受信した測定信号を経時的に積分し、VRヘッドセット140の速度ベクタを推定し、速度ベクタを経時的に積分し、VRヘッドセット140上の基準点の推定位置を決定する。あるいは、IMU148は、サンプリングされた測定信号をVRコンソール120に提供し、VRコンソール120は較正データを決定する。基準点は、VRヘッドセット140の位置を表すために使用することができる点である。基準点は、空間内の点として概ね定義することができるが、一実施形態では、基準点は、VRヘッドセット140(例えば、IMU148の中心)内の点として定義される。
IMU148は、VRコンソール120から1以上の較正パラメータを受け取って、VRヘッドセット140の動作を追跡する。受信した較正パラメータに基づいて、IMU148は、1以上のIMUパラメータ(例えば、サンプルレート)を調整することができる。いくつかの実施形態では、ある較正パラメータは、IMU148に対して、VRヘッドセット140が基準点の次の較正位置に対応するようにVRヘッドセット140の基準点の初期の位置を更新させる。基準点の初期の位置を基準点の次の較正位置として更新することによって、決定された推定位置に関連する累積誤差を減少させることができる。ドリフト誤差とも称される累積誤差によって、基準点の推定位置が基準点の実際の位置から離れる方向に経時的に「ドリフト」する。
撮像装置115は、VRコンソール120から受信した較正パラメータに従って、較正データを生成する。較正データの例として、撮像装置115によって検出されたロケータ146の観察位置を示す1以上の画像が挙げられる。撮像装置115は、1以上のカメラ、1以上の映像カメラ、画像をキャプチャすることができる任意の他の装置、またはこれらの組み合わせを含んでもよい。更に、撮像装置115は、(例えば、撮像装置115によってキャプチャされた画像の信号雑音比を増大させるために使用される)1以上のフィルタを備えてもよい。撮像装置115は、撮像装置115の視野内で、ロケータ146から放出または反射された光を検出するように設計されている。ロケータ146が受動素子(例えば、再帰反射体)を含む実施形態では、撮像装置115は、撮像装置115内の光源に向かって光を再帰反射するロケータ146の一部または全てを照射する光源を備えてもよい。較正データは、撮像装置115からVRコンソール120へ伝達され、撮像装置115は、1以上の撮像パラメータ(例えば、焦点距離、焦点、フレームレート、ISO、センサ温度、シャッタースピード、口径等)を調節するための1以上の較正パラメータをVRコンソール120から受信する。
VRコンソール120は、撮像装置115およびVRヘッドセット140のうち片方または両方から受信した情報に従って、ユーザに提示するために、メディアをVRヘッドセット140に提供する。図1Aに示す例では、VRコンソール120は、アプリケーション記憶部122と、トラッキングモジュール124と、バーチャルリアリティ(VR)エンジン126と、プロセッサ200と、を備える。VRコンソール120のいくつかの実施形態では、図1Aに関連して説明したモジュールとは異なるモジュールが備えられる。同様に、以下に更に説明する機能は、本明細書に説明する手法とは異なる手法で、VRコンソール120の構成要素間で分散していてもよい。
アプリケーション記憶部122は、VRコンソール120によって実行される1以上のアプリケーションを記憶している。アプリケーションは、プロセッサ(例えば、コンピュータプロセッサ)によって実行された場合、ユーザに対して提示するためのコンテンツを生成する命令(例えば、実行可能なコンピュータプログラムの命令)のグループである。アプリケーションによって生成されたコンテンツは、VRヘッドセット140の動きを介してユーザから受信する入力に対して応答してもよい。アプリケーションの例として、ゲーム用アプリケーション、会議用アプリケーション、映像再生アプリケーション、または他の適切なアプリケーションを挙げることができる。
トラッキングモジュール124は、1以上の較正パラメータを使用し、VRシステム100を較正し、VRヘッドセット140の位置の決定における誤りを削減するために、1以上の較正パラメータを調整する。例えば、トラッキングモジュール124は、撮像装置115の焦点を調整して、VRヘッドセット140上に観察されているロケータのためのより正確な位置を求める。更に、トラッキングモジュール124によって実行された較正はまた、IMU148から受信した情報となる。更に、VRヘッドセット140のトラッ
キングを見失った(例えば、撮像装置115が少なくとも閾値の数のロケータ148の視線を見失った)場合、トラッキングモジュール124は、VRシステム100の一部または全てを再較正する。
トラッキングモジュール124は、撮像装置115から受信した較正情報を使用して、VRヘッドセット140の動きを追跡する。トラッキングモジュール124は、較正情報からの観察されたロケータを使用して、VRヘッドセット140の基準点の位置を決定する。トラッキングモジュール124はまた、IMU148から受信した位置情報を使用して、VRヘッドセット140の基準点の位置を決定する。更に、いくつかの実施形態では、トラッキングモジュール124は、VRコンソール120からの較正情報、撮像装置115からの較正情報、またはこれらのある組み合わせを使用して、VRヘッドセット140の将来の位置を予測する。トラッキングモジュール124は、VRヘッドセット140の推定または予測された位置をVRエンジン126に提供する。
VRエンジン126は、VRシステム100内のアプリケーションを実行し、VRヘッドセット140の位置情報、加速情報、速度情報、予測された将来の位置、またはこれらのある組み合わせをトラッキングモジュール124から受信する。受信した情報に基づいて、VRエンジン126は、コンテンツを決定して、ユーザへの提示のためにVRヘッドセット140に提供する。例えば、受信した情報がユーザが左を見たと示す場合、VRエンジン126は、仮想環境におけるユーザの動きを映すVRヘッドセット140用コンテンツを生成する。
プロセッサ200は、撮像装置115およびVRヘッドセット140から、あるいは撮像装置115またはVRヘッドセット140から受信した情報を処理する。いくつかの実施形態では、プロセッサ200は、画像および関連する画像データを、撮像装置115から受信し、受信した画像の1以上のバーチャルシーンを生成し、VRヘッドセット140のユーザに提示するために、生成したバーチャルシーンをVRヘッドセット140に提示する。例えば、プロセッサ200は、撮像装置115から、立体照明が照射されたシーン内のオブジェクトのキャプチャ済み画像を受け取り、キャプチャ済み画像の1以上のパターン特性を分析する。プロセッサ200は、分析されたパターン特性に基づいて、シーン内のオブジェクトの奥行きマップ表現と、キャプチャ済み画像からのオブジェクトの反射マップ表現と、を生成し、以下の図2Aおよび図2Bによって詳細に記載されるように、オブジェクトの奥行きマップ表現とオブジェクトの反射マップ表現とを組み合わせることによって、オブジェクトの三次元表現を生成する。
図1Bは、一実施形態に係る、図1Aに示すVRシステム100内で動作する例示的なVRヘッドセット160の斜視図である。図1Bでは、VRヘッドセット160は、バンド161と、VRヘッドセット160の本体163を保持する保持用スリーブ162と、発光体165と、側方センサ164と、前方センサ166と、を備える。説明上の理由で、1つのバンド161、1つの保持用スリーブ162、1つの発光体165、1つの前方センサ166、1つの側方センサ164だけが図1Bに図示されている。図示しない代替の実施形態では、VRヘッドセット160は、バンド161と、保持用スリーブ162と、発光体165と、前方センサ166と、側方センサ166と、追加のまたは異なる構成要素と、を複数備える。更に、VRヘッドセット160の様々なエンティティによって実行される機能は、実施形態によって異なっていてもよい。いくつかの実施形態では、図1Bに示すVRヘッドセット160は、図1Aに示すVRシステム100内のVRヘッドセット140と同一または同様である。
発光体165は、シーンまたはシーン内のオブジェクトを照射する。いくつかの実施形態では、発光体165は、特定の照射パターンを有する立体照明を提供するが、この場合
、発光体に照射されたオブジェクトまたはシーンは、立体照明に基づいて特定のパターンを表す。(図1Aに示される)プロセッサ200は、発光体165を制御して、時間によって異なる照射パターンを有する立体照明を提供することができる。簡潔化のために、1つの発光体165だけが図1Bに図示されている。図示しない代替の実施形態では、VRヘッドセット160は、異なるタイプの追加の発光体を有してもよい。例えば、VRヘッドセット160は、シーン内のオブジェクトに追加の照射を提供するための(本明細書には図示しない)追加の発光体を備える。いくつかの実施形態では、図1Bに示す発光体165は、図1Aに示すVRシステム100内の発光体144と同一または同様である。
前方センサ166および側方センサ164は、様々な視点から、オブジェクトの画像、またはVRヘッドセット160の前のシーンをキャプチャする。一実施形態では、前方センサ166は、VRヘッドセット160のメインセンサであってもよく、側方センサ164は、オブジェクトの追加の画像をキャプチャするための追加のセンサとして機能する。前方センサ166および側方センサ164のどちらも赤外線センサ、RGBセンサまたは単色センサであってもよい。簡潔化のために、1つの前方センサ166と、1つの側方センサ164だけが図1Bに示される。図示しない代替の実施形態では、VRヘッドセット160は、異なるタイプのセンサ、および/またはVRヘッドセット上の異なる場所に位置づけられる、異なる数のセンサを備えてもよい。同様に、追加のセンサは、異なるタイプのセンサであってもよい。いくつかの実施形態では、前方センサ166および側方センサ164は、図1Aに示すVRシステム100内の画像センサ145と同一または同様である。
図2Aは、一実施形態に係る、図1Aに示すVRシステム100内で動作するプロセッサ200のブロック図である。図2Aに示す例では、プロセッサ200は、キャプチャモジュール212と、奥行きマップモジュール214と、反射マップモジュール216と、三次元表現モジュール218と、画像データ記憶部232と、奥行きマップデータ記憶部234と、反射マップデータ記憶部236と、三次元表現データ記憶部238と、を備える。図示しない代替の実施形態では、プロセッサ200は、追加のおよび/または異なるモジュールまたはデータ記憶部を備えてもよい。同様に、プロセッサ200の様々なエンティティによって実行される機能は、実施形態によって異なっていてもよい。
キャプチャモジュール212は、シーンまたはシーン内のオブジェクトの画像をキャプチャする。一実施形態では、プロセッサ200は、1以上のセンサ(例えば、図1Bに示す前方センサ166、側方センサ164)に対して、シーン内のオブジェクトまたはそのシーン自体の画像をキャプチャするように命令する。1つの例として、キャプチャモジュール212は、オブジェクトの奥行きマップ表現およびオブジェクトの反射マップ表現を生成するために使用されるオブジェクトの元の画像をキャプチャすることができる。他の例として、キャプチャモジュール212は、同じオブジェクトの1以上の追加の画像をキャプチャして、生成されたオブジェクトの三次元表現を拡張することができる。追加の画像は、同じセンサまたは異なるセンサによって、元の画像と同じ視野または異なる視野からキャプチャされてもよい。更なる例として、キャプチャモジュール212は、異なるオブジェクトまたは異なるシーンの画像をキャプチャすることができる。
一実施形態では、キャプチャモジュール212は、特定の照射パターンを有する立体照明をオブジェクトに対して投影する発光体によって照射されたオブジェクトの画像をキャプチャする。オブジェクトのキャプチャ済み画像は、照射パターンを有しない(例えば、均一の照射の)通常光が照射された同じオブジェクトの画像と比較して、反射マップ表現を将来的に生成するためのより有用な情報を提供する。立体照明が照射されたオブジェクトのキャプチャ済み画像は、オブジェクトに投影された照射パターンに対応する特定のパターン特性を含む。パターン特性は、ストライプ、線、ドット、または他の幾何学形状で
あってもよく、形状、サイズ、および強度など均一または不均一な特徴を備える。特定の立体照明が照射された例示的なキャプチャ済み画像を図3において以下に説明する。キャプチャ済み画像および関連する画像データ(例えば、強度、奥行き、それぞれのピクセルの傾き)は、以下に詳細に記載されるように、画像データ記憶部232に記憶されている。
奥行きマップモジュール214は、照射されたオブジェクトのキャプチャ済み画像を画像データ記憶部232から取り出し、オブジェクトの奥行きマップ表現を照射されたオブジェクトのキャプチャ済み画像から生成する。上述のように、オブジェクトの奥行きマップ表現とは、指定された視点からの、オブジェクト表面の異なる部分の距離に関する情報を含む画像を意味し、指定された視点は、オブジェクトの画像をキャプチャするセンサの位置であってもよい。例示的な奥行きマップ表現を、図4を参照して以下に更に説明する。オブジェクトの生成された奥行きマップ表現および関連奥行きデータは、以下に詳細に説明するように、奥行きマップデータ記憶部234に記憶される。
一実施形態では、奥行きマップモジュール214は、キャプチャ済み画像の奥行き情報を導出するためのパターン特性を識別および分析する。オブジェクトに関連する識別および分析されたパターン特性に基づいて、奥行きマップモジュール214は、オブジェクトの奥行きマップ表現を生成する。奥行き情報の例は、キャプチャ済み画像のオブジェクト上のそれぞれのピクセルの奥行きの差異による、オブジェクトの幾何学的な変形であってもよい。オブジェクトのピクセルの「奥行き」は、実際のオブジェクト上のピクセルと、指定された視点(例えば、センサの位置)との間の距離を意味する。
いくつかの実施形態では、奥行きマップモジュール214は、キャプチャ済み画像の検出されたパターンと基準パターンとの間の補正に基づいて、キャプチャ済み画像のオブジェクトの奥行きマップ表現を生成する。検出されたパターンは、オブジェクトに投影され、キャプチャ済み画像に表されたパターンを意味し、基準パターンは、発光体によって提供される元の照射パターンを意味する。立体照明が、オブジェクトに投影された照射パターンを有するので、オブジェクトのキャプチャ済み画像で検出されたパターンは、立体照明の元の照射パターンの歪んだバージョンである。元のパターンの歪んだバージョンは、オブジェクトの奥行きのために、ズレおよび他の歪みが含まれる。検出されたパターンを元の照射パターンと比較することによって、または検出されたパターンの一部を元の照射パターンの対応する部分と比較することによって、奥行きマップモジュール214は、ズレまたは歪みを識別し、オブジェクトの奥行きマップ表現を生成する。
一実施形態では、検出されたパターンと基準パターンとの間の補正は、キャプチャ済み画像内で検出されたパターン特性の調整後の特性のシーケンスを使用して得られる。例えば、キャプチャ済み画像に表されたパターン特性を個別に識別して、検出されたパターンと基準パターンとの間の補正に役立たせる。一実施形態では、補正は、全体の検出されたパターンの個別に識別されたパターン特性と基準パターンの対応するパターン特性との比較に基づいている。他の実施形態では、補正は、基準パターンの対応する部分の特性を有する、検出されたパターンの一部の個別に識別された特性に基づいている。補正によって、キャプチャ済み画像のオブジェクトの個別のピクセルの奥行き情報が導出される。
奥行きマップモジュール214はまた、1以上の異なる変化を直交方向の照射パターンに適用することに基づいて、キャプチャ済み画像内のオブジェクトの奥行きマップ表現を生成する。照射パターンに変化を加えることによって、奥行きマップモジュール214は、オブジェクトのキャプチャ済み画像で検出された特定のパターン特性を明確に識別することができる。1つの例として、照射パターンの変化は、強度変化(例えば、図3に示すストライプ)であってもよく、照射パターンに由来するパターン特性のそれぞれの部分に
対する固有のシグネチャを提供することができる。他の例として、変化は、(同位相ではないが、)周期性であって、最低限のコンピューティングリソースを使用して、最大限の固有の識別を提供してもよい。更に、奥行きマップモジュール214は、2つ以上の異なるタイプの変化を使用してもよい。異なるタイプの変化を互いに対して測定して、キャプチャ済み画像内のオブジェクトの異なる場所に位置するピクセルの奥行き情報を提供することができる。
1つの例として、パターン特性(例えば、変化する強度を有するストライプ)の1つの強度変化を使用する場合、奥行きマップモジュール214は、固有のシグネチャ(例えば、周期的に固有のシグネチャ)を、指定された寸法(例えば、キャプチャ済み画像と共有される同一の座標系内のY軸に揃う方向)のそれぞれのストライプに適用する。奥行きマップモジュール214は、指定された基礎となる位置からのそれぞれのストライプのズレに基づいて、キャプチャ済み画像内のオブジェクトの奥行きマップ表現を生成する。ズレを正確に検出するために、奥行きマップモジュール214は、周期的に固有のシグネチャをそれぞれの個別のラインに付与することによって、キャプチャ済み画像内のオブジェクトのピクセルのそれぞれの個別のラインを識別し、それぞれのラインと関連する固有のシグネチャに基づいて識別を行うことができる。この例では、強度変化は、一次元での様々な強度のストライプを含み、検出されたストライプは、様々な検出効果を表す。例えば、一部のストライプは、弱くてもよく、一部は、中間でもよく、一部は、強くてもよい。検出されたパターンは、弱い、中間の、強いストライプが所与の順番に(例えば、弱いから強いへ)生じる単一の場所を有してもよく、この場合、奥行きマップモジュール214は、パターン特性の指標化を実現する。代替の例では、異なる強度の四角形を使用してもよく、奥行きマップモジュール214は、同様に、パターン特性の指標化を実現する。
他の例として、奥行きマップモジュール214は、パターン特性の2つの強度の変化を使用してもよい。2つの強度の変化は、周期性であってもよく、周期的な強度変化は、例えば、キャプチャ済み画像内のオブジェクトの個別のピクセルに対して設定できる利用可能なグレイレベルに基づいて、費用削減型の代替案として、生成されてもよい。2つの周期的な変化が位相を異にしている(同期していない)限り、奥行きマップモジュール214は、2つの周期的な変化を1つと考えたとき、2つの周期的な変化の個別の周期より比較的大きな組み合わされた周期を得ることができる。
更に別の実施形態では、奥行きマップモジュール214は、2つ以上の特有の強度変化を使用して、キャプチャ済み画像内のオブジェクトの奥行きマップを算出する。1以上の特有の強度変化を有する照射パターンを投影してもよい。それぞれの変化は、VRヘッドセットの空間全体を通して、固有の強度交代機能を有してもよい。例えば、パターンは、パターン特性として、それぞれのストライプに沿ったガウス形状の強度ホットスポットを有する連続的なストライプを含んでもよい。ストライプの強度は、センサから照射されたオブジェクトへの方向に移動しながら、線形に低下する一方、それぞれのホットスポットのピークでカメラによって測定される強度は一定のままである。奥行き情報(例えば、照射パターンをセンサに逆反射するオブジェクトまでの距離)は、ホットスポットの強度をホットスポット周辺のストライプの強度と比較することによって抽出することができる。
いくつかの実施形態では、奥行きマップモジュール214は、ホットスポットの強度とラインの強度との比を更に算出して、上述のようなストライプのズレに基づく補足的な奥行きマップを算出する。ホットスポットの強度およびラインの強度は、キャプチャ済み画像に表されたパターン特性の絶対的指標化を導出するための、少なくとも2つの変化を提供する。例えば、キャプチャ済み画像に表されたパターン特性は、平行のストライプから成り立ってもよい。平行のストライプは、そのベース強度、例えば、周期で変化して、平行のストライプに直行する方向などの第一の方向における変化を付与することができる。
ストライプ自体は、長手方向の表記を示し、変化は、それぞれのストライプまたはストライプのそれぞれのクラスタを識別および指標化できるように、ストライプによって異なって設けられてもよい。一実施形態では、ストライプによって示される表記は、強度が一定のままである点を考えれば、ピーク強度またはピーク値を有してもよい。全強度は、光源およびオブジェクトを検出するセンサからのオブジェクトの距離が増すに従って徐々に減少することが想定され、センサによってキャプチャされたストライプの強度の減少によって、奥行き情報を提供することができる。いくつかの実施形態では、キャプチャ済み画像内のオブジェクトの絶対輝度はまた、反射表面に依存するが、この場合、光源またはセンサと照射されたオブジェクトとの間の距離を含む複数の要因並びに他の要因(例えば、反射表面の特性)が、奥行き情報を取得するために共に検討される。
一実施形態では、奥行きマップモジュール214は、ストライプのベース強度と、ストライプのピーク強度との比を使用して、特にセグメント化または三角形分割の結果と組み合わせた場合、より正確な奥行きの算出が可能になる。他の実施形態では、奥行きマップモジュール214は、それぞれのストライプまたは単一のストライプの特定のセクタ上の異なる強度および異なる表記分布を識別するが、これにより、より正確な奥行きマップの算出が可能になる。いくつかの実施形態では、上述の表記は、使用が簡易なため、ガウス輝度分布から解釈されてもよい。
プロセッサ200の反射マップモジュール216は、画像データ記憶部232内に記憶されたキャプチャ済み画像におけるオブジェクトの反射マップ表現を生成する。上述のように、オブジェクトの反射マップ表現は、キャプチャ済み画像におけるオブジェクトの表面の異なる部分の反射特性に関する情報を含む画像を意味し、オブジェクトの反射マップ表現は、表面の詳細(オブジェクトの表面の目視で判別される点の細かなスケールの詳細)を提供する。一実施形態では、反射マップモジュール216は、オブジェクトに対して投影された立体照明に由来するオブジェクトの本質的に不均一な照射を処理することによって、キャプチャ済み画像におけるオブジェクトのより均一な照射を表すためにオブジェクトの反射マップを導出する。反射マップ表現の一例は図5に示されている。生成された反射マップ表現および関連するデータは、反射マップデータ記憶部236に記憶される。
一実施形態では、反射マップモジュール216は、キャプチャ済み画像における同じオブジェクトの反射マップ表現を生成し、そこからオブジェクトの奥行きマップ表現が奥行きマップモジュール214によって生成される。更に別の実施形態では、反射マップモジュール216は、奥行きマップ表現が生成されるオブジェクトのキャプチャ済み画像とは異なるオブジェクトのキャプチャ済み画像の反射マップを生成する。この実施形態では、2つの異なるキャプチャ済み画像は、異なる視野からの同じオブジェクトまたはシーンを含む。
いくつかの実施形態では、反射マップモジュール216は、オブジェクトの反射マップ表現を生成するため細かい表面の詳細を有する領域など、照射されたオブジェクトの特定の領域用の反射マップ表現を導出することができる。例えば、人の正面の顔を含むオブジェクトに関して、顔の肌領域は、表面の詳細に関する豊富な情報並びにパターン化された照射の非照射領域(つまり、照射パターン特性間の領域)への拡散のための情報を含む。この例では、反射マップモジュール216は、豊富な表面情報を提供する肌領域用の反射マップ表現を導出する。
キャプチャ済み画像におけるオブジェクトの反射マップ表現を生成するために、反射マップモジュール216は、まず、照射されたオブジェクトに投影され、オブジェクトのキャプチャ済み画像に表されたパターン特性を指標化する。キャプチャ済み画像内のパターン特性の指標化の一例は、図3を参照して以下に詳細に説明される。反射マップモジュー
ル216は、指標化を適用して、発光体によって提供された照射パターンの特性をキャプチャ済み画像に表されたパターン特性と相関させる。補正によって、キャプチャ済み画像における照射されたオブジェクトの表面に投影されたパターン特性の機能的挙動の算出が更に可能になる。パターン特性の機能的挙動は、所定のラインに沿った撮像強度のようにキャプチャ済み画像において表されたパターン特性と関連する1以上の特性によって表現できる。機能的挙動の例は、以下に詳細に説明されるように図6Aに示されている。パターン特性の機能的挙動から、反射マップモジュール216は、オブジェクトのキャプチャ済み画像からパターン特性を除去することによって、照射されたオブジェクトの実際の表面反射を算出することができる。パターン特性の機能的挙動に基づいて、パターン特性を除去する例は、図6Aおよび図6Bに示されている。
いくつかの実施形態では、反射マップモジュール216は、オブジェクトの生成された反射マップ表現を追加の発光体によって提供される追加の照射によって改善して、照射パターンを最適化することができる。追加の照射を使用して、パターン特性間に位置するオブジェクトの領域を照射できる。例えば、パターン特性が一次元のストライプの場合、追加の照射によって照射される領域は、明るいストライプ間の暗い領域である。かかる照射によって、反射マップの導出を改善することができる。いくつかの実施形態では、照射パターンをまた変更して、背景の照射およびより広い特性寸法、あるいは背景の照射またはより広い特性寸法を導入して、オブジェクトの奥行きマップ表現の許容範囲の品質低下とオブジェクトの反射マップ表現の改善との間のトレードオフなど、いくつかの許容範囲の最適化の制限下において、より広く表面を照射することができる。
プロセッサ200の三次元表現モジュール218は、オブジェクトの生成された奥行きマップ表現とキャプチャ済み画像におけるオブジェクトの反射マップ表現とに基づいて、キャプチャ済み画像におけるオブジェクトの三次元表現を生成する。一実施形態では、三次元表現モジュール218は、オブジェクトの反射マップ表現とオブジェクトの奥行きマップ表現とを組み合わせて、オブジェクトの三次元表現を生成する。オブジェクトの三次元表現は、表面の詳細およびオブジェクトの奥行き情報の両方を含む。生成された三次元表現および関連するデータは、三次元表現データ記憶部238に記憶される。
いくつかの実施形態では、三次元表現モジュール218は、キャプチャされたオブジェクトの1以上の追加の画像を使用して、オブジェクトの三次元表現を拡張することができる。1つの追加の画像を例として挙げると、三次元表現を拡張するために、三次元表現モジュール218は、オブジェクトの生成された反射マップ表現を反射マップデータ記憶部236から取り出し、オブジェクトの生成された奥行きマップ表現を三次元表現データ記憶部238から取り出す。三次元表現モジュール218は、オブジェクトの反射マップ表現を使用して、追加の画像を、抽出された奥行きマップ表現に登録し、追加の画像の表面情報を三次元表現内に既に含まれている表面情報に相関させる。三次元表現モジュール218は、オブジェクトの反射マップ表現と追加のオブジェクトの画像とを比較することによって、オブジェクトの追加の三次元情報を導出し、導出された三次元情報を加えて、奥行きマップ表現を拡張し、更に拡張三次元表現を産出する。
プロセッサ200の画像データ記憶部232は、特定のオブジェクトまたはシーンのキャプチャ済み画像と、キャプチャ済み画像に関連する画像データと、を記憶する。一実施形態では、画像データ記憶部232に記憶されたキャプチャ済み画像は、同じオブジェクトまたは同じシーンの画像であってもよい。この実施形態では、キャプチャ済み画像はまた、1以上の発光体によって提供される照射パターンという点で異なってもよい。例えば、上述のように、キャプチャ済み画像は、反射マップ表現の構造を改善するために使用される追加の照射という点以外では、同じオブジェクトまたはシーンの画像であってもよい。他の実施形態では、画像データ記憶部232に記憶されたキャプチャ済み画像は、同じ
または異なる照射パターンを有する異なるオブジェクトまたは異なるシーンの画像を含んでもよい。画像データ記憶部232はまた、追加のセンサによってキャプチャされた追加の画像と、追加の画像に関連する画像データと、を記憶する。
プロセッサ200の奥行きマップデータ記憶部234は、奥行きマップモジュール214によって生成された、オブジェクトの奥行きマップ表現および関連するデータを記憶する。例えば、奥行きマップデータ記憶部234は、元の奥行きマップ表現および関連する奥行きデータ、並びに拡張奥行きマップ表現および関連する奥行きデータを記憶する。上述したように、元の奥行きマップ表現は、追加の画像を含まない元のキャプチャ済み画像から導出された奥行きマップ表現を意味する一方、拡張奥行きマップ表現は、追加の画像および追加の三次元データを使用して拡張された奥行きマップ表現を意味する。
プロセッサ200の反射マップデータ記憶部236は、反射マップモジュール216によって生成されたオブジェクトの反射マップ表現および関連するデータを記憶する。例えば、反射マップデータ記憶部236は、元の反射マップ表現および関連する反射データ並びに改善された反射マップ表現および関連する反射データを記憶する。上述したように、元の反射マップ表現は、追加の照射を伴わない元のキャプチャ済み画像から導出される反射マップ表現を意味する一方、改善された反射マップ表現は、追加の照射で改善された反射マップ表現を意味する。反射マップ表現および関連する反射データは、キャプチャ済み画像におけるオブジェクトの表面の反射特性を提供する。
プロセッサ200の三次元表現データ記憶部238は、三次元表現モジュール218によって生成されたオブジェクトの三次元表現および関連するデータを記憶する。例えば、三次元表現データ記憶部238は、元の三次元表現および関連する三次元データ並びに拡張三次元表現および関連する三次元データを記憶する。上述したように、元の三次元表現は、追加の画像および拡張奥行きマップ表現を伴わない反射マップ表現および奥行きマップ表現から導出される三次元表現を意味する一方、拡張三次元表現は、追加の画像と、更に追加の三次元データおよび拡張奥行きマップ表現によって生成される三次元表現を意味する。
図2Bは、一実施形態に係る、シーン252内のオブジェクト254の画像260をキャプチャし、オブジェクトの反射マップ表現288で、オブジェクト254の奥行きマップ表現270を増補する工程を示すフロー図250である。図2Bに示すように、発光体265は、特定の照射パターン(例えば、ストリップ)を有する立体照明を、シーン252内のオブジェクト254に提供し、センサ266は、シーン252におけるオブジェクト254の画像をキャプチャする。一実施形態では、プロセッサ200は、発光体265に対して、オブジェクト254に特定の立体照明を照射するように命令する。キャプチャ済み画像260をプロセッサ200に提供して、オブジェクト254の奥行きマップ表現270およびオブジェクト254の反射マップ表現288を生成する。オブジェクト254の反射マップ表現288を生成するために、プロセッサ200はまず、キャプチャ済み画像260に表されたパターン特性を指標化することによって、指標化されたパターン特性282を導出する。プロセッサ200は、その後、キャプチャ済み画像260の指標化されたパターン特性を分析することによって、少なくとも1つのパターン特性284の機能的挙動を導出する。プロセッサ200は、パターン特性の導出された機能的挙動に基づいて、キャプチャ済み画像260からパターン特性を除去286することによって、オブジェクト254の反射マップ表現288を生成する。プロセッサ200は、オブジェクト254の奥行きマップ表現270と、オブジェクト254の反射マップ表現288とを組み合わせて、オブジェクト254の三次元表現290を生成する。
一実施形態では、図2Bに示すように、追加の発光体267は、シーン252内のオブ
ジェクト254に対して追加の照射を伴う立体照明を提供して、図2Aにおいて上述したように、反射マップ表現288の構造を改善する。追加のセンサ268は、シーン252内のオブジェクト254の追加の画像269をキャプチャし、図2Aにおいて上述したように、プロセッサ200は、反射マップ表現288に対して、追加の画像を奥行きマップ表現270に登録するよう命令して、拡張三次元表現292を生成する。
図3は、一実施形態に係る、特定の照射パターン320を有する立体照明によって照射されたオブジェクト354の例示的なキャプチャ済み画像300である。図3に示すように、キャプチャ済み画像300内のオブジェクト354は、照射パターン320を有する立体照明によって照射されている正面の顔、首、および肩を有する人である。キャプチャ済み画像300は、オブジェクト354の正面の顔(つまり、322A)および肩(つまり、322B)に表されたパターン特性322が、ある強度を有するそれぞれ個別のストライプがパターン特性である、異なる強度を有するある方向(水平方向)の線形のストライプであることを示している。キャプチャ済み画像300はまた、パターン特性322の指標化342およびパターン特性の導出された機能的挙動344を示している。例えば、パターン特性(例えば、変化する強度を有する水平のストライプ)322のそれぞれは、それぞれのパターン特性の特性の特徴(例えば、強度)に従って、矢印によって示されるように指標化されている。「特性の特徴」は、個別のパターン特性を区別するために使用できる特定のタイプのパターン特性の特徴を意味する。この例では、個別のストライプの強度は、個別のパターン特性の指標化が可能となる2つの隣接する明るいストライプ間の暗い区間により互いから離間しているため、特性の特徴は、それぞれのパターン特性(例えば、それぞれの水平のストライプ)を区別するために使用される強度である。図示しない代替の例では、異なるタイプの特性の特徴を適用して、対応するタイプのパターン特性を指標化させることができる。例えば、形状(例えば、線幅)および色は、他のタイプのパターン特性の他の特性の特徴であってもよい。更に、異なるタイプの照射パターンが照射された異なるオブジェクトをキャプチャすることができ、キャプチャ済み画像は、異なるタイプのパターン特性を表すことができ、対応する特性の特徴を使用して、パターン特性を指標化する。
オブジェクトの異なる部分のパターン特性322の機能的挙動344は、異なってもよい。例えば、肌領域上(例えば、顔の上または首の上)のパターン特性322Aは、衣服領域上(例えば、肩の上)のパターン特性322Bよりもより拡散しているように見える。衣服の上のパターン特性322Bはまた、より広がっているように見え、特性間ギャップ324はまた、肌を通った照射の拡散によって照射されている。
本明細書に記載の特性間ギャップ324は、同じパターン特性(例えば、同じ水平のストライプ内)内の強度の間隙を意味する。いくつかの実施形態では、肌領域上のパターン特性322Aと衣服領域上のパターン特性322Bとの間の差異は、2つの領域の質感の差異から生じる場合がある。パターン特性322Aと322Bとの間の差異はまた、肌領域上のパターン特性322Aが、パターン特性のより高い視認性のため、パターン特性の機能的挙動を導出すること、および反射マップ表現に従って構造化するためにより好適であることを示している。
図4は、一実施形態に係る、図3に示すキャプチャ済み画像300内のオブジェクト354の奥行きマップ表現400の一例である。図4に示すように、奥行きマップ表現400は、キャプチャ済み画像300内のオブジェクト354のターゲットパターン特性の変形から導出される。ターゲットパターン特性は、キャプチャ済み画像300内の人の肌領域上(例えば、顔の上または首の上)のパターン特性を含む。ターゲットパターン特性の変形は、キャプチャ済み画像300内の水平のストライプの変形を含む。一実施形態では、ターゲットパターン特性の変形は、変形を生成するために補間されたメッシュ型モデル
440に基づく。人の奥行きマップ表現400は、キャプチャ済み画像300内の人の奥行き情報を含むが、キャプチャされたオブジェクト354の表面の表面情報および微細スケールの詳細を有していない。
図5は、一実施形態に係る、図3に示すキャプチャ済み画像300内のオブジェクト354の反射マップ表現500の一例である。図5に示す反射マップ表現500は、オブジェクト354の肌領域(例えば、顔および首)の表面上の反射情報だけを含み、オブジェクト354の衣服領域を含まない。衣服領域および反射マップ表現500の背景は、図3に示すキャプチャ済み画像300の対応する部分から取り出される。肌領域だけを作図する1つの理由は、これらの領域のパターン特性の機能的挙動が、図3において上述したようにより見やすいからである。図4に示す奥行きマップ表現400と比較して、反射マップ表現500は、オブジェクト354の表面の微細スケールの詳細を提供する。例えば、反射マップ表現500は、オブジェクト354の顔のまゆ522と、まつ毛523と、頬524と、鼻孔525と、口526の領域を示すが、図4に示す奥行きマップ表現400ではこれらを見ることができない。
図6A〜図6Cは、一実施形態に係る、図3に示すキャプチャ済み画像300内のオブジェクト354の反射マップ表現を生成する多様な態様を示す。より具体的には、図6Aは、一実施形態に係る、オブジェクト354のパターン特性の機能的挙動610と、パターン特性620の除去と、図3に示すキャプチャ済み画像300内のオブジェクト354の結果的に残存する信号630と、の例を示す。610に示す例では、オブジェクト354のパターン特性の機能的挙動は、図3に示すキャプチャ済み画像300内のオブジェクト354に表された水平のストライプの長手方向に対して直交するライン612に沿ったキャプチャされた強度として表現されている。機能的挙動のラインダイアグラム610のピーク値614は、キャプチャ済み画像300内のオブジェクト354のパターン特性(例えば、明るいストライプ)の最大強度を表す。バレー値616は、キャプチャ済み画像300内のオブジェクト354のパターン特性(例えば、明るいストライプ)のうち最小強度を表す。
例620は、パターン特性622の機能挙動に基づくパターン特性622の除去を示す。オブジェクト354からのパターン特性622の除去によって、キャプチャ済み画像300内のオブジェクト(例えば、人)の表面354の反射を表すか、または反射に類似する残存信号624を得る。図6Bにおいてより詳しく以下に記載されるように、パターン特性の除去は、乗算関数654によって実行されてもよい。
結果として生じる残存信号の例630は、パターン特性がキャプチャ済み画像300から除去された後の残存信号624を示す。残存信号624は、キャプチャ済み画像300内のオブジェクトの表面354に対する反射に関する情報を提供し、キャプチャ済み画像300内のオブジェクトの反射マップ表現354を構造化するために使用される。
図6Bは、キャプチャ済み画像300内のオブジェクト354の照射された信号652と、キャプチャ済み画像300内のオブジェクト354の表面上のパターン特性を除去するために使用される乗算関数654と、を示す。より詳細には、乗算関数654は、照射された信号652から導出され、乗算関数654を対応する二次元形体で使用して、キャプチャ済み画像を増加させて、オブジェクト354の反射マップ表現354を生成する。
図6Cは、元の信号672の他の例670と、乗算関数674と、照射モデル676と、を示す。
図7は、一実施形態に係る、図4に示すオブジェクトの奥行きマップ表現400と、図5に示すオブジェクトの反射マップ表現500とを組み合わせることによる、図3に示す
オブジェクト354の三次元表現750の生成を示すフロー図700である。図7に示すように、キャプチャ済み画像300は、キャプチャされたオブジェクト354(例えば、人)の上にパターン特性を表す。オブジェクトの奥行きマップ表現400および反射マップ表現500は、オブジェクトのキャプチャ済み画像300から導出され、オブジェクトの奥行きマップ表現400は、オブジェクトの奥行き情報を提供する一方、反射マップ表現500は、オブジェクトの表面の反射情報を提供する。三次元表現750は、オブジェクトの奥行きマップ表現400とオブジェクトの反射マップ表現500とを組み合わせることによって生成される。生成された三次元表現750の実際の三次元効果は、例えば、図1に示すVRヘッドセット140などVR装置を使用することによって立体的に見える。
図8Aは、一実施形態に係る、パターン特性とオブジェクトをキャプチャした画像内のオブジェクトのピクセルとの間の相対位置の効果の一例を示す。図8Aでは、ラインダイアグラム810は、パターン特性が、キャプチャ済み画像のオブジェクトのピクセルの中心に沿ってセンタリングされることを示している。ラインダイアグラム820は、機能的挙動に従ってパターン特性を除去するために適用される補正モジュールを示し、ラインダイアグラム830は、パターン特性の完全除去を示している。
図8Bは、一実施形態に係る、パターン特性とオブジェクトをキャプチャした画像内のオブジェクトのピクセルとの間の相対位置の効果の他の例を示す。図8Bでは、ラインダイアグラム860は、パターン特性が、キャプチャ済み画像のオブジェクトのピクセルの中心に沿ってセンタリングされないことを示している。ラインダイアグラム870は、機能的挙動に従ってパターン特性を除去するために適用される補正モジュールを示し、ラインダイアグラム880は、パターン特性のズレのために、パターン特性の除去が完全ではないことを示している。
いくつかの実施形態では、キャプチャ済み画像内のオブジェクトのピクセルの中心に沿ってセンタリングされていないパターン特性に対して、オブジェクトのピクセルの中心に対するパターン特性のズレは、副解像度の補正によって補正され、補正された反射マップ表現が、かかる補正によって生成される。ピクセルの中心に対するパターン特性のズレの補正は、隣接ピクセルにわたる光の分布を追跡する工程と、二次元または三次元の複数のピクセルにわたる全体的な分布パターンを、ピクセルサイズより小さい単一ピクセル上のスポットへマッピングする工程と、を備えてもよい。副解像度の補正に関する更なる詳細は、米国特許出願第14/595,369号において見出される。
図9Aは、一実施形態に係る、オブジェクトの奥行きマップ表現をオブジェクトの反射マップ表現で増補することによって、プロセッサ200が、オブジェクトをキャプチャした画像内のオブジェクトの三次元表現を生成するプロセスを示す例示的なフローチャート900である。最初に、シーン内のオブジェクトは、発光体(例えば、図2Bの発光体265)によって、立体照明が照射され(910)、照射されたオブジェクトの画像は、画像センサ(例えば、図2Bのセンサ266)によってキャプチャされる。上述のように、キャプチャ済み画像は、立体照明によって提供された照射パターンに由来するパターン特性を表す。プロセッサ200は、キャプチャ済み画像内のパターン特性を分析する(930)。プロセッサ200は、分析されたパターン特性に基づいて、キャプチャ済み画像からオブジェクトの奥行きマップ表現を生成する(940)。プロセッサ200はまた、分析された特性に基づいて、キャプチャ済み画像からオブジェクトの反射マップ表現を生成する(950)。
オブジェクトの反射マップ表現を生成するために、プロセッサ200はまず、キャプチャ済み画像に示されるオブジェクトにわたるパターン特性を指標化し(952)、その後
、オブジェクトの表面上のパターン特性の機能的挙動を導出する(954)。機能的挙動を導出した後、プロセッサ200は、キャプチャ済み画像からパターン特性を除去して(956)、オブジェクトの反射マップ表現を生成する。
奥行きマップ表現および反射マップ表現が両方とも生成された後、プロセッサ200は、オブジェクトの奥行きマップ表現と反射マップ表現とを組み合わせることによって、オブジェクトの三次元表現を生成する(960)。プロセッサ200は、オブジェクトの1以上の追加の画像および追加の照射によって、オブジェクトの拡張三次元表現を更に生成する(970)。
図9Bは、一実施形態に係る、図9Aに示すプロセスに基づいて、拡張三次元表現を生成するプロセスを示す例示的なフローチャートである。図9Bに示すように、追加の発光体は、追加の照射をオブジェクトに提供して、反射マップ表現の構造を改善する(971)。シーン内のオブジェクトの1以上の追加の画像がキャプチャされる(972)。プロセッサ200は、追加の照射によって改善された反射マップ表現とともに追加の画像をオブジェクトの奥行きマップ表現に登録する(973)。プロセッサ200は、登録された追加の画像に基づいて、オブジェクト上の追加の三次元データを導出する(974)。プロセッサ200は、追加の三次元データおよび改善された反射マップ表現に基づいて、オブジェクトの拡張三次元表現を生成する(975)。
追加の構成情報
本開示の実施形態に関するこれまでの説明は、説明の目的のために提示され、包括的であることを意図するものではなく、開示された正確な形態に本開示を限定する意図はない。当業者であれば、上述の開示に照らせば、多数の変更例および変形例が可能であることが理解可能である。
本明細書の一部は、情報に関する動作のアルゴリズムおよびシンボリックな表現という観点から本開示の実施形態を説明している。データ処理分野の当業者は、これらのアルゴリズム的な説明および表現を一般的に使用して、当業者の仕事の重要な部分を他の当業者に伝達している。これらの動作は、機能的、算術的、または論理的に説明される一方、コンピュータプログラムまたは同等の電気回路、マイクロコード等によって実施されると理解されたい。更に、一般性を失うことなく、これらの動作の構成をモジュールと言及することがときには便宜的であることが証明されている。説明された動作およびその関連するモジュールは、ソフトウエア、ファームウエア、ハードウェア、またはこれらの任意の組み合わせにおいて具現化されてもよい。
本明細書に記載の工程、動作、または処理のうち任意のものは、1以上のハードウェアまたはソフトウェアモジュールを使用して、単独でまたは他の装置と組み合わせて実行または実施されてもよい。一実施形態では、ソフトウェアモジュールは、説明された工程、動作、または処理のうちいずれかまたは全てを実行するためのコンピュータプロセッサによって実行可能なコンピュータプログラムコードを含むコンピュータ可読媒体を備えるコンピュータプログラムプロダクトを使用して実施される。
本開示の実施形態はまた、本明細書に記載の動作を実行するための装置に関する場合がある。この装置は、要求される目的のために特別に設計されてもよく、および/またはコンピュータに記憶されているコンピュータプログラムによって選択的に作動または再設定される汎用コンピューティング装置を含んでもよい。このようなコンピュータプログラムは、非一時的、有形コンピュータ可読記憶媒体、またはコンピュータシステムバスに接続することができる電子命令を記憶するために好適な任意のタイプの媒体に記憶されてもよい。更に、本明細書に言及される任意のコンピューティングシステムは、単一のプロセッ
サを含み、コンピューティング能力を高めるために複数のプロセッサの設計を用いるアーキテクチャであってもよい。
本開示の実施形態はまた、本明細書に記載のコンピューティング処理によって生成されるプロダクトに関する。かかるプロダクトは、コンピューティング処理に由来する情報であって、非一時的、有形コンピュータ可読記憶媒体に記憶される情報であり、コンピュータプログラムプロダクトまたは本明細書に記載の他のデータの組み合わせの任意の実施形態を含んでもよい。
最後に、本明細書で使用される言語は、可読性および指示的な目的のために主に選択されたものであり、発明性を有する主題を記述または限定するために選択されたものではない場合がある。したがって、本開示の範囲は、本明細書の詳細な説明によって限定されることを意図しておらず、本明細書に基づく出願に基づく任意の請求項によって限定される。したがって、実施形態の開示は、以下の請求項に記載される、本開示の範囲を限定するのではなく、本開示の範囲の説明を目的としている。

Claims (20)

  1. 照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    記オブジェクトの画像をキャプチャする工程であって、記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を備え
    前記反射マップ表現生成工程は、
    キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
    前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
    前記パターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、方法。
  2. 前記指標化工程は、
    前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項に記載の方法。
  3. 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項に記載の方法。
  4. 前記除去工程は、
    乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
    前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項に記載の方法。
  5. 前記除去工程は、
    キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
    前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項1に記載の方法。
  6. 追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項1に記載の方法。
  7. 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
    前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
    前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
    追加の三次元データを前記1以上の追加の画像から導出する工程と、
    前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項1に記載の方法。
  8. 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項に記載の方法。
  9. 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項1に記載の方法。
  10. コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
    照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせ、
    前記反射マップ表現生成工程は、
    キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
    前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
    前記少なくとも1つのパターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、非一時的コンピュータ可読記憶媒体。
  11. 前記指標化工程は、
    前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  12. 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記除去工程は、
    乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
    前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記除去工程は、
    キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
    前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  15. 追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  16. 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
    前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
    前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
    追加の三次元データを前記1以上の追加の画像から導出する工程と、
    前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  17. 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項16に記載の非一時的コンピュータ可読記憶媒体。
  18. 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  19. コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
    照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせる、非一時的コンピュータ可読記憶媒体。
  20. コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
    照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、
    前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程と、を行わせ、
    前記拡張三次元表現生成工程は、
    前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
    前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
    追加の三次元データを前記1以上の追加の画像から導出する工程と、
    前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、非一時的コンピュータ可読記憶媒体。
JP2017558699A 2015-05-13 2016-05-13 反射マップ表現による奥行きマップ表現の増補 Active JP6377863B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562160957P 2015-05-13 2015-05-13
US62/160,957 2015-05-13
PCT/US2016/032230 WO2016183395A1 (en) 2015-05-13 2016-05-13 Augmenting a depth map representation with a reflectivity map representation

Publications (3)

Publication Number Publication Date
JP2018518750A JP2018518750A (ja) 2018-07-12
JP6377863B2 true JP6377863B2 (ja) 2018-08-22
JP2018518750A5 JP2018518750A5 (ja) 2018-08-23

Family

ID=57248653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017558699A Active JP6377863B2 (ja) 2015-05-13 2016-05-13 反射マップ表現による奥行きマップ表現の増補

Country Status (6)

Country Link
US (1) US9947098B2 (ja)
EP (1) EP3295239B1 (ja)
JP (1) JP6377863B2 (ja)
KR (1) KR101892168B1 (ja)
CN (1) CN107850782B (ja)
WO (1) WO2016183395A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5926184B2 (ja) * 2009-09-22 2016-05-25 ペブルステック リミテッド コンピュータ装置の遠隔制御
EP3243188A4 (en) * 2015-01-06 2018-08-22 Facebook Inc. Method and system for providing depth mapping using patterned light
US10440355B2 (en) * 2015-11-06 2019-10-08 Facebook Technologies, Llc Depth mapping with a head mounted display using stereo cameras and structured light
US10276210B2 (en) 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
US9947099B2 (en) * 2016-07-27 2018-04-17 Microsoft Technology Licensing, Llc Reflectivity map estimate from dot based structured light systems
US10681331B2 (en) * 2017-02-06 2020-06-09 MODit 3D, Inc. System and method for 3D scanning
US10620316B2 (en) * 2017-05-05 2020-04-14 Qualcomm Incorporated Systems and methods for generating a structured light depth map with a non-uniform codeword pattern
KR102457462B1 (ko) * 2018-03-06 2022-10-21 삼성전자주식회사 전자장치의 이미지 처리 장치 및 방법
US10935376B2 (en) * 2018-03-30 2021-03-02 Koninklijke Philips N.V. System and method for 3D scanning
CN109087347B (zh) * 2018-08-15 2021-08-17 浙江光珀智能科技有限公司 一种图像处理方法及装置
US11100713B2 (en) 2018-08-17 2021-08-24 Disney Enterprises, Inc. System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems
US10909373B1 (en) * 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light
CN109375232B (zh) * 2018-10-17 2021-01-26 维沃移动通信(杭州)有限公司 一种距离测量方法及装置
KR20200049958A (ko) * 2018-10-29 2020-05-11 삼성전자주식회사 3차원 깊이 측정 장치 및 방법

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5878152A (en) * 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
JP3714063B2 (ja) * 1999-10-19 2005-11-09 富士ゼロックス株式会社 3次元形状計測装置
US6754370B1 (en) * 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
EP1258837A1 (en) * 2001-05-14 2002-11-20 Thomson Licensing S.A. Method to generate mutual photometric effects
WO2003105289A2 (en) * 2002-06-07 2003-12-18 University Of North Carolina At Chapel Hill Methods and systems for laser based real-time structured light depth extraction
JP2005258622A (ja) * 2004-03-10 2005-09-22 Fuji Photo Film Co Ltd 三次元情報取得システムおよび三次元情報取得方法
JP2006163547A (ja) * 2004-12-03 2006-06-22 Canon Inc 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
US20080309662A1 (en) 2005-12-14 2008-12-18 Tal Hassner Example Based 3D Reconstruction
JP5592070B2 (ja) * 2006-03-14 2014-09-17 プライム センス リミティド 三次元検知のために深度変化させる光照射野
JP5174684B2 (ja) * 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
CN101512599B (zh) * 2006-09-21 2012-07-18 汤姆森特许公司 三维模型获取的方法和系统
US7769205B2 (en) * 2006-11-28 2010-08-03 Prefixa International Inc. Fast three dimensional recovery method and apparatus
US20090189858A1 (en) * 2008-01-30 2009-07-30 Jeff Lev Gesture Identification Using A Structured Light Pattern
US8717416B2 (en) * 2008-09-30 2014-05-06 Texas Instruments Incorporated 3D camera using flash with structured light
US8462207B2 (en) * 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8908958B2 (en) * 2009-09-03 2014-12-09 Ron Kimmel Devices and methods of generating three dimensional (3D) colored models
US20120056988A1 (en) * 2010-09-07 2012-03-08 David Stanhill 3-d camera
US8724887B2 (en) * 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US9471864B2 (en) * 2012-06-22 2016-10-18 Microsoft Technology Licensing, Llc Encoding data in depth patterns
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
RU2012145349A (ru) * 2012-10-24 2014-05-10 ЭлЭсАй Корпорейшн Способ и устройство обработки изображений для устранения артефактов глубины
US11509880B2 (en) * 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems
WO2014153022A1 (en) * 2013-03-14 2014-09-25 University Of Southern California Specular object scanner for measuring reflectance properties of objects
US10019843B2 (en) * 2013-08-08 2018-07-10 Facebook, Inc. Controlling a near eye display
US9299188B2 (en) * 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
US9799117B2 (en) * 2013-09-30 2017-10-24 Lenovo (Beijing) Co., Ltd. Method for processing data and apparatus thereof
US20150302648A1 (en) * 2014-02-18 2015-10-22 Sulon Technologies Inc. Systems and methods for mapping an environment using structured light
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
US9664507B2 (en) * 2014-09-17 2017-05-30 Canon Kabushiki Kaisha Depth value measurement using illumination by pixels
CN104539925B (zh) * 2014-12-15 2016-10-05 北京邮电大学 基于深度信息的三维场景增强现实的方法及系统
US9635231B2 (en) * 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US9948920B2 (en) * 2015-02-27 2018-04-17 Qualcomm Incorporated Systems and methods for error correction in structured light
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation

Also Published As

Publication number Publication date
CN107850782A (zh) 2018-03-27
KR20170141808A (ko) 2017-12-26
US20160335773A1 (en) 2016-11-17
US9947098B2 (en) 2018-04-17
EP3295239A1 (en) 2018-03-21
KR101892168B1 (ko) 2018-08-27
CN107850782B (zh) 2019-10-25
EP3295239B1 (en) 2021-06-30
EP3295239A4 (en) 2018-12-26
WO2016183395A1 (en) 2016-11-17
JP2018518750A (ja) 2018-07-12

Similar Documents

Publication Publication Date Title
JP6377863B2 (ja) 反射マップ表現による奥行きマップ表現の増補
JP7076368B2 (ja) レンジゲート式デプスカメラ部品
US10878236B2 (en) Eye tracking using time multiplexing
JP6866365B2 (ja) ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング
EP3262439B1 (en) Using intensity variations in a light pattern for depth mapping of objects in a volume
JP2020034919A (ja) 構造化光を用いた視線追跡
US10762652B2 (en) Hybrid depth detection and movement detection
CN110658914B (zh) 边界区域的闪烁追踪
KR20200012043A (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
US10684674B2 (en) Tracking portions of a user's face uncovered by a head mounted display worn by the user
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
US11533466B2 (en) Active stereo matching for depth applications
US10957059B1 (en) Multi-pattern depth camera assembly
CN106471523B (zh) 使用红外成像的颜色标识
WO2016142489A1 (en) Eye tracking using a depth sensor
KR101296365B1 (ko) 카메라를 이용한 홀로그램 터치 인식방법
JP6929037B2 (ja) 情報処理装置、情報処理方法、プログラム
KR101775110B1 (ko) 고품질 텍스처 획득 방법 및 이를 위한 장치
US11758077B1 (en) Employing sequences of light patterns to synchronize cameras
WO2014017095A1 (en) Low cost, non-intrusive, high accuracy head tracking apparatus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180608

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180608

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180725

R150 Certificate of patent or registration of utility model

Ref document number: 6377863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250