JP6377863B2 - 反射マップ表現による奥行きマップ表現の増補 - Google Patents
反射マップ表現による奥行きマップ表現の増補 Download PDFInfo
- Publication number
- JP6377863B2 JP6377863B2 JP2017558699A JP2017558699A JP6377863B2 JP 6377863 B2 JP6377863 B2 JP 6377863B2 JP 2017558699 A JP2017558699 A JP 2017558699A JP 2017558699 A JP2017558699 A JP 2017558699A JP 6377863 B2 JP6377863 B2 JP 6377863B2
- Authority
- JP
- Japan
- Prior art keywords
- map representation
- representation
- pattern
- reflection
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/23—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0154—Head-up displays characterised by mechanical features with movable elements
- G02B2027/0156—Head-up displays characterised by mechanical features with movable elements with optionally usable elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Description
像から除去され、オブジェクトの反射マップ表現が生成される。生成された奥行きマップ表現および反射マップ表現を組み合わせて、オブジェクトの三次元(3D)表現が生成される。オブジェクトの三次元表現はまた、オブジェクトの反射マップ表現によって提供される表面の詳細およびオブジェクトの奥行きマップ表現によって提供される奥行き情報の両方を反映する。オブジェクトの奥行きマップ表現をオブジェクトの反射マップ表現と組み合わせるプロセスは、オブジェクトの奥行きマップ表現をオブジェクトの反射マップ表現によって増補することに及ぶ。
「立体照明」は、ピクセルの既知の照射パターンを照射されたオブジェクトまたはシーン
に対して投影する1以上の発光体144によって提供される光を意味する。例示的な発光体144として、レーザー発信器および赤外線(IR)パターン発光体を挙げることができる。
キングを見失った(例えば、撮像装置115が少なくとも閾値の数のロケータ148の視線を見失った)場合、トラッキングモジュール124は、VRシステム100の一部または全てを再較正する。
、発光体に照射されたオブジェクトまたはシーンは、立体照明に基づいて特定のパターンを表す。(図1Aに示される)プロセッサ200は、発光体165を制御して、時間によって異なる照射パターンを有する立体照明を提供することができる。簡潔化のために、1つの発光体165だけが図1Bに図示されている。図示しない代替の実施形態では、VRヘッドセット160は、異なるタイプの追加の発光体を有してもよい。例えば、VRヘッドセット160は、シーン内のオブジェクトに追加の照射を提供するための(本明細書には図示しない)追加の発光体を備える。いくつかの実施形態では、図1Bに示す発光体165は、図1Aに示すVRシステム100内の発光体144と同一または同様である。
あってもよく、形状、サイズ、および強度など均一または不均一な特徴を備える。特定の立体照明が照射された例示的なキャプチャ済み画像を図3において以下に説明する。キャプチャ済み画像および関連する画像データ(例えば、強度、奥行き、それぞれのピクセルの傾き)は、以下に詳細に記載されるように、画像データ記憶部232に記憶されている。
対する固有のシグネチャを提供することができる。他の例として、変化は、(同位相ではないが、)周期性であって、最低限のコンピューティングリソースを使用して、最大限の固有の識別を提供してもよい。更に、奥行きマップモジュール214は、2つ以上の異なるタイプの変化を使用してもよい。異なるタイプの変化を互いに対して測定して、キャプチャ済み画像内のオブジェクトの異なる場所に位置するピクセルの奥行き情報を提供することができる。
ストライプ自体は、長手方向の表記を示し、変化は、それぞれのストライプまたはストライプのそれぞれのクラスタを識別および指標化できるように、ストライプによって異なって設けられてもよい。一実施形態では、ストライプによって示される表記は、強度が一定のままである点を考えれば、ピーク強度またはピーク値を有してもよい。全強度は、光源およびオブジェクトを検出するセンサからのオブジェクトの距離が増すに従って徐々に減少することが想定され、センサによってキャプチャされたストライプの強度の減少によって、奥行き情報を提供することができる。いくつかの実施形態では、キャプチャ済み画像内のオブジェクトの絶対輝度はまた、反射表面に依存するが、この場合、光源またはセンサと照射されたオブジェクトとの間の距離を含む複数の要因並びに他の要因(例えば、反射表面の特性)が、奥行き情報を取得するために共に検討される。
ル216は、指標化を適用して、発光体によって提供された照射パターンの特性をキャプチャ済み画像に表されたパターン特性と相関させる。補正によって、キャプチャ済み画像における照射されたオブジェクトの表面に投影されたパターン特性の機能的挙動の算出が更に可能になる。パターン特性の機能的挙動は、所定のラインに沿った撮像強度のようにキャプチャ済み画像において表されたパターン特性と関連する1以上の特性によって表現できる。機能的挙動の例は、以下に詳細に説明されるように図6Aに示されている。パターン特性の機能的挙動から、反射マップモジュール216は、オブジェクトのキャプチャ済み画像からパターン特性を除去することによって、照射されたオブジェクトの実際の表面反射を算出することができる。パターン特性の機能的挙動に基づいて、パターン特性を除去する例は、図6Aおよび図6Bに示されている。
または異なる照射パターンを有する異なるオブジェクトまたは異なるシーンの画像を含んでもよい。画像データ記憶部232はまた、追加のセンサによってキャプチャされた追加の画像と、追加の画像に関連する画像データと、を記憶する。
ジェクト254に対して追加の照射を伴う立体照明を提供して、図2Aにおいて上述したように、反射マップ表現288の構造を改善する。追加のセンサ268は、シーン252内のオブジェクト254の追加の画像269をキャプチャし、図2Aにおいて上述したように、プロセッサ200は、反射マップ表現288に対して、追加の画像を奥行きマップ表現270に登録するよう命令して、拡張三次元表現292を生成する。
440に基づく。人の奥行きマップ表現400は、キャプチャ済み画像300内の人の奥行き情報を含むが、キャプチャされたオブジェクト354の表面の表面情報および微細スケールの詳細を有していない。
図7は、一実施形態に係る、図4に示すオブジェクトの奥行きマップ表現400と、図5に示すオブジェクトの反射マップ表現500とを組み合わせることによる、図3に示す
オブジェクト354の三次元表現750の生成を示すフロー図700である。図7に示すように、キャプチャ済み画像300は、キャプチャされたオブジェクト354(例えば、人)の上にパターン特性を表す。オブジェクトの奥行きマップ表現400および反射マップ表現500は、オブジェクトのキャプチャ済み画像300から導出され、オブジェクトの奥行きマップ表現400は、オブジェクトの奥行き情報を提供する一方、反射マップ表現500は、オブジェクトの表面の反射情報を提供する。三次元表現750は、オブジェクトの奥行きマップ表現400とオブジェクトの反射マップ表現500とを組み合わせることによって生成される。生成された三次元表現750の実際の三次元効果は、例えば、図1に示すVRヘッドセット140などVR装置を使用することによって立体的に見える。
、オブジェクトの表面上のパターン特性の機能的挙動を導出する(954)。機能的挙動を導出した後、プロセッサ200は、キャプチャ済み画像からパターン特性を除去して(956)、オブジェクトの反射マップ表現を生成する。
本開示の実施形態に関するこれまでの説明は、説明の目的のために提示され、包括的であることを意図するものではなく、開示された正確な形態に本開示を限定する意図はない。当業者であれば、上述の開示に照らせば、多数の変更例および変形例が可能であることが理解可能である。
サを含み、コンピューティング能力を高めるために複数のプロセッサの設計を用いるアーキテクチャであってもよい。
Claims (20)
- 照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を備え、
前記反射マップ表現生成工程は、
キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
前記パターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、方法。 - 前記指標化工程は、
前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項1に記載の方法。 - 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項1に記載の方法。
- 前記除去工程は、
乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項1に記載の方法。 - 前記除去工程は、
キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項1に記載の方法。 - 追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項1に記載の方法。 - 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
追加の三次元データを前記1以上の追加の画像から導出する工程と、
前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項1に記載の方法。 - 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項7に記載の方法。
- 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項1に記載の方法。
- コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせ、
前記反射マップ表現生成工程は、
キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
前記少なくとも1つのパターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、非一時的コンピュータ可読記憶媒体。 - 前記指標化工程は、
前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- 前記除去工程は、
乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記除去工程は、
キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
追加の三次元データを前記1以上の追加の画像から導出する工程と、
前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項16に記載の非一時的コンピュータ可読記憶媒体。
- 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせる、非一時的コンピュータ可読記憶媒体。 - コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、
前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程と、を行わせ、
前記拡張三次元表現生成工程は、
前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
追加の三次元データを前記1以上の追加の画像から導出する工程と、
前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562160957P | 2015-05-13 | 2015-05-13 | |
US62/160,957 | 2015-05-13 | ||
PCT/US2016/032230 WO2016183395A1 (en) | 2015-05-13 | 2016-05-13 | Augmenting a depth map representation with a reflectivity map representation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018518750A JP2018518750A (ja) | 2018-07-12 |
JP6377863B2 true JP6377863B2 (ja) | 2018-08-22 |
JP2018518750A5 JP2018518750A5 (ja) | 2018-08-23 |
Family
ID=57248653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017558699A Active JP6377863B2 (ja) | 2015-05-13 | 2016-05-13 | 反射マップ表現による奥行きマップ表現の増補 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9947098B2 (ja) |
EP (1) | EP3295239B1 (ja) |
JP (1) | JP6377863B2 (ja) |
KR (1) | KR101892168B1 (ja) |
CN (1) | CN107850782B (ja) |
WO (1) | WO2016183395A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5926184B2 (ja) * | 2009-09-22 | 2016-05-25 | ペブルステック リミテッド | コンピュータ装置の遠隔制御 |
EP3243188A4 (en) * | 2015-01-06 | 2018-08-22 | Facebook Inc. | Method and system for providing depth mapping using patterned light |
US10440355B2 (en) * | 2015-11-06 | 2019-10-08 | Facebook Technologies, Llc | Depth mapping with a head mounted display using stereo cameras and structured light |
US10276210B2 (en) | 2015-11-18 | 2019-04-30 | International Business Machines Corporation | Video enhancement |
US9947099B2 (en) * | 2016-07-27 | 2018-04-17 | Microsoft Technology Licensing, Llc | Reflectivity map estimate from dot based structured light systems |
US10681331B2 (en) * | 2017-02-06 | 2020-06-09 | MODit 3D, Inc. | System and method for 3D scanning |
US10620316B2 (en) * | 2017-05-05 | 2020-04-14 | Qualcomm Incorporated | Systems and methods for generating a structured light depth map with a non-uniform codeword pattern |
KR102457462B1 (ko) * | 2018-03-06 | 2022-10-21 | 삼성전자주식회사 | 전자장치의 이미지 처리 장치 및 방법 |
US10935376B2 (en) * | 2018-03-30 | 2021-03-02 | Koninklijke Philips N.V. | System and method for 3D scanning |
CN109087347B (zh) * | 2018-08-15 | 2021-08-17 | 浙江光珀智能科技有限公司 | 一种图像处理方法及装置 |
US11100713B2 (en) | 2018-08-17 | 2021-08-24 | Disney Enterprises, Inc. | System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems |
US10909373B1 (en) * | 2018-08-24 | 2021-02-02 | Snap Inc. | Augmented reality system using structured light |
CN109375232B (zh) * | 2018-10-17 | 2021-01-26 | 维沃移动通信(杭州)有限公司 | 一种距离测量方法及装置 |
KR20200049958A (ko) * | 2018-10-29 | 2020-05-11 | 삼성전자주식회사 | 3차원 깊이 측정 장치 및 방법 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5878152A (en) * | 1997-05-21 | 1999-03-02 | Cognex Corporation | Depth from focal gradient analysis using object texture removal by albedo normalization |
JP3714063B2 (ja) * | 1999-10-19 | 2005-11-09 | 富士ゼロックス株式会社 | 3次元形状計測装置 |
US6754370B1 (en) * | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
EP1258837A1 (en) * | 2001-05-14 | 2002-11-20 | Thomson Licensing S.A. | Method to generate mutual photometric effects |
WO2003105289A2 (en) * | 2002-06-07 | 2003-12-18 | University Of North Carolina At Chapel Hill | Methods and systems for laser based real-time structured light depth extraction |
JP2005258622A (ja) * | 2004-03-10 | 2005-09-22 | Fuji Photo Film Co Ltd | 三次元情報取得システムおよび三次元情報取得方法 |
JP2006163547A (ja) * | 2004-12-03 | 2006-06-22 | Canon Inc | 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。 |
US20080309662A1 (en) | 2005-12-14 | 2008-12-18 | Tal Hassner | Example Based 3D Reconstruction |
JP5592070B2 (ja) * | 2006-03-14 | 2014-09-17 | プライム センス リミティド | 三次元検知のために深度変化させる光照射野 |
JP5174684B2 (ja) * | 2006-03-14 | 2013-04-03 | プライムセンス リミテッド | スペックル・パターンを用いた三次元検出 |
US20110057930A1 (en) * | 2006-07-26 | 2011-03-10 | Inneroptic Technology Inc. | System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy |
CN101512599B (zh) * | 2006-09-21 | 2012-07-18 | 汤姆森特许公司 | 三维模型获取的方法和系统 |
US7769205B2 (en) * | 2006-11-28 | 2010-08-03 | Prefixa International Inc. | Fast three dimensional recovery method and apparatus |
US20090189858A1 (en) * | 2008-01-30 | 2009-07-30 | Jeff Lev | Gesture Identification Using A Structured Light Pattern |
US8717416B2 (en) * | 2008-09-30 | 2014-05-06 | Texas Instruments Incorporated | 3D camera using flash with structured light |
US8462207B2 (en) * | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US9582889B2 (en) * | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US8908958B2 (en) * | 2009-09-03 | 2014-12-09 | Ron Kimmel | Devices and methods of generating three dimensional (3D) colored models |
US20120056988A1 (en) * | 2010-09-07 | 2012-03-08 | David Stanhill | 3-d camera |
US8724887B2 (en) * | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
US9471864B2 (en) * | 2012-06-22 | 2016-10-18 | Microsoft Technology Licensing, Llc | Encoding data in depth patterns |
US10234941B2 (en) * | 2012-10-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Wearable sensor for tracking articulated body-parts |
RU2012145349A (ru) * | 2012-10-24 | 2014-05-10 | ЭлЭсАй Корпорейшн | Способ и устройство обработки изображений для устранения артефактов глубины |
US11509880B2 (en) * | 2012-11-14 | 2022-11-22 | Qualcomm Incorporated | Dynamic adjustment of light source power in structured light active depth sensing systems |
WO2014153022A1 (en) * | 2013-03-14 | 2014-09-25 | University Of Southern California | Specular object scanner for measuring reflectance properties of objects |
US10019843B2 (en) * | 2013-08-08 | 2018-07-10 | Facebook, Inc. | Controlling a near eye display |
US9299188B2 (en) * | 2013-08-08 | 2016-03-29 | Adobe Systems Incorporated | Automatic geometry and lighting inference for realistic image editing |
US9799117B2 (en) * | 2013-09-30 | 2017-10-24 | Lenovo (Beijing) Co., Ltd. | Method for processing data and apparatus thereof |
US20150302648A1 (en) * | 2014-02-18 | 2015-10-22 | Sulon Technologies Inc. | Systems and methods for mapping an environment using structured light |
US9507995B2 (en) * | 2014-08-29 | 2016-11-29 | X Development Llc | Combination of stereo and structured-light processing |
US9664507B2 (en) * | 2014-09-17 | 2017-05-30 | Canon Kabushiki Kaisha | Depth value measurement using illumination by pixels |
CN104539925B (zh) * | 2014-12-15 | 2016-10-05 | 北京邮电大学 | 基于深度信息的三维场景增强现实的方法及系统 |
US9635231B2 (en) * | 2014-12-22 | 2017-04-25 | Google Inc. | Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions |
US9948920B2 (en) * | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US20160324580A1 (en) * | 2015-03-23 | 2016-11-10 | Justin Esterberg | Systems and methods for assisted surgical navigation |
-
2016
- 2016-05-13 US US15/153,741 patent/US9947098B2/en active Active
- 2016-05-13 KR KR1020177035777A patent/KR101892168B1/ko active IP Right Grant
- 2016-05-13 JP JP2017558699A patent/JP6377863B2/ja active Active
- 2016-05-13 WO PCT/US2016/032230 patent/WO2016183395A1/en active Application Filing
- 2016-05-13 CN CN201680041776.5A patent/CN107850782B/zh active Active
- 2016-05-13 EP EP16793578.2A patent/EP3295239B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107850782A (zh) | 2018-03-27 |
KR20170141808A (ko) | 2017-12-26 |
US20160335773A1 (en) | 2016-11-17 |
US9947098B2 (en) | 2018-04-17 |
EP3295239A1 (en) | 2018-03-21 |
KR101892168B1 (ko) | 2018-08-27 |
CN107850782B (zh) | 2019-10-25 |
EP3295239B1 (en) | 2021-06-30 |
EP3295239A4 (en) | 2018-12-26 |
WO2016183395A1 (en) | 2016-11-17 |
JP2018518750A (ja) | 2018-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6377863B2 (ja) | 反射マップ表現による奥行きマップ表現の増補 | |
JP7076368B2 (ja) | レンジゲート式デプスカメラ部品 | |
US10878236B2 (en) | Eye tracking using time multiplexing | |
JP6866365B2 (ja) | ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング | |
EP3262439B1 (en) | Using intensity variations in a light pattern for depth mapping of objects in a volume | |
JP2020034919A (ja) | 構造化光を用いた視線追跡 | |
US10762652B2 (en) | Hybrid depth detection and movement detection | |
CN110658914B (zh) | 边界区域的闪烁追踪 | |
KR20200012043A (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 | |
US10684674B2 (en) | Tracking portions of a user's face uncovered by a head mounted display worn by the user | |
JP6583734B2 (ja) | 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム | |
US11533466B2 (en) | Active stereo matching for depth applications | |
US10957059B1 (en) | Multi-pattern depth camera assembly | |
CN106471523B (zh) | 使用红外成像的颜色标识 | |
WO2016142489A1 (en) | Eye tracking using a depth sensor | |
KR101296365B1 (ko) | 카메라를 이용한 홀로그램 터치 인식방법 | |
JP6929037B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
KR101775110B1 (ko) | 고품질 텍스처 획득 방법 및 이를 위한 장치 | |
US11758077B1 (en) | Employing sequences of light patterns to synchronize cameras | |
WO2014017095A1 (en) | Low cost, non-intrusive, high accuracy head tracking apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180608 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180608 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180608 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6377863 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |