JP6257064B2 - 深度カメラを用いたリアルタイム3d再構成 - Google Patents

深度カメラを用いたリアルタイム3d再構成 Download PDF

Info

Publication number
JP6257064B2
JP6257064B2 JP2016534931A JP2016534931A JP6257064B2 JP 6257064 B2 JP6257064 B2 JP 6257064B2 JP 2016534931 A JP2016534931 A JP 2016534931A JP 2016534931 A JP2016534931 A JP 2016534931A JP 6257064 B2 JP6257064 B2 JP 6257064B2
Authority
JP
Japan
Prior art keywords
model
depth
voxel
current
measurement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016534931A
Other languages
English (en)
Other versions
JP2017509035A (ja
Inventor
シー. ルーカス、ブレイク
シー. ルーカス、ブレイク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2017509035A publication Critical patent/JP2017509035A/ja
Application granted granted Critical
Publication of JP6257064B2 publication Critical patent/JP6257064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本明細書で説明された複数の実施形態は、概して、複数のデジタル画像から3次元(3D)モデルを構成することに関し、より具体的には、深度カメラを用いたリアルタイム3D再構成に関する。
画像データからのターゲット(例えば、関心のある被写体)の3Dモデリング(例えば、再構成)は、一般的なコンピュータビジョンの主題である。画像データからターゲットの3Dモデルを作成する場合、一般的な使用(ユーザ体験)は、ユーザにリアルタイムに被写体の3Dモデルおよび被写体に対する現在のカメラの姿勢を表示する一方で、手にカメラを保持し、ターゲットの周囲でカメラを移動させる。代替的に、カメラが静止されたままでよく、ターンテーブルが被写体を回転するために用いられてよい。いずれの状況においても、3Dモデルを作成するための情報を収集するために、ターゲットの異なる複数の面がカメラにさらされる。
必ずしも一定の尺度で描かれない図面において、同じ数字は、異なる図面における同様のコンポーネントを示してよい。異なる添え字を有する複数の同様な符号は、同様な複数の構成要素の異なる複数の事例を表してよい。例として、概して本明細書で説明される様々な実施形態を複数の図面が図示するが、それらには限定されない。
一実施形態に係る深度カメラを用いたリアルタイム3D再構成に関する装置を含むシステムの一例のブロック図である。
一実施形態に係る、モデルのボクセルグリッド、深度カメラおよびターゲットの一例を図示する。
一実施形態に係る、モデルのボクセルグリッド、複数の深度カメラおよびターゲットの一例を図示する。
一実施形態に係る、ボクセルグリッド上のモデルの符号付距離場の一例を図示する。
一実施形態に係る、ボクセルグリッド上の複数の勾配を有する拡張されたモデルの符号付距離場の一例を図示する。
一実施形態に係る、深度カメラを用いたリアルタイム3D再構成に関する方法の一例のフロー図を図示する。
一実施形態に係る、深度カメラを用いたリアルタイム3D再構成に関する方法の一例のフロー図を図示する。
機械の一例を示すブロック図である。当該機械で1又は複数の実施形態が実現され得る。
一例において、深度カメラからのターゲットの3Dモデリングは、「ボトムアップ」アプローチを用いてよい。ボトムアップアプローチにおいて、モデルを形成するために、複数の深度画像が撮られ、現在のデータに登録され、蓄積される。このアプローチの欠点は、関心のある被写体がカメラの視野のごく一部のみを占めてよい場合であっても、計算領域がカメラの視野の全てを含まなくてはならないことである。被写体を含ない空間の複数の領域を除外することにより、計算領域を徐々に減少させる見込みがある。より多くのカメラデータが撮られるにつれて、複数の計算領域を減らすことが、3D再構成のかなりの速度アップとなる。
別の欠点は、後処理をさらに有さない不完全な深度データに関するモデルにおいて、閉曲面を欠くことである。すなわち、ボトムアップアプローチが深度測定の終わりにモデルの要素を原則的に配置するので、複数の深度測定が欠けているところはどこでも、モデルのそのような要素が配置されない。これは、モデルの表面の複数の穴(例えば、欠けている複数の部分)を招き得るので、内部/外部の割り当てのない開放表面をもたらすことになる。例えば、その両極に窪みを有する球体の赤道周りを回転する深度カメラは、複数の窪みに関する複数の深度測定を得ることができないであろう。したがって、ボトムアップアプローチは、モデルに関するこれらの窪みに複数の要素を配置しない。表面が閉じられることを要求する様々な応用(例えば、3Dプリンティング)では、表面のそのような複数の穴が問題になり得る。
ターゲット被写体のボトムアップ3Dモデリングの短所に対処するために、トップダウン3Dモデリングアプローチが使用されてよい。トップダウンアプローチにおいて、ひとつずつ、モデルが集められるのではなく、むしろ初期化された形状から切り分けられる。例えば、各深度測定がターゲットを包含するのに十分な大きさの3D形状(例えば、木のブロック)に当てはめられるカッティングレーザとして考えられ得る。レーザに当てられる形状の複数の部分が除去される。モデルが固体塊として表されるので、常に、それが閉曲面を保持する。
本明細書で説明されるアプローチが蓄積された複数の深度測定およびカービングされたモデルに関する別個の複数のデータ構造を保持し、ボトムアップおよびトップダウン再構成の両方として考えられる。モデルが符号付距離場として保持されてよい。そのようなモデル表現が、貴重な計算の節約、例えば、深度画像登録を可能にする。さらに、符号付距離場としてのモデルのメンテナンスが、点がモデルの内部かモデルの外部か、又は、さらにモデルの境界(例えば、表面)にどれくらい近い点であるかどうかを判断する計算複雑度を減少させる。複数の深度測定が複数の符号付距離場の現在の重み付けされた平均として格納されるが、複数の符号付距離場が線形ベクトル空間を形成しないので(すなわち、複数の符号付距離場の複数の線形の組み合わせが必ずしも複数の符号付距離場ではなく)、蓄積された深度および複数のモデル表現が別個に保持される。
トップダウンアプローチが、前述の窪みのある球体の例を用いたボトムアップアプローチと対比され得る。ボトムアップアプローチは、窪んだ両極におけるモデル表面を未完了のまま残す一方で、トップダウンアプローチは、両極からモデル材料を除去するであろう。それにより、"埋める"効果を引き起こす。しかしながら、球体の表面が完成されるであろう。他の例の対比において、トップダウンアプローチでは、被写体を表現するために残すモデル「材料」がない(例えば、既に除去されていた)ので、ターゲット近傍の空の空間を通過する誤った被写体が無視されるであろう。対照的に、ボトムアップアプローチは、被写体の誤った性質を判断し、その深度データのモデルへの追加を避けるために、追加の処理が必要であろう。
図1は、一実施形態に係る深度カメラ145を用いたトップダウンリアルタイム3Dモデリングに関する装置105を含むシステム100の一例のブロック図である。図示されるように、深度カメラ145は、複数の深度画像を撮るために、ターゲット150の周りを回転する。しかしながら、上述の通り、深度カメラ145が静止したままである一方で、ターゲット150がターンテーブル(又は同様のデバイス)上に配置され、回転されてよい。これらの複数の例において、深度カメラ145がターゲットの外部から複数の深度画像を撮る。一例において、深度カメラ145がターゲット内(例えば、空間、開空間、中空球の内部など)に配置されてよく、内部の複数の深度画像を収集するために移動されてよい。この例において、本明細書で原理が示され、さらに適用されるが、異なるモデル初期化形態が使用されてよい。例えば、大きな立方体が、空間全体を包含してよく、その中からモデルがカービングアウトされる。そのような複数の例において、モデル境界が位置する場所のように、本明細書で説明される様々な技術の方向性を提供するためにフラグが設定されてよい。
装置105は、(例えば、機械可読媒体に格納された)深度測定データ構造110、(例えば、機械可読媒体に格納された、ターゲット150の)モデル115、登録モジュール120、蓄積モジュール125、およびモデル変形モジュール130を含む、多数のコンポーネントを含んでよい。装置105は、フィルタモジュール135、初期化モジュール155、又はメッシュモジュール140の1又は複数を任意に含んでもよい。複数のモジュールの全ては、図8に関連して後述の通り、ハードウェアのかたちで実装される。
深度測定データ構造110は、ターゲット150の深度カメラ145から受信した複数の深度測定を格納するよう構成され(例えば、配置され)てよい。一例において、深度測定データ構造110は、ターゲット150を包含する空間内の複数の点に対応するボクセルグリッドである。一例において、深度測定データ構造ボクセルグリッドが、モデルのボクセルグリッドとして等価物(例えば、同一の属性を有する異なるグリッド)である。
モデル115は、ターゲット150の3次元表現を格納するように構成されてよい。一例において、モデル115は、ターゲット150を包含する空間内の複数の点に対応するボクセルグリッドである。
登録モジュール120は、深度カメラ145から受信されたモデル115に現在の深度画像を登録するように構成されてよい。画像が撮られたとき、登録がカメラの姿勢を判断することを大抵伴う。カメラの姿勢が被写体の正面を向いている間に撮られた第1の画像と、その姿勢が被写体の後方を向いた場合に撮られた第2の画像とを考えると、この動作の価値は明らかである。コストがかかる深度カメラ145の制御(例えば、登録データを提供するための複数のステッピングモータ又は他の複数のセンサ)を避けるために、ターゲット150に関連する深度カメラの姿勢を判断すべく、深度画像がモデル115と比較されてよい。
一例において、モデル115に深度画像を登録することは、モデル115においてボクセルを選択するように構成された登録モジュール120を含んでよい。モデル115の符号付距離場が現在のボクセルの周辺空間内に拡張されてよく、現在のボクセルに関する勾配が算出されてよい。図5は、複数の勾配の拡張および計算を図示する。登録モジュール120は、勾配に従って現在のボクセルに対応する、モデル115におけるターゲット150の境界上の対応点を算出するように構成されてもよい。すなわち、モデル115の拡張された点から表面の点に戻るように線を引くために、勾配が用いられてよい。次に、対応点が格納されてよい。一例において、登録モジュール120は、ボクセルを選択し、符号付距離場を拡張し、勾配を算出し、対応点を算出し、モデル115の複数のボクセルに関する対応点を格納することを反復するように構成されてよい。一例において、複数のボクセルは、モデル115におけるターゲット150の境界近傍に存在するように、選択されてよい。そのような選択は、計算される複数の対応点の数を減少させ、したがって、登録の計算効率を増加させる。しかしながら、例えば、Iterative Closest Point(ICP)アルゴリズムにおいて使用され得る減少された点の数は、登録の精度に影響を与え得る。したがって、一例において、表面近傍の複数のボクセルの選択は、ある深度画像から別への深度カメラの姿勢の変化が小さい場合の、複数の例に限定され得る。一例において、変化が32ミリメートル又はそれより小さいものに限定される。
一例において、登録モジュール120は、現在の深度画像から3D点に、格納された複数の対応点の集合を関連付けるように構成されてよい。登録モジュール120は、第1の姿勢から深度カメラ145の剛体運動を判断するために格納された複数の対応点の集合を用いてよい。第1の姿勢からの剛体運動が深度カメラ145の第2の姿勢を判断するために用いられてよい。これは、例えば、ICP技術を用いて実現されてよい。ICPが複数の対応点を判断するのに計算時間のほとんどを費やすので、拡張された符号付深度フィールドから計算された格納された複数の対応点の使用が限られたハードウェア又は限られた時間でICPが動作する能力を高める。
以下は、登録モジュール120の例示の動作の状況である。モデル初期化の後、第1の深度画像に基づいて、後の複数の画像が現在のモデル推定に登録されてよい。3D登録へのICPアプローチは、ソース上(例えば、現在の深度画像から)の対応する複数の最近傍点pおよびp'、およびターゲット(例えば、モデル115)表面を特定し、これらの間(すなわち、
Figure 0006257064
)剛体運動Mについて解く。Mをソースメッシュに適用した後、対応する複数の最近傍点が変化し得る。従って、剛体回転の再推定が実行され得る。ICPアルゴリズムが、収束するまで、剛体運動の推定と複数の点集合の変換とを交互に繰り返す。上述の通り、計算時間のほとんどが複数の最近傍点を計算するのに費やされる。複数の空間検索データ構造(例えば、KD木)が複数の点対応を見つけるために用いられ得るが、今日の処理ハードウェアに共通の並列性を利用すると同時に、代替的なアプローチが複数の点対応を判断するのにより高い効率性を提供し得る。
モデル115のレベル集合画像の各ボクセルについて、現在のモデルに関する符号付距離場が
φ(・)←Φ{φ}(・)
によって周辺空間に拡張されてよい。さらに、拡張された画像の各ボクセルに関し、モデルのレベル集合の勾配が算出されてよく、次に流線が現在のボクセル位置から、以下の固定点反復スキームを有するモデル115のターゲットの境界に戻って引かれてよい。
Figure 0006257064
これは点Xに収束する。これに続いて、反復スキーム、モデル115のターゲット150の周りの空間の各ボクセルXinについて、モデル上の対応する最近傍点Xが判断されている。これらの複数の対応点が独立に解決されてよい。したがって、M個のボクセルとP個の処理ユニットを考慮する場合、複数の対応点の判断の計算複雑度はO(M/P)である。しかしながら、上述の通り、剛体運動が小さい場合、次の複数の最近傍点の計算がモデル115のターゲット150の表面近傍であることに限定されてよい。この例において、計算複雑度がO(M/P)にさらに減少される。
以下の疑似コードは、完全な3D登録パイプラインの一例を図示する。
Figure 0006257064
ICPのこの変形は、高速の複数の対応計算を可能にし、十分に並列化し、固定メモリフットプリントを有する。
蓄積モジュール125は、その登録に基づく現在の深度画像を有する深度測定データ構造110を修正するように構成されてよい。例えば、蓄積モジュール125は、現在の深度画像からの新たな深度データを有する深度測定データ構造110を更新する。一例において、深度測定データ構造110を修正するために、蓄積モジュール125は、深度カメラ145の焦点から点に引かれた光線の角度に基づいて、現在の深度画像の点に重み付けるように構成されてよい。深度カメラ145の姿勢に基づいて焦点および角度が判断されてよい。現在の深度画像の登録から姿勢が判断されてよい。一例において、角度が90度に近づいた(例えば、光線が深度カメラの視野に直交する又は被写体のシルエット145に沿って点が位置する)とき、重み付けがより低くなってよい(例えば、より低い重みが割り当てられる)。
一例において、蓄積モジュール125は、同じ点に関して、前回の重みと、その重みを組み合わせてよい。一例において、組み合わせが点の複数の重みの平均であってよい。一例において、蓄積モジュール125は、複数の点の複数の重みを組み合わせてよい(例えば、各点に関して計算された複数の重みをそれぞれ組み合わせる)。一例において、蓄積モジュール125は、点に関する色情報を蓄積するように構成されてもよい。例えば、深度カメラ145は、深度画像を撮る一方、可視スペクトル光(例えば、赤−緑−青(RGB))を撮ることが可能であってもよい。
以下は、蓄積モジュール125の例示の動作の状況である。モデルのレベル集合として同一のグリッド解像度でボクセルグリッド(例えば、深度測定データ構造110)に複数の深度測定が蓄積されてよい。現在の深度画像φ(X)の外枠が次式による複数の重みで算出されてよい。
Figure 0006257064
ここで、
Figure 0006257064
がXにより深度カメラの焦点から引かれた光線の方向である。深度カメラ145およびφの間の点乗積で、複数の深度測定を重み付けすることによりカメラの視野に直交する深度マップの一部に、より高い信用が割り当てられてよい。閾値dがノイズの軽減に役立つ。すなわち、dは、±d内に複数の深度画像のサポートを限定すべく動作する。したがって、dよりも近傍の任意の深度測定が同一表面のアートとして扱われ、合わせて平均されるであろう。しかしながら、dの選択はユーザ次第で、概して、dは、ノイズによる表面位置の変動が分かるのに十分大きいが、データの細部を撮るのに十分小さく選択されるべきである。
複数の深度測定φφは、次式によって深度バッファφ(例えば、深度測定データ構造110において)および複数の重みWに蓄積されてよい。
Figure 0006257064
および
Figure 0006257064
ここで、φおよびWは、どこでもゼロに初期化され、蓄積重みがWmaxに限定される。
以下の疑似コードは、深度および色の両方に関する蓄積パイプラインの一例を図示する。
Figure 0006257064
この例において、深度画像と対応する色画像との間のマッピングが信頼できないかもしれない(例えば、ターゲットのシルエットの近傍)ので、別個の蓄積バッファが色データに関して使用される。説明されるように、信頼できない複数の色測定を除去するために色データが「浸食され」又は閾値付られる。深度データの蓄積および重み付けと同様に、色が蓄積され、重み付けされてよい。
モデル変形モジュール130は、スペースカービングおよび修正された深度測定データ構造110に基づいて、モデル115を変形するように構成されてよい。一例において、スペースカービングは、現在の深度画像をモデル115と交差させるように構成されるモデル変形モジュール130を備えてよい。そのようなスペースカービングは、初期化モジュール155について後述の通り実行されてよい。そのようなスペースカービングは、形状を大きく変化させるための効率のよいメカニズムであるが、ターゲットのシルエットに沿って鋭角の複数の切れ目を作成し得る。さらに、深度カメラ145の異なる複数の姿勢で以前の複数の深度画像が分からないので、現在の深度画像に対するバイアスを示してよい。
一例において、モデル変形モジュール130は、修正された深度測定データ構造110を用いて、モデル115を近似する表面を計算すべく構成されてよい。近似は、有界の反復プロセスに基づいてよく、修正された深度測定データ構造110に面を適合させる。表面を計算することにより、カーブアウトについて上記で特定された問題が軽減され得る。一例において、表面を計算するために、変形モジュール130は、動的輪郭セグメント化を用いるべく構成されてよい。動的輪郭セグメント化は、深度測定データ構造110の複数のボクセル上でレベル集合展開技術を用いてよい。一例において、符号付距離場としてモデル115を保持するために動的輪郭技術が制限されてよい。一例において、境界反復処理は、モデル115におけるターゲット150の境界近傍の複数のボクセルに制限されてよい。
一例において、レベル集合展開が以下の目的関数を最小化するように公式化されてよい。
Figure 0006257064
ここで、λが正則化重み、δ(X)がディラックデルタで緻密にサポートされた近似である。そして、
Figure 0006257064
は、W(X)>0の場合に1であり、それ以外の場合は0である。φが時間の関数として再び表されるとき、以下の偏微分方程式(PDE)は、オイラーラグランジェ方程式を解くことにより導出される。
Figure 0006257064
このPDEに対する一次解は、以下の反復技法を含む。
Figure 0006257064
Figure 0006257064
ここでも、φが常に符号付距離場となるように、反復技法が制限され得る。一例において、時間フレーム(例えば、L)ごとの複数の反復が、(例えば、モデルの変形のほとんどがスペースカービングによって処理されるので)1に制限されてよい。
以下の疑似コードは、変形パイプラインの一例を表す。
Figure 0006257064
フィルタモジュール135は、現在の深度画像の深度データにおける複数の穴を埋めること又は現在の深度画像におけるノイズを減少させることの少なくとも1つを現在の深度画像に処理するように構成されてよい。一例において、フィルタモジュールは、深度カメラ145と、登録モジュール120、蓄積モジュール125、モデル変形モジュール130又はメッシュモジュール140のいずれかもしくは全てとの間の深度画像パイプラインに配置される。
初期化モジュール155は、(例えば、フィルタモジュール135から受信される)第1の深度画像に基づいて初期化された形状からモデル115を変形するように構成されてよい。一例において、モデル115の初期化された形状がユーザ入力に基づいて生成されてよい。例えば、初期化モジュール155は、深度カメラ145を通じてターゲット150の視野を許可するユーザインターフェースを含んでよい。ユーザインターフェースは、視野中のターゲット150を包含するために、ディスプレイ上において、ユーザが境界形状を指定することが可能なように構成されてよい。この境界形状がモデル115の初期化された形状の基礎を形成してよい。一例において、深度モデルの初期化された形状が、(例えば、図2−5について以下に示されるような)立方体である。
以下は、初期化モジュール155の例示の動作の状況である。関心の領域が3D境界ボックス(例えば、立方体)として確立されてよい。等方性のボクセルグリッドが関心の領域上にオーバレイされ、マッピングされてよい。例えば、マッピング
Figure 0006257064
が適用されてよい。ここで、Bが境界ボックス(例えば、ミリメートル)で、Dが複数のボクセルユニットにおけるボクセルグリッドである。モデル115のレベル集合表現を保持することにより(例えば、モデルの符号付距離場を作成するために用いられる)、個別のボクセル値が距離および方向の両方を示すので、グリッド解像度より低いサブボクセル精度を可能にし、既定の測定は、モデル115におけるターゲット境界からである。
深度画像の取得が開始したとき、ターゲット150が3D境界ボックス(例えば、モデル115)内であるという仮定(例えば、チェックに対して処理がされない)がされる。ターゲット150の一部ではない複数のモデル115領域をカービングアウトするために第1の深度画像が用いられてよい。これは(例えば、図2で説明されるように)深度マップおよびターゲットのシルエットを逆投影することによって実現されてよい。したがって、
Figure 0006257064
のモデルの最初のレベル集合表現を仮定すれば、深度画像の外枠が次式で算出されてよい。
Figure 0006257064
ここで、ΔXは、深度画像上の点と現在のボクセル位置ΔXとの間の差分のz成分である。ΔXは、次式で示される。
Figure 0006257064
特性関数
Figure 0006257064
が、深度データ又は境界ボックスの外部の複数の領域のない箇所で、φを無限に設定してよい。結果として生じる画像φ(例えば、図2又は3の影の領域)は、深度画像の外枠に対応するゼロISOレベルのレベル集合である。モデル115におけるターゲット150の境界(例えば、表面)が複数の点の集合
Figure 0006257064
であるので、これが表現されてもよい。この接合において、しかしながら、φが必ずしも符号付距離場である必要がない。従って、符号付距離場に作成するために、オペレータφ{・}(X)がφレベル集合に当てはめられてよい。一例において、符号付距離場への近似である。
外枠の符号付距離場は、次式によって、今、現在のモデル115と交差させられてよい。
Figure 0006257064
一例において、深度画像における複数の穴を軽減するために、外枠を現在のモデル115に統合する前に、それが多数のボクセル(例えば、τ=2)で拡張されてよい。これは、次式で表される。
Figure 0006257064
この拡張がフィルタモジュール135により実行されてよい。一例において、図3で後述されるように、(例えば、複数のカメラからの)最初の複数の深度画像が取得され得る。上述の処理が複数の視野で繰り返される。
メッシュモジュール140は、モデル115を三角形メッシュに変換するように構成されてよい。複数の三角形メッシュが複数の3Dモデルを処理するために広く用いられる。一例において、マーチングキューブ技術が変換を実現するために用いられてよい。複数の例において、モデル115がレベル集合であり、生成されたメッシュが連続した(例えば、防水)面であろう。一例において、生成されたメッシュに平滑化技術が適用されてよい。例えば、スムージングされ得る複数のボクセル境界近傍に、複数のマーチングキューブ面が複数の細長い辺又は鋭角を含み得る。一例において、平滑化技術は、例えば、三角形の大きさおよび形状を一様化するための、均一な重みを有する陰関数表示のラプラシアン平滑化技術である。したがって、ベクトル(x,y,z)を含むメッシュが、ベクトルV[x,...,x,V[y,...,yおよびV[z,...,zで表されてよい。このように表されたメッシュは、以下の反復技法:
Figure 0006257064
を用いてスムージングされてよい。ここで、Iは、N×Nの単位行列であり、αは正則化重みであり、Lがラプラシアンアンブレラ作用素である。
Figure 0006257064
ここで、N(i)は、頂点iに隣接する複数の頂点の集合であり、
Figure 0006257064
は、隣接する頂点の数である。処理は、V成分およびV成分に関し別個独立に繰り返される。
上記の技術は、メッシュにおいて複数の三角形の大きさおよび形状を一様化するが、モデル115におけるターゲット150の境界からわずかに複数の頂点を移動させてよい。これを正確にするために、以下の反復技法によってモデル115の最も近い複数の対応点に置き換えることによって、複数のメッシュ頂点が蓄積された深度データφ上に投影されてよい。
Figure 0006257064
複数のメッシュ頂点において蓄積された色バッファφを線形的に補間することにより、モデル115に色が加えられてよい。一例において、空間の領域に関して色データが欠けている(例えば、重みゼロ)ところでは、領域は、ゼロのα値(例えば、不可視)が割り当てられ、又は、色空間の背景で満たされてもよい。
図2は、一実施形態に係る、モデルのボクセルグリッド205、深度カメラ145およびターゲット150の一例200を図示する。ボクセル210は、3D空間に方向付けられた点である。しかしながら、明確性のために複数のボクセルが概して示されないが、むしろ境界ボックスがその中心のボクセル210を含む。ボクセルグリッド205が全ての3次元に広がるが、明確にするため、トップダウンカービングアプローチが2次元で示される。例えば、ボクセルグリッド205がターゲット150の周りの(例えば、カメラ145を通じて示される)実空間にマッピングされる。カッティングの前に、各四角形に暗く陰が付けられてよい(モデルへの包含を表す)。深度画像(例えば、第1の深度画像)が撮られた後、四角形がモデルから除去される(陰のないことによって示される)。一例において、モデルの境界が(光シェーディングによって示されて)確認されてもよく、そこでは例えば、他の複数の改良が実行されてよい。
図3は、一実施形態に係る、モデルのボクセルグリッド205、複数の深度カメラ(例えば、深度カメラ145および深度カメラ305)およびターゲット150の一例300を図示する。図3は、第2のカメラ305を追加した図2と実質的に同一である。いくつかのカメラの同時使用は、よりすぐにスキャンを完了させることを可能にし得る。さらに、各々がモデルを作成した複数のボクセルを単純に修正しているので、スペースカービングアプローチは、(例えば、いくつかのビジュアルハル(visual hull)の再構成に用いられるような)複数のカメラデータを格納する必要がない。
図4は、一実施形態に係る、ボクセルグリッド205上のモデルの符号付距離場の一例400を図示する。図4は、符号付距離場の視覚例を提供する。図示されるように、四角形のシェーディングが暗くなればなるほど、四角形のボクセルの値が大きくなる。白いシェーディングが負であり、モデルの外部の点を表す。白色の影の四角形の大きさ(図示されていない)は、モデルの境界からの点の距離を表している。最も明るい着色の影の四角形は、ゼロの値を表し、モデルの境界を示す。
符号付距離場の複数の点の値は、点がモデル内であるか否か(例えば、負の値)、モデルの境界上であるか否か(例えば、ゼロ値又は予め定義されたゼロからの範囲内)、又はモデルの外部(例えば、正の値)であるか否かの全てを示すので、それはこの情報を格納するための効率のよい方法である。さらに、値の大きさは、点がモデルの境界からどのくらい遠く離れているかを示す。これにより"近傍"点から境界への好都合な判断が可能になる。さらに、最も高い値(例えば、他の隣接する複数の点より大きい又は等しい隣接する点)のパスを"追う"ことによって複数の勾配が容易に判断されてよい。
図5は、一実施形態に係る、ボクセルグリッド205上の複数の勾配で拡張されたモデルの符号付距離場の一例500を図示する。符号付距離場の拡張が複数の線の矢印でない端によって表され、勾配が矢印の方向における線の配向によって表される。上述の通り、符号付距離場がそのような判断に役立つ。さらに、深度フィールドの拡張および勾配は、図1に関して上述の効率のよいICP実装において使用され得る境界点への点対応も図示する。
図6は、一実施形態に係る、深度カメラを用いたトップダウンリアルタイム3Dモデリングに関する方法600の一例のフロー図を図示する。方法600の動作は、上述のような機械ハードウェアを用いて全てが実行される。
動作605において、ターゲットの深度カメラから受信された複数の深度測定が深度測定データ構造に格納されてよい。一例において、深度測定データ構造がボクセルグリッドであってよく、グリッドの複数のボクセルは、ターゲットを包含する空間内の複数の点に対応する。
動作610では、ターゲットの3次元表現がモデルに格納されてよい。一例において、モデルがボクセルグリッドであってよく、グリッドの複数のボクセルは、ターゲットを包含する空間内の複数の点に対応する。一例において、モデルは符号付距離場を含む。従って、モデルの境界であるΩ集合を有する符号付距離場および境界内の複数の正の値によってモデルが表されてよい。
動作615において、現在の深度画像がモデルに登録されてよく、そこで深度カメラから現在の深度画像が受信されている。一例において、現在の深度画像をモデルに登録することは、モデル内のボクセルを選択し、選択されたボクセルに関するモデルの符号付距離場を周辺空間内へ現在のボクセルに拡張し、現在のボクセルに関する勾配を算出し、勾配に従って現在のボクセルに対応する、モデルの境界上の対応点を算出し、対応点を格納する追加の複数の処理を含んでよい。一例において、これらの追加の複数の処理は、モデルにおける複数の(例えば、全ての)ボクセルのために実行されてよい。一例において、複数のボクセルは、モデルにおけるターゲットの境界近傍の複数のボクセルに限定され得る。予め定められた値より下の大きさ(例えば、その符号付距離場の表現の絶対値)を有するボクセルによって近傍であることが判断されてよい。一例において、近傍であることにより、境界に対して少なくとも他のボクセルと同じくらい近い複数のボクセルを含む。
一例において、現在の深度画像をモデルへ登録することは、格納された複数の対応点の集合を、現在の深度画像(例えば、格納された複数の対応点の集合における格納された複数の対応点)から3次元点に関連付けることを含んでよい。カメラの剛体運動は、格納された複数の対応点の集合を用いて第1の姿勢から判断されてよい。深度カメラの第2の姿勢は、剛体運動を用いて第1の姿勢から判断されてよい。この例において、第2の姿勢がターゲットに関連する深度カメラの姿勢に対応する。修正することが重みを同じ点についての前回の重みと組み合わることを含んでもよい。これは深度画像データを蓄積することとして知られ得る。一例において、受信された色データから(例えば、深度カメラ又は当該深度カメラの姿勢と同期された別のカメラから)、色データが(例えば、各点に関して)蓄積されてもよい。一例において、現在の深度画像における複数の(例えば、全ての)点に関して蓄積が実行される。
動作620において、登録に基づいて、深度測定データ構造が現在の深度画像で修正されてよい。一例において、修正することには、深度カメラの焦点から当該点に引かれた光線の角度に基づいて、現在の深度画像における点を重み付けることが含まれてよい。現在の深度画像の登録から判断された深度カメラの姿勢に基づいて、焦点および角度が判断されてよい。
動作625において、スペースカービングおよび修正された深度測定データ構造に基づいて、モデルが変形されてよい。スペースカービングは、登録時の現在の深度画像と、変形の前のモデルとで実行される。一例において、変形は、現在の深度画像がモデルと交差することによりモデルをスペースカービングすることを含んでよい。一例において、変形は、修正された深度測定データ構造を用いてモデルを近似する表面を計算することを含んでよい。近似は、表面を修正された深度測定データ構造に適合させるために有界の反復プロセスに基づいてよい。これは2Dデータの複数の点の集合に関数を適合させる最良の同種の3D技術である。一例において、表面を計算することは、動的輪郭セグメント化を用いることを含んでよい。動的輪郭セグメント化は、修正された深度測定データ構造において、複数のボクセルのレベル集合展開方法を用いてもよい。一例において、動的輪郭セグメント化は、符号付距離場としてモデルを保持するために制限されてよい。一例において、有界の反復プロセスは、モデルにおけるターゲットの境界近傍の複数の(例えば、深度測定データ構造又はモデルにおける)ボクセルに制限される。
動作630において、任意に、現在の深度画像がフィルタリングされてよい。フィルタリングは、複数の穴を埋めるために、深度画像を処理することを含んでよい。一例において、深度画像における複数のボクセルを広げる(例えば、拡張する)ことにより、複数の穴が埋められてよい。フィルタリングは、現在の深度画像を一様化することを含んでもよい。一例において、一様化は、深度画像から複数のノイズボクセルを判断し、取り除くことを含んでよい。一例において、深度カメラおよび任意の動作605−625との間(例えば、深度画像が使用される前)の深度画像パイプラインにおいてフィルタリングが行われてよい。
動作635において、任意で、フィルタリング(例えば、動作630)から受信した第1の深度画像に基づいて、初期化された形状からモデルが初期化されてもよい。一例において、モデルの初期化された形状がユーザ入力に基づいて生成されて、モデルの初期化された形状内にターゲットと置いてよい。例えば、ユーザインターフェースが存在してよく、ユーザがターゲットの画像の周りの3D形状を描画することを可能にする。一例において、(例えば、図2−5に示されるように)モデルの初期化された形状が立方体である。
判断640では、処理すべき複数の深度画像がさらにあるか否かについて判断できてよい。一例において、判断がユーザ入力に基づいてよい(例えば、ユーザインターフェースが"終了したスキャン"表示又はその類のものを受信する)。一例において、判断が時間、集められた複数の深度画像の数などのいずれか1又は複数に基づいてよい。
動作645において、(例えば、図示されるように)複数の深度画像の全てが取得された後又は深度画像処理の間のいずれかで、モデルが三角形メッシュに変換されてよい。一例において、メッシュの複数の三角形がスムージングされてよい。一例において、スムージングされた複数の三角形がモデルの立体表現に当てはめられてよい。
図7は、一実施形態に係る、深度カメラを用いたリアルタイム3D再構成に関する方法700の一例のフロー図を図示する。上述されたような、ハードウェアで方法700の動作が実行されてよい。3Dモデル再構成の一例が方法700である。
動作705において、深度画像がフィルタリングされてよい。一例において、フィルタリングがノイズを減少させ得る。一例において、フィルタリングが複数の穴を埋めてよい。
動作710において、第1の深度画像に基づいて、形状(例えば、立方体)からターゲットのシルエットをカービングすることにより、最初のモデルが生成されてよい。
動作705のフィルタリングが実行されるとすぐに、複数の深度画像の集合で動作715−725が反復して実行される。
動作715において、現在の深度画像がモデルに登録される。
動作720において、現在の深度フレームが複数の蓄積バッファ(例えば、上述の深度測定データ構造)に加えられる。
動作725において、モデルが現在の深度画像(例えば、動作710と同様のカービングによって)および複数の蓄積バッファ(例えば、それらの最新の状態)と合致すべく変形される。
動作730において、それ以上の処理すべき複数の深度画像がない場合、三角形メッシュがモデルから生成されてよい。一例において、(例えば、三角形品質を改善するために)メッシュがスムージングされてよい。一例において、メッシュがターゲット(例えば、モデル)の立体表現上に投影されてよい。
上述の複数の反復動作が以下の疑似コードによって実行されてよい。
Figure 0006257064
図8は、本明細書中で説明されるいずれか1又は複数の技術(例えば方法論)を実現し得る機械800の一例のブロック図を図示する。代替的な複数の例において、機械800は、スタンドアロンデバイスとして動作してよい、または、他の複数の機械に接続(例えばネットワーク接続)されてよい。ネットワーク接続配置において、機械800がサーバクライアントネットワーク環境のサーバマシン、クライアントマシン又は両方の容量で動作してよい。一例において、機械800は、ピアツーピア(P2P)(または他の分散)ネットワーク環境におけるピア装置として機能してよい。機械800は、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、携帯情報端末(PDA)、携帯電話、ウェブアプライアンス、ネットワークルータ、スイッチまたはブリッジ、または機械によって行われるべき複数の動作を規定する複数の命令(シーケンシャルなまたは他の)を実行することが可能な任意の機械であってよい。さらに、単一の機械のみが図示されているが、"機械"という用語は、クラウドコンピューティング、サービスとしてのソフトウェア(SaaS)、他のコンピュータクラスタ構成のような、本明細書中にて説明される複数の方法論のいずれか1又は複数を実現するための複数の命令の組(または複数の組)を個別に実行する、または共同で実行する、複数の機械の任意の集合体を含むものと解釈されるべきでもある。
本明細書で説明されるような複数の例が、ロジック、又は多数のコンポーネント、複数のモジュール又はメカニズムを含んでよく、又はその上で動作してよい。複数のモジュールは、動作時に指定の動作を実行可能である有形な実体(例えば、ハードウェア)である。モジュールは、ハードウェアを含む。一例において、ハードウェアが特定の動作(例えば、ハードワイヤード)を実行するように具体的に構成されてよい。一例において、ハードウェアが、構成可能な複数の実行ユニット(例えば、複数のトランジスタ、複数の回路など)および複数の命令を含むコンピュータ可読媒体を含んでよい。複数の命令は、動作時、特定の動作を実行させるように複数の実行ユニットを構成する。設定は、複数の実行ユニット又はローディング機構の指示で生じてよい。従って、デバイスが動作している時、複数の実行ユニットがコンピュータ可読媒体に通信可能に結合される。この例において、複数の実行ユニットが2つ以上のモジュールの一部になってよい。例えば、動作中、複数の実行ユニットが一時の第1のモジュールを実装すべく複数の命令の第1の集合によって構成されてよく、第2のモジュールを実装すべく複数の命令の第2の集合によって再構成されてよい。
機械(例えば、コンピュータシステム)800は、ハードウェアプロセッサ802(例えば中央処理装置(CPU)、グラフィクス処理ユニット(GPU)、ハードウェアプロセッサコア、又はそれらの任意の組み合わせ)、メインメモリ804、およびスタティックメモリ806を含み得、これらの一部又は全てがインターリンク808(例えば、バス)によって互いに通信してよい。機械800は、ディスプレイユニット810、英数字の入力デバイス812(例えば、キーボード)、およびユーザインターフェース(UI)ナビゲーションデバイス814(例えば、マウス)をさらに含んでよい。一例において、ディスプレイユニット810、入力デバイス812、およびUIナビゲーションデバイス814は、タッチスクリーンディスプレイであってよい。機械800は、ストレージデバイス(例えば、ドライブユニット)816、信号生成デバイス818(例えば、スピーカ)、ネットワークインターフェースデバイス820、および全地球測位システム(GPS)センサ、コンパス、加速度計、または他のセンサのような1又は複数のセンサ821をさらに含んでよい。機械800は、シリアル(例えば、ユニバーサルシリアルバス(USB)、並列、又は1又は複数の周辺装置(例えば、プリンタ、カードリーダなど)と通信し、又は制御するための他の有線又は無線(例えば、赤外線(IR)、近距離通信(NFC)など)の接続のような出力コントローラ828を備えてよい。
ストレージデバイス816が機械可読媒体822を含んでよい。本明細書で説明された技術又は機能のいずれか1又は複数によって、実施され、又は利用されるデータ構造又は命令824(例えば、ソフトウェア)の1又は複数の集合が機械可読媒体822に格納される。機械800によってそれらが実行されている間、メインメモリ804内、スタティックメモリ806内、又はハードウェアプロセッサ802内で、完全に又は少なくとも部分的に複数の命令824が存在してもよい。一例において、ハードウェアプロセッサ802、メインメモリ804、スタティックメモリ806、またはストレージデバイス816のうちの1又はそれらの任意の組み合わせは、機械可読媒体を構成し得る。
機械可読媒体822は単一の媒体として示されるが、「機械可読媒体」という用語は、1又は複数の命令824を格納するように構成された単一の媒体または複数の媒体(例えば、集中型または分散型データベース、および/または関連付けられた複数のキャッシュおよび複数のサーバ)を含み得る。
用語「機械可読媒体」は、機械800による実行のための複数の命令を格納、符号化、または搬送することが可能であり、機械800に本開示の複数の技術のうちのいずれか1又は複数を実現させ、またはそのような複数の命令によって用いられるまたはそれらに関連付けられる複数のデータ構造を格納、符号化、または搬送することができる任意の媒体を含んでよい。非限定的な機械可読媒体の複数の例は、複数のソリッドステートメモリ、および光および磁気媒体を含み得る。一例において、大容量機械可読媒体は静止質量を有する複数の粒子を伴う機械可読媒体を備える。結集した機械可読媒体の複数の具体的な例は、複数の半導体メモリデバイス(例えば、電気的プログラム可能読取専用メモリ(EPROM)、電気的消去可能読取専用メモリ(EEPROM))およびフラッシュメモリデバイスを含む不揮発性メモリ、内蔵ハードディスクおよびリムーバブルディスクのような磁気ディスク、光磁気ディスク、および、CD−ROMおよびDVD−ROMディスクを含んでよい。
複数の命令824は、多数の転送プロトコル(例えば、フレームリレー、インターネットプロトコル(IP)、送信制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)等)のうちの任意の1つを利用するネットワークインターフェースデバイス820を介して、伝送媒体を用いて通信ネットワーク826を通じてさらに送信され又は受信されてよい。例示の複数の通信ネットワークは、特に、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、パケットデータネットワーク(例えば、インターネット)、モバイルテレホンネットワーク(例えば、セルラーネットワーク)、基本電話(POTS)ネットワークおよび無線データネットワーク(例えば、Wi−Fi(登録商標)として知られる米国電気電子学会(IEEE)802.11規格群、WiMax(登録商標)として知られるIEEE802.16規格群、IEEE802.15.4規格群、ピアツーピア(P2P)ネットワークを含んでよい。一例において、ネットワークインターフェースデバイス820は、1又は複数の物理ジャック(例えば、イーサネット(登録商標)、同軸又は複数の電話ジャック)又は複数の通信ネットワーク826に接続する1又は複数のアンテナを含んでよい。一例において、ネットワークインターフェースデバイス820は、単入力多出力(SIMO)、多入力多出力(MIMO)、または多入力単出力(MISO)技術の少なくとも1つを用いて無線で通信するための複数のアンテナを含んでよい。用語「伝送媒体」は、装置800による実行のために複数の命令を格納、符号化、又は搬送することが可能な任意の無形媒体を含むと解釈されるべきであり、そのようなソフトウェアの通信を促進するためのデジタル又はアナログの複数の通信信号又は他の無形媒体を含む。複数の追記および複数の例
例1は、(デバイス、装置、又は深度カメラによるリアルタイム3D再構成に関するデバイスのためのシステムなどの)主題を含み、ターゲットの深度カメラから受信された複数の深度測定を格納する深度測定データ構造と、ターゲットの3次元表現を格納するモデルと、深度カメラから受信した現在の深度画像をモデルへ登録する登録モジュールと、登録に基づいて深度測定データ構造を現在の深度画像で修正する蓄積モジュールと、スペースカービングおよび修正された深度測定データ構造に基づいて、モデルを変形するモデル変形モジュールとを備える。
例2において、例1の主題は、深度カメラと蓄積モジュールとの間の深度画像パイプラインのフィルタモジュールを任意に含んでよい。当該フィルタモジュールは、現在の深度画像の深度データにおける複数の穴を埋めること、又は現在の深度画像におけるノイズを減少させることの少なくとも1つで現在の深度画像を処理する。
例3において、例2の主題は、フィルタモジュールから受信した第1の深度画像に基づいて初期化された形状からモデルを変形するための初期化モジュールを任意に含んでよい。
例4において、例1−3のいずれかの主題は、モデルの初期化された形状がユーザ入力に基づいて生成され、ターゲットがモデルの初期化された形状内に存在していることを任意に含んでよい。
例5において、例1−4のいずれかの主題は、モデルの初期化された形状が立方体であることを任意に含んでよい。
例6において、例1−5のいずれかの主題は、深度測定データ構造又モデルの少なくとも1つは、ボクセルグリッドを含み、ボクセルグリッドの複数のボクセルは、ターゲットを包含する空間内の複数の点に対応することを任意に含んでよい。
例7において、例1−6のいずれかの主題は、モデルが符号付距離場を含むことを任意に含んでよい。
例8において、例1−7のいずれかの主題は、モデルに現在の深度画像を登録するために、登録モジュールは、モデルのボクセルを選択し、選択されたボクセルに関するモデルの符号付距離場を周辺空間へ現在のボクセルに拡張し、現在のボクセルに関する勾配を算出し、勾配に従って現在のボクセルに対応する、モデルの境界上の対応点を算出し、対応点を格納することを任意に含んでよい。
例9において、例1−8のいずれかの主題は、登録モジュールがボクセルを反復して選択し、符号付距離場を拡張し、勾配を算出し、対応点を算出し、そして、モデルの複数のボクセルに関する対応点を格納することを任意に含んでよい。
例10において、例1−9のいずれかの主題は、複数のボクセルがモデルにおけるターゲットの境界の近くであり、境界に近いボクセルが別のボクセルよりも境界により近いボクセルである。
例11において、例1−10のいずれかの主題は、登録モジュールが、格納された複数の対応点の集合を、現在の深度画像からの3次元点に、格納された複数の対応点に関連付け、格納された対応点は、格納された複数の対応点の組み合わせの中にあり、第1の姿勢から深度カメラの剛体運動を判断するために格納された複数の対応点の集合を使用し、深度カメラの第2の姿勢を判断するために第1の姿勢からの剛体運動を使用し、第2の姿勢が、ターゲットに関連する深度カメラの姿勢に対応することを任意に含んでよい。
例12において、例1−11のいずれかの主題は、登録に基づいて現在の深度画像で深度測定データ構造を修正し、蓄積モジュールは、深度カメラの焦点から点に引かれた光線の角度に基づいて、現在の深度画像における点を重み付けし、焦点および角度は、現在の深度画像の登録から判断された深度カメラの姿勢に基づいて判断され、重みを同じ点の前回の重みと組み合わせることを任意に含んでよい。
例13において、例1−12のいずれかの主題は、蓄積モジュールが点に関する色情報を蓄積することを任意に含んでよい。
例14において、例1−13のいずれかの主題は、蓄積モジュールが点を重み付し、現在の深度画像における複数の点に関する重みを組み合わせることを任意に含んでよい。
例15において、例1−14のいずれかの主題は、修正された深度測定データ構造に基づいてモデルを変形するために、モデル変形モジュールは、現在の深度画像をモデルと交差させることによりモデルをスペースカービングし、修正された深度測定データ構造を用いてモデルを近似する表面を計算し、近似が、表面を修正された深度測定データ構造に適合させるための有界の反復プロセスに基づいてよい。
例16において、例1−15のいずれかの主題は、表面を計算することが、修正された深度測定データ構造における複数のボクセル上でレベル集合展開技術を用いる動的輪郭セグメント化の使用を含むことを任意に含んでよい。
例17において、例1−16のいずれかの主題は、符号付距離場としてモデルを保持するために、動的輪郭セグメント化が制限されることを任意に含んでよい。
例18において、例1−17のいずれかの主題は、有界の反復プロセスがモデルにおけるターゲットの境界近傍の複数のボクセルに制限され、境界近傍のボクセルが別のボクセルよりも境界により近いボクセルであることを任意に含んでよい。
例19において、例1−18のいずれかの主題は、モデルを三角形メッシュに変換するためのメッシュモジュールを任意に含んでよい。
例20は、(方法、動作を実行するための手段、又は機械によって実行された場合に、機械が機械に動作を実行させる命令を含む機械可読媒体などの)深度カメラによるリアルタイム3D再構成に関する主題であり、深度測定データ構造におけるターゲットの深度カメラから受信した複数の深度測定を格納する段階と、モデルにおけるターゲットの3次元表現を格納する段階と、深度カメラから受信した現在の深度画像をモデルに登録する段階と、登録に基づいて深度測定データ構造を現在の深度画像で修正する段階と、スペースカービングおよび修正された深度測定データ構造に基づいてモデルを変形する段階とを備えてよく、又は任意で例1−19のいずれかの主題と組み合わせてよい。
例21において、例20の主題は、深度カメラと、登録する段階、修正する段階又は変形する段階の少なくとも1つとの間の深度画像パイプラインにおいてフィルタリングする段階と、現在の深度画像の深度データにおける複数の穴を埋めるために、現在の深度画像を処理する段階又は現在の深度画像におけるノイズを低減する段階の少なくとも1つを現在の深度画像に行うことを任意に含んでよい。
例22において、例20−21のいずれかの主題は、フィルタリングから受信した第1の深度画像に基づいて初期化された形状からモデルを初期化する段階を任意に含んでよい。
例23において、例20−22のいずれかの主題は、モデルの初期化された形状がユーザ入力に基づいて生成され、ターゲットがモデルの初期化された形状内に存在していることを任意に含んでよい。
例24において、例20−23のいずれかの主題は、モデルの初期化された形状が立方体であることを任意に含んでよい。
例25において、例20−24のいずれかの主題は、深度測定データ構造又モデルの少なくとも1つは、ボクセルグリッドを含み、ボクセルグリッドの複数のボクセルは、ターゲットを包含する空間内の複数の点に対応することを任意に含んでよい。
例26において、例20−25のいずれかの主題は、モデルが符号付距離場を含むことを任意に含んでよい。
例27において、例20−21のいずれかの主題は、現在の深度画像をモデルに登録する段階と、モデルにおけるボクセルを選択する段階と、選択されたボクセルに関するモデルの符号付距離場を周辺空間へ現在のボクセルに拡張する段階と、現在のボクセルに関する勾配を算出する段階と、勾配に従って現在のボクセルに対応する、モデルの境界上の対応点を算出する段階と、対応点を格納する段階とを任意に含んでよい。
例28において、例20−27のいずれかの主題は、モデルの複数のボクセルに対して例27の動作を反復して実行することを任意に含んでよい。
例29において、例20−28のいずれかの主題は、複数のボクセルがモデルのターゲットの境界の近くであり、境界に近いボクセルが別のボクセルよりも境界により近いボクセルであることを任意に含んでよい。
例30において、例20−29のいずれかの主題は、現在の深度画像をモデルに登録する段階が、現在の深度画像から3次元点に、格納された複数の対応点の組み合わせを関連付ける段階であって、格納された対応点は、格納された複数の対応点の組み合わせの中にある段階と、格納された複数の対応点の組み合わせを用いて、第1の姿勢からカメラの剛体運動を判断する段階と、第1の姿勢からの剛体運動を用いて、ターゲットに関連する深度カメラの姿勢に対応する、深度カメラの第2の姿勢を判断する段階とを備えることを任意に含んでよい。
例31において、例20−30のいずれかの主題は、登録に基づいて深度測定データ構造を現在の深度画像で修正する段階が、深度カメラの焦点から点に引かれた光線の角度に基づいて、現在の深度画像の点を重み付けする段階であって、焦点および角度は、現在の深度画像の登録から判断された深度カメラの姿勢に基づいて判断される、重み付けする段階と、重みを同じ点の前回の重みと組み合わせる段階とを含むことを任意に含んでよい。
例32において、例20−31のいずれかの主題は、点に関する色情報を蓄積する段階を任意に含んでよい。
例33において、例20−32のいずれかの主題は、現在の深度画像における複数の点に関する例31の動作を実行することを任意に含んでよい。
例34において、例20−33のいずれかの主題は、修正された深度測定データ構造に基づいて、モデルを変形する段階を任意に含んでよく、前記モデルを変形する段階は、現在の深度画像をモデルと交差させることによりモデルをスペースカービングする段階と、修正された深度測定データ構造を用いてモデルを近似する表面を計算する段階と、有界の反復プロセスに基づく近似が、表面を修正された深度測定データ構造に適合させることを含む。
例35において、例20−34のいずれかの主題は、表面を計算する段階が、修正された深度測定データ構造における複数のボクセル上でレベル集合展開技術を用いる動的輪郭セグメント化を使用する段階を含むことを任意に含んでよい。
例36において、例20−35のいずれかの主題は、符号付距離場としてモデルを保持するために、動的輪郭セグメント化が制限されることを任意に含んでよい。
例37において、例20−36のいずれかの主題は、有界の反復プロセスがモデルにおけるターゲットの境界近傍の複数のボクセルに制限され、境界近傍のボクセルが別のボクセルよりも境界により近いボクセルであることを任意に含んでよい。
例38において、例20−37のいずれかの主題は、モデルを三角形メッシュに変換する段階を任意に含んでよい。
例39は、例20−38のいずれかの技術を実現するための手段を含む。
例40は、機械により実行された場合、例20−38のいずれかの技術を機械に実行させる複数の命令を含む機械可読媒体を含む。
例41は、(システム又は深度カメラを用いたリアルタイム3D再構成に関する動作を実行するための手段)深度測定データ構造におけるターゲットの深度カメラから受信した複数の深度測定を格納する手段と、モデルにおけるターゲットの3次元表現を格納する手段と、深度カメラから受信した現在の深度画像をモデルに登録する手段と、登録に基づいて深度測定データ構造を現在の深度画像で修正する手段と、スペースカービングおよび修正された深度測定データ構造に基づいてモデルを変形する手段とを含んでよく、又は任意で例1−40のいずれかの主題と組み合わせてよい。
例42において、例41の主題は、深度カメラと登録、修正又は変形の少なくとも1つとの間の深度画像パイプラインにおいてフィルタリングする手段を任意に含んでよく、現在の深度画像は、現在の深度画像の深度データにおける複数の穴を埋めるために現在の深度画像を処理すること又は現在の深度画像のノイズを低減することの少なくとも1つをするためのものである。
例43において、例41−42のいずれかの主題は、フィルタモジュールから受信した第1の深度画像に基づいて初期化された形状からモデルを初期化する手段を任意に含んでよい。
例44において、例41−43のいずれかの主題は、モデルの初期化された形状がユーザ入力に基づいて生成され、ターゲットがモデルの初期化された形状内に存在していることを任意に含んでよい。
例45において、例41−44のいずれかの主題は、モデルの初期化された形状が立方体であることを任意に含んでよい。
例46において、例41−45のいずれかの主題は、深度測定データ構造又モデルの少なくとも1つは、ボクセルグリッドを含み、ボクセルグリッドの複数のボクセルは、ターゲットを包含する空間内の複数の点に対応することを任意に含んでよい。
例47において、例41−46のいずれかの主題は、モデルが符号付距離場を含むことを任意に含んでよい。
例48において、例41−47のいずれかの主題は、モデルに現在の深度画像を登録する手段が、モデルにおけるボクセルを選択する手段と、選択されたボクセルに関するモデルの符号付距離場を周辺空間へ現在のボクセルに拡張する手段と、現在のボクセルに関する勾配を算出する手段と、勾配に従って現在のボクセルに対応する、モデルの境界上の対応点を算出する手段と、対応点を格納する手段とを任意に含んでよい。
例49において、例41−48のいずれかの主題は、モデルの複数のボクセルに対して例48の動作を反復して実行する手段を任意に含んでよい。
例50において、例41−49のいずれかの主題は、複数のボクセルがモデルにおけるターゲットの境界の近くであり、境界に近いボクセルが別のボクセルよりも境界により近いボクセルであることを任意に含んでよい。
例51において、例41−50のいずれかの主題は、現在の深度画像をモデルに登録する手段が、現在の深度画像から3次元点に、格納された複数の対応点の組み合わせを関連付け、格納された対応点は、格納された複数の対応点の組み合わせの中にある手段と、格納された複数の対応点の組み合わせを用いて、第1の姿勢からカメラの剛体運動を判断する手段と第1の姿勢からの剛体運動を用いて、ターゲットに関連する深度カメラの姿勢に対応する、深度カメラの第2の姿勢を判断する手段とを備えることを任意に含んでよい。
例52において、例41−51のいずれかの主題は、登録に基づいて深度測定データ構造を現在の深度画像で修正する手段が、深度カメラの焦点から点に引かれた光線の角度に基づいて、現在の深度画像における点を重み付けする手段と、焦点および角度は、現在の深度画像の登録から判断された深度カメラの姿勢に基づいて判断され、重みを同じ点の前回の重みと組み合わせる手段とを含むことを任意に含んでよい。
例53において、例41−52のいずれかの主題は、点に関する色情報を蓄積する手段を任意に含んでよい。
例54において、例41−53のいずれかの主題は、現在の深度画像における複数の点に関する例53の動作を実行する手段を任意に含んでよい。
例55において、例41−54のいずれかの主題は、修正された深度測定データ構造に基づいて、モデルを変形する手段を任意に含んでよく、現在の深度画像をモデルと交差させることによりモデルをスペースカービングする手段と、修正された深度測定データ構造を用いてモデルを近似する表面を計算する手段と、有界の反復プロセスに基づく近似が、表面を修正された深度測定データ構造に適合させることをむ。
例56において、例41−55のいずれかの主題は、表面を計算する手段が、修正された深度測定データ構造の複数のボクセル上でレベル集合展開技術を用いる動的輪郭セグメント化を使用する手段を含むことを任意に含んでよい。
例57において、例41−56のいずれかの主題は、符号付距離場としてモデルを保持するために、動的輪郭セグメント化が制限されることを任意に含んでよい。
例58において、例41−57のいずれかの主題は、有界の反復プロセスがモデルのターゲットの境界近傍の複数のボクセルに制限され、境界近傍のボクセルが別のボクセルよりも境界により近いボクセルであることを任意に含んでよい。
例59において、例41−58のいずれかの主題は、モデルを三角形メッシュに変換するための手段を任意に含んでよい。
上記の発明を実施するための形態は、発明を実施するための形態の一部を形成する添付の複数の図面への参照を含む。複数の図面は、実例として、実施されうる特定の複数の実施形態を示す。これらの実施形態は、「複数の例」としてここでも参照する。そのような複数の例は、示されるまたは説明されるものに加えて、複数のエレメントを含んでよい。しかしながら、本発明者は、開示され又は説明されたこれらの要素のみが複数の例で提供されることも想定する。さらに、本発明者らはまた、本明細書に示され又は記載された特定の例(又はそれらの1又は複数の態様)に関連するか、又は、他の複数の例(又はそれらの1又は複数の態様)に関連するかのいずれかで示された又は説明されたそれらの要素(又はそれらの1又は複数の態様)の任意の組み合わせ又は置換を使用した複数の例を意図する。
この全文書中において参照される複数の出版物、特許、および特許文献は、参照によって個別に組み込まれているかのように、それらの全体が、参照により本明細書中に組み込まれる。この文書と、参照によってそのように組み込まれたそれら複数の文書との間に食い違った使用がある場合には、組み込まれた参照文献中の使用は、この文書における使用に対する補足的なものであり、矛盾した不一致に対しては、この文書における使用が優先されるべきである。
本明細書において、用語「ある(a)」または「ある(an)」は、特許文献において共通なように、1または1より多いものを含むために用いられ、任意の他の例または「少なくとも1つ」または「1又は複数」の使用と無関係である。本明細書において、用語「または」は、非排他的、または「AまたはB」が「AがありBがない」、「BがありAがない」、および「AおよびB」を含むように言及するために用いられる。添付の複数の請求項において、用語「含む(including )」および「において(in which)」は、それぞれ用語「備える(comprising )」および「ここで(wherein)」の平易な言葉と同等のものとして用いられる。また、下記の複数の請求項において、用語「含む(including )」および「備える(comprising )」は制約がない、つまり、請求項において、請求項におけるそのような用語の後に列挙されたものに加えて複数のエレメントを含むシステム、デバイス、物品、または処理もが、その請求項の範囲に含まれるとみなされる。さらに、下記の特許請求の範囲において、用語「first(第1の)」、「second(第2の)」及び「third(第3の)」などは、単に複数の標識として使用され、それらの対象物に数的な複数の要件を課すことが意図されていない。
上記の説明は、例示的であり制限的でないことが意図される。例えば、上述の複数の例(又は、それらの1又は複数の態様)は、その他の複数の例との互いに組み合わせで使用されてよい。複数の他の実施形態は、例えば、上記の説明を検討する当業者によって用いられてよい。要約は、技術的開示の性質を読者にすぐに確認することを許可することができ、特許請求の範囲の範囲若しくは意味を解釈又は限定するために用いられないことが理解されることを与える。また、上記の発明を実施するための形態において、開示を簡素化すべく、様々な特徴が共にグループ化され得る。これは、請求されていない開示された特徴がいずれの請求項に必須であることを意味していると解釈されるべきではない。むしろ、発明の主題は、特定の開示された実施形態の複数の特徴の一部にあってよい。したがって、以下の特許請求の範囲は、本明細書の詳細な説明に組み込まれる。説明は、各請求項と共に、別個の実施形態として、独立したものと位置づけられる。複数の実施形態の範囲は、そうした特許請求項に対して与えられる等価物の全範囲と併せて、添付の特許請求項を参照して決定されるべきものである。

Claims (24)

  1. 深度カメラを用いたリアルタイム3D再構成に関する装置であって、
    ターゲットの深度カメラから受信された複数の深度測定を格納する深度測定データ構造と、
    前記ターゲットの3次元表現を格納するモデルと、
    前記深度カメラから受信した現在の深度画像を前記モデルへ登録する登録モジュールと、
    前記登録に基づいて、前記深度測定データ構造を前記現在の深度画像で修正する蓄積モジュールと、
    スペースカービングおよび前記修正された深度測定データ構造に基づいて、前記モデルを変形するモデル変形モジュールと
    を備え、
    前記修正された深度測定データ構造に基づいて、前記モデルを変形するために、
    前記モデル変形モジュールは、
    前記現在の深度画像を前記モデルと交差させることにより前記モデルをスペースカービングし、
    前記修正された深度測定データ構造を用いて前記モデルを近似する表面を計算し、
    前記近似が、前記表面を前記修正された深度測定データ構造に適合させるための有界の反復プロセスに基づく、装置。
  2. 前記深度測定データ構造又は前記モデルの少なくとも1つは、ボクセルグリッドを含み、
    前記ボクセルグリッドの複数のボクセルは、前記ターゲットを包含する空間内の複数の点に対応する
    請求項1に記載の装置。
  3. 前記モデルは、符号付距離場を含む
    請求項2に記載の装置。
  4. 前記現在の深度画像を前記モデルに登録するために、前記登録モジュールは、
    前記モデルのボクセルを選択し、
    前記選択されたボクセルに関する前記モデルの前記符号付距離場を周辺空間へ現在のボクセルに拡張し、
    前記現在のボクセルに関する勾配を算出し、
    前記勾配に従って前記現在のボクセルに対応する、前記モデルの境界上の対応点を算出し、
    前記対応点を格納する
    請求項3に記載の装置。
  5. 前記登録モジュールは、前記ボクセルを反復して選択し、前記符号付距離場を拡張し、前記勾配を算出し、前記対応点を算出し、そして、前記モデルの複数のボクセルに関する前記対応点を格納する
    請求項4に記載の装置。
  6. 前記複数のボクセルは、前記モデルにおける前記ターゲットの前記境界近傍に存在し、
    前記境界近傍のボクセルは、別のボクセルよりも前記境界より近いボクセルである
    請求項5に記載の装置。
  7. 前記登録モジュールは、
    前記現在の深度画像から3次元点に、格納された複数の対応点の組み合わせを関連付け、前記格納された対応点は、前記格納された複数の対応点の組み合わせの中にあり、
    格納された複数の対応点の前記組み合わせを用いて、第1の姿勢から前記深度カメラの剛体運動を判断し、
    前記第1の姿勢からの前記剛体運動を用いて、前記深度カメラの第2の姿勢を判断し、前記第2の姿勢は、前記ターゲットに関連する前記深度カメラの姿勢に対応する
    請求項4に記載の装置。
  8. 前記登録に基づいて前記深度測定データ構造を前記現在の深度画像で修正し、前記蓄積モジュールは、
    前記深度カメラの焦点から前記現在の深度画像の点に引かれた光線の角度に基づいて、前記点を重み付けし、前記焦点および前記角度は、前記現在の深度画像の前記登録から判断された前記深度カメラの姿勢に基づいて判断され、
    前記重みを同じ点の前回の重みと組み合わせる
    請求項1から7のいずれか一項に記載の装置。
  9. 前記表面を計算することは、前記修正された深度測定データ構造の複数のボクセル上でレベル集合展開技術を用いる動的輪郭セグメント化の使用を含む
    請求項8に記載の装置。
  10. 前記動的輪郭セグメント化が制限され、符号付距離場として前記モデルを保持する
    請求項9に記載の装置。
  11. 前記有界の反復プロセスは、前記モデルにおける前記ターゲットの境界近傍の複数のボクセルに制限され、
    前記境界近傍のボクセルは、別のボクセルよりも前記境界より近いボクセルである
    請求項8に記載の装置。
  12. 深度カメラを用いたリアルタイム3D再構成のためのハードウェア実装方法であって、前記方法は、
    深度測定データ構造のターゲットの深度カメラから受信した複数の深度測定を格納する段階と、
    モデルの前記ターゲットの3次元表現を格納する段階と、
    前記深度カメラから受信された現在の深度画像を前記モデルに登録する段階と、
    前記登録に基づいて、前記深度測定データ構造を前記現在の深度画像で修正する段階と、
    スペースカービングおよび前記修正された深度測定データ構造に基づいて、前記モデルを変形する段階と
    を備え、
    前記修正された深度測定データ構造に基づいて、前記モデルを変形する段階は、
    前記現在の深度画像を前記モデルと交差させることにより前記モデルをスペースカービングする段階と、
    前記修正された深度測定データ構造を用いて前記モデルを近似する表面を計算する段階であって、前記近似が、前記表面を前記修正された深度測定データ構造に適合させるための有界の反復プロセスに基づく、計算する段階と
    を含む、方法。
  13. 前記深度測定データ構造又は前記モデルの少なくとも1つは、ボクセルグリッドを含み、
    前記ボクセルグリッドの複数のボクセルは、前記ターゲットを包含する空間内の複数の点に対応する
    請求項12に記載の方法。
  14. 前記モデルが符号付距離場を含む
    請求項13に記載の方法。
  15. 前記現在の深度画像を前記モデルに登録する段階は、
    前記モデルのボクセルを選択する段階と、
    前記選択されたボクセルに関する前記モデルの前記符号付距離場を、周辺空間へ現在のボクセルに拡張する段階と、
    前記現在のボクセルに関する勾配を算出する段階と、
    前記勾配に従って前記現在のボクセルに対応する、前記モデルの境界上の対応点を算出する段階と、
    前記対応点を格納する段階と
    を備える請求項14に記載の方法。
  16. 前記モデルの複数のボクセルに対して、請求項15の複数の動作を反復して実行する段階を含む
    請求項15に記載の方法。
  17. 前記複数のボクセルが前記モデルにおける前記ターゲットの前記境界の近くであり、
    前記境界に近いボクセルは、別のボクセルよりも前記境界より近いボクセルである
    請求項16に記載の方法。
  18. 前記現在の深度画像を前記モデルに登録する段階は、
    前記現在の深度画像から3次元点に、格納された複数の対応点の組み合わせを関連付ける段階であって、前記格納された対応点は、前記格納された複数の対応点の組み合わせの中にある段階と、
    格納された複数の対応点の前記組み合わせを用いて、第1の姿勢から前記深度カメラの剛体運動を判断する段階と
    前記第1の姿勢からの前記剛体運動を用いて、前記ターゲットに関連する前記深度カメラの姿勢に対応する、前記深度カメラの第2の姿勢を判断する段階と
    を備える請求項15に記載の方法。
  19. 前記登録に基づいて、前記深度測定データ構造を前記現在の深度画像で修正することは、
    前記深度カメラの焦点から前記現在の深度画像の点に引かれた光線の角度に基づいて、前記点を重み付けする段階であって、前記焦点および前記角度は、前記現在の深度画像の前記登録から判断された前記深度カメラの姿勢に基づいて判断される、重み付する段階と、
    前記重みを同じ点の前回の重みと組み合わせる段階とを含む
    請求項12から18のいずれか一項に記載の方法。
  20. 前記表面を計算する段階は、前記修正された深度測定データ構造の複数のボクセル上でレベル集合展開技術を用いる動的輪郭セグメント化を使用する段階を含む
    請求項12から19のいずれか一項に記載の方法。
  21. 前記動的輪郭セグメント化が制限され、符号付距離場として前記モデルを保持する
    請求項20に記載の方法。
  22. 前記有界の反復プロセスは、前記モデルにおける前記ターゲットの境界近傍の複数のボクセルに制限され、
    前記境界近傍のボクセルは、別のボクセルよりも前記境界より近いボクセルである
    請求項12から19のいずれか一項に記載の方法。
  23. 機械により実行されると、請求項12から22のいずれかの方法を前記機械に実行させる命令を含む
    プログラム。
  24. 請求項23に記載のプログラムを格納する、コンピュータ可読記録媒体。
JP2016534931A 2014-01-03 2014-01-03 深度カメラを用いたリアルタイム3d再構成 Active JP6257064B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2014/010151 WO2015102637A1 (en) 2014-01-03 2014-01-03 Real-time 3d reconstruction with a depth camera

Publications (2)

Publication Number Publication Date
JP2017509035A JP2017509035A (ja) 2017-03-30
JP6257064B2 true JP6257064B2 (ja) 2018-01-10

Family

ID=53493837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016534931A Active JP6257064B2 (ja) 2014-01-03 2014-01-03 深度カメラを用いたリアルタイム3d再構成

Country Status (6)

Country Link
US (1) US10178366B2 (ja)
EP (1) EP3090542B1 (ja)
JP (1) JP6257064B2 (ja)
KR (1) KR101793485B1 (ja)
CN (1) CN106105192B (ja)
WO (1) WO2015102637A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10178366B2 (en) 2014-01-03 2019-01-08 Intel Corporation Real-time 3D reconstruction with a depth camera
US9948911B2 (en) * 2014-09-05 2018-04-17 Qualcomm Incorporated Method and apparatus for efficient depth image transformation
GB201512304D0 (en) * 2015-07-13 2015-08-19 Whispering Gibbon Ltd Preparing a polygon mesh for printing
US10380792B2 (en) * 2015-09-30 2019-08-13 Hewlett-Packard Development Company, L.P. Three-dimensional model generation
CA3005894A1 (en) 2015-11-20 2017-05-26 Magic Leap, Inc. Methods and systems for large-scale determination of rgbd camera poses
US10531064B2 (en) * 2016-04-15 2020-01-07 Canon Kabushiki Kaisha Shape reconstruction using electronic light diffusing layers (E-Glass)
KR20180060160A (ko) * 2016-11-28 2018-06-07 김선영 깊이 카메라의 영상정보를 이용한 3d 비만 관리 시스템
CN107067470B (zh) * 2017-04-05 2019-09-06 东北大学 基于红外热像仪与深度相机的便携式三维温度场重建系统
US10679338B2 (en) * 2017-08-23 2020-06-09 General Electric Company Three-dimensional modeling of an object
CN107862733B (zh) * 2017-11-02 2021-10-26 南京大学 基于视线更新算法的大规模场景实时三维重建方法和系统
US10504251B1 (en) * 2017-12-13 2019-12-10 A9.Com, Inc. Determining a visual hull of an object
CN111801708B (zh) * 2017-12-22 2022-04-29 奇跃公司 使用光线投射和实时深度进行遮挡渲染的方法
CN108447097B (zh) * 2018-03-05 2021-04-27 清华-伯克利深圳学院筹备办公室 深度相机标定方法、装置、电子设备及存储介质
US10740986B2 (en) * 2018-08-30 2020-08-11 Qualcomm Incorporated Systems and methods for reconstructing a moving three-dimensional object
JP7460532B2 (ja) 2018-10-10 2024-04-02 株式会社Preferred Networks システム、方法及び装置
US11145111B2 (en) 2018-12-04 2021-10-12 Intuitive Research And Technology Corporation Volumetric slicer
US11113868B2 (en) 2018-12-04 2021-09-07 Intuitive Research And Technology Corporation Rastered volume renderer and manipulator
WO2020118565A1 (en) * 2018-12-12 2020-06-18 Huawei Technologies Co., Ltd. Keyframe selection for texture mapping wien generating 3d model
US10924721B2 (en) 2018-12-20 2021-02-16 Intel Corporation Volumetric video color assignment
CN112562057B (zh) * 2019-09-26 2023-08-08 杭州海康威视数字技术股份有限公司 三维重建系统及方法
CN111260776B (zh) * 2020-02-07 2023-04-18 山西大学 一种自适应正态分析的三维形貌重建方法
US11816855B2 (en) 2020-02-11 2023-11-14 Samsung Electronics Co., Ltd. Array-based depth estimation
WO2022025741A1 (en) * 2020-07-27 2022-02-03 Samsung Electronics Co., Ltd. Array-based depth estimation
CN111932679B (zh) * 2020-08-13 2021-04-16 北京未澜科技有限公司 一种基于隐式模板的三维模型表达方式
US11688126B2 (en) * 2021-02-09 2023-06-27 Canon Medical Systems Corporation Image rendering apparatus and method
WO2022239543A1 (ja) * 2021-05-11 2022-11-17 ソニーグループ株式会社 情報処理装置、情報処理方法および記憶媒体

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999073B1 (en) 1998-07-20 2006-02-14 Geometrix, Inc. Method and system for generating fully-textured 3D
US6373487B1 (en) * 1999-09-17 2002-04-16 Hewlett-Packard Company Methods and apparatus for constructing a 3D model of a scene from calibrated images of the scene
JP2003162549A (ja) 2001-11-28 2003-06-06 National Institute Of Advanced Industrial & Technology 統合された形状モデル生成方法及びコンピュータプログラム
JP4096622B2 (ja) * 2002-05-21 2008-06-04 株式会社セガ 画像処理方法及び装置、並びにプログラム及び記録媒体
CN2612756Y (zh) * 2003-04-01 2004-04-21 袁树添 一种室内外防滑木地板
JP4441611B2 (ja) 2004-07-22 2010-03-31 独立行政法人産業技術総合研究所 3次元図形の曲面再構成装置および3次元図形の曲面再構成プログラム
KR100707206B1 (ko) * 2005-04-11 2007-04-13 삼성전자주식회사 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치
CN101242435A (zh) * 2006-02-22 2008-08-13 华为技术有限公司 连接主基站与射频拉远单元的接口装置
JP5120926B2 (ja) * 2007-07-27 2013-01-16 有限会社テクノドリーム二十一 画像処理装置、画像処理方法およびプログラム
CN103258184B (zh) * 2008-02-27 2017-04-12 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
US8350850B2 (en) 2008-03-31 2013-01-08 Microsoft Corporation Using photo collections for three dimensional modeling
WO2010003844A1 (fr) * 2008-06-30 2010-01-14 Thomson Licensing Procede de composition temps reel d'une video
CN101383054B (zh) * 2008-10-17 2010-09-08 北京大学 一种基于图像与扫描数据的混合三维重建方法
KR20100138648A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 영상 처리 장치 및 방법
GB2483285A (en) * 2010-09-03 2012-03-07 Marc Cardle Relief Model Generation
CN102542601A (zh) 2010-12-10 2012-07-04 三星电子株式会社 一种用于3d对象建模的设备和方法
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US9245374B2 (en) * 2011-02-22 2016-01-26 3M Innovative Properties Company Space carving in 3D data acquisition
US9336625B2 (en) * 2011-10-25 2016-05-10 Microsoft Technology Licensing, Llc Object refinement using many data sets
CN102364524A (zh) * 2011-10-26 2012-02-29 清华大学 一种基于变光照多视角间差采样的三维重建方法和装置
KR20130068293A (ko) * 2011-12-14 2013-06-26 연세대학교 산학협력단 깊이 정보 생성 방법 및 장치
KR101339900B1 (ko) * 2012-03-09 2014-01-08 한국과학기술연구원 2차원 단일 영상 기반 3차원 몽타주 생성 시스템 및 방법
US9900619B2 (en) * 2012-07-02 2018-02-20 Qualcomm Incorporated Intra-coding of depth maps for 3D video coding
JP6069923B2 (ja) * 2012-07-20 2017-02-01 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9571858B2 (en) * 2013-07-19 2017-02-14 Futurewei Technologies, Inc. Method and apparatus of derivation for a binary partition pattern
US9646412B1 (en) * 2013-07-19 2017-05-09 Dassault Systemes Solidworks Corporation Pre-sorted order independent transparency
US10178366B2 (en) 2014-01-03 2019-01-08 Intel Corporation Real-time 3D reconstruction with a depth camera

Also Published As

Publication number Publication date
JP2017509035A (ja) 2017-03-30
US20160301910A1 (en) 2016-10-13
CN106105192B (zh) 2021-05-18
KR101793485B1 (ko) 2017-11-03
CN106105192A (zh) 2016-11-09
US10178366B2 (en) 2019-01-08
EP3090542A4 (en) 2017-11-08
EP3090542B1 (en) 2020-09-30
KR20160083905A (ko) 2016-07-12
WO2015102637A1 (en) 2015-07-09
EP3090542A1 (en) 2016-11-09

Similar Documents

Publication Publication Date Title
JP6257064B2 (ja) 深度カメラを用いたリアルタイム3d再構成
JP7181977B2 (ja) 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
JP7362044B2 (ja) 修正されたシェイプフロムシェーディング(sfs)スキームを使用した三角形3次元メッシュの形状改善
KR101195942B1 (ko) 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법
JP4392507B2 (ja) 3次元サーフェス生成方法
Li et al. Detail-preserving and content-aware variational multi-view stereo reconstruction
US20120081357A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
WO2015006224A1 (en) Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis
EP3756163B1 (en) Methods, devices, and computer program products for gradient based depth reconstructions with robust statistics
GB2520613A (en) Target region fill utilizing transformations
Dinesh et al. 3D point cloud super-resolution via graph total variation on surface normals
JP2011085971A (ja) 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び画像処理システム
KR20170052634A (ko) 심도 맵 향상
CN104715504A (zh) 一种鲁棒的大场景稠密三维重建方法
JP2013250891A (ja) 超解像方法及び装置
WO2018039936A1 (en) Fast uv atlas generation and texture mapping
EP2800055A1 (en) Method and system for generating a 3D model
CN113160419B (zh) 一种建筑物立面模型建立方法和装置
CA2716257A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
Haque et al. Robust feature-preserving denoising of 3D point clouds
CN108151712B (zh) 一种人体三维建模及测量方法和系统
Han et al. 3D reconstruction of dense model based on the sparse frames using RGBD camera
CN116580074B (zh) 一种基于多传感器融合的三维重建方法
Oriti et al. 3D SCENE RECONSTRUCTION SYSTEM BASED ON A MOBILE DEVICE

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171202

R150 Certificate of patent or registration of utility model

Ref document number: 6257064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250