JP6257064B2 - 深度カメラを用いたリアルタイム3d再構成 - Google Patents
深度カメラを用いたリアルタイム3d再構成 Download PDFInfo
- Publication number
- JP6257064B2 JP6257064B2 JP2016534931A JP2016534931A JP6257064B2 JP 6257064 B2 JP6257064 B2 JP 6257064B2 JP 2016534931 A JP2016534931 A JP 2016534931A JP 2016534931 A JP2016534931 A JP 2016534931A JP 6257064 B2 JP6257064 B2 JP 6257064B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- depth
- voxel
- current
- measurement data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 claims description 86
- 238000000034 method Methods 0.000 claims description 55
- 230000011218 segmentation Effects 0.000 claims description 15
- 238000012804 iterative process Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 2
- 230000004048 modification Effects 0.000 claims description 2
- 238000013459 approach Methods 0.000 description 19
- 230000036544 posture Effects 0.000 description 19
- 230000015654 memory Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000001914 filtration Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 239000000872 buffer Substances 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000007373 indentation Methods 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- YIWGJFPJRAEKMK-UHFFFAOYSA-N 1-(2H-benzotriazol-5-yl)-3-methyl-8-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carbonyl]-1,3,8-triazaspiro[4.5]decane-2,4-dione Chemical compound CN1C(=O)N(c2ccc3n[nH]nc3c2)C2(CCN(CC2)C(=O)c2cnc(NCc3cccc(OC(F)(F)F)c3)nc2)C1=O YIWGJFPJRAEKMK-UHFFFAOYSA-N 0.000 description 1
- 238000010146 3D printing Methods 0.000 description 1
- NIPNSKYNPDTRPC-UHFFFAOYSA-N N-[2-oxo-2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethyl]-2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carboxamide Chemical compound O=C(CNC(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F)N1CC2=C(CC1)NN=N2 NIPNSKYNPDTRPC-UHFFFAOYSA-N 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- SFMJNHNUOVADRW-UHFFFAOYSA-N n-[5-[9-[4-(methanesulfonamido)phenyl]-2-oxobenzo[h][1,6]naphthyridin-1-yl]-2-methylphenyl]prop-2-enamide Chemical compound C1=C(NC(=O)C=C)C(C)=CC=C1N1C(=O)C=CC2=C1C1=CC(C=3C=CC(NS(C)(=O)=O)=CC=3)=CC=C1N=C2 SFMJNHNUOVADRW-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
)剛体運動Mkについて解く。Mkをソースメッシュに適用した後、対応する複数の最近傍点が変化し得る。従って、剛体回転の再推定が実行され得る。ICPアルゴリズムが、収束するまで、剛体運動の推定と複数の点集合の変換とを交互に繰り返す。上述の通り、計算時間のほとんどが複数の最近傍点を計算するのに費やされる。複数の空間検索データ構造(例えば、KD木)が複数の点対応を見つけるために用いられ得るが、今日の処理ハードウェアに共通の並列性を利用すると同時に、代替的なアプローチが複数の点対応を判断するのにより高い効率性を提供し得る。
φ(・)←Φ{φ}(・)
によって周辺空間に拡張されてよい。さらに、拡張された画像の各ボクセルに関し、モデルのレベル集合の勾配が算出されてよく、次に流線が現在のボクセル位置から、以下の固定点反復スキームを有するモデル115のターゲットの境界に戻って引かれてよい。
これは点X*に収束する。これに続いて、反復スキーム、モデル115のターゲット150の周りの空間の各ボクセルXinについて、モデル上の対応する最近傍点X*が判断されている。これらの複数の対応点が独立に解決されてよい。したがって、M3個のボクセルとP個の処理ユニットを考慮する場合、複数の対応点の判断の計算複雑度はO(M3/P)である。しかしながら、上述の通り、剛体運動が小さい場合、次の複数の最近傍点の計算がモデル115のターゲット150の表面近傍であることに限定されてよい。この例において、計算複雑度がO(M2/P)にさらに減少される。
ここで、
がXにより深度カメラの焦点から引かれた光線の方向である。深度カメラ145およびφEの間の点乗積で、複数の深度測定を重み付けすることによりカメラの視野に直交する深度マップの一部に、より高い信用が割り当てられてよい。閾値dEがノイズの軽減に役立つ。すなわち、dEは、±dE内に複数の深度画像のサポートを限定すべく動作する。したがって、dEよりも近傍の任意の深度測定が同一表面のアートとして扱われ、合わせて平均されるであろう。しかしながら、dEの選択はユーザ次第で、概して、dEは、ノイズによる表面位置の変動が分かるのに十分大きいが、データの細部を撮るのに十分小さく選択されるべきである。
および
ここで、φDおよびWDは、どこでもゼロに初期化され、蓄積重みがWmaxに限定される。
ここで、λが正則化重み、δ(X)がディラックデルタで緻密にサポートされた近似である。そして、
は、WD(X)>0の場合に1であり、それ以外の場合は0である。φが時間の関数として再び表されるとき、以下の偏微分方程式(PDE)は、オイラーラグランジェ方程式を解くことにより導出される。
このPDEに対する一次解は、以下の反復技法を含む。
ここでも、φが常に符号付距離場となるように、反復技法が制限され得る。一例において、時間フレーム(例えば、L)ごとの複数の反復が、(例えば、モデルの変形のほとんどがスペースカービングによって処理されるので)1に制限されてよい。
が適用されてよい。ここで、Bが境界ボックス(例えば、ミリメートル)で、Dが複数のボクセルユニットにおけるボクセルグリッドである。モデル115のレベル集合表現を保持することにより(例えば、モデルの符号付距離場を作成するために用いられる)、個別のボクセル値が距離および方向の両方を示すので、グリッド解像度より低いサブボクセル精度を可能にし、既定の測定は、モデル115におけるターゲット境界からである。
のモデルの最初のレベル集合表現を仮定すれば、深度画像の外枠が次式で算出されてよい。
ここで、ΔXZは、深度画像上の点と現在のボクセル位置ΔXとの間の差分のz成分である。ΔXは、次式で示される。
特性関数
が、深度データ又は境界ボックスの外部の複数の領域のない箇所で、φEを無限に設定してよい。結果として生じる画像φE(例えば、図2又は3の影の領域)は、深度画像の外枠に対応するゼロISOレベルのレベル集合である。モデル115におけるターゲット150の境界(例えば、表面)が複数の点の集合
であるので、これが表現されてもよい。この接合において、しかしながら、φEが必ずしも符号付距離場である必要がない。従って、符号付距離場に作成するために、オペレータφ{・}(X)がφEレベル集合に当てはめられてよい。一例において、符号付距離場への近似である。
一例において、深度画像における複数の穴を軽減するために、外枠を現在のモデル115に統合する前に、それが多数のボクセル(例えば、τ=2)で拡張されてよい。これは、次式で表される。
この拡張がフィルタモジュール135により実行されてよい。一例において、図3で後述されるように、(例えば、複数のカメラからの)最初の複数の深度画像が取得され得る。上述の処理が複数の視野で繰り返される。
を用いてスムージングされてよい。ここで、Iは、N×Nの単位行列であり、αは正則化重みであり、Lがラプラシアンアンブレラ作用素である。
ここで、N(i)は、頂点iに隣接する複数の頂点の集合であり、
は、隣接する頂点の数である。処理は、Vx成分およびVy成分に関し別個独立に繰り返される。
Claims (24)
- 深度カメラを用いたリアルタイム3D再構成に関する装置であって、
ターゲットの深度カメラから受信された複数の深度測定を格納する深度測定データ構造と、
前記ターゲットの3次元表現を格納するモデルと、
前記深度カメラから受信した現在の深度画像を前記モデルへ登録する登録モジュールと、
前記登録に基づいて、前記深度測定データ構造を前記現在の深度画像で修正する蓄積モジュールと、
スペースカービングおよび前記修正された深度測定データ構造に基づいて、前記モデルを変形するモデル変形モジュールと
を備え、
前記修正された深度測定データ構造に基づいて、前記モデルを変形するために、
前記モデル変形モジュールは、
前記現在の深度画像を前記モデルと交差させることにより前記モデルをスペースカービングし、
前記修正された深度測定データ構造を用いて前記モデルを近似する表面を計算し、
前記近似が、前記表面を前記修正された深度測定データ構造に適合させるための有界の反復プロセスに基づく、装置。 - 前記深度測定データ構造又は前記モデルの少なくとも1つは、ボクセルグリッドを含み、
前記ボクセルグリッドの複数のボクセルは、前記ターゲットを包含する空間内の複数の点に対応する
請求項1に記載の装置。 - 前記モデルは、符号付距離場を含む
請求項2に記載の装置。 - 前記現在の深度画像を前記モデルに登録するために、前記登録モジュールは、
前記モデルのボクセルを選択し、
前記選択されたボクセルに関する前記モデルの前記符号付距離場を周辺空間へ現在のボクセルに拡張し、
前記現在のボクセルに関する勾配を算出し、
前記勾配に従って前記現在のボクセルに対応する、前記モデルの境界上の対応点を算出し、
前記対応点を格納する
請求項3に記載の装置。 - 前記登録モジュールは、前記ボクセルを反復して選択し、前記符号付距離場を拡張し、前記勾配を算出し、前記対応点を算出し、そして、前記モデルの複数のボクセルに関する前記対応点を格納する
請求項4に記載の装置。 - 前記複数のボクセルは、前記モデルにおける前記ターゲットの前記境界近傍に存在し、
前記境界近傍のボクセルは、別のボクセルよりも前記境界より近いボクセルである
請求項5に記載の装置。 - 前記登録モジュールは、
前記現在の深度画像から3次元点に、格納された複数の対応点の組み合わせを関連付け、前記格納された対応点は、前記格納された複数の対応点の組み合わせの中にあり、
格納された複数の対応点の前記組み合わせを用いて、第1の姿勢から前記深度カメラの剛体運動を判断し、
前記第1の姿勢からの前記剛体運動を用いて、前記深度カメラの第2の姿勢を判断し、前記第2の姿勢は、前記ターゲットに関連する前記深度カメラの姿勢に対応する
請求項4に記載の装置。 - 前記登録に基づいて前記深度測定データ構造を前記現在の深度画像で修正し、前記蓄積モジュールは、
前記深度カメラの焦点から前記現在の深度画像の点に引かれた光線の角度に基づいて、前記点を重み付けし、前記焦点および前記角度は、前記現在の深度画像の前記登録から判断された前記深度カメラの姿勢に基づいて判断され、
前記重みを同じ点の前回の重みと組み合わせる
請求項1から7のいずれか一項に記載の装置。 - 前記表面を計算することは、前記修正された深度測定データ構造の複数のボクセル上でレベル集合展開技術を用いる動的輪郭セグメント化の使用を含む
請求項8に記載の装置。 - 前記動的輪郭セグメント化が制限され、符号付距離場として前記モデルを保持する
請求項9に記載の装置。 - 前記有界の反復プロセスは、前記モデルにおける前記ターゲットの境界近傍の複数のボクセルに制限され、
前記境界近傍のボクセルは、別のボクセルよりも前記境界より近いボクセルである
請求項8に記載の装置。 - 深度カメラを用いたリアルタイム3D再構成のためのハードウェア実装方法であって、前記方法は、
深度測定データ構造のターゲットの深度カメラから受信した複数の深度測定を格納する段階と、
モデルの前記ターゲットの3次元表現を格納する段階と、
前記深度カメラから受信された現在の深度画像を前記モデルに登録する段階と、
前記登録に基づいて、前記深度測定データ構造を前記現在の深度画像で修正する段階と、
スペースカービングおよび前記修正された深度測定データ構造に基づいて、前記モデルを変形する段階と
を備え、
前記修正された深度測定データ構造に基づいて、前記モデルを変形する段階は、
前記現在の深度画像を前記モデルと交差させることにより前記モデルをスペースカービングする段階と、
前記修正された深度測定データ構造を用いて前記モデルを近似する表面を計算する段階であって、前記近似が、前記表面を前記修正された深度測定データ構造に適合させるための有界の反復プロセスに基づく、計算する段階と
を含む、方法。 - 前記深度測定データ構造又は前記モデルの少なくとも1つは、ボクセルグリッドを含み、
前記ボクセルグリッドの複数のボクセルは、前記ターゲットを包含する空間内の複数の点に対応する
請求項12に記載の方法。 - 前記モデルが符号付距離場を含む
請求項13に記載の方法。 - 前記現在の深度画像を前記モデルに登録する段階は、
前記モデルのボクセルを選択する段階と、
前記選択されたボクセルに関する前記モデルの前記符号付距離場を、周辺空間へ現在のボクセルに拡張する段階と、
前記現在のボクセルに関する勾配を算出する段階と、
前記勾配に従って前記現在のボクセルに対応する、前記モデルの境界上の対応点を算出する段階と、
前記対応点を格納する段階と
を備える請求項14に記載の方法。 - 前記モデルの複数のボクセルに対して、請求項15の複数の動作を反復して実行する段階を含む
請求項15に記載の方法。 - 前記複数のボクセルが前記モデルにおける前記ターゲットの前記境界の近くであり、
前記境界に近いボクセルは、別のボクセルよりも前記境界より近いボクセルである
請求項16に記載の方法。 - 前記現在の深度画像を前記モデルに登録する段階は、
前記現在の深度画像から3次元点に、格納された複数の対応点の組み合わせを関連付ける段階であって、前記格納された対応点は、前記格納された複数の対応点の組み合わせの中にある段階と、
格納された複数の対応点の前記組み合わせを用いて、第1の姿勢から前記深度カメラの剛体運動を判断する段階と
前記第1の姿勢からの前記剛体運動を用いて、前記ターゲットに関連する前記深度カメラの姿勢に対応する、前記深度カメラの第2の姿勢を判断する段階と
を備える請求項15に記載の方法。 - 前記登録に基づいて、前記深度測定データ構造を前記現在の深度画像で修正することは、
前記深度カメラの焦点から前記現在の深度画像の点に引かれた光線の角度に基づいて、前記点を重み付けする段階であって、前記焦点および前記角度は、前記現在の深度画像の前記登録から判断された前記深度カメラの姿勢に基づいて判断される、重み付する段階と、
前記重みを同じ点の前回の重みと組み合わせる段階とを含む
請求項12から18のいずれか一項に記載の方法。 - 前記表面を計算する段階は、前記修正された深度測定データ構造の複数のボクセル上でレベル集合展開技術を用いる動的輪郭セグメント化を使用する段階を含む
請求項12から19のいずれか一項に記載の方法。 - 前記動的輪郭セグメント化が制限され、符号付距離場として前記モデルを保持する
請求項20に記載の方法。 - 前記有界の反復プロセスは、前記モデルにおける前記ターゲットの境界近傍の複数のボクセルに制限され、
前記境界近傍のボクセルは、別のボクセルよりも前記境界より近いボクセルである
請求項12から19のいずれか一項に記載の方法。 - 機械により実行されると、請求項12から22のいずれかの方法を前記機械に実行させる命令を含む
プログラム。 - 請求項23に記載のプログラムを格納する、コンピュータ可読記録媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2014/010151 WO2015102637A1 (en) | 2014-01-03 | 2014-01-03 | Real-time 3d reconstruction with a depth camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017509035A JP2017509035A (ja) | 2017-03-30 |
JP6257064B2 true JP6257064B2 (ja) | 2018-01-10 |
Family
ID=53493837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016534931A Active JP6257064B2 (ja) | 2014-01-03 | 2014-01-03 | 深度カメラを用いたリアルタイム3d再構成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10178366B2 (ja) |
EP (1) | EP3090542B1 (ja) |
JP (1) | JP6257064B2 (ja) |
KR (1) | KR101793485B1 (ja) |
CN (1) | CN106105192B (ja) |
WO (1) | WO2015102637A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10178366B2 (en) | 2014-01-03 | 2019-01-08 | Intel Corporation | Real-time 3D reconstruction with a depth camera |
US9948911B2 (en) * | 2014-09-05 | 2018-04-17 | Qualcomm Incorporated | Method and apparatus for efficient depth image transformation |
GB201512304D0 (en) * | 2015-07-13 | 2015-08-19 | Whispering Gibbon Ltd | Preparing a polygon mesh for printing |
US10380792B2 (en) * | 2015-09-30 | 2019-08-13 | Hewlett-Packard Development Company, L.P. | Three-dimensional model generation |
CA3005894A1 (en) | 2015-11-20 | 2017-05-26 | Magic Leap, Inc. | Methods and systems for large-scale determination of rgbd camera poses |
US10531064B2 (en) * | 2016-04-15 | 2020-01-07 | Canon Kabushiki Kaisha | Shape reconstruction using electronic light diffusing layers (E-Glass) |
KR20180060160A (ko) * | 2016-11-28 | 2018-06-07 | 김선영 | 깊이 카메라의 영상정보를 이용한 3d 비만 관리 시스템 |
CN107067470B (zh) * | 2017-04-05 | 2019-09-06 | 东北大学 | 基于红外热像仪与深度相机的便携式三维温度场重建系统 |
US10679338B2 (en) * | 2017-08-23 | 2020-06-09 | General Electric Company | Three-dimensional modeling of an object |
CN107862733B (zh) * | 2017-11-02 | 2021-10-26 | 南京大学 | 基于视线更新算法的大规模场景实时三维重建方法和系统 |
US10504251B1 (en) * | 2017-12-13 | 2019-12-10 | A9.Com, Inc. | Determining a visual hull of an object |
CN111801708B (zh) * | 2017-12-22 | 2022-04-29 | 奇跃公司 | 使用光线投射和实时深度进行遮挡渲染的方法 |
CN108447097B (zh) * | 2018-03-05 | 2021-04-27 | 清华-伯克利深圳学院筹备办公室 | 深度相机标定方法、装置、电子设备及存储介质 |
US10740986B2 (en) * | 2018-08-30 | 2020-08-11 | Qualcomm Incorporated | Systems and methods for reconstructing a moving three-dimensional object |
JP7460532B2 (ja) | 2018-10-10 | 2024-04-02 | 株式会社Preferred Networks | システム、方法及び装置 |
US11145111B2 (en) | 2018-12-04 | 2021-10-12 | Intuitive Research And Technology Corporation | Volumetric slicer |
US11113868B2 (en) | 2018-12-04 | 2021-09-07 | Intuitive Research And Technology Corporation | Rastered volume renderer and manipulator |
WO2020118565A1 (en) * | 2018-12-12 | 2020-06-18 | Huawei Technologies Co., Ltd. | Keyframe selection for texture mapping wien generating 3d model |
US10924721B2 (en) | 2018-12-20 | 2021-02-16 | Intel Corporation | Volumetric video color assignment |
CN112562057B (zh) * | 2019-09-26 | 2023-08-08 | 杭州海康威视数字技术股份有限公司 | 三维重建系统及方法 |
CN111260776B (zh) * | 2020-02-07 | 2023-04-18 | 山西大学 | 一种自适应正态分析的三维形貌重建方法 |
US11816855B2 (en) | 2020-02-11 | 2023-11-14 | Samsung Electronics Co., Ltd. | Array-based depth estimation |
WO2022025741A1 (en) * | 2020-07-27 | 2022-02-03 | Samsung Electronics Co., Ltd. | Array-based depth estimation |
CN111932679B (zh) * | 2020-08-13 | 2021-04-16 | 北京未澜科技有限公司 | 一种基于隐式模板的三维模型表达方式 |
US11688126B2 (en) * | 2021-02-09 | 2023-06-27 | Canon Medical Systems Corporation | Image rendering apparatus and method |
WO2022239543A1 (ja) * | 2021-05-11 | 2022-11-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および記憶媒体 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999073B1 (en) | 1998-07-20 | 2006-02-14 | Geometrix, Inc. | Method and system for generating fully-textured 3D |
US6373487B1 (en) * | 1999-09-17 | 2002-04-16 | Hewlett-Packard Company | Methods and apparatus for constructing a 3D model of a scene from calibrated images of the scene |
JP2003162549A (ja) | 2001-11-28 | 2003-06-06 | National Institute Of Advanced Industrial & Technology | 統合された形状モデル生成方法及びコンピュータプログラム |
JP4096622B2 (ja) * | 2002-05-21 | 2008-06-04 | 株式会社セガ | 画像処理方法及び装置、並びにプログラム及び記録媒体 |
CN2612756Y (zh) * | 2003-04-01 | 2004-04-21 | 袁树添 | 一种室内外防滑木地板 |
JP4441611B2 (ja) | 2004-07-22 | 2010-03-31 | 独立行政法人産業技術総合研究所 | 3次元図形の曲面再構成装置および3次元図形の曲面再構成プログラム |
KR100707206B1 (ko) * | 2005-04-11 | 2007-04-13 | 삼성전자주식회사 | 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치 |
CN101242435A (zh) * | 2006-02-22 | 2008-08-13 | 华为技术有限公司 | 连接主基站与射频拉远单元的接口装置 |
JP5120926B2 (ja) * | 2007-07-27 | 2013-01-16 | 有限会社テクノドリーム二十一 | 画像処理装置、画像処理方法およびプログラム |
CN103258184B (zh) * | 2008-02-27 | 2017-04-12 | 索尼计算机娱乐美国有限责任公司 | 用于捕获场景的深度数据并且应用计算机动作的方法 |
US8350850B2 (en) | 2008-03-31 | 2013-01-08 | Microsoft Corporation | Using photo collections for three dimensional modeling |
WO2010003844A1 (fr) * | 2008-06-30 | 2010-01-14 | Thomson Licensing | Procede de composition temps reel d'une video |
CN101383054B (zh) * | 2008-10-17 | 2010-09-08 | 北京大学 | 一种基于图像与扫描数据的混合三维重建方法 |
KR20100138648A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
GB2483285A (en) * | 2010-09-03 | 2012-03-07 | Marc Cardle | Relief Model Generation |
CN102542601A (zh) | 2010-12-10 | 2012-07-04 | 三星电子株式会社 | 一种用于3d对象建模的设备和方法 |
US8711206B2 (en) * | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US9245374B2 (en) * | 2011-02-22 | 2016-01-26 | 3M Innovative Properties Company | Space carving in 3D data acquisition |
US9336625B2 (en) * | 2011-10-25 | 2016-05-10 | Microsoft Technology Licensing, Llc | Object refinement using many data sets |
CN102364524A (zh) * | 2011-10-26 | 2012-02-29 | 清华大学 | 一种基于变光照多视角间差采样的三维重建方法和装置 |
KR20130068293A (ko) * | 2011-12-14 | 2013-06-26 | 연세대학교 산학협력단 | 깊이 정보 생성 방법 및 장치 |
KR101339900B1 (ko) * | 2012-03-09 | 2014-01-08 | 한국과학기술연구원 | 2차원 단일 영상 기반 3차원 몽타주 생성 시스템 및 방법 |
US9900619B2 (en) * | 2012-07-02 | 2018-02-20 | Qualcomm Incorporated | Intra-coding of depth maps for 3D video coding |
JP6069923B2 (ja) * | 2012-07-20 | 2017-02-01 | セイコーエプソン株式会社 | ロボットシステム、ロボット、ロボット制御装置 |
US9857470B2 (en) * | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9571858B2 (en) * | 2013-07-19 | 2017-02-14 | Futurewei Technologies, Inc. | Method and apparatus of derivation for a binary partition pattern |
US9646412B1 (en) * | 2013-07-19 | 2017-05-09 | Dassault Systemes Solidworks Corporation | Pre-sorted order independent transparency |
US10178366B2 (en) | 2014-01-03 | 2019-01-08 | Intel Corporation | Real-time 3D reconstruction with a depth camera |
-
2014
- 2014-01-03 US US15/100,565 patent/US10178366B2/en active Active
- 2014-01-03 CN CN201480066335.1A patent/CN106105192B/zh active Active
- 2014-01-03 EP EP14876846.8A patent/EP3090542B1/en active Active
- 2014-01-03 WO PCT/US2014/010151 patent/WO2015102637A1/en active Application Filing
- 2014-01-03 JP JP2016534931A patent/JP6257064B2/ja active Active
- 2014-01-03 KR KR1020167014825A patent/KR101793485B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
JP2017509035A (ja) | 2017-03-30 |
US20160301910A1 (en) | 2016-10-13 |
CN106105192B (zh) | 2021-05-18 |
KR101793485B1 (ko) | 2017-11-03 |
CN106105192A (zh) | 2016-11-09 |
US10178366B2 (en) | 2019-01-08 |
EP3090542A4 (en) | 2017-11-08 |
EP3090542B1 (en) | 2020-09-30 |
KR20160083905A (ko) | 2016-07-12 |
WO2015102637A1 (en) | 2015-07-09 |
EP3090542A1 (en) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6257064B2 (ja) | 深度カメラを用いたリアルタイム3d再構成 | |
JP7181977B2 (ja) | 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
JP7362044B2 (ja) | 修正されたシェイプフロムシェーディング(sfs)スキームを使用した三角形3次元メッシュの形状改善 | |
KR101195942B1 (ko) | 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법 | |
JP4392507B2 (ja) | 3次元サーフェス生成方法 | |
Li et al. | Detail-preserving and content-aware variational multi-view stereo reconstruction | |
US20120081357A1 (en) | System and method for interactive painting of 2d images for iterative 3d modeling | |
WO2015006224A1 (en) | Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis | |
EP3756163B1 (en) | Methods, devices, and computer program products for gradient based depth reconstructions with robust statistics | |
GB2520613A (en) | Target region fill utilizing transformations | |
Dinesh et al. | 3D point cloud super-resolution via graph total variation on surface normals | |
JP2011085971A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び画像処理システム | |
KR20170052634A (ko) | 심도 맵 향상 | |
CN104715504A (zh) | 一种鲁棒的大场景稠密三维重建方法 | |
JP2013250891A (ja) | 超解像方法及び装置 | |
WO2018039936A1 (en) | Fast uv atlas generation and texture mapping | |
EP2800055A1 (en) | Method and system for generating a 3D model | |
CN113160419B (zh) | 一种建筑物立面模型建立方法和装置 | |
CA2716257A1 (en) | System and method for interactive painting of 2d images for iterative 3d modeling | |
Haque et al. | Robust feature-preserving denoising of 3D point clouds | |
CN108151712B (zh) | 一种人体三维建模及测量方法和系统 | |
Han et al. | 3D reconstruction of dense model based on the sparse frames using RGBD camera | |
CN116580074B (zh) | 一种基于多传感器融合的三维重建方法 | |
Oriti et al. | 3D SCENE RECONSTRUCTION SYSTEM BASED ON A MOBILE DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6257064 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |