JP6843237B2 - シーンのポイントクラウドを表現するシステム及び方法 - Google Patents
シーンのポイントクラウドを表現するシステム及び方法 Download PDFInfo
- Publication number
- JP6843237B2 JP6843237B2 JP2019526638A JP2019526638A JP6843237B2 JP 6843237 B2 JP6843237 B2 JP 6843237B2 JP 2019526638 A JP2019526638 A JP 2019526638A JP 2019526638 A JP2019526638 A JP 2019526638A JP 6843237 B2 JP6843237 B2 JP 6843237B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- fitting
- spline
- patch
- parameterized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 94
- 238000012545 processing Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 31
- 238000003780 insertion Methods 0.000 claims description 8
- 230000037431 insertion Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 29
- 239000013598 vector Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/30—Polynomial surface description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Description
図1Bは、本開示の実施形態による、高速Tスプラインフィッティングシステム100の3Dセンサ116を用いて3Dポイントクラウドを取り込むことを例示する図である。この場合、高速Tスプラインフィッティングシステム100は、前壁210、左壁211、右壁212、床220、天井(図示せず)、ソファ230、ランプ240及び窓250を含む、室内の物体の点データをスキャンする。
Bスプライン又はNURBS表面をフィッティングするための2つの方式がある。第1の方式は、簡単な制御メッシュから開始し、大きいフィッティング誤差(フィッティング誤差値)を有するエリアにおいてグローバルノット精緻化を実行し、全ての制御点の最適な位置を求め、必要に応じて、データパラメータ化を更新し、その後、フィッティング誤差が十分に小さくなるまで、このプロセスを繰り返す。第2の方式は、必要以上に複雑なメッシュから開始し、ノット除去によってそのメッシュを繰り返し簡単にすることによって、その手順を逆に実施する。
或る次数のTスプライン式が、関連するパラメータu及びvを有する各Tスプライン表面点Q(u,v)∈R3を、以下のように、全ての制御点Ck∈R3,k=1,...,Kの組み合わせとして表す。
FastFitアルゴリズムと呼ばれる、高速Tスプラインフィッティングアルゴリズムの概要が、本開示の実施形態による、以下のアルゴリズム1によって記述される。
FitBezierPatchAdaptive:第一に、入力ポイントクラウドが、所定のフィッティング誤差閾値に従って、一組のBスプライン/ベジェパッチに適応的に分割(分割処理)される。これらのパッチはそれぞれ、入力データパラメータ領域内の長方形のサブ領域に対応する。言い換えると、各パッチは、パラメータ化領域内の長方形のサブパッチである。例えば、図2B及び図2Cに示されるように、パラメータ化領域は不均等に分割される場合がある。
本開示のいくつかの実施形態は、その多重度が、根底にあるBスプライン基底関数の次数、すなわち、d+1に等しくなるまで、各ノットラインにおいて繰り返されるノット挿入を使用することによって、任意のTスプライン表面を一組の独立したBスプライン、又はより簡単に言うと、ベジェ表面に変換できるという認識に基づく。逆の手順において考えるとき、入力点のそれぞれを、固定ノットベクトルを有する簡単なBスプラインによって、或いはベジェパッチによって十分に表すことができるまで、入力点をより小さいパッチに適応的に分割するとどうなるかを解析した。そうすると、共有されるノットラインにおいて、すなわち、パラメータ領域内の各パッチの境界において、全てのそのようなパッチを、適切な連続性を有する単一のTスプラインになるように互いに構成するだけで十分である。
アルゴリズム2の出力B、すなわち、一組のベジェパッチは基本的に、既に有効なTスプラインであり、あらゆるノットラインの多重度が全てのベジェパッチの選択された次数、d+1に等しい。しかしながら、パッチの境界にわたって滑らかであることを確実にするために、表面パラメータ連続性を規定することが、より望ましい。上記で言及されたように、パラメータ領域内の全ての返されるパッチの境界は、本発明のTスプラインフィッティングの場合に再生されるTメッシュとして取り扱われ、それは、以下のステップにおいても固定されたままである。例えば、図2Bにおいて、3つのパッチb1、b2及びb3から簡単なTメッシュが生成される。しかしながら、Tメッシュの原画像、すなわち、いわゆる、インデックス/パラメータ空間内のTメッシュが、局所ノットベクトルを推定するために依然として特定されることになる。これは、所望の表面モデルの所定のパラメータ連続性及び入力ポイントクラウドから得られるデータ連続性の両方を考慮して、Tメッシュの各エッジに異なる多重度を割り当てることができるためである。
一般に、ベジェパッチフィッティングにおいて単に、境界制御点が強制的に共有されるようにしても、結果として、表面の滑らかさ又はフィッティング誤差のいずれかに関して最適なTスプライン表面は生じない。アルゴリズム3から出力される一組の局所ノットベクトル(U、V)を用いてTメッシュが発見されると、
2つの異なる適用例、すなわち、3Dポイントクラウド及び画像データにTスプラインをフィッティングする際のいくつかのデータセットにわたる本発明のFasTFitアルゴリズムの速度及び精度を評価した。編成済み3Dポイントクラウド、すなわち、キネクトライク及びzマップライク編成済みポイントクラウド、並びに未編成ポイントクラウドの3種類を検討する。キネクトポイントクラウドの場合、点間のユークリッド距離に基づく簡単なプリセグメンテーションを使用し、本発明のアルゴリズムを各セグメントに適用した。このセグメントベース手法によれば、ポイントクラウド全体に対して単一のTスプラインをフィッティングするより、制御点の数が少なくなり、それゆえ、計算が高速になることがわかった。画像データの場合、画像全体に対して単一のTスプラインをフィッティングした。4.0GHzのインテルCore i7CPUを備える標準的なデスクトップPCにおいて、OpenMP並列化を伴うC++においてアルゴリズムを実施し、全ての実験を行った。
第1の適用例は、3Dポイントクラウドの各単一フレームにわたってTスプライン表面をフィッティングすることである。本発明の方法と2つの関連する従来の方法との間の定量的比較及び定性的比較の両方を実行した。
小領域ノット挿入(SKI:subregional knot insertion)は、反復方式に従う編成済み入力データのためのTスプラインフィッティング方法のうちの1つである。各メッシュ精緻化反復において、その方法は、入力データ全体をいくつかの小領域(一組のパッチ)に均等に分割する。言い換えると、分割処理プロセスによって、パラメータ化領域を一組のパッチに均等に分割する。さらに、場合によっては、分割処理が、いくつかの小領域(一組のパッチ)に不均等に分割する場合がある。小領域の数は、反復とともに二次的に増加する。その際、最大フィッティング二乗平均平方根誤差(RMSE:root-mean-squared-error)を有する小領域の一定のパーセンテージが選択され、そのパーセンテージは挿入比α%と呼ばれる。言い換えると、分割処理は、最大フィッティングRMSEを用いて、分割処理パーセンテージ(挿入比α%)に基づいて実行される。例えば、分割処理パーセンテージは、0.1%〜1%の範囲内のノット挿入比とすることができる。
FasTFitは、SKIより少なくとも10倍〜15倍速く動作する。FasTFitのステップごとの処理時間が表2に示される。表1にセグメンテーション時間は含まれないことに留意されたい。
SKIが同じレベルの制御点数において中止されるとき、FasTFitの結果として、同等のフィッティングRMSEが生じる(表1内のC31に対するSKI−C31CTRLのRMSEの差は0.2%未満である)。ノット挿入に起因して、SKIはFasTFit内の制御点と厳密に同じ数において中止できないので、SKI−C31CTRLの制御点の平均数は、C31の平均数よりわずかに多い。そのような条件下であっても、約29%の事例において、C31がSKI−C31CTRLより小さいRMSEを有する。
SKIが同じレベルのRMSEにおいて中止されるとき、FasTFitの結果として、大抵の場合に、制御点の数が少なくなる(表1内のC31に対するSKI−C31RMSEの制御点の数を比較)。同様に、SKIはFasTFitと厳密に同じRMSEにおいて中止できないので、SKI−C31RMSEの平均RMSEは、C31の平均RMSEよりわずかに小さい。
表面フィッティングの品質を評価するために、SKIに加えて、本発明の結果を、打切り符号付き距離フィールド(TSDF:truncated signed distance field)において複数のポイントクラウドを融合することによって従来の表面再構成品質のうちの1つを提供するKinFu、すなわち、キネクトフュージョンのオープンソース実施態様によって得られた結果と比較する。
zマップライク3Dポイントクラウドに関するFasTFitが、既知のピュージェット湾地形のデジタル標高マップ(DEM:digital elevation map)の拡張バージョン(100mのピクセル間間隔及び0.5mのピクセル単位を有する1025×1025ピクセル)を用いて評価される。図5A及び図5Bは、本開示の一実施形態による、SKI法とFasTfit法との比較を示す。この場合、反復方式は、著しく多い数の制御点に起因して、FasTFitよりはるかに(4桁)遅い速度で動作し、その結果として、最大RMSE領域を含むTメッシュ面の探索、形状保存制御点挿入、及び各反復におけるTメッシュの保持に関する計算コストによって、SKI、すなわち、反復方式は更に低速になることに留意されたい。行1は概観を示す。行2及び行3は詳細な図を示す。行4は凡例及びTメッシュを示す。メッシュはフィッティング誤差を示す。図5Bは、SKI法と比べて、FasTFitが4桁高速であり、同等の表面をフィッティングすることを示す実験結果である。
SLAMシステムを用いて、複数のダウンサンプリングされたキネクトポイントクラウドを位置合わせすることによって取り込まれた未編集3Dポイントクラウドに関してFasTFitを更に評価する。ここでは、スキャンされたシーンからの物体を手作業でセグメント化し、上記のようなPCAベース法及び単一のTスプライン表面を用いて、物体ポイントクラウドをパラメータ化した。図7は、上から下に、未処理点、フィッティング済みTスプライン及びTメッシュに対応する、未編成ポイントクラウドをフィッティングする例を示す。
第2の適用例は、カラー画像に関してRGB空間内でTスプラインをフィッティングすることであり、その結果は、ズーム処理及び幾何学的変換等の、種々の画像プロセスアルゴリズムを助けることができる。
Claims (20)
- Tスプライン表現を用いてシーンのポイントクラウドを表現するシステムであって、
前記シーンの画像を取り込むように構成される3次元センサと、
前記3次元センサ、及びTスプライン表現を用いて前記シーンのポイントクラウドを表現するプログラムを記憶するメモリと通信し、前記プログラムの命令を実行するように構成されるプロセッサであって、前記命令は、
前記3次元センサを用いて前記シーンの単一フレームの奥行画像を取り込むステップと、
前記単一フレームの前記奥行画像から前記ポイントクラウドを生成するステップと、
前記単一フレームから取り込まれた前記ポイントクラウドのデータ点をパラメータ化領域のパラメータの値にマッピングすることによって、前記ポイントクラウドの前記パラメータ化領域を決定するステップと、
終了条件が閾値条件を満たすまで、前記パラメータ化領域及び前記単一フレームから取り込まれた前記ポイントクラウドの前記マッピングされたデータ点を一組のパッチに再帰的に適応的に分割処理するステップであって、現在の分割処理は、先行する分割処理によって形成されたパッチに対応する前記ポイントクラウドの部分にスプライン表面をフィッティングすることと、前記パッチを更に分割処理することとを含み、前記分割処理は最大フィッティング二乗平均平方根誤差を用いて、前記パッチの分割処理パーセンテージに基づいて実行される、ステップと、
前記パッチを接続して、前記パラメータ化領域内の制御点のトポロジーを規定するTメッシュを形成するステップと、
前記Tメッシュに従って前記ポイントクラウドにTスプライン表面をフィッティングし、前記制御点の位置を特定するステップと、
を含む、プロセッサと、
を備える、システム。 - 前記パッチはそれぞれ、前記パラメータ化領域内の長方形のサブパッチである、請求項1に記載のシステム。
- 前記分割処理することは、前記パラメータ化領域を前記一組のパッチに均等に、又は不均等に分割する、請求項1に記載のシステム。
- 前記閾値条件は、パッチ内のデータ点に対してフィッティングされるスプラインに関する所定のフィッティング誤差値である、請求項1に記載のシステム。
- 前記閾値条件は、前記奥行画像の所定のデータサイズである、請求項4に記載のシステム。
- 前記命令は、
フィッティング済みTスプライン表面のデータをディスプレイデバイス又は別のコンピュータに送信することを更に含む、請求項1に記載のシステム。 - ディスプレイデバイスを更に備え、
前記ディスプレイデバイスは、前記ディスプレイデバイスの画面上に前記Tスプライン表面及びTメッシュを表示するように構成される、請求項1に記載のシステム。 - メモリ及び3次元センサと通信するプロセッサを用いて、Tスプライン表現を用いてシーンのポイントクラウドを表現する方法であって、
前記3次元センサを用いて前記シーンの単一フレームの奥行画像を取り込むことと、
前記単一フレームの前記奥行画像から前記ポイントクラウドを生成することと、
前記単一フレームから取り込まれた前記ポイントクラウドのデータ点をパラメータ化領域のパラメータの値にマッピングすることによって、前記ポイントクラウドの前記パラメータ化領域を決定することと、
終了条件が閾値条件を満たすまで、前記パラメータ化領域及び前記単一フレームから取り込まれた前記ポイントクラウドの前記マッピングされたデータ点を一組のパッチに再帰的に適応的に分割処理することであって、現在の分割処理は、先行する分割処理によって形成されたパッチに対応する前記ポイントクラウドの部分にスプライン表面をフィッティングすることと、前記パッチを更に分割処理することとを含み、前記分割処理は最大フィッティング二乗平均平方根誤差を用いて、前記パッチの分割処理パーセンテージに基づいて実行されることと、
前記パッチを接続して、前記パラメータ化領域内の制御点のトポロジーを規定するTメッシュを形成することと、
前記Tメッシュに従って前記ポイントクラウドにTスプライン表面をフィッティングし、前記制御点の位置を特定することと、
を含む、方法。 - 前記パッチのそれぞれのフィッティング誤差は、前記パラメータ化領域の他のパッチのフィッティング誤差から独立して求められる、請求項8に記載の方法。
- 前記閾値条件は前記部分の面積によって決定される、請求項8に記載の方法。
- 前記パッチはそれぞれ、前記パラメータ化領域内の長方形のサブパッチである、請求項8に記載の方法。
- 前記分割処理することは、前記パラメータ化領域を前記一組のパッチに均等に、又は不均等に分割する、請求項8に記載の方法。
- 前記閾値条件は、所定のフィッティング誤差値である、請求項8に記載の方法。
- 前記閾値条件は、前記奥行画像の所定のデータサイズである、請求項8に記載の方法。
- 前記分割処理することは、最大フィッティング二乗平均平方根誤差(RMSE)を用いて、前記パッチの分割処理パーセンテージに基づいて実行される、請求項8に記載の方法。
- 前記分割処理パーセンテージは、0.1%〜1%の範囲内のノット挿入比である、請求項15に記載の方法。
- フィッティング済みTスプライン表面のデータをディスプレイデバイス又は別のコンピュータに送信することを更に含む、請求項8に記載の方法。
- 前記ディスプレイデバイスの画面上に前記Tスプライン表面及びTメッシュを表示することを更に含む、請求項17に記載の方法。
- プロセッサにTスプライン表現を用いてシーンのポイントクラウドを表現する方法を実行させるプログラムコードを記憶する非一時的コンピュータ可読記録媒体であって、前記プログラムコードは、
3次元センサを用いて前記シーンの単一フレームの奥行画像を取り込むプログラムコードと、
前記単一フレームの前記奥行画像から前記ポイントクラウドを生成するプログラムコードと、
前記単一フレームから取り込まれた前記ポイントクラウドのデータ点をパラメータ化領域のパラメータの値にマッピングすることによって、前記ポイントクラウドの前記パラメータ化領域を決定するプログラムコードと、
終了条件が閾値条件を満たすまで、前記パラメータ化領域及び前記単一フレームから取り込まれた前記ポイントクラウドの前記マッピングされたデータ点を一組のパッチに再帰的に適応的に分割処理するプログラムコードであって、現在の分割処理は、先行する分割処理によって形成されたパッチに対応する前記ポイントクラウドの部分にスプライン表面をフィッティングすることと、前記パッチを更に分割処理することとを含み、前記分割処理は最大フィッティング二乗平均平方根誤差を用いて、前記パッチの分割処理パーセンテージに基づいて実行される、プログラムコードと、
前記パッチを接続して、前記パラメータ化領域内の制御点のトポロジーを規定するTメッシュを形成するプログラムコードと、
前記Tメッシュに従って前記ポイントクラウドにTスプライン表面をフィッティングし、前記制御点の位置を特定するプログラムコードと、
を含む、非一時的コンピュータ可読記録媒体。 - 前記パッチのそれぞれのフィッティング誤差は、前記パラメータ化領域の他のパッチのフィッティング誤差から独立して求められる、請求項19に記載の非一時的コンピュータ可読記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/469,840 | 2017-03-27 | ||
US15/469,840 US10832471B2 (en) | 2017-03-27 | 2017-03-27 | Fast T-spline fitting system and method |
PCT/JP2017/037095 WO2018179532A1 (en) | 2017-03-27 | 2017-10-05 | System and method for representing point cloud of scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019536162A JP2019536162A (ja) | 2019-12-12 |
JP6843237B2 true JP6843237B2 (ja) | 2021-03-17 |
Family
ID=60382528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019526638A Active JP6843237B2 (ja) | 2017-03-27 | 2017-10-05 | シーンのポイントクラウドを表現するシステム及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10832471B2 (ja) |
JP (1) | JP6843237B2 (ja) |
WO (1) | WO2018179532A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840937B (zh) * | 2018-12-14 | 2022-11-29 | 广东三维家信息科技有限公司 | 一种基于空间四叉树的3d点云路径规划方法 |
CN111479114B (zh) * | 2019-01-23 | 2022-07-22 | 华为技术有限公司 | 点云的编解码方法及装置 |
US11210812B2 (en) | 2019-05-15 | 2021-12-28 | Samsung Electronics Co., Ltd. | Single-pass boundary detection in video-based point cloud compression |
CN112385222B (zh) * | 2019-06-12 | 2023-11-10 | 浙江大学 | 点云处理的方法与装置 |
CN110750193B (zh) * | 2019-10-17 | 2022-01-14 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的场景拓扑确定方法和装置 |
US11688155B2 (en) | 2020-01-06 | 2023-06-27 | Luminar, Llc | Lane detection and tracking techniques for imaging systems |
US11315329B1 (en) * | 2020-02-25 | 2022-04-26 | Facebook Technologies, Llc. | Scene reconstruction from sparse data |
CN111914450A (zh) * | 2020-07-20 | 2020-11-10 | 华中科技大学 | 一种基于局部细化求解的ast样条曲面快速重建算法 |
CN111967342B (zh) * | 2020-07-27 | 2024-04-12 | 杭州易现先进科技有限公司 | 平面参数设置的方法、装置、电子装置和存储介质 |
US20230177738A1 (en) * | 2021-12-03 | 2023-06-08 | Tencent America LLC | Dynamic mesh compression based on point cloud compression |
WO2023215962A1 (en) * | 2022-05-13 | 2023-11-16 | Maple Advanced Robotics Inc. | Systems and methods for surface fitting, path planing, and surface processing of an object |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7129942B2 (en) * | 2002-12-10 | 2006-10-31 | International Business Machines Corporation | System and method for performing domain decomposition for multiresolution surface analysis |
JP2006523891A (ja) | 2003-03-26 | 2006-10-19 | ブリガム・ヤング・ユニバーシティ | 局所洗練を用いてt−スプライン及びt−nurcc表面を定義するためのシステム及び方法 |
US8004517B1 (en) * | 2005-06-24 | 2011-08-23 | Geomagic, Inc. | Methods, apparatus and computer program products that model three-dimensional surface structures |
US20070018988A1 (en) * | 2005-07-20 | 2007-01-25 | Michael Guthe | Method and applications for rasterization of non-simple polygons and curved boundary representations |
US20070247458A1 (en) * | 2006-04-11 | 2007-10-25 | Samsung Electronics Co., Ltd. | Adaptive computation of subdivision surfaces |
WO2008066740A2 (en) * | 2006-11-22 | 2008-06-05 | Parker Vision, Inc. | Multi-dimensional error correction for communications systems |
US20090024370A1 (en) * | 2007-07-19 | 2009-01-22 | Scott Michael A | Method and System for Performing T-Spline Based Isogeometric Analysis |
US8310481B2 (en) * | 2007-10-12 | 2012-11-13 | Edward Ernest Bailey | Computer aided design method for enhancement of local refinement through T-splines |
EP2471046A4 (en) * | 2009-08-26 | 2017-07-26 | Sinvent AS | Method for local refinement of a geometric or physical representation |
EP2750108B1 (en) * | 2012-12-28 | 2019-05-01 | Dassault Systèmes | Parameterizing a 3D modeled object for tessellation |
ES2728861T3 (es) * | 2013-03-15 | 2019-10-29 | Univ Carnegie Mellon | Sistema robótico autónomo supervisado para inspección y procesamiento de superficie compleja |
US10121273B2 (en) * | 2013-08-08 | 2018-11-06 | University Of Florida Research Foundation, Incorporated | Real-time reconstruction of the human body and automated avatar synthesis |
US20160005221A1 (en) * | 2014-07-03 | 2016-01-07 | Qualcomm Incorporated | Photometric optimization with t-splines |
US9646410B2 (en) * | 2015-06-30 | 2017-05-09 | Microsoft Technology Licensing, Llc | Mixed three dimensional scene reconstruction from plural surface models |
US10102319B2 (en) * | 2015-07-17 | 2018-10-16 | Board Of Trustees Of Michigan State University | Electromagnetic scattering analysis module using subdivision based isogeometric analysis |
US10296664B2 (en) * | 2015-12-17 | 2019-05-21 | Autodesk, Inc. | Scalable and precise fitting of NURBS surfaces to large-size mesh representations |
US10102671B2 (en) * | 2017-02-09 | 2018-10-16 | Wisconsin Alumni Research Foundation | Systems for generalizing non-uniform rational B-spline and application of systems |
CN108694740A (zh) * | 2017-03-06 | 2018-10-23 | 索尼公司 | 信息处理设备、信息处理方法以及用户设备 |
-
2017
- 2017-03-27 US US15/469,840 patent/US10832471B2/en active Active
- 2017-10-05 JP JP2019526638A patent/JP6843237B2/ja active Active
- 2017-10-05 WO PCT/JP2017/037095 patent/WO2018179532A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018179532A1 (en) | 2018-10-04 |
US10832471B2 (en) | 2020-11-10 |
US20180276884A1 (en) | 2018-09-27 |
JP2019536162A (ja) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6843237B2 (ja) | シーンのポイントクラウドを表現するシステム及び方法 | |
US10832079B2 (en) | Determining an architectural layout | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
US11922580B2 (en) | Floorplan generation based on room scanning | |
US9412040B2 (en) | Method for extracting planes from 3D point cloud sensor data | |
US20200284587A1 (en) | Methods for simultaneous localization and mapping (slam) and related apparatus and systems | |
JP2018124985A (ja) | 平面セグメントを用いて点群を完成させる方法およびシステム | |
US8610712B2 (en) | Object selection in stereo image pairs | |
JP4999717B2 (ja) | レンジ画像から物体の姿勢を求める方法及びシステム | |
US9311565B2 (en) | 3D scanning with depth cameras using mesh sculpting | |
EP3131060A1 (en) | Method and apparatus for constructing three dimensional model of object | |
US20210232858A1 (en) | Methods and systems for training an object detection algorithm using synthetic images | |
CN111738265B (zh) | Rgb-d图像的语义分割方法、系统、介质及电子设备 | |
US11908081B2 (en) | Method and system for automatic characterization of a three-dimensional (3D) point cloud | |
JP2013127783A (ja) | 並列追跡及びマッピングのためのキーフレーム選択 | |
US20140168204A1 (en) | Model based video projection | |
CN111382618B (zh) | 一种人脸图像的光照检测方法、装置、设备和存储介质 | |
CN112862736B (zh) | 一种基于点的实时三维重建与优化方法 | |
KR20230133293A (ko) | 멀티-뷰 정세화를 사용한 3차원 모델들의 향상 | |
CN114998406A (zh) | 一种自监督多视图深度估计方法、装置 | |
CN114373018A (zh) | 一种实时驱动方法、装置及设备 | |
US20240290056A1 (en) | Methods, storage media, and systems for augmenting data or models | |
CN118229552A (zh) | 图像处理方法、电器设备、可读存储介质和程序产品 | |
WO2024011063A1 (en) | Methods, storage media, and systems for combining disparate 3d models of a common building object | |
CN117274543A (zh) | 一种基于NeRF的ORB-SLAM3系统AR实时可视化方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190517 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6843237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |