JP6483832B2 - Rgb−dセンサを使用して物体を走査する方法とシステム - Google Patents

Rgb−dセンサを使用して物体を走査する方法とシステム Download PDF

Info

Publication number
JP6483832B2
JP6483832B2 JP2017530405A JP2017530405A JP6483832B2 JP 6483832 B2 JP6483832 B2 JP 6483832B2 JP 2017530405 A JP2017530405 A JP 2017530405A JP 2017530405 A JP2017530405 A JP 2017530405A JP 6483832 B2 JP6483832 B2 JP 6483832B2
Authority
JP
Japan
Prior art keywords
dimensional model
scan
sensor
elementary
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017530405A
Other languages
English (en)
Other versions
JP2017532695A (ja
Inventor
ワシク ズビグネフ
ワシク ズビグネフ
ケール バディム
ケール バディム
ナバブ ナシアー
ナバブ ナシアー
Original Assignee
トヨタ モーター ヨーロッパ
トヨタ モーター ヨーロッパ
テクニッシェ ウニベルシタット ミュンヘン
テクニッシェ ウニベルシタット ミュンヘン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ モーター ヨーロッパ, トヨタ モーター ヨーロッパ, テクニッシェ ウニベルシタット ミュンヘン, テクニッシェ ウニベルシタット ミュンヘン filed Critical トヨタ モーター ヨーロッパ
Publication of JP2017532695A publication Critical patent/JP2017532695A/ja
Application granted granted Critical
Publication of JP6483832B2 publication Critical patent/JP6483832B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本開示は、物体の走査に関し、より正確には、RGB−Dセンサを使用して、物体の3次元モデルを得ることに関する。
走査された物体の3次元モデルを得ることは、3次元再構築とも呼ばれ、過去数十年の間、コンピュータビジョンおよびロボット工学の分野において主要な焦点であった。深度情報を伴う画像をキャプチャする低コストのRGB−D(Red−Geen−Blue and Depth)センサの開発は、3次元再構築における関心を高めた。RGB−Dセンサは、色(カラー)付きの、計量的に正確な再構築を提供する方法の開発を可能にする。これらのRGB−Dセンサは、製造の検証、ゲーム、ロボット工学、物体認識、および物体操作のような多くの異なる分野に対してますます重要になってきた。
3次元モデルを再構築する方法はインハンドの方法を含み、この方法においては、カメラに面している物体を手により支える。この方法は、物体を背景から分離するために複雑な背景分割を必要とする。この問題を、物体を運ぶユーザの手にはめた色付グローブの使用により解決することが提案されている。インハンドセットアップは、明瞭な外観と、フレーム間の動きが少ない物体に対しては信頼性があることが証明されている。しかし、インハンドセットアップは、フレーム間の変換の決定に信頼性がないので、幾何学的および質感的特徴が少ない物体の処理にしばしば失敗する。
このため、物体を支え、アームの姿勢を登録して、フレームを他のフレームに変換するビジュアル変換を得るためのロボットアームの使用が提案されている。
代替的に、静的なセットアップもまた提案されており、走査または再構築される物体は、回転サポート表面上に置かれる。これらのセットアップは、サポート表面上のマーカーを使用でき、または、質感を十分に与えられたサポート表面の使用に基づいて構築できる。マーカーを有するサポート表面の使用は、分割を容易にし、物体に対する外観の制約なしに、任意の物体に対して静的なセットアップを使用することを可能にする。
モデル再構築の既知の方法の1つは、マイクロソフト(Microsoft)のキネクトフュージョン(Kinectfusion)である。この方法は、RGB−Dセンサと、ICP(Iterative Closest Pointの略)で当業者には知られている方法を採用する。キネクトフュージョンは、種々の物体のモデルの再構築にしばしば失敗する。より正確には、対称の特徴または不明瞭な幾何学形状を有する物体は、キネクトフュージョンによりうまく再構築されない。キネクトフュージョンはまた、ユーザに容積間の境界を指定すること、および後処理工程を行うことを要求する。
良好なレベルの自動化を提供し、ユーザによる徹底的な管理を要求せずに物体のモデルを再構築するシステムへの傾向があることに留意すべきである。
開示の主な目的は、現在利用可能なシステムおよび方法の欠点を克服する方法およびシステムを提供することである。
本開示は、物体を走査する方法を提案することにより、従来技術の1つまたはそれ以上の欠点を克服する。
本開示の実施形態によれば、方法は、
RGB−Dセンサとビジュアルオドメトリを使用する物体の複数の基本走査であって、前記各基本走査は前記物体に対するセンサの姿勢と関連付けられている複数のキーフレームを提供し、且つ、前記各基本走査は前記物体の位置と関連付けられている、前記複数の基本走査と、
各基本走査に対して、複数のキーフレームと走査の姿勢を使用して、物体の3次元モデルを精緻化することと、
各3次元モデルを物体の統合3次元モデルに統合することと、を含む。
ビジュアルオドメトリは、センサにより観測される動作に対応するワープ(warp)を推定するために、色および深度の両方の情報を使用する技術である。この技術は、動きのより良好な推定を提供するので、ICPよりも良好な結果を示す。この技術は、文書「Real−time visual odometry from dense RGB−D images」(Frank Steinbrucker、Jurgen Sturm、and Daniel Cremers−ICCV Workshop、2011)、および文書「Tabletop Object Scanning with an RGB−D Sensor」(Maria Dimashova、Ilya Lysenkov、Vincent Rabaud、and Vicor Eruhimov−ICRA Workshop、2013)において開示された。
好ましくは、物体が異なる位置にあるときに複数の走査を行うことにより、物体が前の位置にいた間はセンサにより見ることができなかった物体の部分を、見えるようにすることができる。従って、物体の統合3次元モデルは、物体の特徴の全体を含むことができる。
各基本走査は、基本走査と関連付けられている位置にある物体の回転または物体の周りのセンサの回転を含むことができる。
次に物体を、第1位置に置き、基本走査中に回転している間に走査し、好ましくは、これまでは隠されていた特徴を示す別の位置に置き、基本走査中に回転している間に再び走査できる。
ループ閉鎖は、物体の回転または物体の周りのセンサの回転の後に検出できる。
例えば、ループ閉鎖の検出は、センサが、センサにより撮像された初期フレームと比較して相当の量の変換を観測したことを検出した後に起こる。例として、この変換は、330度の回転または2メートルに対応することができる。
ポーズグラフ最適化を、ループ閉鎖を検出した後に、各基本走査の姿勢に対して行うことができる。
センサの姿勢を改善するために、ポーズグラフ最適化を、当業者には「G2o:A general framework for graph optimization」(Rainer Kummerle、Giorgio、Grisetti、Hauke Strasdat、Kurt Konolige、and Wolfram Burgard−2011)に記載されているG2oとして知られているフレームワークを使用して行うことができる。
各基本走査に対する3次元モデルの精緻化は、カラー符号付距離場および近似L1最小化を使用する変分法を使用して行うことができる。
カラー符号付距離場は、深度を表現するための精度の良い方法を提供する。カラー符号付距離場は、文書「Realtime camera tracking and 3d reconstruction using signed distance functions」(Erik Bylow、Jurgen Strum、Christian Kerl、Frederik、Kahl、and Daniel Cremers−RSS、2013)に記載されている。
1最小化に関して、L1ノルムの使用は、大きな変換(1つのキーフレームから別のキーフレームへの)に対して精度のよい整列をさせるために、キーフレームから得られる点を精度よく区別することを可能にする。
物体の統合3次元モデルの精緻化は、各3次元モデルを初期3次元モデル(例えば、最初の基本走査の後に得られる3次元モデル)に変換する変換の決定を含むことができ、前記変換の決定は、近似L1ノルムを使用して、各3次元モデルを初期3次元モデルに整列することを含む。
物体の3次元メッシュを得るために、物体の統合3次元モデルに対してマーチングキューブアルゴリズムを使用できる。
少なくとも2回の基本走査中の物体の位置は異なり、センサに対する物体の異なる部分を表示できる。
方法は、キーフレーム上の背景から物体を分離するために、各キーフレームの分割を含むことができる。
本開示の実施形態によれば、物体を走査するシステムが提供される。このシステムは、物体に向けられるように意図されているRGB−Dセンサを備える。
このシステムの一般的な態様によれば、システムは、前記RGB−Dセンサとビジュアルオドメトリを使用して、ある位置の物体を走査して、物体に対するセンサの姿勢と関連付けられている複数のキーフレームを提供する手段と、複数のキーフレームと物体の走査の姿勢を使用して、物体の3次元モデルを精緻化する手段と、複数の3次元モデルを物体の統合3次元モデルに統合する手段と、を備える。
システムは、物体を回転または物体の周りでセンサを回転する手段を備えることができる。
システムは、物体の回転または物体の周りのセンサの回転の後に、ループ閉鎖を検出する手段を備えることができる。
システムは、ループ閉鎖を検出した後に、各基本走査の姿勢に対してポーズグラフ最適化を行う手段を備えることができる。
システムは、上記に定義した方法のステップを行うように構成できるということに留意すべきである。
本発明をどのように実施できるかを、一例として、以下に添付の図面を参照して説明する。
本開示の実施形態による物体を走査する例示的な方法のブロック図である。 図1の方法の模式図である。 キネクトフュージョンおよび本開示の実施形態により得られるメッシュの比較である。 キネクトフュージョンおよび本開示の実施形態により得られるメッシュの比較である。
ここで、添付の図面に例示されている、開示の例示的な実施形態を詳細に言及する。可能なときは常に、同一または同類の部品を示すため、図面全体を通して、同じ参照番号を使用する。
図1は、物体を走査して、この物体の3次元モデルを再構築する例示的な方法のブロック図である。この方法は、RGB−Dセンサを使用し、下記の例においては、センサが物体に向けられている間に、物体を回転する手段も使用する。物体を回転するそのような手段は、回転テーブルを備えることができる。
本開示によれば、物体を回転する手段は、マーカーを備えていなくてもよいということに留意すべきである。
図1の方法のステップは、センサからデータを受信し、このデータを処理するコンピュータに実装されたプロセッサを使用して実行できるということにも留意すべきである。
図1の方法は、第1基本走査SC01および第2基本走査SC02を含む。複数の走査を必要とする幾何学形状を有している物体に対しては、より多くの基本走査を行うことができる。
第1基本走査SC01の第1ステップS01においては、物体の位置が選択され、物体は、物体を回転する手段上のこの位置に置かれる。
次に、2つのステップS02とS03が、ほぼ同時に行われる。ステップS02は、キーフレームと姿勢の取得に対応し、ステップS03は、物体を回転する手段を使用しての物体の回転に対応する。
物体に対するセンサの正確な姿勢を得るために、キーフレーム取得の後に、前景を背景から分離するために分割を行うことができる。この分割を行うために、RGB−Dセンサは、対として定義される。
[I:Ω2→[0、1]3、D:Ω2→R+
ここでΩ2は画像プレーン、Iはカラー画像データ、Dは深度である。カメラ射影は、π:R3→Ω2で表わされる。プレーンは、クラウドデータC:=πD -1に合わせられ、法線方向に沿うサポート平面にまたがる角柱(プリズム)が、角柱の内部にある3次元点を決定して、これらの点を前景分割マスクを作成する画像プレーンに射影するために計算される。
前記角柱は、物体を取り囲む3次元形状に対応する。例として、角柱は、物体が置かれているサポートを検出して、このサポートへの法線を計算して、3次元ボックスを、法線に沿って押し出すことにより画定される。他の形状も、サポートの形状に適合するために使用できる。
次に、センサ変換は、文書「Real−time visual odometryfrom dense RGB−D images」(Frank Steinbrucker、Jurgen Sturm、and Daniel Cremers -ICCV Workshop、2011)に記述されているように、ビジュアルオドメトリを使用して決定される。より正確には、フォトコンシステンシ(photo−consistency)を最大化することによる、2つの連続するセンサ対[I0、D0]、[I1、D1]の間のセンサのSE(3)に対してΞ∈SE(3)となる剛体の動きΞである。
Figure 0006483832
ここで、wΞ:Ω2→Ω2であり、wΞ(x)=πD0(Ξ・πD1 -1(x))として定義され、カラーポイントクラウドを、1つのフレームから他のフレームに変換および射影する関数である。これは、最小二乗問題として解くことができ、コースツーファインの方式を使用するガウス−ニュートンのアプローチを使用して解くことができる。
RGB−Dセンサおよびビジュアルオドメトリを使用することは、幾何学的に区別できる特徴が少ない物体を扱うのに適しているので有利であるということに留意すべきである。ビジュアルオドメトリもまた、高い程度の質感を呈示する物体、およびこれもまた高い程度の質感を呈示するサポートを扱うためにも非常に適している。
フレーム間での変換の推定の間、キーフレーム対[Ii、Dj]が、対応する姿勢Piおよび前に格納されたキーフレームからの姿勢Pi-1と共に格納される。2つの連続するキーフレームと姿勢は、最小角度および距離、例えば10°および10センチメートルで分離できる。
ステップS04において、相当な量の変換が([I0、D0]および対応する姿勢P0から)観測された後に、ループ閉鎖が検出される。例として、330°または2メートルの変換は、ループ閉鎖に対応することができる。
次にポーズグラフ最適化が実行され(ステップS05)、例えば、ビジュアルオドメトリエネルギーに基づくエラー測度が使用されている間のカメラの姿勢を改善するためのG2oフレームワークを使用する。次に、文書「G2o:A general framework for graph optimization」(Rainer Kummerle、Giorgio Grisetti、Hauke Strasdat、Kurt Konolige、and Wolfram Burgard−2011)に記述されているように、最小化されたエラー関数は、ビジュアルオドメトリエネルギーである。
ステップS06において、3次元モデルが得られる。より正確には、センサ対と姿勢が、半球H={(Ii、Di、Pi)i}として表わされる3次元モデルを画定する。
ステップS06において、滑らかに1つの融合モデルにするために、半球に対応するデータが容積測定場fi:Ω3 ⊂R3→Rに投入され、ここにおいてiは、基本走査のインディシア(indicia)である。切断(truncated)符号付距離場が、光線を当て、視線に沿って、各点x∈Ω3に対する表面からの符号付距離を計算することにより作成される。物体の前部の点には正の値が、一方、表面の背後の点には、負の値が与えられる。容積測定場は、下記のように記述される。
Figure 0006483832
i xyzは、姿勢Piに対するカメラの中心であり、δは、深度データにおける測定ノイズに対する許容誤差に対応するパラメータであり、深度センサの忠実度を考慮して設定されるべきである。例として、δは、2ミリメートルのオーダーであってよい。
iは、符号付距離場のどの部分を融合の間に考慮すべきかを示す2変数関数wi:Ω3→{0、1}と関連付けられており、wiは下記のように表される。
Figure 0006483832
ここにおいてηは、観測された表面の背後においてどのくらいの量が見られたかを定義するパラメータであり、ソリッド(solid)であると仮定される(例えば、ηは1センチメートルに等しくてよい)。物体の色もまた復旧するために、色容積ci:Ω3→[0、1]3が、下記のように定義される。
i(x)=Ii(π(x))
従って、カラー符号付距離場は、[fi、ci]と称してよい。再構築された物体の幾何学形状と発色それぞれ対応する2つの関数u、vを得るために、問題は、変分エネルギー最適化公式化に投入され、ミニマイザが求められる。
Figure 0006483832
最先端技術とは反対に、幾何学場は、統合または融合された場だけではなく、本開示によれば、色情報もまた公式化に使用されるということに留意すべきである。
次に、トータルバリエーションレギュラライザ
Figure 0006483832
これらのエネルギーを解くために、問題の項を、
Figure 0006483832
重み付けされた近似絶対差
Figure 0006483832
は、追加的正規化因子Γ(Σii-1と近似トータルバリエーションレギュラライザを伴っていると見られる。
上記に定義した凸且つ微分可能な公式化は、勾配降下方程式の定常状態において見出すことができる下記のミニマイザに繋がる。
Figure 0006483832
これらのグローバルミニマイザは、u*、v*と決定され表記される。次に、再構築された3次元モデルは、
Figure 0006483832
ここでφ=[u*、v*]である。
上記に定義した計算は、各基本走査SC0jに対して実行でき、複数のモデルφjを提供する。
2つのモデルが基本走査SC01とSC02から得られる。これらの2つのモデルは、ステップS07において統合または融合される。
ステップS07において、モデルφjは、第1モデルであるφ0に整列される。3次元剛体変換Ξjを決定する必要がある。この問題は、6自由度を有しており、ツイストベクトルξ=[ωx、ωy、ωz、tx、ty、tzT∈R6を介してパラメータ化された変換の表現の最小表現が選択される。対応するリー代数のツイストは、ξ∈se(3)と表わされ、リー群Ξ∈SE(3)からの指数マッピングは、
Figure 0006483832
ここでRは3×3の回転行列、Tは3成分tx、ty、tzを有する平行移動ベクトルである。
目標は、すべての点Xに対して、φ0(x)=φj(Ξ(x))となるようにすることであり、ここで、Ξ(x):R3→R3は、ξによりパラメータ化され、点Xに適用された同次変換を表している。厳密解は実際には存在しないため、最小化が行われる。より正確には、距離が、適切な手段Mを使用するエネルギー公式により最小化される。
Figure 0006483832
キネクトフュージョンによるアプローチとは反対に、レジストレーション問題は、代数誤差を解決しながら連続的な方法で解けるということに留意すべきである。
この段階において、L2ノルムを使用できる。
Figure 0006483832
しかし、近似L1ノルムの方がより強固であることが示された。
Figure 0006483832
1ノルムは、より広い収束ベイスン(convergence basin)と速度の点においてL2ノルムより勝っている。
相関比または相互情報のような、他の手段Mもまた適用できる。次に、変換パラメータを更新するための匂配降下方式が適用される。初期変換Ξ0から開始して、下記の方程式が、反復して解かれる(使用する手段に依存する)。
Figure 0006483832
適切な数値更新を確実にするために、ヤコビアン
Figure 0006483832
提案されるエネルギーは局所最適値を許容するので、従って、初期設定に依存する。強固な収束が観測された。モデル間の大きな回転差を処理するために、範囲θ∈(0、π)、κ∈(0、2π)の球座標を離散ステップでサンプリングすることにより球状格子内を検索し、収束するまで整列を行うことが提案されている。
レジストレーションプロセスの速度を高めるために、コースツ−ファインピラミッドスキームを、3つのレベルで使用することができ、その場合、ダウンサンプリングされたモデルは大まかに整列され、結果としての整列が、次のピラミッドステージへの初期設定とされる。
最良の整列Ξjを決定した後に、姿勢を変換しながら、モデルからの要素を第1モデルに統合することにより、モデルは統合または融合される。次に、再構築が行われる。
次に、マーチングキューブアルゴリズムを使用して、3次元統合モデルのメッシュを抽出できる。
図2は、図1の方法の模式図であり、2回の基本走査SC01とSC02は、表面上の電話機の基本走査と、表面上の逆さまの電話機の基本走査とにそれぞれ対応している。
第1基本走査SC01において、何枚かのキーフレーム11が撮像される(図1のステップS02とS03)。物体、そのサポート、および背景が分離されている分割されたキーフレーム12を得るために分割(セグメント化)が行われる。次に、ビジュアルオドメトリとポーズグラフ最適化を使用して(ステップS04とS05)、キーフレーム13を得る。これらのフレームはモデル14に統合されて、表面上に位置している電話機の3次元モデルとなる。
電話機の底部の特徴を取り込むために、第2基本走査SC02が行われる。何枚かのキーフレーム12が撮像される(図1のステップS02とS03)。分割が行われて、分割されたキーフレーム22が得られる。次に、ビジュアルオドメトリとポーズグラフ最適化を使用して(ステップS04とS05)、キーフレーム23を得る。これらのフレームはモデル24に統合されて、表面上に逆さまに位置している電話機の3次元モデルとなる。
得られた2つのモデルは整列且つ統合されて、統合3次元モデル30となる。
図3と図4は、キネクトフュージョンにより得られた3次元モデルと、本開示の実施形態に従って得られた3次元モデルを示している。より正確には、ドイツの会社であるImfusion GmbHにより、Recfusionという名称で商品化されているソフトウェアを使用して、キネクトフュージョンにより得られた結果を提示している。各物体に対して、固定センサにより800フレームが取得され、回転サポートが使用された。サポートは手により動かし、800フレームを取得する間に、約360°回転させた。連続するフレームは、小さな回転差しかなく、この小さな回転角度は、手による回転のためにランダムである。
ICPにおいては、すべてのフレームが使用されて姿勢を推定した。発明の実施形態によれば、ビジュアルオドメトリを介して姿勢を得るためにすべてのフレームを使用できるが、グラフ最適化およびモデルへの融合のために特定のキーフレームのみを使用できる。例として、キーフレームは、その前のキーフレームと、15°または10センチメートルの動きの差があるフレームであってよく、これらの基準は、物体の良好な再構築を提供し、計算時間を制限する。
図3と図4に示されている物体は、複数回の基本走査の結果の観測を可能にする複数の側面または複雑な幾何学形状を示していない。しかし、これらの物体は、ポーズグラフ最適化とL1ノルムの利点のある使用法を示している。
図3には、牛乳パックの2つの3次元モデルが表現されている。第一3次元モデル40は、キネクトフュージョンを使用して得られる。モデル40から観測できるように、キネクトフュージョンは対称物体を再構築する能力がないので、牛乳パックの大きな部分が欠けている。
モデル50は、本開示の実施形態に従って得られた。図から分かるように、牛乳パックは全体的に再構築されている。
モデル40と50は両方とも1ミリメートルのボクセルサイズを使用して作成され、両方のモデルは、初期データとして同じフレームを使用して得られた。
図4は、再構築された物体の別の例であり、ここではマンゴーである。モデル60は、キネクトフュージョンにより得られたものであり、不完全である。モデル70は、本開示の実施形態に従って得られたもので、完全なマンゴーを表示している。
本開示の実施形態によれば、完全な3次元再構築方法が得られる。
この方法は、より正確な結果を提供することにより、現在のソリューションを凌いでいる。

Claims (12)

  1. 物体を走査する方法であって、
    RGB−Dセンサとビジュアルオドメトリを使用する物体の複数の基本走査(SC01、SC02)であって、各基本走査は前記物体に対するセンサの姿勢と関連付けられている複数のキーフレームを提供し(S02)、且つ、各基本走査は前記物体の位置と関連付けられており、前記物体の前記位置は、2つの異なる基本走査間で異なる、前記複数の基本走査と、
    各基本走査に対して、前記複数のキーフレームと前記走査の姿勢を使用して、前記物体の3次元モデルを精緻化する(S06)ことと、
    各3次元モデルを前記物体の統合3次元モデルに統合すること(S07)と、を含み、
    各基本走査に対する前記3次元モデルの前記精緻化は、カラー符号付距離場と近似L1最小化を使用する変分法を使用して行われる、
    ことを特徴とする方法。
  2. 各基本走査に対して、前記物体の回転(S03)又は前記物体の周りの前記センサの回転を含み、前記物体は前記基本走査と関連付けられている前記位置にある、請求項1に記載の方法。
  3. ループ閉鎖は、前記物体の回転または前記物体の周りの前記センサの回転の後に検出される(S04)、請求項2に記載の方法。
  4. ポーズグラフ最適化(S05)が、ループ閉鎖を検出した後に、各基本走査の前記姿勢に対して行われる、請求項3に記載の方法。
  5. 前記物体の前記統合3次元モデルの前記精緻化は、各3次元モデルを初期3次元モデルに変換する変換の決定を含み、前記変換の決定は、近似L1ノルムを使用して、各3次元モデルを前記初期3次元モデルに整列することを含む、請求項1からのいずれか1項に記載の方法。
  6. 前記物体の3次元メッシュを得るために、前記物体の前記統合3次元モデルに対してマーチングキューブアルゴリズムを使用することを含む、請求項1からのいずれか1項に記載の方法。
  7. 少なくとも2つの基本走査中の前記物体の前記位置は異なり、前記センサに対し前記物体の異なる部分を表示する、請求項1からのいずれか1項に記載の方法。
  8. 前記キーフレーム上の背景から前記物体を分離するために、各キーフレームの分割を含む、請求項1からのいずれか1項に記載の方法。
  9. 物体に向けられるように意図されているRGB−Dセンサを備える、前記物体を走査するシステムであって、
    前記RGB−Dセンサとビジュアルオドメトリを使用して、ある位置の前記物体を走査して、前記物体に対する前記センサの姿勢と関連付けられている複数のキーフレームを提供する手段と、
    複数のキーフレームと前記物体の走査の姿勢を使用して、前記物体の3次元モデルを精緻化する手段と、
    複数の3次元モデルを前記物体の統合3次元モデルに統合する手段と、を備え
    前記システムは、カラー符号付距離場と近似L1最小化を使用する変分法を使用して、前記物体の走査に対する前記3次元モデルの前記精緻化を実行するように構成される、
    ことを特徴とするシステム。
  10. 前記物体を回転または前記物体の周りで前記センサを回転する手段を備える、請求項に記載のシステム。
  11. 前記物体の回転または前記物体の周りの前記センサの回転の後に、ループ閉鎖を検出する手段を備える、請求項1に記載のシステム。
  12. ループ閉鎖を検出した後に、各基本走査の前記姿勢に対してポーズグラフ最適化を行う手段を備えることを特徴とする請求項1に記載のシステム。
JP2017530405A 2014-08-29 2014-08-29 Rgb−dセンサを使用して物体を走査する方法とシステム Active JP6483832B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2014/068430 WO2016029970A1 (en) 2014-08-29 2014-08-29 Method and system for scanning an object using an rgb-d sensor

Publications (2)

Publication Number Publication Date
JP2017532695A JP2017532695A (ja) 2017-11-02
JP6483832B2 true JP6483832B2 (ja) 2019-03-13

Family

ID=51492300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530405A Active JP6483832B2 (ja) 2014-08-29 2014-08-29 Rgb−dセンサを使用して物体を走査する方法とシステム

Country Status (4)

Country Link
US (1) US10755433B2 (ja)
JP (1) JP6483832B2 (ja)
DE (1) DE112014006911T5 (ja)
WO (1) WO2016029970A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014006911T5 (de) * 2014-08-29 2017-05-11 Technische Universität München Verfahren und System zum Scannen eines Objekts unter Verwendung eines RGB-D-Sensors
US10019801B2 (en) * 2016-03-11 2018-07-10 Kabushiki Kaisha Toshiba Image analysis system and method
US11747144B2 (en) * 2017-03-29 2023-09-05 Agency For Science, Technology And Research Real time robust localization via visual inertial odometry
US10403005B2 (en) * 2017-10-10 2019-09-03 Adobe Inc. Using signed distance fields in multicolored vector approximation
DE102017011604A1 (de) * 2017-12-14 2019-06-19 Kuka Deutschland Gmbh Verfahren und System zum Erstellen eines Modells
JP2021513924A (ja) * 2018-02-20 2021-06-03 ローカル モーターズ アイピー, エルエルシーLocal Motors Ip, Llc 付加製造のための方法及び装置
BR112020015628A2 (pt) * 2018-03-14 2021-01-05 Atlas Pacific Engineering Company Orientador de produção
CN109029417B (zh) * 2018-05-21 2021-08-10 南京航空航天大学 基于混合视觉里程计和多尺度地图的无人机slam方法
JP7460532B2 (ja) 2018-10-10 2024-04-02 株式会社Preferred Networks システム、方法及び装置
CN109658449B (zh) * 2018-12-03 2020-07-10 华中科技大学 一种基于rgb-d图像的室内场景三维重建方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249600B1 (en) * 1997-11-07 2001-06-19 The Trustees Of Columbia University In The City Of New York System and method for generation of a three-dimensional solid model
JP2002342785A (ja) * 2001-05-15 2002-11-29 Ricoh Co Ltd 三角形メッシュ簡単化装置およびプログラム
US7680312B2 (en) * 2005-07-13 2010-03-16 Siemens Medical Solutions Usa, Inc. Method for knowledge based image segmentation using shape models
WO2011095175A1 (en) * 2010-02-08 2011-08-11 3Shape A/S Object feeder system
JP5035372B2 (ja) * 2010-03-17 2012-09-26 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
US10218955B2 (en) * 2010-12-21 2019-02-26 3Shape A/S Motion blur compensation
CN103782321B (zh) * 2011-07-15 2017-05-10 3形状股份有限公司 当3d扫描刚性对象时可移动对象的检测
EP3777756A1 (en) * 2012-02-14 2021-02-17 3Shape A/S Modeling a digital design of a denture
US9204804B2 (en) * 2012-03-09 2015-12-08 3Shape A/S 3D scanner with steam autoclavable tip containing a heated optical element
EP2680228B1 (en) * 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
US9183631B2 (en) * 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
US9332243B2 (en) * 2012-10-17 2016-05-03 DotProduct LLC Handheld portable optical scanner and method of using
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US9036943B1 (en) * 2013-03-14 2015-05-19 Amazon Technologies, Inc. Cloud-based image improvement
KR20150060020A (ko) * 2013-11-25 2015-06-03 삼성전자주식회사 3차원 스캐너 및 이의 3차원 스캐닝 방법
US20150243035A1 (en) * 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest
US9438891B2 (en) * 2014-03-13 2016-09-06 Seiko Epson Corporation Holocam systems and methods
DE112014006911T5 (de) * 2014-08-29 2017-05-11 Technische Universität München Verfahren und System zum Scannen eines Objekts unter Verwendung eines RGB-D-Sensors
US20160086350A1 (en) * 2014-09-22 2016-03-24 Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer Apparatuses, methods and systems for recovering a 3-dimensional skeletal model of the human body
US10019801B2 (en) * 2016-03-11 2018-07-10 Kabushiki Kaisha Toshiba Image analysis system and method
US10055882B2 (en) * 2016-08-15 2018-08-21 Aquifi, Inc. System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
CN108694740A (zh) * 2017-03-06 2018-10-23 索尼公司 信息处理设备、信息处理方法以及用户设备
US10553026B2 (en) * 2017-07-20 2020-02-04 Robert Bosch Gmbh Dense visual SLAM with probabilistic surfel map
US10403005B2 (en) * 2017-10-10 2019-09-03 Adobe Inc. Using signed distance fields in multicolored vector approximation

Also Published As

Publication number Publication date
US20170287162A1 (en) 2017-10-05
DE112014006911T5 (de) 2017-05-11
US10755433B2 (en) 2020-08-25
JP2017532695A (ja) 2017-11-02
WO2016029970A1 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
JP6483832B2 (ja) Rgb−dセンサを使用して物体を走査する方法とシステム
CN105913489B (zh) 一种利用平面特征的室内三维场景重构方法
US10217234B2 (en) Modeling method and apparatus using three-dimensional (3D) point cloud
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
CN109166149A (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
Newcombe et al. Kinectfusion: Real-time dense surface mapping and tracking
JP5833189B2 (ja) 被写体の三次元表現を生成する方法およびシステム
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
JP4708752B2 (ja) 情報処理方法および装置
CN107240129A (zh) 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法
CN109558879A (zh) 一种基于点线特征的视觉slam方法和装置
CN108225319B (zh) 基于目标特征的单目视觉快速相对位姿估计系统及方法
CN113178009B (zh) 一种利用点云分割和网格修补的室内三维重建方法
Krainin et al. Manipulator and object tracking for in hand model acquisition
CN106125907A (zh) 一种基于线框模型的三维目标注册定位方法
JP3764773B2 (ja) 注視点を用いた頑健な認識装置
Pitzer et al. Automatic reconstruction of textured 3D models
CN104166995B (zh) 一种基于马步测度的Harris‑SIFT双目视觉定位方法
Wang et al. 3D modeling from wide baseline range scans using contour coherence
CN102663812A (zh) 基于变分光流的三维运动检测与稠密结构重建的直接方法
Malleson et al. Single-view RGBD-based reconstruction of dynamic human geometry
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
Wang et al. Human foot reconstruction from multiple camera images with foot shape database
Price et al. Augmenting crowd-sourced 3d reconstructions using semantic detections
CN114511637A (zh) 一种基于构造强特征的弱特征物体图像三维重建系统及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190214

R150 Certificate of patent or registration of utility model

Ref document number: 6483832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250